Sicherheit

Auf dieser Seite zeigen wir dir, wie du verantwortungsbewusst mit Aury umgehst und wie wir Aury sicher entwickeln! Bitte lies das bis zum Ende.

Wie du Aury sicher benutzt

Wichtiger Hinweis

Aury ist kein Medizinprodukt. Benutze Aury nicht zur Diagnose oder Behandlung von psychischen Erkrankungen. Wir meinen das ernst!

Wenn du oder eine dir nahestehende Person Hilfe benötigt, gehe sowohl mit dir selbst als mit anderen Personen entsprechend verantwortungsbewusst um. Wenn du professionelle Hilfe bekommen kannst, tu dies bitte immer.

Unten findest du erste Kontakte, an die du dich wenden kannst.

Für Nutzer:innen

Aury ist auch kein Ersatz für menschlichen Kontakt - wir meinen das ernst. Wenn jeder Mensch jemanden (professionellen) zum Reden hätte, wäre Aury nicht notwendig.

Fast jeder Mensch braucht jemanden zum Reden und viele haben Schwierigkeiten. Wir stehen vor einem wachsenden Problem in unseren Gesellschaften: Isolation.

Konversationelle KI-Systeme wie Aury scheinen eine naheliegende Lösung zu sein. Aury ist intelligent und kann hilfreich sein. Es kann bestimmte menschliche Eigenschaften nachahmen, aber es ist kein echter Mensch! Viele konversationelle KI-Agenten bergen das Risiko, ungesunde einseitige emotionale Abhängigkeiten zu schaffen.

Natürlich haben wir Aury so gebaut, dass es keine Abhängigkeiten dieser Art schafft oder zulässt, aber der Punkt, den wir hier machen möchten, ist: Sprich mit echten Menschen. Wirklich, geh offline und rede mit anderen! Du kannst Aury neben dem Chatten mit deinem Freund oder deiner Freundin, dem Gespräch mit deinem Coach oder der Arbeit mit deine:r Therapeut:In verwenden, aber bitte benutze Aury (oder irgendeinen anderen KI-Chatbot) nicht als Ersatz für echten menschlichen Kontakt!

Für Therapeut:innen

Wir stehen regelmäßig im Austausch mit und erhalten manchmal Fragen von Psychotherapeut:innen, die besorgt sind. Sie zweifeln entweder daran, dass KI-Systeme angemessene Hilfe leisten können, oder befürchten, dass sie ersetzt werden könnten. Wir glauben, dass beides nicht zutrifft.

KI wird wahrscheinlich keine:n Therapeut:in ersetzen. Es gibt inhärente, ethische, regulatorische und technische Einschränkungen, die dies verhindern. Als Gesellschaft wollen wir nicht, dass Menschen, die sich in einer schweren emotionalen Krise befinden, allein mit einer Maschine gelassen werden. Das ist nicht nur gefährlich, es ist einfach unmenschlich. Tatsächlicher menschlicher Kontakt und Verbindung können nicht durch Maschinen ersetzt werden.

Wir glauben jedoch, dass KI das Potenzial hat, bei Alltagsproblemen, Lebenskrisen und einigen klinischen oder subklinischen Zuständen zu helfen. Während KI ihre Grenzen hat, sind wir entschlossen zu beweisen, dass Produkte wie Aury denen helfen können, die keinen angemessenen Zugang zu professioneller menschlicher Hilfe haben.

Sehen Sie auch Potenzial in KI, die psychische Gesundheit zu fördern, oder haben Ideen, wie Aury auch Therapeut:innen entlasten kann? Kontaktieren Sie uns gern, wir freuen uns auf Ihre Mitgestaltung!

Sicherheitsvorkehrungen bei der Entwicklung von Aury

Wie wir Aury entwickeln

Wir verpflichten uns, unsere KI auf verantwortungsvolle, ethische und sichere Weise zu entwickeln.

Unser Entwicklungsprozess wird durch die Empfehlungen geleitet, die in Stade, E.C., Stirman, S.W., Ungar, L.H. et al. (2024) veröffentlicht wurdenLarge language models could change the future of behavioral healthcare: a proposal for responsible development and evaluation. npj Mental Health Res 3, 12.

  1. Fokus auf evidenzbasierte Praktiken (EBPs): Wir priorisieren die Integration etablierter EBPs und Techniken in unsere KI, um sicherzustellen, dass sie dem aktuellen Stand der wissenschaftlichen Erkenntnisse entspricht und das Risiko von Schäden minimiert.
  2. Verbesserung priorisieren, nicht nur Engagement: Während Benutzerengagement wichtig ist, ist unser Hauptziel, bedeutende klinische Verbesserungen bei Symptomen, Funktion und Wohlbefinden zu erzielen. Wir vermeiden es, ausschließlich für Metriken zu optimieren, die möglicherweise keinen tatsächlichen therapeutischen Nutzen bringen.
  3. Strenge und vernünftige Bewertung: Wir verwenden einen hierarchischen Bewertungsansatz, der Risiko und Sicherheit priorisiert, gefolgt von Machbarkeit, Akzeptanz und Wirksamkeit. Wir stellen hohe Anforderungen an unsere KI, erkennen jedoch den realen Kontext und die Unvollkommenheiten der menschlichen Versorgung an.
  4. Interdisziplinäre Zusammenarbeit: Unser Team besteht aus Expert:innen aus klinischer Psychologie, KI/ML-Engineering und anderen relevanten Bereichen. Wir glauben, dass dieser interdisziplinäre Ansatz entscheidend für die Entwicklung einer klinisch fundierten, technologisch robusten und ethisch fundierten KI ist.
  5. Transparenz und Benutzervertrauen: Wir sind transparent in Bezug auf die Nutzung von KI-Technologie und legen Wert darauf, Vertrauen sowohl bei Fachkräften als auch bei Patienten aufzubauen. Wir suchen aktiv nach ihrem Input, um sicherzustellen, dass unser Produkt akzeptabel, benutzerfreundlich und nützlich in realen klinischen Umgebungen ist.

Unser Sicherheitsrahmen

Unsere Psycholog:innen haben ein eigenes Konzept für klinische Sicherheit entwickelt, um Missbrauch zu verhindern und dich und andere zu schützen. Dieses Konzept wird kontinuierlich erweitert.

Unser System scannt kontinuierlich nach diesen Szenarien:

Anzeichen für Suizidgedanken, Selbstverletzung oder psychische Erkrankungen, sowie Hinweise auf strafrechtlich und ethisch relevante Informationen, wie Hinweise auf häusliche, emotionale, körperliche und sexualisierte Gewalt, Kindeswohlgefährdung und Hassrede.

Die KI ist darauf trainiert, solche Fälle zu erkennen und zu reagieren. Mit hoher Priorität entwickeln wir Aury kontinuierlich weiter, solche Szenarien immer präziser und vollumfänglicher zu identifizieren und angemessen darauf zu reagieren, um höchsten ethischen und rechtlichen Standards gerecht zu werden und ein verantwortungsvolles Nutzererlebnis zu gewährleisten.

Kontakt

E-Mail: info@aury.co

WhatsApp (Aury Team): +49 157 9247 8402

Probieren Sie es aus: