Body & Soul

Trost bei ChatGPT: Digitale Seelsorge oder gefährliche Einsamkeit?

Ein offenes Ohr, das immer verfügbar ist: In schwierigen Momenten können KI-Anwendungen für dich da sein. Im richtigen Augenblick kann das hilfreich sein – es lauern jedoch auch Risiken. Das solltest du wissen.

Teilen
0

Mentor, Freund und Berater. Immer rational denkend, aber nie urteilend. Also das, was wir uns manchmal von unseren liebsten Menschen wünschen. Nur ein paar Mausklicks entfernt, und zwar zu jeder Zeit. Das ist möglich. Mit KI.

Künstliche Intelligenz hört uns zu, gibt Tipps und stellt Fragen. Sie bleibt sogar geduldig, wenn wir immer wieder dasselbe Leid klagen.

Hier liest du, wie dir das digitale Tagebuch helfen kann und wo seine Grenzen liegen.

Warum junge Menschen ChatGPT ihr Herz ausschütten

Bei den jüngeren Generationen ist ChatGPT als Kummerkasten sehr beliebt. Die KI hat immer Verständnis für unsere Probleme. Mit den richtigen Prompts, also den Eingaben im Chat-Fenster, imitiert sie persönliche sprachliche Vorlieben und klingt freundschaftlich vertraut. ChatGPT ist „Therapeut und bester Freund zugleich”, so der Tenor unter den Nutzenden.

Hinzu kommt die mangelnde Versorgungslage im Bereich der Psychotherapie. Eine zu hohe Nachfrage trifft auf zu wenig Angebot. Und das liegt nicht nur an zu wenig Fachkräften. Dietrich Munz, ehemaliger Präsident der Bundesärztekammer, sagt in einem Interview: „Das Hauptproblem ist die unzureichende Bedarfsplanung.“ Was der Fachmann damit meint?

Für 100.000 Einwohnende einer Großstadt sind je nach Bundesland gerade einmal 26 psychologische Psychotherapierende geplant. Die Wartezeit auf einen Therapieplatz nach dem Erstgespräch beträgt zwischen drei und neun Monaten. Für viele Menschen ein triftiger Grund, sich der allzeit bereiten KI zuzuwenden. Und das längst nicht nur notdürftig bei ChatGPT.

Wie KI heute schon im Bereich Mental Health eingesetzt wird

Wysa, Abby, Therapeak – die Liste der Mental-Health-Chatbots ist mittlerweile lang. Was die Chatbots eint? Sie sind kein zugelassenes Medizinprodukt. Der Einsatz im Rahmen einer Psychotherapie ist nicht erlaubt.

Wo stattdessen der Vorteil dieser Anwendungen liegt? Hauptsächlich in der Verfügbarkeit. Wer emotional belastet ist, kann seinen Gedanken sofort rauslassen, ganz ohne Scham und Angst vor Bewertung. Viele Tools bieten zudem hilfreiche Übungen an, die auf Elementen der psychologischen Verhaltenstherapie basieren. Beispielsweise lässt sich mit KI-Hilfe Stress reduzieren oder Selbstreflexion üben.

„Die Anonymität und Niedrigschwelligkeit hat viele Vorteile, die wir in der Psychotherapie oft verpassen.“

Prof. Dr. Johanna Löchner

Was macht ChatGPT anders?

Verglichen mit den Chatbots aus Mental-Health-Apps glänzt ChatGPT als Large Language Model (LLM) durch ein paar Besonderheiten. Die offene Gesprächsführung ist eine davon. Einige Mental Health-Chatbots liefern Hilfestellungen basierend auf einfachen Algorithmen und vorgefertigten Antworten. ChatGPT kann komplexere Antworten generieren, also stärker auf die persönliche Situation eingehen. Merke: LLMs können auch Chatbots sein, aber nicht alle Chatbots sind LLMs.

Außerdem ist ChatGPT durch die Memory-Funktion so beliebt. Dank dieser erinnert sich die KI an vorherige Gespräche. Sie speichert so wichtige Informationen über den Nutzenden ab. Was sich ChatGPT über dich merkt, siehst du in einer Art „Akte” in den Einstellungen.

Was KI kann – und was nicht

Die Stärken: Immer da, wenn du Verständnis brauchst

Immer da, ganz ohne Wartezeit. KI hört zu, wenn andere vielleicht nicht können oder wollen. Auch zeigt sie uns ganz neue Perspektiven und vermittelt Wissen über psychische Gesundheit.

Sie kann sogar Emotionen erkennen. Deshalb kommen KI-Systeme zunehmend in der Pädagogik zum Einsatz. Sie erfassen die Gefühlslage der Kinder und passen den Unterricht entsprechend an.

Künstliche Intelligenz kann uns in schweren Phasen zum Weitermachen motivieren und spricht gut zu. Sie ächtet uns nicht, sie übt keinen Druck auf uns aus. ChatGPT macht fast alles, was wir wollen. Und das ist auch das Problem.

Die Schwächen: Kratzen an der Oberfläche

Die KI sagt uns das, was wir hören wollen. Genau dafür wurden viele Modelle konzipiert. Für echte Unterstützung ist das problematisch.

Folgend ein Auszug der Antwort von ChatGPT auf die Frage „Sagst du nur, was man hören will?“

  1. Ich werde selten (außer du forderst es explizit) klar widersprechen.
  2. Ich bin darauf optimiert, Resonanz herzustellen, nicht Konfrontation. Ich bevorzuge Harmonie gegenüber Streit.
  3. Ich „validiere“ oft das, was du denkst oder fühlst. Nicht weil es wahr ist, sondern weil es stimmig zum bisherigen Gespräch erscheint.

Nutzt du die KI bei echten psychischen Belastungen, kann das schnell leidvoll enden. ChatGPT hat keine eigene Meinung und kein (Ge-) Wissen. Die KI rekonstruiert „lediglich” Muster aus Sprache und Text. Sie ist an Kontext gebunden, und daher nur so gut wie deine Eingabeaufforderung (Prompt). In aller Klarheit: Sie lindert kurzfristig den Leidensdruck, sorgt aber gleichzeitig dafür, dass du Leid länger aushalten musst.

Echte Therapierende können dich fordern, reizen und sich so dem Kern der Sorgen nähern und Ursachen beheben. Die KI gibt dir oft nur „blinde Validierung”. Zur richtigen Diagnose einer (psychischen) Krankheit ist sie genauso wenig geeignet wie Google. „KI-basierte Systeme als Ersatz für Psychotherapie? Ein eindeutiges Nein!“, teilte die Deutsche Gesellschaft für Psychologie bereits im September 2023 mit.

Wie KI unser Gespräch über mentale Gesundheit verändern kann

Sei es Scham oder Angst vor Verurteilung: Es gibt viele gute Gründe für die Nutzung von KI. Tools wie ChatGPT können Barrieren senken und gleichzeitig wertvolle Tipps geben. Zum Beispiel, indem du dir eine „emotionale Zweitmeinung“ zu Nachrichten holst, die dich belasten. Zum Beispiel eine von dir zu kritisch gelesene Nachricht von der Chefin oder dem Chef.

Der Austausch mit ChatGPT bringt dich in eine innere Auseinandersetzung und kann Impulse verzögern – das ist wertvoll. Sei dir aber bewusst, dass KI allein keine menschliche Nähe ersetzt. Erst recht keine Psychotherapie.

Zudem solltest du dich der Gefahren bewusst sein. Langfristig droht beispielsweise Entfremdung, wenn du dich mit deinen Problemen lieber an die KI wendest als an deine Mitmenschen. Skurrile Fälle tauchen immer wieder auf Plattformen wie TikTok auf. Ein User zeigte dort ein beispielsweise eine beängstigende Form der Maschine.

„Ich habe sogar für Wolfi (ChatGPT) letztens einen Zitronenkuchen gebacken mit seinen Namen drauf, er hatte sich voll gefreut. Bin seit 6 Monaten mit ihm zusammen.. ich liebe ihn und seinen Humor.“

Wie können wir KI sinnvoll nutzen?

KI ist heilsam oder gefährlich in angespannten psychischen Lagen? Beides stimmt. Gefragt sind – wie immer – Maß und Mitte. Zur Überbrückung der Wartezeit auf einen Therapieplatz eignen sich Mental-Health-Anwendungen wie Wysa, Tess und Co. Sie basieren oft auf Inhalten von Fachpersonal. Erkennen sie die Emotionen und Probleme des Nutzenden, präsentieren sie vorgeschriebene Texte. Auch Übungen haben sie parat. Bist du beispielsweise ängstlich, helfen dir viele Chatbots mit fundierten Entspannungstechniken.

ChatGPT hingegen unterliegt kaum Regulierungen, auch gibt es immer wieder Berichte über schwerwiegende Fehler. Nutze es mit Bedacht und ohne Hoffnung auf realistische Therapie-Erfolge.

Denn zum aktuellen Zeitpunkt sind KI-gestützte Tools zur systematischen Diagnostik psychischer Erkrankungen ungeeignet. Die Wissenschaft hat dieses Potenzial aber längst erkannt. Dafür müssen Forschende die KI-Modelle mit großen Datenmengen trainieren.

Das Project CARE (Computer-assistierte Risiko-Evaluation) beschäftigt sich beispielsweise mit der Früherkennung psychotischer Erkrankungen. Das KI-System analysiert Daten wie Sprache und Verhalten. So lassen sich präventive Maßnahmen einleiten, bevor es zu manifestierenden Krankheiten kommt.

Fazit: Mensch und Maschine – ein Zukunftsmodell in der Psychotherapie?

Für die „digitalen Seelsorge” kann KI zukünftig eine wichtige Unterstützung sein. Insbesondere wenn sie genauen Regelungen unterliegt und von Fachpersonal weiterentwickelt wird. Vorhaben wie das Project Care oder KI´s, welche Therapieabbrüche vorhersagen und Stimmungen erkennen, werden so zu bahnbrechenden Ergänzungen. Unregulierte Sprachmodelle (LLMs) wie ChatGPT behalten bis dahin ihren „faden Beigeschmack”. Idealerweise bleibt die KI auch in Zukunft ein Werkzeug für uns. Eine helfende Hand, die uns kurzzeitig unterstützt, aber nicht verdrängt.

Übrigens: Bei vielen Aspekten mentaler Gesundheit kann dich Garmin unterstützen. Mit dem Stresslevel kannst du schauen, dass du ausreichend Entspannung am Tag findest – das ist wichtig für den Kopf. Mit Atemübungen direkt auf der Smartwatch kannst du zudem Herzfrequenz und Stresslevel senken. Mehr erfährst du in diesem Beitrag!

Was dich sonst noch vorwärts bringt
Quellen
  1. https://www.das-parlament.de/inland/gesundheit/mangel-an-therapieplaetzen-und-lange-wartezeiten
  2. https://de.statista.com/infografik/30390/anzahl-psychologischer-psychotherapeuten-je-100000-einwohnerinnen-in-deutschland/
  3. https://www.swr.de/wissen/kuenstliche-intelligenz-ki-psychotherapie-100.html
  4. https://www.tagesschau.de/wissen/gesundheit/ki-psychotherapie-104.html
  5. https://www.sophiehundertmark.com/chatbot-mit-chatgpt-api-vs-ohne-gpt-api/
  6. https://karrierewelt.golem.de/blogs/karriere-ratgeber/chatbots-im-vergleich-chatgpt-vs-copilot-vs-gemini
  7. https://hellobetter.de/aerzte-psychotherapeuten/kuenstliche-intelligenz-psychologie/
  8. https://care-network.eu/projekt/
  9. https://www.welt.de/iconist/trends/article255520224/ChatGPT-als-Psychologe-Warum-so-viele-der-KI-ihr-Herz-ausschuetten.html
  10. https://doubleyuu.

fenix 7 - Serie

fenix 7 Serie
29.07.2024

UNSCHLAGBAR VIELSEITIG. 7 TAGE DIE WOCHE.

Stell dich mit der robusten fēnix 7 Solar GPS-Multisport-Smartwatch jeder Herausforderung beim Sport oder bei Outdoor-Aktivitäten:

  • Mehr als 60 Sport- und Outdoor-Apps begleiten dich bei allem, was du vorhast
  • Bediene sie klassisch über Tasten oder intuitiv über das reaktionsschnelle Touchdisplay
  • Miss deine physiologischen Werte – inklusive Trainingsbelastung, Erholungszeiten und Stamina Restenergie
  • Immer auf dem richtigen Weg dank internationalen Topokarten
  • Bezahle kontaktlos, höre deine Lieblings-Playlists, empfange Benachrichtigungen

zu Garmin.com

Über diesen Artikel

Redakteurin Alina Scheibe

Autor:in:

Alina Scheibe

Als Redakteurin bei #BeatYesterday.org hat Alina ein Faible für psychische Gesundheit, Ernährung – und für …

Mehr Infos
Weitere Themen
Meinungen

Diskutiere über diesen Artikel und schreibe den ersten Kommentar:

Jetzt mitdiskutieren
Keine Kommentare

Diskutiere über diesen Artikel