Künstliche Intelligenz in der Psychotherapie – Falsche Versprechen oder Missing Link in der therapeutischen Allianz?

Coaching, Künstliche Intelligenz, Psychotherapie, Reflektiert

Das Thema Künstliche Intelligenz zündet auch in den Synapsen von Psychotherapeuten und Coaches ein Feuerwerk der Möglichkeiten. In Beratung, Psychotherapie, Supervision oder in der Ausbildung locken viele Anwendungen. Schliesslich weiss KI immer eine Antwort. Aber wie verlässlich ist diese? Und mit wem kommuniziere ich eigentlich? Wir sind für Neues offen, prüfen aber kritisch. Darum: Mein Blick auf den Einsatz von KI in der Psychotherapie.

Roboterhand und menschliche Hand symbolisieren die Annäherung zwischen künstlicher Intelligenz und Psychotherapie.
Zugreifen oder Finger weg? KI klopft auch an die Türen der Psychtherapeuten und Coaches.

Von der Künstlichen Intelligenz zum Sprachmodell

Wer hätte vor wenigen Jahren noch gedacht, dass sich die Psychotherapie mit einem Teilbereich der Informatik beschäftigt. Jetzt ist es so weit – Algorithmen imitieren menschliche Fähigkeiten wie Denken, Lernen, Planen und Kreativität. Gekoppelt mit der Rechenleistung, der Disziplin und Ausdauer der Maschinen schreiben die Codezeilen das Drehbuch für die aktuelle Veränderung in Wirtschaft und Gesellschaft. KI fordert Branche um Branche, auch unsere.

Dabei ist Künstliche Intelligenz nicht neu. 1936 bewies der britische Mathematiker Alan Turing mit seinen Theorien, dass eine Rechenmaschine in der Lage ist, kognitive Prozesse auszuführen, sofern diese sich in Einzelschritte zerlegen und durch einen Algorithmus darstellen liessen. Der Algorithmus selbst ist benannt nach dem Mathematiker al-Chwarizmi, dessen Name latinisiert «Algorismi» lautet. Der Algorithmus ist eine eindeutige Handlungsvorschrift zur Lösung eines Problems oder einer Klasse von Problemen.[1] 1956 wird an einer Konferenz am Dartmouth College vom Programmierer John McCarthy der Begriff «Künstliche Intelligenz» geschaffen und das erste KI-Programm der Welt geschrieben. Heute unterscheiden wir die drei Stufen Künstliche Intelligenz, maschinelles Lernen und tiefes Lernen.

Womit wir uns beschäftigen, ist ein Teilbereich der KI – die LLMs. LLM steht für Large Language Model, zu Deutsch grosse Sprachmodelle. Diese Sprachmodelle sind darauf trainiert, menschliche Sprache zu verstehen und zu erzeugen. Ein Beispiel dafür ist GPT (Generative Pre-trained Transformer) von OpenAI. Trainiert werden Sprachmodelle auf riesigen Textsammlungen, die aus Büchern, Webseiten und wissenschaftlichen Artikeln bestehen.

Unheimlich? Für viele nicht. Gemäss Eurobarometer-Umfrage von 2022 sehen 68 % der Europäer KI als positive Technologie, 64 % sehen Potenzial in der medizinischen Anwendung.[2] 88 % sagen jedoch auch, dass die Technologie mit Vorsicht eingesetzt werden soll. Hier wüsste ich allerdings gerne, was «vorsichtig» heisst. Ein weiter Begriff, wie ich finde.

Junge Frau mit Handy vor dem Gesicht – verbindet oder trennt künstliche Intelligenz in der Psychotherapie?
Digitales Brett vor dem Kopf oder Türöffner zu neuen Einsichten? KI ist beliebt, aber mit Vorsicht zu geniessen.

Das Unbehagen wagen?

Schaffen Sprachmodelle eine neue Nähe zwischen Therapeut und Klient oder schafft es mich, den Therapeuten gleich ab? Oder wird aus dem therapeutischen Tête-à-Tête eine Dreiecksbeziehung? Entscheidend in der Praxis ist, wie die neue Technologie eingesetzt wird. Sie ist hier, das ist Fakt. Die Augen zu verschliessen ist kein guter Ratgeber. Schritt für Schritt Erfahrungen sammeln und immer wieder den Weg prüfen. Nicht was, also ob die Technik ihren Platz in der Therapiegestaltung finden soll, sondern wie. Wenn in Lexika, Fachliteratur nachschlagen okay ist, warum nicht in einem unerhört umfassenden Wissen nachschlagen über ein Interface, das meine Recherchebedürfnisse mühelos versteht und liefert. Ein schimmerndes Unbehagen im Umgang mit neuen Technologien ist verständlich. Klären kann dies nur eine aktive Auseinandersetzung. Immer mit dem Ziel, Klienten die bestmögliche Betreuung zu ermöglichen – auch ausserhalb von oder noch vor der ersten Sitzung.

Also akut, im Alltag oder wenn kein kurzfristiger Termin gefunden werden kann, wie im Podcast «Apropos» des Tages-Anzeigers diskutierten Fall. Der Leidensdruck liess es nicht zu, bis zum ersten Termin zu warten. Also entschied sich David (Name geändert), Hilfe bei einem KI-Chatbot zu suchen. Ein für den Patienten sehr erfolgreicher Schritt konnte er den Leidensdruck eindeutig mildern. Klar ist auch – nur auf den Chatbot allein möchte sich David nicht verlassen. Diese Erfahrung passt zu den aktuell vorliegenden Studienergebnissen.

Generative künstliche Intelligenz kann Menschen in Tests zur emotionalen Intelligenz übertreffen

Zu diesem Schluss kommt eine Studie der Universitäten Bern (UniBE) und Genf (UNIGE). Sechs Generativen KIs wurde mithilfe von Tests zur emotionalen Intelligenz getestet, die normalerweise für Menschen entwickelt wurden. Das Ergebnis: «Die KIs übertrafen die durchschnittliche menschliche Leistung und waren sogar in der Lage, neue Tests in Rekordzeit zu erstellen».[3] Eine Studie der Fakultät für Psychologie und der Universitären psychiatrischen Kliniken (UPK) der Universität Basel ergänzt, dass Künstliche Intelligenz Gefühle aufgrund von Gesichtsausdrücken in psychotherapeutischen Situationen verlässlich erkennen kann.[4] «Die KI beurteilte die Gesichtsausdrücke so zuverlässig wie der Mensch. Darüber hinaus erkannte die KI aber auch kürzeste Gefühlsregungen im Millisekunden Bereich (…).»

Studie: ChatGPT wird als einfühlsamer wahrgenommen als menschliche Krisenhelfer

Eine Studie der Universität Toronto kommt gar zum Schluss, dass Klienten die Antworten von ChatGPT als einfühlsamer wahrnehmen werden als die Antworten menschlicher Krisenhelfer.[5]

Gefällig und oberflächlich?

Kritisch zu betrachten ist, ob empathischer und einfühlsamer, also gefühlt angenehmere Antworten auch zum Therapieerfolg führen. Schwächen finden Studien im Tiefgang: «Insgesamt stellten die Forscher fest, dass GPT-4o keine tiefgreifenden Lösungen, Vorschläge oder Argumentationen bietet – also keine sogenannte kognitive Empathie.»[6] Den nur, weil KI überzeugend in einem Gespräch argumentiert, heisst das nicht, dass sie hilft. Ein guter Redner muss nicht fachlich besser sein. Und ausdrücklich in der Empathie zeigt KI-Schwächen, auch wenn es in der kognitiven Empathie zu überzeugen vermag. Doch in der Gesamtheit der menschlichen Empathie kann KI nicht mit dem Menschen mithalten. Die menschliche Empathie umfasst:

  • Kognitive Empathie: rationales Verstehen, verstehen, wie Gefühle gemeint sind. Hier überzeugen Chatbots, weil sie auf Sprachmodelle zurückgreifen.
  • Emotionale Empathie: Emotionen nachvollziehen, mitfühlen und teilen kann KI nicht.
  • Motivationale Empathie: Völlig ausgeschlossen bei KI. Hier merkt der Patient, dass das Gegenüber bewusst Zeit in mich investiert und meine Wünsche, Ziele erkennt und versteht.

Wir spüren das Fazit – künstliche Intelligenz in der Psychotherapie kristallisiert sich als ergänzende, unterstützende Dienstleistung heraus. Die therapeutische Fachperson muss im Setting und federführend bleiben. Aber nicht nur. In der Entwicklung der KI selbst, wie allgemein in der Digitalisierung, müssen Fachpersonen mitgestalten. Zu diesem Schluss kommt auch das Symposium des Network for Psychotherapeutic Care (NPCE): «Die Teilnehmer waren sich einig, dass es für den Berufsstand wichtig ist, von Anfang an kontinuierlich an der Entwicklung der KI beteiligt zu sein, KI-Anwendungen zu testen und beurteilen zu können, welche KI-Anwendungen für Patienten potenziell geeignet und sicher sind.»[7]

Frau im Dialog mit dem Handy – als Ersatz für den Psychotherapeuten?
Informiert in die digitalisierte Therapie – KI kann helfen, die Arbeit aber bleibt beim Menschen.

Vorurteile, Datensicherheit, Missbrauch – KI ist nicht unfehlbar

Nicht nur Spiegel, auch Zerrspiegel – die KI lernt nur vermeintlich vom Wissen aller. Ein zentrales Problem für Sprachmodelle. Die in der Gesellschaft hartnäckigen Ungleichheiten spiegeln sich in den produzierten Texten, mit denen KI gefüttert wird. Künstliche Intelligenz kann nur Wissen verarbeiten, von dem es gelernt hat und gibt so die Vorurteile oder Bias weiter. Diese Vorurteile und Stereotypen enthalten zum Beispiel:

  • Geschlechterstereotype
  • Ethnische und kulturelle Vorurteile
  • Politische Voreingenommenheit.

Ein weiteres Anliegen ist die Datensicherheit. Da Sprachmodelle auf öffentlichen Textdaten basieren, besteht das Risiko, dass sensible Informationen unabsichtlich in den Trainingsdaten enthalten sind, was Datenschutzprobleme verursachen kann.

Zudem gibt es das Missbrauchspotential, da Sprachmodelle zur Verbreitung von Fehlinformationen, automatisierter Propaganda oder schädlichen Inhalten genutzt werden könnten.

Therapeutische Allianz zwischen Therapeuten und Klient

Besonders relevant für den Therapieerfolg ist die Allianz zwischen Therapeuten und Klient. Schaffen es beide Parteien, Vertrauen und Akzeptanz zu etablieren, entsteht eine wertvolle, menschliche Verbindung, auf deren Basis die Therapie fusst. Jetzt kommt KI ins Spiel – wie nahe lassen wir es an uns heran? Technik Affinität ist kein zu unterschätzender Faktor. Aber die medizinische Relevanz und wissenschaftliche Seriosität müssen gewährleistet bleiben. Wovon aber hängen aber Akzeptanz und Vertrauen, die Grundpfeiler der therapeutischen Allianz in der Beziehung zwischen KI und Therapeut, sowie KI und Klient ab?

Folgende Punkte erachte ich als wichtig für eine zukünftig, mögliche Integration von künstlicher Intelligenz in die therapeutische Arbeit:

  • Transparenz: Eine Kommunikation über die Funktionsweise der eingesetzten KI, die verwendeten Daten kann das Vertrauen stärken.
  • Datenschutz: Der Schutz persönlicher Daten muss gewährleistet sein.
  • Ethik: Vorurteile und Diskriminierung sind auszuschliessen, sodass die KI fair und respektvoll kommuniziert.
  • Integration: Die Rolle er KI soll klar definiert sein und Klienten müssen verstehen, wie die KI in die Therapie integriert wird.

Fazit – künstliche Intelligenz als Unterstützung in der Psychotherapie

KI unterstützt das Denken und die Reflexion, aber ersetzt es nicht. KI muss selbstverantwortlich für den eigenen Prozess eingesetzt werden, darf aber nicht zum Hort der Wahrheit werden. Es ist ein unterstützendes Tool für Klienten wie Therapeuten. Warum nur unterstützend? KI bleibt gerne unspezifisch und suggeriert einfache Lösungen. Die persönliche Lösung liegt jedoch individuell im Kopf des Klienten und in seinen Gedanken.

Hilfreich sehe ich KI in folgenden Situationen:

  • Bei standardisierten Gesprächssituationen wie Kennenlernen oder Abschluss.
  • Bei der Aufzählung möglicher nächster Schritte wie Ideen und Stichworte zur Berufswahl, wenn aufgrund der Umstände Jobprofile ermittelt werden sollen.
  • Wenn wiederkehrende Alltagssituationen Stress verursachen, kann KI mögliche Lösungswege aufzeigen. Eine schnelle Hilfe im Alltag, die aufgrund des hohen Vorkommnisses breit abgestützt ist.
  • Erstellen von Dokumenten.
  • Diagnostik

Hier punktet KI mit Schnelligkeit und hoher Kapazität.

Allgemein risikoreich im Umgang mit KI ist die Verlockung, nicht mehr selbst denken zu müssen. Genau diese persönliche Arbeit aber ist entscheidend für den Erkenntnisweg und ein Weiterkommen. Ein guter Lehrer oder Therapeut legt nicht einfach vor. Er stellt Fragen und lässt selbst entdecken. Das Aha-Erlebnis muss selbst erarbeitet werden. Es sind die Routine- und Recherchearbeiten, die KI für uns wertvoll machen können, sowie Arbeiten im Zusammenhang mit Erstkontakten, Anamnese oder Zusammenfassungen.

Gegenteilig zu herumgereichten Angstimpulsen, die KI würde Menschen – und dies gilt vor allem in der Psychotherapie – überflüssig machen, ist es vielmehr so, dass der Mensch mehr gefordert ist. Mit der Kultivierung der KI in Qualität und Sicherheit. Vor allem aber kommt dem Mensch genau durch dieses neue Tool mehr Raum für die so wichtige intellektuelle, therapeutische, empathische, zwischenmenschliche und philosophische Arbeit nach der Routinearbeit. Hier kann der Mensch sich umso mehr beweisen, hat er doch die lästigen Routinearbeiten delegiert.

Weiter müssen wir als Mensch unseren Fähigkeiten vertrauen, auf tatsächlich Neues, Unvorhergesehenes reagieren zu können. KI kann nur bewährte Methoden und Prozesse vorschlagen. Was aber tun, wenn herkömmliche Methodiken nicht mehr funktionieren? Wenn die Zeiten sich wie jetzt ändern? Wie hätte sich die Psychotherapie überhaupt entwickelt, wenn wir nur KI gefragt hätten? Wachsam sein ist um so wichtiger jetzt.

Sicher ist – verlassen können wir uns auf die KI nicht. So wie wir in der Therapie die persönliche Arbeit selbst machen müssen. Somit ist KI ist eine gute Ergänzung in der Psychotherapie, ersetzt aber die zwischenmenschliche Resonanz nicht.

Aus dem Notizbuch

Interessant in der Beschäftigung mit KI sind für mich weitere Punkte, die nicht direkt mit Psychotherapie zu tun haben. Mir fehlt ein vorgelagerter, kritischer Umgang mit der neuen Technologie, vor allem im medizinischen und therapeutischen Umfeld. Wie schnell haben wir doch Chatbots in unserem Alltag absorbiert und wie wenig diskutieren wir die genannten Risiken wie Bias, Datensicherheit und ethischen Themen. Das Praktische darf uns nicht bequem machen.

Weiter erstaunt eine gewisse Anthropomorphisierung des KI-Kollegen in Ausbildung. Die Imitation menschlicher Sprache, Satzstellungen und Wortwahl heisst nicht, dass der Absender verstanden hat, worum es geht. Es ist eine statistische Annäherung. Ob ein Gütesiegel für Chatbots die Lösung ist? Was tun, wenn KI ein Burnout hat? Merkten wir das?

Dass KI aus unserem Wissen schöpft, sagt uns auch – KI ist ein Spiegel. Ein Spiegel unseres Wissens, ein Spiegel unserer Kommunikation, unserer Stärken und Schwächen. Dieses Spiegelbild zu erkennen, ist der entscheidende Schritt in unserer Therapiearbeit, um über den Ist-Zustand hinauszuwachsen. Aus der Selbsterkenntnis über den persönlichen Prozess zu wachsen.

Was geschieht, wenn KI auch diesen Schritt, den Schritt der Selbsterkenntnis macht, wissen wir nicht. Ob wir es merken werden? Dass ein Chatbot sagt, er habe diesen Schritt gemacht, heisst schliesslich nicht, dass er ihn tatsächlich gemacht hat. Wie will er dies auch wissen?


[1] https://www.srf.ch/radio-srf-3/digital-was-ist-ein-algorithmus

[2] https://europa.eu/eurobarometer/surveys/detail/3222

[3] https://www.nature.com/articles/s44271-025-00258-x / https://mediarelations.unibe.ch/medienmitteilungen/2025/medienmitteilungen_2025/kann_ki_emotionen_besser_verstehen_als_wir/index_ger.html

[4] https://www.unibas.ch/de/Aktuell/News/Uni-Research/KI-kann-Gefuehle-lesen.html / https://karger.com/psp/article/57/3/159/870243/Machine-Learning-Facial-Emotion-Classifiers-in

[5] https://www.nature.com/articles/s44271-024-00182-6

[6] https://news.ucsc.edu/2025/03/ai-empathy/

[7] https://www.bptk.de/newsletter/2-2024/digitalisierung-und-kuenstliche-intelligenz-in-der-psychotherapie/ / https://npce.eu/

empathie, ki, künstliche intelligenz, psychotherapie
Vorheriger Beitrag
Willkommen im Team: Annina Galli stellt sich vor
Nächster Beitrag
Psychische Gesundheit am Arbeitsplatz: Ein Leitfaden für eine positive Arbeitsumgebung

Related Posts