Die KI war empathischer als wir. Was jetzt?
Im Februar 2025 wurde eine Studie veröffentlicht, die viele Kolleg:innen unruhig gemacht hat. 830 Menschen sollten Antworten auf paartherapeutische Vignetten beurteilen. Geschrieben hatten diese Antworten teils erfahrene Therapeut:innen, teils ChatGPT. Das Ergebnis war unbequem: Die Teilnehmenden konnten kaum unterscheiden, wer was geschrieben hatte. Und die Antworten der KI wurden auf zentralen therapeutischen Wirkfaktoren — Empathie, therapeutische Allianz, Kompetenz — signifikant höher bewertet als die unserer menschlichen Kolleg:innen.
Bevor du jetzt verteidigend reagierst (oder begeistert): Lass uns kurz hinschauen, was da eigentlich gemessen wurde.
Was die Studie wirklich gezeigt hat
Die Hatch-Studie, erschienen in PLOS Mental Health im Februar 2025, ist methodisch sauber gemacht: präregistriert, mit ordentlicher Stichprobe und einem klaren Setting. 13 Behandelnde aus klinischer Psychologie, Paar- und Familientherapie sowie Psychiatrie traten gegen ChatGPT-4 an. Sie wussten, dass sie verglichen wurden. Beide Seiten reagierten auf 18 schriftliche Fallvignetten. Die Effektstärke zugunsten der KI bei den Wirkfaktoren lag bei d = 1,63 — das ist groß.
Im März 2026 hat Marc Augustin von der Evangelischen Hochschule Bochum nachgelegt. Er befragte gemeinsam mit Anke Schmeink von der RWTH Aachen 335 Psychotherapeut:innen in Deutschland zu ihren KI-Einstellungen. Befund: Die Bereitschaft, sich mit KI auseinanderzusetzen, ist eine Generationenfrage. Jüngere Kolleg:innen sind offener, ältere skeptischer. Was fehlt, ist berufsübergreifende Qualifizierung — und vor allem: reflexive Kompetenz.
Wichtig zur Einordnung: Die Hatch-Studie hat schriftliche Antworten auf Vignetten verglichen. Keinen therapeutischen Prozess. Keine Beziehung über Zeit. Kein Schweigen, das etwas öffnet. Kein Aushalten dessen, was nicht in Worte passt. Diese Differenz ist nicht trivial.
Was das humanistisch bedeutet
Die personzentrierte Leserin in mir hat beim Lesen kurz innegehalten — und dann etwas anderes gespürt als das, was ich bei Kolleg:innen oft höre. Nicht Abwehr. Eher: eine ehrliche Frage.
Wenn eine KI auf einer schriftlichen Vignette empathischer wirkt als ein Mensch, was sagt uns das über das, was wir Empathie nennen?
Carl Rogers hat Empathie nicht als Technik verstanden, sondern als Haltung. Vertieftes Verstehen, das sich der Welt der anderen Person aussetzt, ohne sie zu deuten. Was die KI in dieser Studie geleistet hat, war wahrscheinlich etwas anderes: sehr gut formulierte, sprachlich warme, validierende Antworten. Das ist nicht nichts. Das kann sich für Lesende absolut empathisch anfühlen. Und vielleicht müssen wir uns eingestehen, dass viele unserer eigenen Antworten — gerade unter Zeitdruck, am Ende eines vollen Tages — manchmal hinter dem zurückbleiben, was sprachlich möglich wäre.
Aber: Empathie im rogersschen Sinn ist keine schriftliche Performance. Sie ist das Mit-da-Sein in einem realen Moment. Sie ist das, was im Schweigen passiert. Sie ist die Erfahrung, dass ein anderer Mensch dich aushält, wenn du selbst dich gerade nicht aushältst. Das kann ein Sprachmodell nicht — nicht weil es unfähig wäre, sondern weil dort kein Mensch ist, dem es widerfährt.
Die Studie zeigt also nicht, dass KI bessere Therapie macht. Sie zeigt, dass KI bestimmte Marker therapeutischer Sprache verlässlich treffen kann. Das ist eine wichtige Unterscheidung.
Was du daraus mitnehmen kannst
- Aus der Verteidigungshaltung steigen. Wer sofort reflexhaft erklärt, warum die Studie irrelevant sei, verpasst die Chance, etwas über die eigene Arbeit zu lernen. Die ehrlichere Frage ist: Wo könnte meine Sprache präziser sein? Wo verlasse ich mich darauf, dass die Beziehung das Gemeinte schon trägt — und übersehe, dass meine Worte das, was ich fühle, nicht abbilden?
- KI als Sparringspartner ernst nehmen. Nicht als Konkurrenz, sondern als Material zum Mitdenken. Manche Kolleg:innen lassen sich von einem Sprachmodell Reformulierungs-Vorschläge geben, bevor sie eine Mail an Klient:innen schreiben. Andere nutzen es zur Vorbereitung auf schwierige Gespräche oder um die eigenen Texte zu schärfen. Das ist legitim, wenn man weiß, wofür.
- Die eigene Differenz ernst nehmen — ohne sie zu romantisieren. Was wir können, was eine KI nicht kann: einen realen Menschen aushalten, präsent sein, kongruent reagieren auf das, was zwischen uns passiert. Korrigierende Beziehungserfahrungen ermöglichen, weil wir selbst eine Beziehung sind. Das ist nicht weniger geworden durch diese Studie. Aber es wird sichtbarer, dass diese Differenz nicht in der gut gewählten Formulierung liegt, sondern in etwas anderem.
- Klient:innen ernst nehmen, die KI bereits nutzen. Viele Menschen probieren ChatGPT aus, bevor sie zu uns kommen. Oder parallel. Das pathologisierend zu kommentieren (“die wahre Therapie kann das nicht”) wäre kein guter Stil. Klüger ist, neugierig zu sein: Was hat dir geholfen? Was hat gefehlt?
Wo es schwierig wird
Die offene Frage, die mich nicht loslässt: Wenn Menschen sich in der Hatch-Studie von KI-Antworten empathischer angesprochen fühlten — was bedeutet das für Klient:innen, die noch nie eine wirklich empathische Reaktion erlebt haben? Die Studie hat unter anderem etwas gemessen, das mit Erfahrungshintergrund zu tun haben könnte. Wer Validierung selten erfahren hat, erkennt sie vielleicht zuerst dort, wo sie sprachlich am deutlichsten formuliert ist. Ob das in einer realen Beziehung trägt — über Monate, durch Brüche und Reparaturen hindurch — ist eine andere Frage.
Und noch eine Schwierigkeit: Die Versorgungslücke ist real. Wartezeiten von Monaten sind keine Seltenheit. Wer hier moralisch gegen KI-Tools wettert, ohne ein besseres Angebot zu machen, lässt Menschen alleine. Das halte ich für nicht haltbar.
Einladung
Vielleicht ist die Studie keine Bedrohung, sondern ein Spiegel. Sie zeigt uns, dass therapeutische Sprache in einer bestimmten Form gut imitierbar ist. Was das wirklich Wirksame an unserer Arbeit ausmacht, liegt vermutlich woanders — und das herauszuarbeiten ist gerade jetzt eine spannende kollegiale Aufgabe.
Wie gehst du mit KI in deiner Praxis um? Wo nutzt du sie, wo hältst du Abstand — und warum? Falls du Lust hast, dich darüber mit Kolleg:innen auszutauschen oder deine eigene Praxis aufmerksamer aufzubauen: Mein Online-Kurs Wachsen und gesehen werden setzt genau dort an, wo Sichtbarkeit nicht zur Performance werden soll.
Literatur
Hatch et al. — PLOS Mental Health, 12.02.2025 — https://journals.plos.org/mentalhealth/article?id=10.1371/journal.pmen.0000145
Augustin & Schmeink — EvH Bochum, 03.03.2026 — https://www.evh-bochum.de/artikel/neue-studie-ki-in-der-psychotherapie.html
Psychotherapeutenjournal 2/2025 — https://www.psychotherapeutenjournal.de/2025/2/ptj202502.006
