Die öffentliche Debatte über künstliche Intelligenz in therapeutischen Settings schwankt zwischen zwei Extrempolen: einerseits die Sorge um Verdrängung von Fachpersonen, andererseits übertriebene Erwartungen bezüglich Effizienzgewinne. Die Wirklichkeit präsentiert sich differenzierter.
Dieser Beitrag bietet einen sachlichen Überblick über aktuelle Leistungsfähigkeit, wissenschaftliche Erkenntnisse und offene ethische Fragen — adressiert an Therapeut:innen, Journalist:innen und Forschende gleichermaßen.
Was KI heute in der Psychotherapie kann
Vier unterschiedlich entwickelte Anwendungsbereiche lassen sich unterscheiden.
1. Dokumentation und Berichtserstellung
Dies ist das reifste und unmittelbar praxisrelevante Feld. Systeme können gegenwärtig Sitzungsprotokolle generieren, Verlaufsdokumentationen strukturieren und Berichtentwürfe erstellen. Die Optionen reichen von aufzeichnungsgestützten Tools mit Live-Transkription bis zu Systemen, die aus Stichwortangaben arbeiten.
Im deutschsprachigen Raum entstanden seit 2024/2025 spezialisierte Angebote wie VIA HealthTech, PlaynVoice, neoscript und duktus PRO. Die Zeiteinsparung ist erheblich: Während manuelle Dokumentation 15–20 Minuten pro Sitzung erfordert, benötigen KI-Tools durchschnittlich ein bis zwei Minuten — die therapeutische Nachkontrolle bleibt integraler Bestandteil.
2. Screening und Diagnostik-Unterstützung
Moderne Sprachmodelle können Depressionssymptome in gesprochener Sprache mit beachtlicher Zuverlässigkeit erfassen. Eine Untersuchung der Psychiatrischen Universitätsklinik Zürich erreichte bei MADRS-Vorhersagen „Genauigkeiten von 79–88 % — dicht an der Einschätzung erfahrener Kliniker:innen" (Weber et al., 2025).
Diese Systeme fungieren als Entscheidungsunterstützung, nicht als eigenständige diagnostische Instrumente — besonders wertvoll in Kontexten mit beschränkten Ressourcen.
3. Chatbots und digitale Interventionen
Anwendungen wie Woebot oder Wysa bieten niedrigschwellige psychologische Unterstützung, häufig auf KVT-Grundlagen. Sie können während Wartezeiten, für Psychoedukation oder als Übungsbegleitung dienlich sein.
Limitierung: Sie reproduzieren keine therapeutische Allianz. Die Forschung dokumentiert konsistent, dass die therapeutische Allianz einer der stärksten Prädiktoren für Therapieerfolg ist — und sich ausschließlich in menschlicher Begegnung entwickelt.
4. Prozessanalyse und Supervision
Ein vielversprechendes, aber noch frühes Feld: KI-gestützte Analysen therapeutischer Prozesse, etwa zur Visualisierung thematischer Verläufe oder Redeanteile. Das Projekt TherapyView untersucht, wie Technologie therapeutische Transparenz fördern könnte.
Was die Forschung sagt
Wissenschaftliche Evidenz zu KI-gestützter Dokumentation wächst, bleibt aber noch begrenzt.
Zeitersparnis und Burnout-Reduktion
Eine Cleveland-Clinic-Studie demonstrierte bei Ärzten mit KI-Scribe-Tools signifikante Reduktion der Eingabemenge. In einer chirurgischen Studie sanken die wahrgenommene mentale Belastung (NASA-TLX) und Burnout-Raten „von 67 % auf 33 %" (Harvey et al., 2025). Patientenbewertungen zur ärztlichen Aufmerksamkeit stiegen merklich — konzeptionell auf Psychotherapie übertragbar.
Symptomerkennung und Diagnostik
Das erwähnte Zürcher Modell zeigte Vorhersagefehler von nur 0,7–1,0 auf Sieben-Punkte-Skalen. Fine-Tuning reduzierte die Fehlerquote um 75 Prozent (Weber et al., 2025).
Patientenperspektive: Open Notes
Ein Scoping Review in Healthcare analysierte 22 Studien (2012–2025) zu Open Notes in der Psychotherapie: Patient:innen berichteten von verbessertem Verständnis, besserer Erinnerung und gestärktem Empowerment. Klinikerinnen passten ihren Dokumentationsstil an — moderaterer Ton, erhöhte Lesbarkeit. Das hat Konsequenzen für KI-generierte Notizen: Qualität und Sensibilität müssen stimmen, wenn Patient:innen Zugriff haben.
Forschungslücken
Die Hauptlücke: Randomisierte kontrollierte Studien spezifisch zu KI-Dokumentationstools in der Psychotherapie sind noch rar. Die meisten stammen aus somatischen Feldern. Die Medizinische Hochschule Brandenburg führte 2025 eine qualitative Studie durch — Erkenntnisse stehen noch aus.
Ethische Fragen
Therapeutische Beziehung
Die zentrale Frage: Verändert KI diese Beziehung? Die Antwort hängt vom Tool-Typ ab. Bei aufzeichnungsgestützten Systemen berichten Praxen heterogene Erfahrungen: Manche melden bessere Präsenz ohne Mitschreiben, andere befürchten, dass Patient:innen bei Aufzeichnungswissen reservierter werden. Ein PlaynVoice-Pilotprojekt zeigte immerhin 97-prozentige Patientenzustimmung.
Bias und Fairness
KI-Modelle können systematische Vorurteile aus Trainingsdaten übernehmen. In der Therapie ist das kritisch: Kulturelle oder sprachliche Verzerrungen führen zu verfälschten Protokollen. Aktuelle Tools nutzen häufig allgemeine Sprachmodelle ohne therapeutische Spezialisierung.
Transparenz und menschliche Aufsicht
Der EU AI Act betont menschliche Überwachung. Für die Psychotherapie heißt das: KI-Dokumentation bleibt immer Entwurf. Die klinische Verantwortung verbleibt bei der Therapeut:in. Kein Algorithmus erfasst Gegenübertragung, Beziehungsdynamik oder subtile nonverbale Signale wie erfahrene Fachpersonen.
Datenschutz als ethische Kernfrage
Datenschutz ist keine bloß juristische Anforderung, sondern ethisches Fundament. Die Bereitschaft von Patient:innen zur Offenbarung basiert auf dem Vertrauensschutz ihrer intimsten Aussagen. Jede Technologie muss diesem Vertrauen entsprechen.
Was Kammern und Verbände sagen
Die Haltungen entwickeln sich erkennbar.
- Die KBV publizierte 2025 einen Leitfaden zu Cloud-Diensten und macht BSI-C5-Zertifikation für Cloud-basierte Praxissoftware verbindlich (seit Juli 2025) — ein Qualitätsstandard für KI-Tools.
- Die DGVT Akademie kooperiert bereits mit VIA HealthTech — Signal für praktische Eignung.
- Die Medizinische Hochschule Brandenburg forscht zu KI-gestützter Dokumentation — wachsendes akademisches Interesse.
Fehlend: eine klare öffentliche Positionierung der Bundespsychotherapeutenkammer zur KI-Nutzung sowie praktische Leitlinien.
Wohin entwickelt sich der Markt?
Drei erkennbare Trends für die kommenden zwei bis drei Jahre:
- Integration statt Standalone. Heute erfolgt manueller Export von Protokollen. Bald werden API-Anbindungen KI-generierte Dokumentation direkt ins Praxissystem übernehmen. EPIKUR machte bereits Anfänge.
- Spezialisierung schlägt Generalismus. Universalwerkzeuge weichen Systemen, die auf therapeutische Sprache, Diagnoselogik und Standards trainiert sind — die VT- von TP-Dokumentation unterscheiden und S3-Leitlinien berücksichtigen.
- Regulierung bereinigt den Markt. Mit EU AI Act und Datenschutzbehörden-Aufmerksamkeit verschwinden nicht-konforme Anbieter langfristig — gut für Patientensicherheit und seriöse Anbieter.
Fazit: KI als Werkzeug, nicht als Therapeut:in
KI kann Psychotherapeut:innen nicht ersetzen — das ist auch nicht das Ziel. Therapeutische Beziehung, klinisches Urteil und empathische Präsenz sind zutiefst menschliche Fähigkeiten jenseits algorithmischer Reichweite.
Was KI leistet: Administrativarbeit reduzieren. Stunden am Schreibtisch nach Feierabend. Sich stapelnde Sitzungsprotokolle. Berichte, die das Wochenende kosten. Hier ist KI nicht Luxus, sondern Entlastung, die Therapeut:innen erlaubt, ihrer primären Aufgabe nachzugehen.
duktus PRO konzentriert sich bewusst auf Dokumentation — nicht auf Diagnostik, Chatbots oder Therapieersatz. Stichwörter rein, Protokoll raus, Daten bleiben in Deutschland.
Quellen
- Weber, S. et al. (2025). Using a fine-tuned large language model for symptom-based depression evaluation. NPJ Digital Medicine, 8(1), 598.
- Alpert, J. M. et al. (2025). Evaluating an artificial intelligence scribe for clinical documentation. Digital Health, 11.
- Harvey, C. J. et al. (2025). Ambient AI-assisted clinical documentation in surgical outpatient care. World Journal of Pediatric Surgery, 8(5).
- Monaci, M. et al. (2025). Open Notes in Mental Health: A Scoping Review. Healthcare, 13(21), 2777.
- Meier-Diedrich, E. et al. (2025). Experiences of Older Mental Health Patients Using Proxy Access to Open Notes. JMIR Aging, 8, e66690.