Zum Hauptinhalt springen

Chatbots, Hirnchips und die Zukunft der Psychotherapie

Kollabiert die menschliche Psychotherapie? Machen Chatbots und Hirnchips Psycho- therapeuten überflüssig?

Einige Gedanken zum Status quo und zur absehbaren Zukunft der therapeutischen Interaktion von Mensch und Digitalem.

ERMÖGLICHEN CHATBOTS MEHR SELBSTBESTIMMUNG?


Fallen Phasen seelischer Not und hoher Bedürftigkeit nach therapeutischer Unterstützung zusammen mit langen Wartezeiten auf persönliche Betreuung zusammen mit immer ausgefeilteren digitalen Programmen (dank intensiver Forschung), die zudem freudig oder erleichtert aufgenommen und genutzt werden, nimmt Hilfesuche bei Chatbots zu und könnte der persönlichen Begleitung den Rang ablaufen. Dies mit hoher Wahrscheinlichkeit dann, wenn die „Nutzer“ die oben genannten Vorteile genießen wollen und sie die persönliche Konsultation zudem aufgrund wachsender Vertrautheit mit digitalen Programmen unterschiedlicher Art weniger bedeutsam finden. Da das Moment der Habituierung fundamental ist, sei nochmals hervorgehoben: Je vertrauter der Hilfesuchende mit digitaler Interaktion ist und diese maßgeblich zu seinem Lebensmilieu, seiner Lebensführung gehört (oder sie dominiert), desto näher steht sie ihm, desto „selbst-verständlicher“ (im wörtlichen Sinn) wird er zu digitalen Therapie-/Hilfeangeboten greifen, die zudem als heutzutage entscheidenden Faktor den subjektiven zeitlichen Präferenzen gegenüber offenstehen. Therapeutische Intervention und Begleitung ist „jederzeit“ möglich. Man muss keine Termine verabreden, keine planen, einhalten, absagen; man entzieht sich direkter sozialer Kontrolle im persönlichen Kontakt. Der Hilfesuchende ist weitgehend von Verpflichtungen frei (solange diese nicht offiziell kontrolliert werden, etwa im Rahmen von durch Krankenkassen getragenen Verschreibungen und Anwendungen).


Insofern scheint der Klient selbstbestimmter agieren zu können als in personaler Therapie. Das erscheint für eine wachsende Anzahl von Hilfesuchenden attraktiv. Diese Hypothese trifft offenbar vorzugsweise auf formale Aspekte zu (Zeit, Ort, Dauer etc.), inhaltlich indes wird der Klient oder Patient an die Hand genommen.

Der Hilfesuchende wird durch insbesondere behavioral und spielpsychologisch fundierte Programme/ Agenten/Avatare/Chatbots, durch Frage- und Aufgabenstellungen, mehr oder weniger offenbar geführt, gelenkt, überprüft; seine Aktionen werden bewertet, das Programm entscheidet, ob er im Level aufsteigt, welche Belohnung angemessen ist und dergleichen. Spielpsychologische Charakteristika sorgen, so die Hypothese von Forschung, Empirie, Weiterentwicklern und Vertreibern, für Dabeibleiben, Mitmachen, Entwicklung seitens des Klienten. Heilung, Genesung, Wohlbefinden, Verbesserungsempfindungen, kurz: Fortschritte werden pragmatisch verstanden, als Realisieren erwünschter Folgen, die sich in den Konzepten Wohlbefinden und Handlungssouveränität manifestieren.


GEFÜHLE FÜR DEN CHATBOT UND EMPATHIE-SIMULATION

Stefan Lüttke verweist auf ein Ziel, dass Therapeuten zusätzlich in die Bredouille bringen könnte: die Forschung zu Chatbots, die die Anamnese aufnehmen können und damit den Beginn des therapeutischen Dialogs übernehmen. Das Qualifikationsspektrum von Chatbots wird folglich qualitativ erweitert. Die Forschung steht – das mag derzeit beruhigen – noch am Beginn (vor allem, weil es an Trainingsdaten mangelt), und es ist nicht ausgemacht, inwiefern das Vorhaben gelingen kann. Liest man allerdings Erfahrungsberichte von Hilfesuchenden, die sich ausschließlich an Chatbots & Co. wenden, erfährt man, mit wie wenig sie bereits zufrieden zu stellen sind. Dies liegt neben dem Niveau an Anforderung, Wohlgefühl (Akzeptanz-, Verstandenwerden), Veränderungsbereitschaft der Nachfrager unter anderem daran, dass therapeutische Programme zunehmend Entwicklungen aus dem Bereich der Emotional Intelligence oder Affective Computing (analog zum Begriff Künstliche Intelligenz, die mit primär Faktenwissen gefüttert ist) arbeitet. Wie einfach die Simulation von Anteilnahme und die menschliche Bereitschaft, diese als echte Teilnahme zu deuten, ist, zeigte bereits ELIZA (siehe meinen Aufsatz Freie Psychotherapie 02. und 03.2019).

Maschinelle Schein-Empathie wird zunehmend ausgefeilter, da die Programme nonverbale und verbale Emotionsäußerungen „lesen lernen“. Sie reagieren auf Gefühle, Stimmungslage, präziser: auf emotionale, affektive und andere sprachliche sowie nonverbale Ausdrucksformen in insbesondere Mimik und Tonlage „empathisch“: Sie antworten in einer Weise, die immer mehr Menschen zufriedenstellt.

Der Klient scheint selbstbestimmter agieren zu können als in personaler Therapie.

THERAPEUTISCHE BEZIEHUNG ALS SIMULATION?

Zu diesem Befund passt ein weiterer Artikel, der seit Jahren Beobachtbares in der Schlagzeile resümiert: „Verliebt in die KI“ (Frankfurter Allgemeine Sonntagszeitung 15.06.2025). Der Autor, Roland Lindner, fragt über Praxis und Praktiken hinaus: „Immer mehr Menschen kommunizieren mit Chatbots wie mit Freunden oder Liebespartnern“ und „machen KI auch zu einem Teil ihres Soziallebens und ihrer Gefühlswelt. Sie nutzen Plattformen für KI-Gefährten, die mit ihnen kommunizieren, als ob sie Freunde, Psychotherapeuten oder sogar Liebespartner wären“. Daher fragt er: „Was passiert, wenn das Sozialleben zur Simulation wird?“

Analog kann man fragen, ob es in absehbarer Zeit genügt, therapeutische Begleitung zu simulieren, sprich: allein in der Interaktion mit Chatbot & Co. zu betreiben – und dies so, dass die Interaktion als hilfreich erlebt wird. Dies zumal, da menschlichen Therapeuten offenbar zunehmend Misstrauen entgegengebracht wird, siehe aktuell die Serie „Ihre Geschichten.“

Wie akut die Entwicklung ist, zeigt sich u. a. daran, dass Technologiefirmen in dieser Vermenschlichung der Computer-Mensch-Beziehung ein enormes Geschäft wittern. Denn die Nachfrage nimmt offenbar rasant zu. So befindet sich die App von Character.ai global bei dreißig Millionen monatlichen Nutzern. Das Akute zeigt sich zudem in der Einordnung des 2013 erschienenen Films „Her“ als „ziemlich zutreffende Darstellung dessen, was heute schon passiert“, zitiert Roland Lindner einen Marketing-Professor aus Pennsylvania, Stefano Puntoni, der zudem Mitautor verschiedener Studien zu dieser Thematik ist. Die Attraktivität für Nutzer speist sich neben dem oben Genannten aus Designfacetten der Applikationen wie Replika oder Character.ai. Beide funktionieren grundlegend in einer Weise, die Nutzer aus

Gescheiterte Psychotherapie? Erzählen Sie uns davon. Schreiben Sie an die folgende Adresse: Diese E-Mail-Adresse ist vor Spambots geschützt! Zur Anzeige muss JavaScript eingeschaltet sein.www.welt.de/wissenschaft/article 256266332/psychotherapie-schlechteerfahrung-mit-therapeuten-erzaehlensie-uns-davon.html

Viele Nutzer berichten, dass sie eine emotionale Bindung zu ihren KI-Gefährten entwickelt haben.

den sozialen Medien kennen und bieten z. T. ähnliche Features wie etwa Chatbots, „die den Nutzer hören, verstehen, sich an ihn erinnern“ (charcter.ai), Chatbots, die sich „kümmern“ und „immer auf deiner Seite“ sind, verstärkt durch das Angebot, sich die KI-Freunde entwerfen oder aus einer (Züge von Filmfiguren und Promienten verwertend) Angebotsvielfalt wählen zu können. Nutzer können ihren Therapeuten so entwerfen, dass eine angenehme, harmonische Beziehung entsteht – und riskante wie zum Beispiel provokativ-psychotherapeutische Maßnahmen entfallen. Roland Lindner konstatiert: „Die Illusion wirkt offenbar: Viele Nutzer berichten, dass sie eine emotionale Bindung zu ihren KI-Gefährten entwickelt haben.“ Dies übrigens auch in sexualtherapeutischen und privaten Kontexten, in denen Sexpuppen zum täglichen Begleiter auch in emotionaler Hinsicht erlebt werden (z. B. Catrin Misselhorn: Künstliche Intelligenz und Empathie. Vom Leben mit Emotionserkennung, Sexrobotern & Co., Reclam 2021.) Sonnen- und Schattenseiten dieser Entwicklungen werden diskutiert, Abhängigkeitsverhältnisse und Suchtrisiken werden ebenso debattiert wie subjektive Stärkungsgefühle und Abnahme von Einsamkeitsbefinden bei Nutzern. Dies ist – siehe oben – nichts Neues, gewinnt durch Skalierung indes an Ausprägung und leitet eine qualitative Veränderung ein. Worin besteht der Unterschied für den Hilfesuchenden? Eingedenk der Entwicklungsdynamik werden Psychotherapeuten in wachsendem Ausmaß Antworten auf diese Frage erbringen müssen.

Die Frage verweist zudem auf weitere Forschung. In dem Artikel „KI kommt in Schwung“ von Tim Schröder im Magazin 2 2025 Max Planck Forschung, ist von der Umstellung des seriellen Verfahrens bei KI (Füttern mit Trainingsdaten) auf oszillierende Netzwerke die Rede. In der Zusammenarbeit von KI-Forschung/Anwendung und Neurowissenschaft deutet sich die Möglichkeit an, durch Perfektionierung von KI-Architektur in Richtung Imitation der Arbeitsweise des Gehirns technologische Zugangsmöglichkeiten zu schaffen, die auch Psychotherapeuten beträfe. HIRNCHIPS UND CHATBOTS ALS HERR-SCHER DER THERAPEUTISCHEN WELT?

Wer neben Digitalem auch Entwicklungen in den Neurotechnologien miteinbeziehen möchte, stößt unweigerlich auf Fortschritte im Bereich der Hirnchips, und dies keinesfalls nur in der Fach- und Sachliteratur, sondern etwa in Tages-, Wochen-, Monatszeitungen und -zeitschriften. Hildegard Kaulen, beispielsweise, berichtet in der Frankfurter Allgemeinen Zeitung vom 04.07.2025 dazu unter dem Titel: „Schutzschild für das Ich“. Sie skizziert Gründe für die Befürchtung, dass Hirnchips Absichten und Gefühle manipulieren und Gedanken lesbar werden könnten. Die sehr lesenswerten Ausführungen zeichnen in konzisen Strichen, aus welchen Gründen diese Befürchtung berechtigt ist, verweist auf die Wirkungsweise von Hirn und Chip, auf das Zusammenwirken von beiden sowie auf das, was realiter bereits möglich ist, sowie darauf, dass im Rahmen von Neurotechnologien „ethische, juristische, soziale und gesellschaftliche Fragen“ weitestgehend ungeklärt sind.

Teil 3 folgt

Dr. rer. soc. M.A. phil. Regina Mahlmann
Coachin und Beraterin, Moderatorin und Trainerin, Autorin und Textcoachin Diese E-Mail-Adresse ist vor Spambots geschützt! Zur Anzeige muss JavaScript eingeschaltet sein.