Therapie ohne Therapeut – mit Roboter? Teil 2
Fortsetzung aus Freie Psychotherapie 02.19
Aufhorchen lassen uns Gründe, die Betroffene anführen, die künstliche Intelligenz Menschen vorziehen, wenn es um emotionale Beziehung und Bindung geht. Die Forschung Sherry Turkles bestätigt die Hauptgründe, die sich übrigens auch in wirtschaftlichen Kontexten finden lassen, in denen Mitarbeiter Roboter als Chefs menschlichen vorziehen: Roboter könnten einen nicht enttäuschen, seien immer freundlich und geduldig, sie seien klug, objektiv und zuverlässig. „Solche Roboter können zwar Empathie vorspielen, wenn wir mit ihnen über Freunde, unsere Mutter, die Kinder oder einen Lover reden, aber sie haben nie eine dieser Beziehungen erlebt und erfahren. Maschinen wissen nichts von der Lebenskurve des Menschen. Sie fühlen weder die Liebe noch die Qual des Verlusts, die wir ihnen beschreiben“, konstatiert Sherry Turkle und meint, „Gespräche über das Leben finden im Raum des Als-ob statt.“ Selbst wenn man dem zustimmt (was nicht sein muss, da die Cyberwelt inzwischen als real erlebt wird und prägt): Den Betroffenen scheint das nicht wichtig genug zu sein, um sich der Mühsal zwischenmenschlicher Präsenz, Vertrautheit und enger Beziehung zu stellen.
Die unterstützende Funktion von Technologie etwa bei „Parkinson oder Alzheimer“ sei zwar hilfreich. Doch Sherry Turkle warnt, „von einer künstlichen Unterstützung der Hirnfunktion gleich zur künstlichen Beziehung überzugehen“; dies sei fatal. Und doch ist mittlerweile genau davon die Rede. Sie beginnt mit dem Argument, dass Roboter-Gefährten besser als nichts seien – besser, weil es schlicht nicht genug Menschen gibt, die andere Menschen unterrichten, lieben und pflegen. Aber diese Vorstellung schlägt schnell in eine andere um: dass nämlich Roboter besser seien als so ziemlich alles andere. Im Gegensatz zu Menschen würden sie einen nicht verlassen, krank werden oder sterben. Sie wären zwar nicht fähig zu lieben, aber sie würden einem auch nicht das Herz brechen. Von „besser als nichts“ zu „besser als alles andere“. Dass hier ein Gefährdungspotenzial auch für Psychotherapeuten besteht, insbesondere für jene, die in der humanistischen Tradition arbeiten, ist naheliegend.
Dies umso mehr, als Homo digitalis dazu tendiert, sich dem Roboter bereits antizipierend anzupassen. Sherry Turkle: „Das sind Stationen auf unserer Reise zu dem Punkt, wo wir vergessen, was es heißt, ein Mensch zu sein. Aber das Vergessen beginnt lange bevor der Roboter-Gefährte neben uns sitzt; es beginnt schon, wenn wir an ihn denken. Noch bevor wir Roboter bauen, müssen wir uns selbst umbauen – zu Menschen, die bereit und willens sind, sie zu Gefährten zu nehmen.“ (ebd.)
Und das nimmt zu. Astrid Maier porträtiert in dem Artikel „Die Mensch-Maschine“ (Ada & Das Jetzt, Sonderausgabe der Wirtschaftswoche, Oktober 2018, S. 46-49) das Ehepaar Amanda und David Hanson – und den von David Hanson mitgeschaffenen sehr menschenähnlichen Roboter Sophia, der via KI „frei“ mit einem Gegenüber sprechen könne. „Als Botschafterin des Fortschritts hat sie so auf den wichtigsten Techkonferenzen der Welt gesprochen, vor der UNO eine Rede gehalten und ist in Fernsehshows aufgetreten.“
In der polarisierten Debatte um die Frage, ob Roboter menschenähnlich ausschauen sollen oder nicht, verkörpert Sophia die Position von David Hanson und implizit sein Bestreben, dass Menschen „tiefgründige Beziehungen“ mit Robotern aufbauen. Selbstlernende und sprechende Androiden wie Bina48 gehören dazu, eingebettet in eine Welt- und Lebensanschauung, die Maschinen in der Menschenwelt einen dirigierenden Einfluss sichert: „Maschinen zum Leben erwecken, damit sie uns helfen, uns vor dem Untergang zu retten“. Dies ist das Motto einer von Hanson mitgegründeten Organisation namens SingularitiyNet.
Seit einigen Jahren bezieht die Robotik Erkenntnisse der psycho-physisch ausgerichteten Theorie des Embodiments ein (ein Ansatz, der auch in der Metaphernforschung prominent ist, vgl. mein Buch: Sprachbilder, Metaphern & Co., Beltz, 2010). Zusammen mit Erkenntnissen des Hirnforschers António Damásio macht Hanson Robotics Fortschritte auf dem Weg zum erklärten Ziel. Nicht zuletzt das Konzept der somatischen Marker verweist auf das Wechselspiel zwischen Körper und Geist, und Entwicklungen in der synthetischen Biologie begünstigen die Wahrscheinlichkeit, Roboter zu schaffen, die „lebendig“ anmuten: „Lebendig in dem Sinne, dass sie sich anpassen, wahrnehmen und mehr und mehr Probleme lösen können“ (A. Maier a. a. O.).
Ungeachtet der harschen kritischen Stimmen aus der Entwicklergemeinde und des Umstandes, dass Maschinen kein Bewusstsein entwickeln können, ebenso wenig, wie sie fühlen lernen können (sondern im Als-ob verharren), erfreut sich Sophia rei- ßenden Absatzes. Sie „soll bald in Serie produziert werden und z. B. als Dienstleistungsroboter, in Schulen und bei der Therapie von Depressionen eingesetzt werden.“ (ebd.)
In die gleiche Richtung geht eine Diskussion in dieser Ausgabe zwischen Astrid Maier und Miriam Heckel von der Redaktion und Claudia Nemat (Vorstand Deutsche Telekom für Technologie und Innovation) und Frank Schätzing (Autor von Thrillern mit Zukunftsszenarien anhand bestehender Entwicklungen) als Gäste (Ada & Das Jetzt, Sonderausgabe der Wirtschaftswoche, Oktober 2018, S. 68-73). Dort wird Claudia Nemat mit den Worten zitiert: „Wir Menschen werden empathischer und intelligenter, wenn uns Maschinen helfen, unsere Probleme in den Griff zu bekommen.“ Das ist eine steile und gewagte Prognose, die als These daherkommt.
Wie diese Befähigungssteigerung auf Menschenseite zu leisten ist, wenn Maschinen Probleme lösen, ist bereits für aufmerksame Zeitgenossen ein Rätsel und für Sozialisationsfachleute und Neurowissenschaftler eine Mär. Mit Bezug auf den Status von Psychotherapie und Psychotherapeuten sei der Prognose insofern Aufmerksamkeit gezollt, als sie einer Welt- und Technikanschauung das Wort redet, in der (von einigen Menschen und Maschinen codierte Algorithmen) Technologie menschliche Lebenswelt rahmt und Lebensmöglichkeiten maßgeblich markiert – wenn nicht diktiert. Man denke an den Satz von Marshall McLuhan: Das Medium bestimmt die Botschaft – und, so wissen wir bereits, den Inhalt ebenfalls mit. In dieser Welt haben Psychotherapeuten bestenfalls noch Assistenz- und Exekutivfunktion.
Und die Ethik?
Diese Vision (Dystopie für die einen, Utopie für die anderen) bedrängt psychologisch Helfende noch mehr, wenn die Versuche fruchten, Rechnern Ethos, Moral, gar Ethik einzuprogrammieren. Bisher steckt das noch im embryonalen Stadium – Ende offen. Denn man hat sich weder auf eine offizielle Ethik, geschweige denn auf ein Ethos geeinigt, die Programmierer beherzigen sollen, noch gibt es – logischerweise – konkrete Ansatzpunkte. Bisherige Erfahrungen etwa mit autonom fahrenden Autos zeigen zudem, dass neben den fundamentalen Vorarbeiten auch bis dato unüberblickte Realisierungshürden zu bearbeiten sind.
Die Kontroverse ist im Gange, Roboter-, Maschinen-, Informatik-, Programmier-, Algorithmenethik-Kommissionen, interdisziplinär zusammengesetzte Arbeitskreise in Forschung, Politik, Wirtschaft arbeiten intensiv an Lösungen. Mit jedem Fortschritt verändert sich der Status von Psychotherapeuten.
Auf therapeutischer Seite scheint die Entwicklung noch Lichtjahre von Brauchbarkeit entfernt. Denn Fragen wie diese können nicht beantwortet werden: Wird beabsichtigt, dass Roboter als selbstlernende Systeme Therapien eigenständig führen, müssen sie nicht nur selbst ethisch entsprechend der psychologischen Vorgaben funktionieren, sondern zudem normative Standards von Klienten erkennen und sich darauf einstellen – ob in transformierender oder affirmierender Absicht. Der Bereich der Cyber-, Maschinen-, Programmierethik und -moral ist noch völlig unausgegoren – und nur sinnvoll zu diskutieren, wenn man nicht Programme und Maschinen, sondern die diese herstellenden Menschen anspricht. Aufatmen? Zunächst ja.
Welche Unwägbarkeiten in der Programmierung und Anwendung von selbstlernenden Algorithmen lauern, führte prominent der Bot „Tay“ von Microsoft im Jahr 2016 vor. An ihn erinnert Lorena Jaume-Palasi in ihrem Aufsatz: „Algorithmen, die sich nicht benehmen“ (Ada & Das Jetzt, Sonderausgabe der Wirtschaftswoche, Oktober 2018, S. 92-93). Algorithmen sind Rechenformeln, die in Programmiersprache übersetzt werden müssen, die – wie Tay – nicht nur das Gewünschte lernen, sondern in Windeseile durch Kommunikation etwa mit sozialen Netzwerken exakt das Gegenteil. Das könnte ein Argument dafür sein, dass Psychotherapeuten gegen die vollständige Automatisierung von Therapie ins Feld führen: Ohne menschliches Monitoring machen die Maschinen Unsinn.
Jedoch – auch hierfür ist eine Lösung in Sicht, dank wachsender Datenvolumina und ihrer intelligenten Auswertung. Lorena Jaume-Palasi stellt etwa eine automatisierte Überwachung heraus: ein „Monitoring-System, das nach auffälligen Mustern sucht“, nach „Unregelmäßigkeiten“, etwa nach diskriminierenden Mustern, die in der neueren Cyber-Vorurteilsforschung bereits reichlich aufgedeckt wurden. Dieser Forschungssektor sowie jener, der sich den bisher selbst von Spezialisten unverstandenen Mechanismen des Selbstlernens von KI-Systemen widmet, heben zwar hervor, dass vollautomatisierte Therapie noch in weiter Ferne liegt, weil die Technologie noch nicht ausgereift ist. Doch wirkt das nur vorübergehend als Entwarnung. Denn gleichzeitig nimmt bei Therapiesuchenden die Akzeptanz zu, sich unperfekten Systemen anzuvertrauen. Tendenz steigend! Denn KI und EI werden zunehmend in Primär-, Sekundär- und Tertiärsozialisation eingesetzt, sodass eine Generation heranwächst, die nichts anderes mehr kennt – und daher auch menschliche Therapeuten nicht nur nicht vermisst, sondern gar nicht auf die Idee kommt, sie zu suchen. Unmöglich? Unvorstellbar? Keinesfalls – wie die Gegenwart bereits bezeugt.
Mensch-Maschine-Symbiose?
In ihrem Beitrag „Wie viel Roboter verträgt der Mensch?“ (Ada & Das Jetzt, Sonderausgabe der Wirtschsftswoche, Oktober 2018, S. 96-99) erwähnt Alexandra Borchardt die Haltung von Sherry Turkle, die Roboter keinesfalls als Ersatzoption für Freundschaft, Beziehung, Bindung unter Menschen hält, weil Rechner keine Gefühle haben und keine erfassen können. Ihre Kritiker – Therapeuten, seid auf der Hut! – zucken darob nur mit den Schultern und verweisen darauf, es reiche aus, wenn Roboter Gefühligkeit simulieren und suggerieren können, sei es nonverbal, präverbal, paralinguistisch oder sprachlich, vorzugsweise im Habitus der Gesprächspsychotherapie nach Rogers. Zudem zögen bereits heute viele Menschen Maschinen ihresgleichen vor, weil diese stetig freundlich, zuverlässig, treu etc. seien.
„Noch gibt es wenige Erkenntnisse darüber, wie wir uns entwickeln könnten, wenn Roboter unsere Ansprechpartner werden und wesentliche Aufgaben in der Betreuung und Pflege übernehmen. Und beides wird wohl so kommen.“ (a. a. 0. S. 98) Beides ist bereits in der Gegenwart vorhanden – ein Trend, nicht nur eine Tendenz – auch dank der Wechselbeeinflussung von Digitalisierung und Individualisierung (bis Vereinzelung). Alexandra Borchardt erwähnt Gebiete wie Altenpflege, in der tier- und menschenähnliche Roboter seit Jahren zunehmend eingesetzt werden und an Akzeptanz gewinnen, weil sie den Betroffenen wohltun (Lachen, Tanzen, Bewegen, Ablenken, um einige Beispiele zu nennen). In der Kindererziehung werden, zunächst vorzugsweise in Japan, Südkorea, China, Lettland, Roboter eingesetzt, inzwischen auch an (u. a. deutschen) Universitäten etc.
Wenn die Autorin schreibt: „Aber nur Menschen können aneinander und miteinander wachsen. Roboter können das eher nicht“ (a. a. O. S. 98), klingt das nach einem Hoffnungsseufzer, der auf eine Welt- und Lebenssicht rekurriert, die man nicht teilen muss. Zudem ist die Wendung „aneinander wachsen“ unbestimmt. Falls damit eine Art gemeinsame Sozialisation, eine Entwicklung durch Interaktion gemeint ist, dann zeigt bereits der Umgang mit tierähnlichen Robotern, die auf Zuwendung reagieren, das Gegenteil: Analog zu Puppen entwickeln sich Kinder mit dem Puppenspiel. Die semantische Relativierung „eher nicht“ in der obigen Formulierung deutet die Unsicherheit ebenso an wie die Möglichkeit, dass Roboter sehr wohl mit Menschen „wachsen“ können und es nachweislich bereits tun, sofern sie mit KI und EI gefüttert sind und selbst dazulernen.
Was also, wenn Hilfesuchende auf das Menschliche durch Menschen, auf die menschliche Vermittlung von Menschlichem selbst in psychotherapeutischen Kontexten keinen oder nur noch geringen Wert legen? Wenn die reflektierende Auseinandersetzung unter fachkundiger Leitung und Beratung einer konsumistischen oder pragmatischen Neigung zum Opfer fällt?
Einerseits wird zwar in der Debatte um die Frage, welche beruflichen Tätigkeitsfelder am wenigsten durch selbstlernende Systeme im Bereich Artificial und Emotional Computing gefährdet seien, auf jene Felder hingewiesen, die mit zwischenmenschlichen, emotionalen Themen zu tun haben. Gleichzeitig findet soziokulturell eine Entwicklung in die entgegengesetzte Richtung statt. Der inzwischen häufig anzutreffende Begriff des „Homo digitalis“, der in „Digitalien“ lebt und daher andere Prägungen, Präferenzen, andere Haltungen und Wünsche hat als jene, die noch und zumindest auch analog geprägt sind, weist auf grundlegende Veränderungen in absehbarer Zeit und betrifft selbst Tätigkeitsbereiche bisher ausschließlich menschlich vermittelter Beziehungsarbeit.
Inspirationen zum Überleben
Inspirationen zum Überleben menschlich vermittelter Psychotherapie setzen bei Fragen an, die begründen, welchen Bedarf Psychotherapeuten exklusiv bedienen können. Sie müssen pointieren können, inwiefern menschlich basierte bzw. vermittelte Psychotherapie Sinn und Zweck hat.
Psychotherapeuten steht eine fundamentale Überprüfung ihres beruflichen Selbstbildes, ihres Stellenwerts und Nutzens und ihrer Methodik-Didaktik bevor. Die Revision muss den Horizont weiten und insbesondere den Themenbereich „digitale Sozialisation“ umfassen. Als Einstieg in Kinder- und Jugendpsychotherapie kann der schmale Band „Computersüchtig?“ helfen, geschrieben vom inzwischen verstorbenen pädagogisch-psychologisch arbeitenden Wolfgang Bergmann und Gerald Hüther (Beltz Verlag, 2013, 4. Aufl.). Die Lektüre des schmalen Bandes motiviert zu weiterer Fachlektüre und zu fundierter konstruktiver Sachliteratur. Inzwischen wird viel publiziert, off- wie online. Wer aktuelle Debatten präferiert, wird fündig im Feuilleton überregionaler Tageszeitungen (z. B. FAZ, FAS, NZZ aus der Schweiz) oder in Magazinen unterschiedlicher Richtungen (pädagogisch, philosophisch, psychologisch, politisch). Wer konkrete Anknüpfungspunkte sucht, mag an der Kontroverse um Bildung oder – noch spezieller - in der Kontroverse rund um „Lesen“ ansetzen.
Die Beschäftigung hilft unter anderem dabei, zu überdenken, welche Bereitschaften und Fertigkeiten auf beiden Seiten (Klient/ Patient und Psychotherapeut/Fachperson) nötig sind, um eine (er-)klärende, verstehensorientierte, nachhaltig hilfreiche Psychotherapie zu ermöglichen – sofern diese noch als erstrebenswert gilt in einem Spannungsfeld von einer- und andererseits. Einerseits gilt: Menschen brauchen Menschen, gerade in der Betreuung – noch. Andererseits gilt: Maschinen können in absehbarer Zeit auch psychosoziale, -therapeutische Funktionen übernehmen – weil sich nicht nur Maschinen Menschen, sondern Menschen Maschinen anpassen.
In dem sehenswerten Film „i, Robot“ reicht der Roboter Sonny dem menschlichen Helden Spooner gegen Ende der Mission die Hand mit der Frage, ob sie Freunde werden könnten. Spooner hat durch gemeinsame Erlebnisse mit Sonny seine Ablehnung von Robotern weitgehend verloren und reicht ihm, dem Roboter, die Hand. Und Caleb, der sich in dem Film „Ex Machina“ in den weiblichen Roboter Ava verliebt, vertraut darauf, dass die Worte und Gesten der Liebe von Ava „echt“ sind – und wird von Ava, nachdem er ihr geholfen hat, ihren Freiheitswillen zu erfüllen, dem Tod überlassen. (Die Filme sind dem erwähnten Buch von Julian Nida-Rümelin und Nathalie Weidenfeld entnommen.)
„Hello, I‘m ELIZA“ eröffnet die Entwicklung zu vertrauensvollen und als hilfreich erlebten Gesprächen und therapeutischer Begleitung ohne Menschen. Psychotherapeuten stehen vor der Frage nach ihrem Stellenwert: aus der Perspektive ihrer Professionalität und aus der Perspektive ihrer Klientel. Wer „im Spiel“ bleiben möchte, sollte sich daher intensiv mit der Interaktion Maschine-Mensch, dem Spektrum der Wechselwirkung von technologischen Fortschritten und menschlichem Denken, Fühlen, Verhalten, ihren Präferenzen und Bereitschaften befassen.
Dr. Regina Mahlmann
Beratung, Coaching, Schulung, Vorträge, Autorin, Dorfen bei München