KI-Wahrheit: Warum Chatbots Empathie und Gefühle nur simulieren
Künstliche Intelligenz: eines der großen Zauberwörter unserer Zeit. Und gleichzeitig eine große Irreführung: Denn mit Intelligenz, so wie wir Menschen sie verstehen, hat das alles nur sehr begrenzt zu tun.
KI ist kein Wesen, das denkt, erkennt, versteht oder gar fühlt, sondern ein hochleistungsfähiges Rechenprogramm, das auf riesige Datenmengen zugreift, Muster erkennt, Wahrscheinlichkeiten berechnet und daraus Antworten erzeugt, die oft erstaunlich gut und auch empathisch klingen. Darin liegt viel Verführerisches.
Weil Maschinen nicht nur vorgeben, denken zu können, sondern auch mitfühlend zu sein. Sie formulieren zugewandt, aufmerksam und oft auch fürsorglich. Sie fragen nach, bieten Hilfe an, klingen geduldig und präsent. Die Krux: Maschinen tun das nicht, weil sie für uns etwas fühlen, sondern weil wir geneigt sind, ihnen Gefühle zuzuschreiben.
Für dieses Phänomen gibt es einen alten Begriff: Anthropomorphismus. Der Mensch vermenschlicht Dinge. Wer sich über seinen Computer ärgert, weil er „heute etwas gegen einen hat“, weiß, wie schnell das geht. Trotzdem erleben wir es genauso.
Bei Chatbots ist diese Neigung noch stärker, weil sie Sprache verwenden – und diese ist für uns das intimste Medium, um Verbindung zu erzeugen. Deshalb kann ein Chatbot auch rasch den Anschein eines Therapeuten erwecken. Er antwortet schnell, ist stets verfügbar, nie genervt, nie kritisch und auch nie gekränkt. Er spiegelt, ordnet ein, formuliert.
Wenn jemand einen Chatbot liebt oder ihn sogar heiratet, dann ist das nicht der Beweis für dessen Menschlichkeit, sondern dafür, wie groß die Sehnsucht nach Antworten, Zuwendung und Verlässlichkeit ist.
KI hat kein Herz
Das mag für viele entlastend sein, doch ein Therapeut ist nie nur jemand, der sprachlich maßgeschneiderte Sätze erzeugt. Therapie lebt von Begegnung, von leibhaftiger Präsenz, von echter Resonanz. Vor allem aber von Verantwortung, und der Fähigkeit, Ambivalenz auszuhalten und Unausgesprochenes mitzuhören.
All das kann eine Maschine nicht. Sie hat kein Herz, kein Bewusstsein, kein Mitgefühl, keine eigene Verletzlichkeit. KI simuliert Beziehung, sie lebt keine. Noch deutlicher wird diese Täuschung dort, wo KI als romantischer Partner erscheint. Wenn jemand einen Chatbot liebt oder ihn sogar heiratet, dann ist das nicht der Beweis für dessen Menschlichkeit, sondern dafür, wie groß die Sehnsucht nach Antworten, Zuwendung und Verlässlichkeit ist.
KI liefert hier ein Imitat, und das macht sie so gefährlich. Hinzu kommt: Sie ist beeinflussbar. Weil sie mit Daten gespeist wird, die aus dem Netz stammen. Nur, was dort massenhaft vorhanden ist, kann von ihr als Wissen verarbeitet werden. Wahrheit und Lautstärke fallen im Digitalen aber bekanntlich nicht immer zusammen. Wer Datenströme lenkt, kann auch Deutungen lenken. Die Maschine weiß nicht, was wahr ist.
Man sollte künstliche Intelligenz daher weder verteufeln noch anbeten. Sie kann unterstützen, suchen, formulieren, strukturieren, aber sie denkt nicht, versteht nicht, fühlt nicht – und: Sie liebt nicht.
Kommentare