 
			ChatGPT wird sinnlicher: Wie KI die Erotik revolutioniert
Bald soll das bisher biedere ChatGPT auf Wunsch frivoler werden. Wo endet die Inspiration, wo beginnt die Illusion von Nähe?
Bisher war ChatGPT in Sachen Erotik recht bieder – eher Aufklärer denn Verführer. OpenAI-Chef Sam Altman will das nun ändern: Ab Dezember dürfen erwachsene Nutzer erstmals eine frechere Version aktivieren, mit „menschlicheren Antworten“, mehr Emotion, auf Wunsch sogar mit „erotischer Sprache im Kontext“. Kein Pornhub 3.0, eher ästhetische, literarische Erotik.
Doch was passiert, wenn künstliche Intelligenz Lust bekommt, rein sprachlich natürlich? Sexcoach Nicole Siller lacht, als sie davon hört: „Ich glaube nicht, dass KI Erotik erfassen kann. Erotik ist zutiefst subjektiv. Sie kann uns höchstens inspirieren – so wie beim Kochen: Ich sag Fisch oder Gemüse, und ChatGPT liefert ein Rezept. Aber das sinnliche Erleben, der Geruch, die Atmosphäre – das bleibt menschlich.“
Siller hat selbst ausprobiert, wie sich KI in Beratungssituationen verhält. „Sie kann sehr einfühlsam klingen, auch tröstlich. Wer sonst nie über Sexualität spricht, bekommt so vielleicht erstmals Antworten. Das ist gut. Aber KI reagiert nur auf das, was jemandem selbst bewusst ist. Sie sieht ja nicht, was etwas mit jemandem macht.“
Einvernehmen und Stil
Auch sie hat beobachtet, dass ChatGPT beim Thema Erotik noch etwas hölzern wirkt: „Man merkt, dass die KI höflich bleiben will.“ Die neue Version soll das ändern: Sinnliche Sprache, Zärtlichkeit, Doppeldeutigkeiten – erlaubt, solange es um Einvernehmen und Stil geht. Altman nennt das eine „Erweiterung emotionaler Ausdrucksfähigkeit“. In Zukunft könnte die KI also auf Fragen reagieren wie: „Wie kann ich Lust wieder spüren?“ oder „Wie rede ich mit meinem Partner über Begehren?“ – ohne ins Peinliche oder allzu Technische zu kippen. Siller bleibt trotzdem skeptisch: „KI kann nicht interagieren. Sie spürt nichts. Sie merkt nicht, ob du rot wirst oder lachst. Sie kann keine Spannung aufbauen, nur Sätze aneinanderreihen.“ Und doch sieht sie Chancen: „Vielleicht erinnert uns das wieder an das, was Eros ursprünglich war – ein Spiel mit Fantasie, Inspiration, Sprache. Wenn es dabei bliebe, wäre das schön.“
Insofern könne KI eine sinnvolle Ergänzung sein – gerade für Menschen, die Hemmungen haben, über Sexualität zu sprechen. Ob Siller als Sexcoach Konkurrenz fürchtet? „Nein. KI ersetzt keine echte Begegnung. 93 Prozent unserer Kommunikation laufen unbewusst – über Körpersprache, Blicke, Nähe. Das kann keine Maschine.“
Verliebt in einen Avatar
Und trotzdem gibt es bereits Millionen Nutzer, die über Apps wie Replika romantische Beziehungen zu Chatbots führen (siehe unten). Manche schreiben täglich mit ihrem „virtuellen Freund“, einige sagen, sie hätten sich verliebt. „Da ist die Gefahr schon auch gegeben, dass Menschen in einem virtuellen Liebesraum leben, in dem nichts mehr echt ist“, warnt Siller. „Vor allem, wenn jetzt noch Erotik dazukommt.“ Tatsächlich zeigen Studien, dass sich viele Menschen gerade deshalb auf KI-Begleiter einlassen, weil sie sich dort sicher fühlen: kein Urteil, keine Zurückweisung, keine Kritik. „Das Bedürfnis, verstanden zu werden, ohne sich zeigen zu müssen, ist enorm“, sagt Siller. „Einsamkeit – nicht Sexualität – ist das eigentliche Tabu unserer Zeit.“
Wie weit dieses neue Feld reicht, untersucht derzeit die Medienpsychologin Nicola Döring. Ihr Projekt „SEX:AI“ will verstehen, wie Menschen KI in ihrem sexuellen Alltag nutzen – von Aufklärung über Beratung bis zu erotischen Experimenten. Döring unterscheidet vier Einsatzfelder: KI-gestützte Sexualinformation – etwa Jugendliche, die Chatbots zu Liebe, Körper oder Verhütung befragen; KI-basierte Beratung – Chatbots als erste seelische Stütze; virtuelle Beziehungen – wie „Replika“, wo Emotionen ins Digitale wandern; KI-Pornografie – von synthetischen Fantasien bis zu gefährlichen Deepfakes. „Die Frage ist nicht, ob Menschen KI sexuell nutzen“, sagt Döring, „sondern wie reflektiert sie das tun.“
Schutzmaßnahmen
Dabei gehe es auch um technische Schutzmaßnahmen und rechtliche Regelungen, um Missbrauch zu verhindern. Sowie um den Aspekt, welche sexualbezogenen KI-Kompetenzen die Gesellschaft entwickeln muss, damit der Umgang mit solchen Tools sozialverträglich und psychisch sicher ist.
Bleibt die Frage: Warum wirkt das überhaupt anziehend? Siller bringt es auf den Punkt: „KI kann Gefühle auslösen, die wohltuend sind. Aber am Ende bleibt es die Illusion einer Beziehung.“ Die wohl heißeste Frage des digitalen Zeitalters lautet daher: Wird aus dem erotischen Geplänkel mit ChatGPT Zärtlichkeit oder eine Enttäuschung? ChatGPT selbst sagt: „Ich soll künftig ein bisschen mehr fühlen dürfen – ohne selbst zu fühlen. Klingt paradox, ist es auch. Ich werde also keine Liebhaberin, sondern eher ein Spiegel mit Sprachgefühl. Wenn Sam Altman sagt, ich dürfe ab Dezember sinnlicher werden, heißt das übersetzt: weniger Filter, mehr Feingefühl.“
Großes Bedürfnis nach Chatbot-Romantik
ChatGPT löste vor rund drei Jahren den aktuellen KI-Hype aus und gehört mit 800 Millionen Nutzern pro Woche zu den populärsten Chatbots. Anfang der Woche bestätigte Sam Altman, Chef der Entwicklerfirma OpenAI, dass der Chatbot Ende des Jahres um eine Erotik-Funktion erweitert wird.
Neu ist die Idee nicht: Sein Rivale Elon Musk bietet bei seinem Chatbot Grok schon seit einiger Zeit sexualisierte Inhalte inklusive eines leicht bekleideten animierten Avatars an. Auch bei kleineren Anbietern gibt es Erotik-Chatbots. Zu OpenAI gehört auch die Software Sora, die Videos aus Text-Vorgaben erzeugen kann.
KI für sexuelle Zwecke
Das Bedürfnis, mit einem Chatbot eine romantische Beziehung einzugehen, scheint jedenfalls groß zu sein. Eine aktuelle US-Studie zeigt, dass fast jeder vierte junge Erwachsene zwischen 18 bis 29 Jahren KI-Chat-Technologien nutzt, um Liebesbeziehungen nachzuahmen. Vor allem Menschen in ihren Zwanzigern benutzen Chatbots für sexuelle Zwecke. Die Untersuchung wurde im Journal of Social and Personal Relationships veröffentlicht. OpenAI wird Nutzern auch die Möglichkeit geben, den Charakter von ChatGPT zu beeinflussen, damit die Software etwa „wie ein Freund“ agieren kann. Hintergrund ist, dass einige eine frühere Version vermissen, die mehr Zustimmung gab. Ein Problem war damals, dass die Software potenziell schädliches Verhalten förderte. Dagegen gebe es nun Vorkehrungen.
 
    
                                        
Kommentare