Private Chats plötzlich auf Google: Tausende KI-Nutzer betroffen

Google Logo im Browser.
Persönliche Fragen an ChatGPT sollte man in Zukunft wohl eher unterlassen. Tausende Chats sind auf Google aufgetaucht.

Was als harmloser Austausch mit einem Chatbot begann, wurde für Tausende von Menschen zur Datenschutzfalle: Gespräche mit OpenAIs ChatGPT, teils mit hochsensiblen Inhalten, waren öffentlich über Google auffindbar – durch ein missverstandenes Häkchen beim Teilen.

Das ist passiert

Im Teilen-Menü des Chatbots ChatGPT war für einige Zeit das Fenster "Allow search engines to index this link" (zu Deutsch: "Suchmaschinen dürfen diesen Link erfassen") aufscheinend. Wer diesen Haken aktivierte, machte den Chat für Suchmaschinen wie Google auffindbar. Viele Nutzer interpretierten diese Einstellung als Voraussetzung für das Teilen selbst und setzten das Häkchen, ohne zu ahnen, dass sie damit ihre persönlichen Unterhaltungen öffentlich machten.

Klarnamen, Depressionen, Konflikte auf Google

Das US-Magazin Fast Company deckte den Fall auf und machte mit gezielten Suchanfragen rund 4.500 öffentlich indexierte ChatGPT-Chats ausfindig. Darunter befanden sich Gespräche über sexuelle Vorlieben, psychische Erkrankungen, familiäre Probleme und traumatische Erlebnisse – also Inhalte, die viele Nutzer vertraulich geteilt hatten.

KI-Ethikerin kritisiert Open AI

Einige dieser Chats trugen sogar Klarnamen. Für Betroffene eine potenziell gravierende Offenlegung und großer Eingriff in die Privatsphäre. Die KI-Ethikerin Carissa Véliz von der Universität Oxford zeigte sich schockiert: "Dass Google diese extrem sensiblen Gespräche indexiert, ist unfassbar. OpenAI hat hier versagt, Nutzer klar und ausreichend zu schützen." Auch im Netz herrscht große Aufregung: "Wow, die hätten das Kleingedruckte wirklich weniger klein schreiben sollen", schrieb ein Reddit-Nutzer

Reaktion von OpenAI: Funktion abgeschafft

OpenAI hat inzwischen reagiert: Die Sichtbarkeitsfunktion wurde Anfang August 2025 stillgelegt, wie Dane Stuckey, Chief Information Security Officer von OpenAI, bei X (vormals Twitter) mitteilte. Man habe die Funktion als "kurzlebiges Experiment" gestartet, um nützliche KI-Gespräche auffindbar zu machen. Doch letztlich sei das Risiko unbeabsichtigter Veröffentlichungen zu groß gewesen.

Sogar OpenAI-Chef warnt Nutzer

Auch OpenAI-Chef Sam Altman räumte in einem Interview auf dem Podcast This Past Weekend with Theo Von ein: "Nutzer sollten keine sehr persönlichen Informationen mit ChatGPT teilen, da wir gesetzlich gezwungen sein könnten, sie herauszugeben". 

Viele Chats weiterhin auffindbar

Was mit bereits indexierten Inhalten passiert, bleibt offen. Zwar bemüht sich OpenAI laut eigenen Angaben, die Inhalte aus den Suchmaschinen zu entfernen – doch viele sind weiterhin auffindbar.

"Aufklärung kommt zu spät"

Auch Rachel Tobac, CEO des Cybersicherheitsunternehmens SocialProof Security, warnte in einem Interview mit Fast Company: "Viele Nutzer wissen nicht, dass Plattformen wie ChatGPT Funktionen enthalten, die ihre privatesten Geschichten öffentlich machen können – mit nur einem Klick." Sie fordert eine umfassendere Aufklärung und klare Warnhinweise bei Funktionen mit potenziell weitreichenden Folgen.

Kommentare