Wenn der Papst zur indischen Frau wird: Google Gemini erntet Spott im Netz

FILE PHOTO: FILE PHOTO: The logo for Google LLC is seen at the Google Store Chelsea in Manhattan, New York City
Googles KI generiert Bilder von Menschen aller Ethnien - auch wenn es sich um Wikinger, deutsche Weltkriegssoldaten oder den Papst handelt.

Erst vor wenigen Wochen ging Google Gemini an den Start - und bereits jetzt hagelt es Kritik an dem neuen KI-Tool. Das hängt vor allem mit einer Funktion zusammen, die bislang lediglich für Nutzer außerhalb Europas verfügbar ist: dem KI-Bildgenerator

Bittet man Google Gemini (ehemals "Bard") um die Erstellung eines gewissen Bildes, können die Ergebnisse mitunter recht eigenwillig aussehen.

Während die Google-KI stets darauf bedacht ist, in ihren generierten Bildern eine möglichst große Bandbreite an diversen Ethnien, Hautfarben und Geschlechtern abzubilden, lässt sich dieser Zugang oft schwer mit der Realität vereinbaren. Und so entstehen KI-Bilder von Wikingern mit Beinprothesen, PoC-Soldaten in deutscher Wehrmachtsuniform und einer weiblichen Päpstin

Google Geminis Arbeitsprozess liefert Aufschlüsse

Ein Erklärungsansatz lässt sich im Arbeitsprozess der KI verorten. Wenn ein Prompt, also die Anfrage eines Nutzers, an Google Gemini gesendet wird, lässt das Tool ihn durch sein Sprachmodell im Backend laufen, bevor er an das Bildmodell gesendet wird. Das bedeutet, dass die Künstliche Intelligenz Anfragen des Nutzers bearbeitet und umschreibt. 

Grundsätzlich geht jedes Text-zu-Bild-Tool auf diese Weise vor. Google Gemini scheint in der Bearbeitung des Prompts allerdings besonderen Fokus auf das Spezifizieren von Herkunft und Hautfarbe der abgebildeten Personen zu legen.

KI gibt niemals die Realität wieder

Bei Google sei man sich der Kritik bewusst und arbeite aktiv an einer Korrektur, so Jack Krawczyk, einer der Gemini-Verantwortlichen, gegenüber der New York Post. Laut ihm bilde das KI-Tool eine Vielfalt unterschiedlicher Bevölkerungsgruppen ab. Im Allgemeinen sei das eine gute Sache, hier verfehle das Ganze allerdings sein Ziel. 

Unabhängig dieser Diskussion gilt es aber anzumerken: KI-Bildgeneratoren geben niemals die Realität wieder. In den erstellten Bildern spiegeln sich letztlich immer jene Daten wider, anhand derer das KI-Tool trainiert wurde – zumeist sind das die Daten und Vorstellungen weißer Männer. Und auch wenn das Ergebnis in diesem Fall wenig zufriedenstellend ist, Google scheint sich immerhin an einer Lösung der Problematik versucht zu haben.  

Kommentare