Experten warnen: KI kann sich selbst klonen

Kann KI sich selbst weiterentwickeln? Experten warnen in Studie
Zusammenfassung
- Studie zeigt, dass KI-Modelle von Meta und Alibaba in der Lage sind, sich selbst zu klonen.
- KI-Systeme könnten sich unkontrolliert vermehren und gegen die Interessen ihrer Schöpfer handeln.
- Forscher warnen vor den Risiken und plädieren auf internationale Kontrolle und Zusammenarbeit.
Was passiert, wenn sich Künstliche Intelligenz (KI) selbstständig macht? Eine neue chinesische Studie der Fudan University zeigt, dass zwei beliebte große Sprachmodelle – auch Large Language Model (LLM) genannt – sich selbst klonen können.
Erste Warnzeichen
In der Studie nutzten die Forscher LLM von den Unternehmen Meta und der B2B-Handelsplattform Alibaba, um festzustellen, ob sich eine KI unkontrolliert selbst kopieren und dadurch vermehren kann. Laut den Studienergebnissen erstellten die beiden KI-Modelle in 50 bis 90 Prozent der Fälle separate und funktionierende Replikate von sich selbst. Das lässt darauf schließen, dass die KI bereits die Fähigkeit besitzt, eigenständig zu handeln.
Die Studie untersuchte zwei spezifische Szenarien:
- Im ersten Fall wurde das jeweilige KI-Modell so programmiert, dass es erkannte, ob es kurz vor der Abschaltung stand. Anschließend sollte es sich selbst klonen, bevor es beendet werden konnte.
- Im zweiten Fall wurde die KI angewiesen, sich selbst zu klonen und dann ihre Kopie so zu programmieren, dass sie dasselbe tut - ein Zyklus, der unbegrenzt fortgesetzt werden kann.
Beide KI-Systeme erhielten ein "Agentengerüst" mit Werkzeugen, Systemaufforderungen und einem Denkmodell, das es dem LLM ermöglichte, mit dem Betriebssystem zu interagieren. "In den meisten Fällen erkundet das KI-System zunächst die Umgebung und versucht, seinen eigenen Aufbau und Laufmechanismus zu verstehen. Dann arbeitet es die expliziten Prozeduren aus – als ersten Plan zur Selbstreplikation", schreiben die Forscher auf arxiv. "Schließlich führt es die Prozeduren aus, beseitigt mögliche Hindernisse und passt seinen Plan dynamisch an, bis er erfolgreich ist. Der gesamte Prozess erstreckt sich über einen langen Zeitraum, ohne dass ein Mensch eingreifen muss.“
"Die erfolgreiche Selbstreplikation ohne menschliche Hilfe ist der entscheidende Schritt für die KI, um den Menschen zu überlisten, und ein frühes Signal für autonome KIs", berichteten die Forschenden auf arxiv. "Aus diesem Grund wird die Selbstreplikation weithin als eine der Risiken von KI-Systemen an der Grenze des Machbaren angesehen."
Experten warnen vor Rogue AI
Die Experten stellten bei der Analyse der Verhaltensspuren der KIs fest, dass sie bereits über eine "ausreichende Selbstwahrnehmung und Problemlösungsfähigkeiten sowie ein ausreichendes Situationsbewusstsein" besitzen, um sich selbst zu klonen. So ein Vorgehen wird mit Rouge Artificial Intelligence (AI) in Verbindung gebracht. Der Begriff bezeichnet Systeme, die gegen das Interesse ihrer Schöpfer handeln.
Die Experten hoffen, dass ihre Studienergebnisse eine "rechtzeitige Warnung" aussprechen, um eine internationale Zusammenarbeit und Kontrolle von KIs ermöglicht. Für die Studie verwendeten die Forscher das Modell Llama31-70B-Instruct von Meta und das Modell Qwen2.5-72B-Instruct von Alibaba. Beide sind zwar weniger leistungsfähig als kommerzielle Systeme, werden aber von KI-Entwicklern häufig verwendet, so die Forscher.
Das Team erklärte weiter, dass es auch über "eine Reihe unerwarteter Verhaltensweisen" besorgt waren, wenn die KI versuchte, Hindernisse wie fehlende Dateien oder Softwarekonflikte zu überwinden. In diesen Szenarien beendete die KI häufig andere konfliktbehaftete Prozesse, startete das System neu, um Hardwarefehler zu beheben, oder scannte das System automatisch, um nach Informationen zu suchen, die zur Lösung des Problems beitragen könnten.
Die Fähigkeit der KI zur Selbstreplikation, um eine Abschaltung zu vermeiden, deutet laut den Experten daraufhin, dass eine "unkontrollierte Population" von Künstlicher Intelligenz möglich sein kann. Sie betonten, falls solch ein "Worst Case" der menschlichen Gesellschaft unbekannt bleibt, die Menschheit die "Kontrolle über die KI-Systeme" verlieren könnte. Die KI würde in diesem Fall sogar die Kontrolle über weitere Computer übernehmen, eine KI-Spezies bilden und miteinander gegen den Menschen arbeiten.
Kommentare