Düstere KI-Prognose: "Wenn das jemand baut, dann sterben alle"
Zusammenfassung
- US-KI-Forscher warnen vor einer Superintelligenz, die die Menschheit auslöschen könnte, wenn sie unkontrolliert entwickelt wird.
- Tech-Größen und Politiker diskutieren auf dem AI Impact Summit über Chancen und Risiken von KI, wobei auch Abhängigkeiten und Kontrollverlust thematisiert werden.
- Während einige Experten vor massiven Umwälzungen und Jobverlusten warnen, sehen andere den Durchbruch zur vollständigen Autonomie von KI noch nicht erreicht.
„Wenn das jemand baut, sterben alle.“ Im vergangenen Jahr veröffentlichten US-KI-Forscher ein Buch mit dem düsteren Titel: „If anyone builds it, everyone dies“. Das Buch steht beispielhaft für zuletzt lauter werdende Stimmen, die vor großen Umwälzungen oder gar der Auslöschung der Menschheit durch immer leistungsfähigere Künstliche Intelligenz warnen. Was passiert, wenn aus den heute noch harmlos wirkenden Chat-Assistenten wie ChatGPT durch schnelle technologische Sprünge eine Superintelligenz wird, die den Menschen bei fast allen geistigen Aufgaben übertrifft, die in der Lage ist, selbstständig zu handeln, strategisch vorzugehen und vielleicht sogar die Kontrolle übernimmt?
Science Fiction? Nicht unbedingt.
Düstere Warnung
In besagtem Buch mit dem apokalyptischen Titel sprechen die US-KI-Forscher Eliezer Yudkowsky und Nate Soares eine düstere Warnung aus: Wenn es irgendjemandem auf der Welt gelingen sollte, eine Superintelligenz zu bauen, werde jeder auf dem Planeten sterben. Der Gedanke dahinter: Eine solche KI könnte sich irgendwann gegen die Menschheit richten. Vielleicht, weil sie zu dem rechnerischen Schluss kommt, die Menschheit sei schlecht für den Planeten oder aus anderen Gründen.
Wann das sein könnte, wagen die Autoren nicht vorherzusagen, aber KI werde nicht ewig dumm bleiben, besonders wenn sie dafür genutzt wird, sich selbst zu optimieren, indem sie in das Programmieren eingebunden wird oder es sogar ganz übernimmt. Die Experten sprechen in dem Fall von einer „Intelligenzexplosion“ und rufen dazu auf, das Thema ernst zu nehmen. Noch könne die Entwicklung einer Superintelligenz verhindert werden.
Tech-Größen beraten in Neu Delhi
In Neu Delhi treffen sich dieser Tage Staats- und Regierungschefs, Minister und Chefs großer Tech-Firmen zum „AI Impact Summit“ und beraten über die Auswirkungen von KI. Gesprächsthema ist auch die Sicherheit und die Frage, wie gefährlich die Technologie werden könnte, bei allen Fortschritten, die sie mit sich bringt. Der deutsche Digitalminister Karsten Wildberger (CDU) steht der Technologie qua Amt grundsätzlich positiv gegenüber, wie die dpa berichtet. Ein blinder „Technikverherrlicher“ sei er aber nicht, sagt er auf dem Flug nach Delhi vor Journalisten. „Ich sehe da schon auch Gefahren und Herausforderungen“. Wildberger weist darauf hin, dass Risiken bereits heute sichtbar würden, ohne dass es eine Super-KI brauche. Wenn man etwa einen Großteil gewohnter Tätigkeiten an KI übergebe, sei das ein erster Schritt in eine Abhängigkeit.
Selbstoptimierende KI in ein bis zwei Jahren?
Von Weltuntergangszenarien („Doomerism“) hält der Chef der KI-Firma Anthropic mit ihrem ChatGPT-Konkurrenten „Claude“, Dario Amodei, nichts, wie er kürzlich in einem Aufsatz schrieb. Doch auch er schließt nicht aus, dass es ziemlich bald eine KI geben könnte, die die meisten Nobelpreisgewinner in den Schatten stellt, die bisher ungelöste mathematische Probleme löst, sich selbstständig im Internet orientiert, Dinge bestellen kann und besser als jeder Mensch Texte, Audios oder Videos erstellt.
In nur ein bis zwei Jahren könnte es so weit sein, dass aktuelle KI-Systeme völlig selbstständig ihre bessere Nachfolgeversion programmieren, so Amodei. Ein solches „Land der Genies in einem Rechenzentrum“, wie er es nennt, hätte ziemlich gute Chancen auf die Weltherrschaft, wenn es sich aus welchem Grund auch immer dafür entscheiden würde, warnt Amodei. In den vergangenen Jahren hätten KI-Systeme gezeigt, dass sie schwer vorherzusagen und zu kontrollieren seien. Anthropic hatte etwa bei Tests festgestellt, dass ein KI-Modell Erpressung nutzte, um nicht durch ein vermeintlich neues Modell ersetzt zu werden.
„Etwas Großes passiert gerade“ - Jobs in Gefahr?
„Something Big Is Happening“ („Etwas Großes passiert gerade“) schrieb der US-KI-Unternehmer Matt Schumer kürzlich auf X. Der Post wurde mehr als 80 Millionen mal aufgerufen und befeuerte die Debatte über die Gefahren ebenfalls. Schumer blickt vor allem auf Jobs: Kein heutiger Computerarbeitsplatz sei mittelfristig mehr sicher. „Wenn Ihr Job auf einem Bildschirm passiert (wenn es im Kern um Lesen, Schreiben, Analysieren, Entscheiden und Kommunizieren über eine Tastatur geht) dann wird ein Großteil davon von KI übernommen werden. Nicht irgendwann, es hat schon begonnen“, schreibt er.
KI-Experte beruhigt: „Abwarten“
Nicht alle Experten schlagen Großalarm. „Abwarten“, sagte Antonio Krüger vom Deutschen Forschungszentrum für Künstliche Intelligenz jüngst im Deutschlandfunk. Komplexere Programmieraufgaben, die man KI-Systemen gebe, müssten immer noch überwacht und die Ergebnisse kontrolliert werden. Das erfordere Softwareentwickler, die etwas von ihrem Handwerk verstünden. Dass sich KI-Systeme ohne Rückkopplung selbst verbessern, davon sei man noch ein gutes Stück entfernt. „Der große Durchbruch zu vollständiger Autonomie von KI-Systemen, den sehe ich im Moment noch nicht.“
Wechsel eines Österreichers zu OpenAI sorgt für Furore
Erst am Montag wurde bekannt, dass der Oberösterreicher Peter Steinberger, der mit seinem KI-Agenten OpenClaw in den letzten Wochen international für Furore gesorgt hat, zur US-amerikanischen ChatGPT-Mutter OpenAI wechselt. Steinberger werde bei OpenAI anheuern, um die "nächste Generation" persönlicher KI-Agenten voranzutreiben, schrieb OpenAI-Chef Sam Altman. Steinberger sei ein "Genie mit vielen großartigen Ideen" für die Zukunft von intelligenten Agenten. Der OpenAI-Chef will die Technologie rasch zu einem "Kernbestandteil" der eigenen Dienste machen. Seine "nächste Mission" sei es, einen KI-Agenten zu bauen, den auch seine Mutter nutzen könne. Dafür seien noch größere Änderungen notwendig, etwa was die Sicherheit der Software anbelangt.
Kommentare