OpenAI: Keine Kontrolle von "potenziell superintelligenter Künstlicher Intelligenz" möglich

OpenAI-Logo
Das Unternehmen möchte ein eigenes Forschungsteam einsetzen. Es geht um die Sicherheit des Menschen vor der Künstlichen Intelligenz. Wieso diese gefährdet sein soll.

Der ChatGPT-Anbieter OpenAI will ein neues Forschungsteam zusammenstellen und erhebliche Ressourcen investieren, um die Sicherheit Künstlicher Intelligenz (KI) für die Menschheit zu gewährleisten. Dies hat das Unternehmen am Mittwoch angekündigt.

Derzeit gibt es keine Kontrollmöglichkeiten 

"Die enorme Macht der "Superintelligenz" könnte zu einer Entmachtung der Menschheit oder sogar zum Aussterben der Menschheit führen", schrieben OpenAI-Mitgründer Ilya Sutskever und der Leiter der OpenAI-Abteilung für zukünftige Ausrichtung Jan Leike in einem Blog-Beitrag. "Derzeit haben wir keine Möglichkeit, eine potenziell superintelligente KI zu steuern oder zu kontrollieren und zu verhindern, dass sie eigene Wege geht."

➤ Mehr lesen Sie in der futurezone mehr zum Thema: Künstliche Intelligenz: "Menschen sind von den Schattenseiten fasziniert"

Die Autoren des Blogs sagten voraus, superintelligente KI-Systeme, die intelligenter seien als Menschen, könnten noch in diesem Jahrzehnt verwirklicht werden. Der Mensch werde bessere Techniken benötigen als zurzeit zur Verfügung stehen, um superintelligente KI zu kontrollieren.

➤ Mehr lesen Sie hier: Künstliche Intelligenz: Werden wir jetzt total überwacht?

Das Unternehmen werde daher 20 Prozent seiner Rechnerleistung in den nächsten vier Jahren dafür einsetzen, eine Lösung dieses Problems zu erarbeiten. Zudem sei das Unternehmen dabei, ein neues Forschungsteam, das "Superalignment Team" zu diesem Zweck zusammenzustellen.

➤ Mehr lesen Sie in der futurezone mehr zum Thema: KI-Pionier findet Zukunft "beängstigend": Das steckt dahinter

OpenAI entwickelte unter anderem den Chatbot ChatGPT, der einen neuen Hype rund um Künstliche Intelligenz auslöste. Das Programm kann Sätze kreieren, die von denen eines Menschen kaum zu unterscheiden sind. Es wurde dafür mit gewaltigen Datenmengen trainiert und schätzt auf dieser Basis Wort für Wort ab, wie ein Satz weitergehen sollte. Dieses Prinzip sorgt allerdings auch dafür, dass ChatGPT mitunter völlig falsche Informationen ausgibt.

Warnung vor KI schon im Mai

Der Vorstoß folgt auf eine Warnung von Branchenexperten, aus deren Sicht Künstliche Intelligenz mit dem Risiko existenzieller Gefahren verbunden ist. Zu den Unterzeichnern gehört auch OpenAI-Chef Sam Altman. Die angebliche Bedrohung wurde dabei nicht näher erläutert - und Kritiker hielten den Experten vor, solche Warnungen lenkten von bereits heute existierenden Problemen Künstlicher Intelligenz wie Diskriminierung in Algorithmen ab.

Kommentare