Und es spießt sich, gerade wegen ChatGPT und anderen „Basismodellen“ der KI. Diese lassen sich durch jeden Anwender, der ihnen eine Aufgabe zu lösen gibt, mit Daten füttern und werden so unkontrolliert immer klüger. Die Kontrolle von ChatGPT ist eines der wichtigsten Anliegen des Chefverhandlers für das EU-Parlament, Dragos Tudorache.
Er vergleicht ChatGPT gegenüber dem KURIER mit einem „Kind, das nicht erzogen wurde, keine Schule absolviert hat und keinen moralischen Kompass besitzt. Wenn ich das in die Welt hinausschicke, kann es alles lernen – auch Menschen zu ermorden.“ Man müsse klären, wer für die Handlungen dieses Kindes verantwortlich zu machen ist: Der Programmierer vor dem Computer, oder derjenige, der die KI mit Daten füttert und sie so gefährlich macht.
EU betritt Neuland
Was die Verhandlungen in Brüssel noch heikler macht, ist die Tatsache, dass die EU als erster großer politischer Block an möglichst lückenlosen Regeln für KI bastelt.
➤ Lesen Sie mehr: Künstliche Intelligenz als der perfekte Verbrecher
Entsprechende Regelungen in den USA, oder gar in China sind kaum mehr als lockere Rahmenbedingungen, die entweder den digitalen Giganten wie Google und Microsoft das Spielfeld KI möglichst weit offen halten sollen, oder, wie im Fall von China, auch der politischen Führung freie Hand lassen. Für die EU dagegen sind manche Einsatzgebiete der KI zentrale Streitpunkte. Die Gesichtserkennung durch KI etwa, die es möglich macht, einem Bürger quer durch sein ganzes öffentliches – und vielleicht auch privates – Leben zu verfolgen.
Wer darf in die Schule?
Verknüpft mit den Fähigkeiten der KI entsteht so ein gläserner Mensch, der leichter beobachtet und beurteilt werden kann. Für manche Staaten ein Instrument für den Kampf gegen Kriminalität und Terrorismus, für die anderen existenzielle Gefahr für bürgerliche Freiheiten.
➤ Zweite Meinung: Eine künstliche Intelligenz fragt die andere
Banken checken Kunden
Menschen in all ihren guten und negativen Eigenschaften erfassen und analysieren zu können, kommt nicht nur der Polizei zugute. Schulen können Kinder auf ihren sozialen Hintergrund, das Verhalten ihrer Eltern abchecken. In China werden so bereits Schüler für Eliteschulen selektiert. Banken, oder Versicherungen könnten mit KI das Risiko einschätzen, das sie mit einem Kunden eingehen und Prämien, oder Zinsen anpassen.
Moral reicht nicht
Wer ist für solche KI-Einsätze verantwortlich, wer kontrolliert, welche Daten man ihr füttert – und welche Rechte der Bürger hat, sich gegen Diskriminierung zu wehren. „Es braucht klare Regeln, für den Programmierer, für den, der die Daten füttert – und den, der sie anwendet“, erläutert Verhandler Tudorache: „Sich auf die Moral all dieser Akteure zu verlassen, reicht nicht.“
Kommentare