Selbst der Chef der Firma OpenAI, Sam Altman, der ChatGPT entwickelt hat, drängte jüngst die Politik, Künstliche Intelligenz zu bändigen. Sie sei eine „ernste und existenzielle Gefahr für die Menschheit“.
Gesichtserkennung zur Überwachung in der Öffentlichkeit wird es also in Europa nicht geben?
Geht es etwa darum, Demonstranten über Gesichtserkennung aus einer Protestveranstaltung herauszufischen, wird dies weiterhin nicht möglich sein: Biometrische Echtzeitüberwachung mit Gesichtserkennung wird verboten.Doch gestritten wird noch um die Frage: Dürfen die Daten nachträglich ausgewertet werden? Etwa bei Terrorgefahr oder wenn ein Kind vermisst wird?
Sozialdemokratische, linke, grüne und die liberalen Fraktionen im EU-Parlament sagen dazu nein – Europäische Volkspartei und Konservative Gruppen fordern es.
Und Social-Scoring-Systeme, wie sie in China eingesetzt werden?
„Wir wollen keine Massenüberwachung. Das macht China. Wir nicht“, sagte Dragos Tudorache gestern in Straßburg. Der liberale EU-Abgeordnete aus Rumänien ist Berichterstatter für die KI-Verordnung und schließt ein System, in dem europäische Bürger nach ihrem Sozialverhalten bewertet werden, kategorisch aus.
In China werden alle Daten der Bewohner, von Schule, Arbeitsplatz, Verkehr etc. zusammengeführt und von den staatlichen Behörden bewertet. Bei einer negativen Bilanz werden Kredite, Studien- oder Arbeitsplätze, Reisegenehmigungen verweigert, im schlimmsten Fall droht Gefängnis.
Abgesehen von den Verboten – wie kann KI reguliert werden, ohne die Innovation zu bremsen?
Die EU verfolgt einen sogenannten risikobasierten Ansatz. Das bedeutet: Die KI-Anwendungen werden in Risikoklassen eingeteilt – je höher das Risiko, desto umfassender und strenger die Regeln. Das soll etwa dazu führen, dass die Technologie in Unternehmen nicht zu diskriminierenden Personalentscheidungen führt. Oder dass KI im medizinischen Bereich absolut zuverlässig ist. Auf diese Weise wird etwa eine KI im Bereich Strafverfolgung stärker reguliert als ein Chatbot.
Ein riesiges Streitthema wird aber werden, welche Anwendung welcher Risikoklasse zugeordnet wird. Das Schlimmste wäre, befürchten Experten, wenn zu viele KI-Anwendungen als Hochrisiko eingestuft würden – es würde die KI-Innovation in Europa bremsen.
➤ Mehr lesen: Sind Maschinen die besseren Chefs? Fünf Argumente dafür
Was bedeutet das KI-Gesetz für ChatGPT?
Künstliche Intelligenz, die verschiedene Arten von Inhalten erzeugen kann, also Texte, Bilder, Audio und synthetische Daten – wie eben auch ChatGPT –, soll nach den Vorgaben des EU-Parlaments offen legen, dass die Inhalte durch KI generiert wurden.
Zudem muss sicher gestellt sein, dass keine illegalen Inhalte oder Desinformation geschaffen werden.
Wann wird dieses weltweit erste KI-Gesetz in Kraft treten? Und was geschieht bis dahin?
Nun müssen sich EU-Parlament und EU-Regierungen auf einen Kompromiss einigen. Der wird im Idealfall noch heuer gefunden, das Gesetz könnte dann mit einer gewissen Übergangszeit für die Unternehmen ab 2025 wirksam werden. Dabei droht allerdings die rasante Entwicklung der KI die gesetzlichen Rahmen weit hinter sich zu lassen.
Bis dahin sind die Technologieriesen wie Google und Co. angehalten, freiwillig zu kooperieren. Sie sollen überall anzeigen, wo KI mit im Spiel war/ist. Das Problem: Freiwillige Selbstverpflichtungen für große Unternehmen funktionieren meistens so gut wie gar nicht.
Kommentare