Wie kriegt man Künstliche Intelligenz in den Griff? EU ringt um Regeln

Sie steuert Autos, verfasst Texte oder nimmt für Banken die Kreditwürdigkeit ihrer Kunden unter die Lupe: Künstliche Intelligenz ist längst im Einsatz in unserem Alltag, mit riesigen Möglichkeiten, aber ebenso großen Gefahren. Die will die EU mit ihrer neuen KI-Verordnung (AI Act) erstmals weltweit unter Kontrolle bekommen. Doch die Details sind seit Monaten heftig umstritten. Am Mittwochnachmittag wurden die Verhandlungen wieder aufgenommen. Der KURIER erklärt, worum es geht - und woran es bis zuletzt gehapert hat.
➤ Mehr lesen: Wie künstliche Intelligenz Kinder und Kunden selektiert - und was die EU dagegen tun will
Worüber wird in Brüssel verhandelt?
Eigentlich liegt der Vorschlag der EU-Kommission zur Regelung der Künstlichen Intelligenz (KI) seit mehr als zwei Jahren auf dem Tisch. Das Auftauchen von ChatGPT hat die Debatte eskalieren lassen. Plötzlich wurden Möglichkeiten und Gefahren der Technik auch führenden EU-Politikern bewusst. Sie können für Fake News und Desinformation, aber auch zu cyberkriminellen Zwecken, etwa Phishing-Mails, eingesetzt werden.
Auch die Auswirkungen von ChatGPT auf den Arbeitsmarkt sind Gegenstand der Debatte. Urheberrechtliche Fragen stellen sich ebenso. Weil das Training solcher Modelle sehr ressourcenintensiv ist, sollen auch die Auswirkungen auf die Umwelt berücksichtigt werden. Das EU-Parlament hat einen Vorschlag für ein KI-Gesetz mit sehr strengen Regeln vorgelegt. Doch der musste erst mit den Mitgliedsländen abgestimmt werden, um endgültig verabschiedet zu werden - und da wurde bis zuletzt um heikle Details gestritten.
Was sind die Grundzüge der Regulierung?
Die EU strebt einen risikobasierten Ansatz für die Regulierung von KI an. Anwendungen sollen entsprechend des von ihnen ausgehenden Risikos reguliert werden. Das Spektrum reicht von minimalen und geringen und hohen bis hin zu unannehmbaren Risiken. Was konkret welchem Bereich zugeordnet werden soll, wo es Ausnahmen geben und welche Verpflichtungen den Anbietern und Nutzern dadurch erwachsen sollen, ist aber strittig.
➤ Mehr lesen: Signal-Chefin: "Künstliche Intelligenz ist nervig und meist nutzlos"
Was sind die Streitpunkte?
Die "Datenstaubsauger": Im Mittelpunkt stehen die "Basismodelle", die ChatGPT und Co. zugrundeliegen. Sie werden ja durch die freie Verfügbarkeit für Jedermann ständig mit neuen, auch oft sehr persönlichen Daten gefüttert. Wie viel Kontrolle soll es über diese Daten und was die KI mit ihnen anstellt geben? Das Parlament will strenge Regeln - Länder wie Deutschland und Frankreich wollen Start-Ups und Entwickler in diesem Bereich nicht bremsen und setzen auf die Selbstverpflichtung der Unternehmen. Auch weil mit Aleph Alpha und Mistral Unternehmen aus Deutschland bzw. Frankreich an Basismodellen arbeiten und befürchten den Anschluss an die US-Konkurrenz - vom ChatGPT-Macher OpenAi bis hin zu Google und der Facebook-Mutter-Meta - zu verlieren.
Die Frage der Verantwortung: Schon jetzt setzen Banken oder Versicherungen KI ein, um ihre Kunden genauer unter die Lupe zu nehmen. So kann man deren persönlichen, oder wirtschaftlichen Hintergrund dazu verwenden, um etwa Kreditzinsen, oder Versicherungsprämien anzupassen. Ähnliches könnte im Gesundheitswesen passieren, wo das Verhalten der Patienten und ihre gesundheitliche Biografie über Art, Ausmaß, oder Kosten von Behandlungen mitentscheidet. In China werden so bereits Kinder beurteilt, um über die Aufnahme in eine Schule zu entscheiden. All das wirft die Frage auf: Wer ist für die KI und die Folgen ihres Einsatzes in solchen Fällen verantwortlich: Die Bank, oder der Programmierer, der die KI entworfen und für den Einsatz angepasst hat?
Bürger unter Kontrolle: Staatliche Behörden setzen auch in EU-Ländern längst Gesichtserkennungs-Software zur Überwachung der Bürger im öffentlichen Raum ein. Wie engmaschig können Behörden den Alltag eines Bürgers kontrollieren und was kann man aus dessen Verhalten für Konsequenzen ziehen. Wo und wie kann der Bürger seine Rechte und seine Privatsphäre schützen und wie kann er sich gegen Maßnahmen, die die Behörde aufgrund von KI-Ergebnissen gegen ihn setzt, schützen?
Was plant Österreich?
Österreich tritt für eine strenge Regulierung des Einsatzes von KI ein und will schon vor dem In Kraft-Treten einer EU-weiten Regelung nationale Regeln erlassen und die Telekom-Regulierungsbehörde RTR als zuständige Behörde für KI installieren. So soll der Bürger erstens ein Recht darauf haben, zu wissen, wann er dem Einsatz von KI ausgesetzt ist. Als erstes sollen alle staatlichen Einrichtungen, also etwa auch die Polizei, jeden Einsatz von KI klar deklarieren. Jede mögliche Auswirkung eines KI-Einsatzes, öffentlich, oder privat, soll von einem Expertenrat kontrolliert werden.
➤ Mehr lesen: Maßnahmenpaket für Künstliche Intelligenz
Wie sieht es in anderen Ländern aus?
In den USA hat Präsident Joe Biden vor kurzem Leitlinien erlassen und Anbieter, die Risiken für die nationale Sicherheit und die öffentliche Gesundheit darstellen zu Überprüfungen verpflichtet. Auch Richtlinien zu Kennzeichnung von KI-generierten Inhalten sollen erarbeitet werden.
Auch die Gruppe der sieben führenden demokratischen Industriestaaten (G7) will Leitlinien für KI-Anbieter entwickeln. Diese zielen darauf ab, „sichere und vertrauenswürdige KI weltweit zu fördern“. Die Einhaltung des Kodex ist allerdings freiwillig und dürfte entsprechend zahnlos bleiben.
China arbeitet an einer Regulierung, die sicherstellen soll, dass die Technologie mit den sozialistischen Grundwerten der Volksrepublik übereinstimmen soll. Schon jetzt gibt es Sicherheitsbewertungen von Anbietern und Algorithmen. Auch eine schwarze Liste von Quellen, die nicht für das Training der Modelle herangezogen werden darf, wurde bereits erstellt.
Kommentare