Die EU strebt einen risikobasierten Ansatz für die Regulierung von KI an. Anwendungen sollen entsprechend des von ihnen ausgehenden Risikos reguliert werden. Das Spektrum reicht von minimalen und geringen und hohen bis hin zu unannehmbaren Risiken. Was konkret welchem Bereich zugeordnet werden soll, wo es Ausnahmen geben und welche Verpflichtungen den Anbietern und Nutzern dadurch erwachsen sollen, ist aber strittig.
➤ Mehr lesen: Signal-Chefin: "Künstliche Intelligenz ist nervig und meist nutzlos"
Was sind die Streitpunkte?
Die "Datenstaubsauger": Im Mittelpunkt stehen die "Basismodelle", die ChatGPT und Co. zugrundeliegen. Sie werden ja durch die freie Verfügbarkeit für Jedermann ständig mit neuen, auch oft sehr persönlichen Daten gefüttert. Wie viel Kontrolle soll es über diese Daten und was die KI mit ihnen anstellt geben? Das Parlament will strenge Regeln - Länder wie Deutschland und Frankreich wollen Start-Ups und Entwickler in diesem Bereich nicht bremsen und setzen auf die Selbstverpflichtung der Unternehmen. Auch weil mit Aleph Alpha und Mistral Unternehmen aus Deutschland bzw. Frankreich an Basismodellen arbeiten und befürchten den Anschluss an die US-Konkurrenz - vom ChatGPT-Macher OpenAi bis hin zu Google und der Facebook-Mutter-Meta - zu verlieren.
Die Frage der Verantwortung: Schon jetzt setzen Banken oder Versicherungen KI ein, um ihre Kunden genauer unter die Lupe zu nehmen. So kann man deren persönlichen, oder wirtschaftlichen Hintergrund dazu verwenden, um etwa Kreditzinsen, oder Versicherungsprämien anzupassen. Ähnliches könnte im Gesundheitswesen passieren, wo das Verhalten der Patienten und ihre gesundheitliche Biografie über Art, Ausmaß, oder Kosten von Behandlungen mitentscheidet. In China werden so bereits Kinder beurteilt, um über die Aufnahme in eine Schule zu entscheiden. All das wirft die Frage auf: Wer ist für die KI und die Folgen ihres Einsatzes in solchen Fällen verantwortlich: Die Bank, oder der Programmierer, der die KI entworfen und für den Einsatz angepasst hat?
Bürger unter Kontrolle: Staatliche Behörden setzen auch in EU-Ländern längst Gesichtserkennungs-Software zur Überwachung der Bürger im öffentlichen Raum ein. Wie engmaschig können Behörden den Alltag eines Bürgers kontrollieren und was kann man aus dessen Verhalten für Konsequenzen ziehen. Wo und wie kann der Bürger seine Rechte und seine Privatsphäre schützen und wie kann er sich gegen Maßnahmen, die die Behörde aufgrund von KI-Ergebnissen gegen ihn setzt, schützen?
Was plant Österreich?
Österreich tritt für eine strenge Regulierung des Einsatzes von KI ein und will schon vor dem In Kraft-Treten einer EU-weiten Regelung nationale Regeln erlassen und die Telekom-Regulierungsbehörde RTR als zuständige Behörde für KI installieren. So soll der Bürger erstens ein Recht darauf haben, zu wissen, wann er dem Einsatz von KI ausgesetzt ist. Als erstes sollen alle staatlichen Einrichtungen, also etwa auch die Polizei, jeden Einsatz von KI klar deklarieren. Jede mögliche Auswirkung eines KI-Einsatzes, öffentlich, oder privat, soll von einem Expertenrat kontrolliert werden.
➤ Mehr lesen: Maßnahmenpaket für Künstliche Intelligenz
Wie sieht es in anderen Ländern aus?
In den USA hat Präsident Joe Biden vor kurzem Leitlinien erlassen und Anbieter, die Risiken für die nationale Sicherheit und die öffentliche Gesundheit darstellen zu Überprüfungen verpflichtet. Auch Richtlinien zu Kennzeichnung von KI-generierten Inhalten sollen erarbeitet werden.
Auch die Gruppe der sieben führenden demokratischen Industriestaaten (G7) will Leitlinien für KI-Anbieter entwickeln. Diese zielen darauf ab, „sichere und vertrauenswürdige KI weltweit zu fördern“. Die Einhaltung des Kodex ist allerdings freiwillig und dürfte entsprechend zahnlos bleiben.
China arbeitet an einer Regulierung, die sicherstellen soll, dass die Technologie mit den sozialistischen Grundwerten der Volksrepublik übereinstimmen soll. Schon jetzt gibt es Sicherheitsbewertungen von Anbietern und Algorithmen. Auch eine schwarze Liste von Quellen, die nicht für das Training der Modelle herangezogen werden darf, wurde bereits erstellt.
Kommentare