Was Künstliche Intelligenz darf und was nicht
Künstliche Intelligenz kommt heute in fast allen Lebensbereichen zum Einsatz. Empfehlungssysteme von Online-Shops gehören ebenso dazu wie Sprachassistenten am Handy oder das Erstellen von Texten, Bildern und Videos durch Systeme wie ChatGPT oder Googles Gemini.
Auch beim schnellen Auswerten von Röntgenbildern in der Medizin, bei der Qualitätskontrolle und der Steuerung von Robotern in der Industrie oder bei der Betrugserkennung bei Finanztransaktionen ist KI nicht mehr wegzudenken. Die Technologie bringt viele Vorteile für Gesellschaft und Wirtschaft, birgt aber auch Risiken. Der KURIER fasst die wichtigsten Fragen und Antworten zum KI-Gesetz der EU zusammen.
Warum braucht es Regeln für KI?
Die EU will sicherstellen, dass der Einsatz von KI sicher, transparent, nachvollziehbar und nicht diskriminierend erfolgt und die Grundrechte gewährleistet sind. Bestehende Rechtsvorschriften reichen nicht aus, um Herausforderungen anzugehen, die die Technologie mit sich bringt, heißt es aus der Kommission.
Wie wird KI in der EU reguliert?
KI-Anwendungen werden in Risikogruppen unterteilt. Die reichen von Systemen mit unannehmbarem Risiko bis hin zu Systemen mit begrenztem oder minimalem Risiko.
Was bedeutet das konkret?
Je nach Risikostufe unterliegen Anwendungen unterschiedlichen Verpflichtungen. Systeme mit unannehmbarem Risiko werden verboten. Systeme mit minimalem Risiko unterliegen keinerlei Beschränkungen. Rund 85 Prozent der KI-Anwendungen sind nach Schätzungen der EU-Kommission von der Regulierung nicht betroffen, darunter etwa Spamfilter oder Empfehlungssysteme. Für sie will die EU-Kommission aber freiwillige Regeln anregen.
Welche Systeme werden verboten?
Dazu zählen etwa Systeme, die auf Grundlage von Sozialverhalten oder persönlichen Merkmalen Bewertungen vornehmen, die zu einer Schlechterstellung führen („Social Scoring“) oder Personen aufgrund biometrischer Daten im öffentlichen Raum in Echtzeit identifizieren, etwa durch Gesichtserkennung. Das ist Strafverfolgungsbehörden aber in bestimmten Fällen erlaubt, etwa bei Terrorismus.
Verboten ist auch der Einsatz von Emotionserkennung am Arbeitsplatz oder in der Schule. Zu sicherheitstechnischen Zwecken, etwa zur Überwachung der Müdigkeit bei Piloten, ist sie aber erlaubt. Auch KI-Systeme, die unterschwellige, manipulative Techniken einsetzen, dürfen nicht in Umlauf gebracht werden. Darunter fällt auch Spielzeug, das mit einem Sprachassistenten ausgestattet ist.
Was gilt als Hochrisikoanwendung?
KI-Systeme, die im Bereich der kritischen Infrastruktur, etwa bei selbstfahrenden Autos im Verkehr oder in der Bildung, zum Beispiel bei der Bewertung von Prüfungen, zum Einsatz kommen. Auch der Einsatz von KI im Personalmanagement, etwa bei Einstellungsverfahren, oder bei der Kreditbewertung, gilt als hochriskant. KI-Systeme, die in der Produktsicherheit, beispielsweise bei Aufzügen, eingesetzt werden, zählen auch dazu.
KI, die in der Strafverfolgung, bei der Grenzkontrolle oder in der Justiz zum Einsatz kommt, fällt ebenso unter die Kategorie. Für solche Systeme müssen Risikobewertungen und Folgeabschätzungen vorgelegt werden. Auch menschliche Aufsichtsmaßnahmen müssen gewährleistet sein.
Welche Regeln gelten für ChatGPT & Co?
Für solche Modelle mit allgemeinen Verwendungszweck sind vorwiegend Transparenzverpflichtungen vorgesehen. Anbieter müssen etwa Informationen zu Trainingsinhalten bereitstellen. Sie müssen auch sicherstellen, dass beim Training nicht gegen das Urheberrecht verstoßen wurde. Nutzer müssen darüber aufgeklärt werden, dass sie mit KI interagieren. Anbieter müssen dafür sorgen, dass KI-generierte Texte, Bilder oder Videos als solche erkennbar sind.
Bei besonders leistungsfähigen Modellen, etwa GPT 4, das bei ChatGPT Plus zum Einsatz kommt, wird von systemischen Risiken ausgegangen. Anbieter müssen Risikobewertungen vorlegen, schwerwiegende Vorfälle melden und Angaben zum Energieverbrauch liefern. Die EU-Kommission will noch einen Verhaltenskodex für solche Modelle erarbeiten.
Für wen gelten die Regeln?
Der AI Act gilt für öffentliche Stellen und Unternehmen, die KI-Systeme in der EU in Verkehr bringen oder wenn Menschen in der EU davon betroffen sind. Das betrifft sowohl Anbieter von Programmen, die auf KI zurückgreifen, als auch Entwickler von KI-Systemen. Das bedeutet, dass auch Unternehmen, die solche Programme einsetzen, unter die Regelung fallen.
Ab wann gelten die Regeln?
Sie werden stufenweise schlagend. Die Regel für verbotene KI-Systeme gilt ab dem 2. Februar 2025. Ab August 2025 müssen die Transparenzregeln für KI-Modelle mit allgemeinen Verwendungszweck, also etwa ChatGPT & Co, eingehalten werden. Die Regeln für Hochrisikosysteme folgen 2026 und 2027.
Welche Strafen drohen bei Verstößen?
Je nach Kategorie und Anwendung werden Strafen zwischen 7,5 Mio. und 35 Mio. Euro oder zwischen einem und 7 Prozent des Jahresumsatzes fällig.
Kommentare