Tursky: "Wir werden so etwas wie eine KI-Behörde brauchen"

Selbstfahrende Autos, Amazon-Supermärkte ohne Personal, ChatGPT. Im Silicon Valley ist längst klar, dass Künstliche Intelligenz das nächste große Ding nach der Erfindung des Smartphones ist. Noch steckt die Entwicklung allerdings in den Kinderschuhen, die Fehleranfälligkeit ist groß und für Nutzer der KI wenig bis gar nicht einschätzbar.
Anthony Corso, KI-Experte der Stanford University, liefert bei einem Besuch von Staatssekretär Florian Tursky ein Praxisbeispiel aus dem Bereich autonomes Fahren. Zwar erkennt das Auto ein Stopp-Schild, doch ist dieses mit Graffiti besprüht und diversen Stickern versehen, wird die Künstliche Intelligenz fehleranfällig. Zu wie viel Prozent man sich auf sie verlassen kann, gibt die KI aber noch nicht an, sagt der Experte und fügt hinzu: „Das muss sich ändern“.
Ein Gespräch mit Digitalisierungsstaatssekretär Florian Tursky am Rande eines Besuchs im Silicon Valley.
KURIER: Alle hier reden von Künstlicher Intelligenz. Haben Sie sie auf diesem Trip schon genutzt?
Florian Tursky: Jeder der ein Smartphone besitzt, nutzt Künstliche Intelligenz. Oft ohne es zu wissen. Ich habe gerade eben ChatGPT gefragt, ob es Sinn macht, Delikte unter 1.000 Euro straffrei zu stellen, so wie es in San Francisco gerade passiert ist. Die KI hat gute Argumente dafür und dagegen geliefert.
Auf Basis welcher Quellen?
Genau das ist das Problem, das ist nicht transparent. Die Quellen, auf die die KI zugreift, sind nicht überprüfbar, das wird noch eine riesige Herausforderung. Dagegen sind Fake News, wie wir sie bisher kannten, ein Kindergeburtstag. Es wird auf jeden Fall notwendig sein, transparent zu machen, wo man mit KI konfrontiert ist. Gleichzeitig wird eine Klassifizierung notwendig. Wenn eine KI zum Beispiel aus China kommt und ideologisch mit den Grundsätzen des Sozialismus einhergeht, muss das erkennbar sein.
Wer soll so eine Klassifizierung machen?
Vorgesehen ist, dass diese KI-Lösungen auf einer Risiko-Pyramide im AI-Act einteilt werden sollen. Von wenig Risiko – wie zum Beispiel Netflix, bis High-Risk, etwa im Gesundheitsbereich. Wir werden so etwas wie eine KI-Behörde brauchen, dürfen damit aber nicht die Innovation aufhalten. Allen großen Firmen ist bewusst, dass es dringend eine KI-Regulierung braucht, das haben wir auch im Silicon Valley gehört. In USA schaut man jetzt auf den AI-Act in Europa und geht davon aus, dass dieser in US-Recht übertragen wird.
Und wie sollen Klein- und Mittelbetriebe ohne große Rechtsabteilungen dann mitspielen?
Die Herausforderung ist, dass wir Standardisierungen brauchen, die auch den KMU schnelle Rechtssicherheit bringen.
Wie viele Unternehmen in Österreich produzieren, forschen oder arbeiten aktiv an Künstlicher Intelligenz?
Um die 100 Firmen ...
Überschaubar. Laut dem KI-Pionier Sepp Hochreiter von der Johannes-Kepler-Universität Linz fehlt es Österreich an Geld und Strategie. Sind da nicht Sie gefordert?
Die Österreichische Forschungsförderungsgesellschaft (FFG) hat KI in den verschiedenen Programmen von 2012 bis 2022 mit 1,3 Mrd. Euro gefördert. Alleine 2021 und 2022 sind so rund 500 Millionen in KI-Projekte geflossen. Wir haben es also geschafft gute Förderungen aufzusetzen. Wo wir aber sicher immer noch mehr machen können, ist die KI-Grundlagenforschung.
Der Entwurf für die erste weltweite Regulierung der Künstlichen Intelligenz sieht vor, dass KI-Systeme nach ihrem Risikoniveau eingestuft werden, von minimal über begrenzt und hoch bis inakzeptabel. Systeme mit hohem Risiko würden zwar nicht verboten. Bei ihrem Einsatz wäre jedoch ein hohes Maß an Transparenz vorgeschrieben. Bei generativer KI müsste offenlegt werden, ob urheberrechtlich geschütztes Material bei der Entwicklung verwendet wurde.
Kommentare