KI: Wer haftet, wenn der Pflegeroboter eine Patientin verletzt?
„Wer weiß, ob wir noch rechtzeitig sind?“ Nationalratspräsident Wolfgang Sobotka macht keinen Hehl daraus, dass die Politik die technischen Entwicklungen bei der Künstlicher Intelligenz (KI) möglicherweise etwas verschlafen hat.
Am Montag sprachen Experten im Hohen Haus über die Auswirkungen von KI auf Gesellschaft und Demokratie. Und wer bei dem Forum genau zuhörte, den beschlich stellenweise das Gefühl: Vermutlich hat Wolfgang Sobotka Recht. Denn in viele Wortmeldungen von Juristen und Philosophen klang durch, dass die Politik technisch und auch formal gar nicht mehr in der Lage dazu ist, KI sinnvoll zu regeln.
Iris Eisenberger, Professorin für Innovation und Öffentliches Recht an der Universität Wien, beschäftigten vor allem die vielen unbeantworteten rechtsethischen Fragen: Was passiert, wenn der KI-betriebene Pflegeroboter ein Problem bei der Spracherkennung hat und eine Patientin schädigt? Was, wenn KI-betriebenen Lügendetektoren Fehler unterlaufen, wenn sie Emotionen von Menschen falsch bewerten oder einschätzen?
Der Ursprung der Künstlichen Intelligenz (kurz: KI) reicht bis in die 1950er Jahre zurück, als Forscher anfingen, Computerprogramme zu entwickeln, die einfache Probleme wie ein Mensch lösen konnten. Seitdem hat sich die KI exponentiell weiterentwickelt. Heutige Systeme sind in der Lage, komplexe Aufgaben zu erfüllen, von Gesichtserkennung bis hin zu Sprachübersetzung.
Es gibt zwei Haupttypen von KI: schwache und starke KI. Schwache KI, auch als schmale KI bekannt, ist auf eine bestimmte Aufgabe spezialisiert, wie z.B. die Spracherkennung.
Starke KI simuliert hingegen das menschliche Gehirn in vielerlei Hinsicht und kann verschiedene komplexe Aufgaben erlernen und ausführen.
Die derzeit berühmteste Anwendung ist ChatGPT, eine Anwendung von OpenAI, das menschenähnliche Texte generiert und auf Nutzeranfragen in natürlicher Sprache reagiert.
Kritiker äußern Bedenken hinsichtlich der Ethik und des Potenzials von KI, Arbeitsplätze zu verdrängen. Vielfach wurde daher die Forderung laut, dass wir als Gesellschaft Richtlinien entwickeln, die sicherstellen, dass KI zum Wohle aller eingesetzt wird.
Die KI-Verordnung der Europäischen Union beinhalte viele systemische Gefahren gar nicht oder zu wenig, lautet Eisenbergers These. Und zugespitzt lässt sich das Ganze am Beispiel von Chat GPT demonstrieren: Während „jedes Restaurant und jedes Produkt“ in Europa eine Fülle an Auflagen und Voraussetzungen erfüllen müsse, bevor es auf den Markt und damit unter Menschen dürfe, sei Chat GPT weitgehend „ohne externe Qualitätskontrollen“ veröffentlicht worden.
Digitaler Souverän
Für Meinhard Lukas, den Rektor der Johannes-Kepler-Universität Linz, ist es längst ein Faktum, dass digitale Konzerne (Amazon, Apple, Meta, etc.) Tempo und Richtung vorgeben. „Im globalen Raum sind die Big Techs der digitale Souverän.“
Die Politik agiere „im Nebel“. Nationale Parlamente und auch die EU stünden vor der Aufgabe, mit KI-Systemen wie Chat GPT etwas regulieren zu müssen, was sie im Detail nicht kennen oder verstehen. Nicht unbedingt aus Unvermögen, sondern einfach deshalb, weil das gesamte Know How mittlerweile bei den (zu regulierenden, Anm.) Tech-Konzernen selbst liegt. „Misinformation“ oder „Manipulation“ seien neben all den Möglichkeiten der KI einfach „große Gefahren“.
Die KI ist ein "metaphysischer Sprung" für die Menschheit
Einen Tick skeptischer sieht die Sache Sarah Spiekermann-Hoff, Institutsleiterin für Wirtschaftsinformatik und Gesellschaft an der Wirtschaftsuniversität Wien. Die neue Generation der KI stelle für die Menschheit einen „metaphysischen Sprung“ dar. Und angesichts der Qualität und Fülle an Daten, die in US-amerikanischen Clouds verknüpft und zum Lernen der KI herangezogen und verwendet würden, kündige sich eine „Macht-Asymmetrie“ an, die noch stärker sei als die gegebene Markt-Beherrschung von Konzernen wie google.
Dem stehe gegenüber, dass KI keine Wahrheit produziere. Mehr noch: Alles auf die Zukunft gerichtete werde uninteressant oder weniger wichtig. „Neue Bauweisen in der Architetur, Originelle Rechtssprechung in der Juristerei“ - all das werde durch KI schleichend zurückgedrängt, weil die KI ja nur mit existierenden und damit historischen Daten arbeite, selbst aber keine Kreativität entfalte.
Für Spiekermann-Hoff versagt die KI vor allem bei einer großen Frage, nämlich: Wie sieht es mit der Verantwortung aus? Denn während „Genauigkeit, Verlässlichkeit und Reproduzierbarkeit“ bis dato die schlagenden Argumente für den Einsatz von Maschinen in Wirtschaft und Gesellschaft gewesen seien, treffe dies auf Chat-Programme nur noch bedingt zu. Bei diesen würde man sich plötzlich damit zufriedengeben, dass sie nicht hundertprozentig richtig und zutreffend Auskunft geben. „Verantwortung diffundiert. Und plötzlich ist niemand mehr für etwas verantwortlich.“
Kommentare