Meinung/Gastkommentar

Künstliche Intelligenz: Der vorerst misslungene Clou

Erste Anwendungen künstlicher Intelligenz (KI) wurden der globalen digitalen Öffentlichkeit offenbar zu früh und voreilig „zum Fraß“ vorgeworfen. Die Ergebnisse sind zum Teil unfreiwillig komische Chat-Programme und lächerliche Text-Generatoren. Auf den ersten Blick hat die haarsträubend unzureichende Qualität von KI etwas Beruhigendes. Vorerst braucht man sich über deren Übernahme der Weltherrschaft keine Gedanken zu machen. Noch bleibt die menschliche Intelligenz die bei weitem größte Gefahr. Doch schon in den kommenden Jahren wird sich der Einbruch von KI in sämtliche Lebensbereiche bemerkbar machen. Mit Folgewirkungen für die globale Koexistenz. Die hohe digitale Veränderungsdynamik wird umfassendste Anpassungsleistungen der Menschen an die profitgetriebenen Veränderungsprozesse fordern. Chancen für einige, Katastrophen für viele. Durch die in Gang gesetzten digitalen Change-Prozesse ändern sich in letzter Konsequenz auch globale Machtverhältnisse. Ethisch fundierte Regelwerke für den Umgang mit diesem Anstieg von Entwicklungsgeschwindigkeit und deren Einfluss auf den Menschen existieren noch nicht. Erste Leitlinien supranationaler Organisationen, nationaler Institutionen und NGOs können mit der ungleich schnelleren und mit gewaltigen finanziellen Ressourcen ausgestatteten globalen Entwicklung von KI nicht einmal ansatzweise mithalten.

Dass die Kräfte des Marktes für ausgleichende Wirkung zwischen ethischen Forderungen und der gewinnorientierten Entwicklung von KI sorgen könnten, darf bezweifelt werden. Werden die Datenmengen, mit denen LLM (Large Language Models) „trainiert“ werden, tatsächlich zuerst „gesäubert“? Etwa von Rassismen, Hass-Sprache und Vorurteilen befreit? Oder wird nur beliebiger Content aus dem Internet – aus Kostengründen ungefiltert – herangezogen und samt sprachverschmutzter Social-Media-Inhalte als Trainingsdaten verwendet? Denn die Reinigung von Trainingsdaten ist kostenintensiv, wodurch es die Unternehmensgewinne schmälert. Neben zahlreichen positiven Entwicklungen, etwa im diagnostischen Bereich des Gesundheitswesens, in der Unterstützung wirtschaftlicher Planungs- und Entscheidungsstrukturen sowie der Steuerung komplexer Prozesse, wird die KI zukünftig auch autonome oder teilautonome Waffensysteme dirigieren.

Letztere werden nicht nur selbsttätig Entscheidungen über Leben und Tod treffen und exekutieren, sondern auch aus den gewonnen Daten „lernen“ und die Algorithmen autonom verändern. Insbesondere in Fällen von Fehlern und Fehlentscheidungen droht sich die Frage nach der Zuordenbarkeit von Verantwortung und Schuld künftig im Geflecht digitaler Entscheidungsautonomie aufzulösen. Die Politik wird weltweit aller Wahrscheinlichkeit nach wieder zu spät oder gar nicht reagieren. Im Moment ist dieses politische Nicht-Handeln aufgrund des „KI-Einführungsbauchflecks“ noch konsequenzlos. Doch das bleibt nicht so bequem.

Paul Sailer-Wlasits ist Sprachphilosoph und Politikwissenschafter