Stresstest Ungarn-Wahl: KI als neue Dimension der Einflussnahme
Im US-Wahlkampf 2024 kursierten Videos, in denen Trump und Harris scheinbar Aussagen tätigten, die sie nie gesagt hatten. In Polen wurden manipulierte Tonaufnahmen eingesetzt. In Georgien verbreiteten sich täuschend echte Falschmeldungen über soziale Medien. Der Einsatz KI-gestützter Deepfakes zur politischen Einflussnahme ist bereits gelebte Realität.
Die Ungarn-Wahl galt als europäischer Stresstest. Heute lässt sich sagen: Dieser Test hat deutliche Spuren hinterlassen. Beobachter:innen registrierten im Wahlkampf eine Vielzahl an Desinformationskampagnen mit unterschiedlichen Dynamiken. Das war nie nur ein nationales Phänomen, sondern ein Signal an ganz Europa.
Marlon Possard.
Deepfakes sind ein strategisches Instrument, das gezielt Vertrauen zerstören kann. In Wahlkämpfen können sie Stimmungen kippen, Zweifel säen und den Diskurs vergiften. Bereits ein einziges Video, zur richtigen Zeit veröffentlicht, kann ausreichen, um Wahrnehmungen nachhaltig zu verändern. Dabei liegt die eigentliche Gefahr nicht (nur) in der Fälschung selbst. Ebenso bedrohlich ist der sog. Lügner:innenbonus: Echte Inhalte werden dabei als Fälschung abgetan. Wenn alles potenziell manipuliert ist, verliert auch die Wahrheit ihre Überzeugungskraft.
Grenzüberschreitend
Die ungarischen Wahlen haben exemplarisch gezeigt, wie anfällig demokratische Prozesse geworden sind. Im Duell Orbán vs. Magyar spielte nicht nur die Programmatik eine Rolle, sondern zunehmend auch die Frage, welchen Informationen überhaupt noch zu trauen ist. Digitale Inhalte verbreiteten sich grenzüberschreitend, wurden adaptiert und weiterverarbeitet. Was in Budapest viral ging, war kurz darauf auch in Wien Teil politischer Debatten.
Juristisch stehen wir vor einem strukturellen Problem. Bestehende Regelungen – vom Persönlichkeitsrecht bis zum Wahlrecht – greifen zu kurz, wenn Manipulation kaum mehr erkennbar ist und sich in Sekunden verbreitet. Der Rechtsstaat versucht, darauf zu reagieren, aber er reagiert zu langsam. Alle Regulierungsinitiativen, sowohl auf EU-Ebene als auch auf nationaler sowie globaler Ebene, sind wichtige Schritte, doch sie bleiben hinter der Dynamik technologischer Entwicklungen zurück. Die Lücke zwischen Möglichkeit und Kontrolle wächst sukzessive.
Die eigentliche Herausforderung ist grundlegender: Wie widerstandsfähig sind unsere Demokratien gegenüber systematischer Täuschung? Demokratie lebt vom Vertrauen in überprüfbare Informationen. Demokratische Gesellschaften sind besonders anfällig für digitale Manipulation, gleichzeitig tragen sie besondere Verantwortung, ihre demokratischen Prozesse zu schützen.
KI ist nicht von Natur aus gefährlich, doch ihr Einsatz im politischen Raum zeigt: Solche Systeme besitzen das Potenzial, bestehende Konflikte zu verstärken und neue Möglichkeiten der Manipulation zu schaffen. Wer freie Wahlen schützen will, muss auch ihre digitale Integrität sichern. Andernfalls triumphieren am Ende nicht die besten politischen Argumente, sondern die überzeugendsten Fälschungen.
Zum Autor:
Marlon Possard ist Experte für KI, Recht und Ethik. Er lehrt und forscht in Wien, Berlin, London und Harvard.
Kommentare