Was geschieht, wenn die KI zum „Täter“ wird?

Chatbot with graphic elements vector illustration
Die Weiterentwicklung der Künstlichen Intelligenz wirft auch die Frage auf, wie zukunftsfit das österreichische Strafrecht ist. Ein Gastkommentar von Simone Tober und Daniel Gilhofer-Lenglinger.

Der AI-Act ist derzeit aufgrund dessen teilweisen Geltungsbeginns seit Anfang Februar in aller Munde. Doch auch abseits des regulatorischen Rahmens für Künstliche Intelligenz (KI) stellt sich aufgrund der wachsenden Anwendungsmöglichkeiten von KI-Systemen in anderen Rechtsgebieten die Frage, ob diese „zukunftsfit“ sind. Bezogen auf das Strafrecht ist im Besonderen relevant, ob bestehende Regelungen ausreichen, um die Risiken und Potenziale von KI angemessen zu erfassen, zumal im Strafgesetzbuch (StGB) keine spezifischen KI-Straftatbestände bestehen.

Grundsätzlich kann KI auf verschiedene Weise mit dem materiellen Strafrecht in Berührung kommen: als Tatmittel, als Angriffsziel oder gar als eigenständiger Akteur.

Was geschieht, wenn die KI zum „Täter“ wird?

Simone Tobers

Straftaten mithilfe von KI

Sprachassistenten wie ChatGPT werden zunehmend dazu verwendet, uns neue Denkanstöße zu geben und unterstützen bei Übersetzungen und der Formulierung von E-Mails. Diese nützlichen Funktionen können aber auch für kriminelle Zwecke missbraucht werden. So können Betrüger über die KI beispielsweise Phishing-Mails formulieren lassen, um Opfer zu täuschen.

In solchen Fällen bleibt der Mensch strafrechtlich verantwortlich, weil er die KI gezielt zur Tatbegehung einsetzt. Die KI ist hier lediglich als Tatwerkzeug zu betrachten, sodass z.B. der Straftatbestand des Betrugs weiterhin greift.

Was geschieht, wenn die KI zum „Täter“ wird?

Daniel Gilhofer-Lenglinger

Angriffe auf KI-Systeme

Auch Angriffe auf KI-Systeme sind strafrechtlich erfasst, da sie strafrechtlich als Computersysteme gelten. Beispielsweise kann das Hacken eines KI-gesteuerten Smart-Home-Systems den Straftatbestand des widerrechtlichen Zugriffs auf ein Computersystem erfüllen. Wird das gehackte System genutzt, um jemandem die Freiheit zu entziehen – etwa durch das elektronische Verschließen von Türen – greifen klassische Straftatbestände wie Freiheitsentziehung.

Auch ohne Hacking können verpönte Handlungen gegen KI-Systeme strafbar sein wie das Beispiel KI-gestützter Chatbots im Onlinehandel zeigt: Hat ein Kunde über einen KI-gestützten Bestellvorgang Waren bestellt, ohne sich zahlungswillig zu zeigen, entfällt eine Betrugsstrafbarkeit mangels getäuschtem Menschen. Derartige Fälle sind jedoch durch den Straftatbestand des betrügerischen Datenverarbeitungsmissbrauchs abgedeckt.

Straftaten durch KI

Die größte Herausforderung für das Strafrecht ergibt sich, wenn KI nicht Tatmittel ist, sondern selbst „Täter“ wird. Dies könnte zukünftig etwa bei autonomen Fahrzeugen relevant werden, wenn das KI-System einen Unfall mit Personenschaden verursacht. In solchen Fällen stellt sich u.a. die Frage nach der strafrechtlichen Verantwortlichkeit: Können Fahrzeuginsassen haftbar gemacht werden? Oder trifft die Verantwortung Programmierer und Hersteller?

In der Regel wird man diesen Personen bei sorgfaltsgemäßen Verhalten keine strafrechtlichen Vorwürfe machen können. Soll eine Strafbarkeitslücke in diesen Fällen vermieden werden, bedarf es wohl einer maßgeschneiderten Lösung des Gesetzgebers.

Simone Tober und Daniel Gilhofer-Lenglinger sind Rechtsanwälte bei LeitnerLaw

Kommentare