ChatGPT kann bald auch Stimmen täuschend echt imitieren

ChatGPT kann bald auch Stimmen täuschend echt imitieren
Programm "Voice Engine" löst Bedenken wegen Manipulationen bei EU- und US-Präsidentschaftswahlen

Der ChatGPT-Entwickler OpenAI sorgt mit einem neuen Programm zum Klonen von Stimmen für Diskussionen. "Voice Engine" könne die Stimme eines Menschen auf Basis eines 15-sekündigen Audio-Originals duplizieren, heißt es in einem Blogeintrag von OpenAI am Freitag.

Darin werden die Ergebnisse eines Tests mit dem Programm vorgestellt. Fachleute fürchten einen Missbrauch von Anwendungen, die Künstliche Intelligenz (KI) nutzen speziell im Jahr der EU- und US-Präsidentschaftswahlen.

OpenAI ist sich des Problems bewusst 

OpenAI erklärte, sich dieser Probleme bewusst zu sein. Man sei sich bewusst, dass die Erzeugung von Stimmen, die denen von Menschen ähneln, ernsthafte Risiken birgt, die in einem Wahljahr besonders zu beachten seien, erklärte das Unternehmen aus San Francisco. Man arbeite mit Partnern unter anderem aus den Bereichen Politik, Medien, Unterhaltung, Bildung und Zivilgesellschaft zusammen, ihr Feedback werde bei der Entwicklung berücksichtigt.

ChatGPT-Entwickler OpenAI feuerte seinen Chef Sam Altman

ChatGPT-Entwickler Sam Altman

"Vorsichtiger Ansatz" bei der Entwicklung

Aufgrund des Potenzials für den Missbrauch synthetischer Stimmen habe sich das Unternehmen für einen "vorsichtigen" Ansatz für eine breitere Freigabe entschieden. Partner, die "Voice Engine" testeten, hätten Regeln zugestimmt. Diese sehen demnach unter anderem die ausdrückliche Zustimmung jedes Menschen vor, dessen Stimme mit dem Programm dupliziert wird. Außerdem müsse den Hörern deutlich gemacht werden, dass die Stimmen, die sie hören, von KI generiert wurden.

Das Unternehmen, das im November 2022 mit der Einführung von ChatGPT für Furore gesorgt hatte, stellte im Februar  auch eine KI-Anwendung zur Produktion realistischer Videos namens Sora vorgestellt.

Kommentare