Leben/Gesellschaft

Auf der Jagd nach Nachrichten-Enten

Die Meldung über eine brutale Bande hatte sich vor einigen Wochen rasant im Netz verbreitet – via Whatsapp und Facebook: Kriminelle verteilten Handschuhe auf Weihnachtsmärkten und Parkplätzen großer Einkaufszentren. Darin eingenäht: Nadeln, die ein Betäubungsmittel in die Fingerkuppen injizierten. Die Opfer seien vor allem junge Frauen, die alleine unterwegs sind. Sobald das Gift wirke, würden die Frauen ausgeraubt und vergewaltigt.

Klingt schlimm, ist aber Unsinn. Es handelt sich um eine Falschmeldung, einen Hoax, der sich vor allem in Deutschland verbreitet hat. Hoax-Jäger kennen diese und andere Horrormeldungen wie Rattengift in Cola-Dosen, Bandwurmeier in der Sushi-Box oder leergeräumte Paypal-Konten nur zu gut. Seit mehr als 15 Jahren bekämpfen die IT-Fachleute die Lügengeschichten im Netz. Hunderte Hoaxes wurden enttarnt, über die Hintergründe der Enten wurde aufgeklärt.

Doch der Job der Enten-Jäger wird immer schwieriger. Musste man früher nur eMails im Auge behalten, so hat man es heute mit Lug und Trug in Kurznachrichtendiensten wie Twitter, Messenger wie Whatsapp und sozialen Netzwerke wie Facebook zu tun. Dort verbreiten sie sich so rasant wie nie zuvor.

Jetzt bekommen die Hoax-Experten Unterstützung. Arno Scharl will die Vertrauenswürdigkeit von viral verbreiteter Information in Social Media automatisch beurteilen. Und der Leiter des Instituts für Neue Medientechnologie der Modul Uni­versity Vienna ist nicht alleine mit seinen Plänen, denn sein Team ist Teil des neuen EU-Forschungsprojekts „Pheme“, an dem Partner aus sieben Ländern teilnehmen. Die Wissenschaftler wollen der Gerüchteküche 2.0 mit linguistischen und grafischen Methoden zu Leibe rücken und sie mit Technologien zur Big-Data-Analyse kombinieren.

Wahr oder falsch

„Traditionelle Medien – ob digital oder analog – verlieren derzeit ihre Informationshoheit. Social-Media-Nutzer übernehmen diese immer mehr und verbreiten Informationen in ungeahnter Geschwindigkeit. Da wird aus einer Mücke rasch ein Elefant – oder aus einem Nieser die Angst vor einer globalen Pandemie“, sagt Scharl und arbeitet mit seinem Team an einer Suchmaschine, die Meldungen nicht nur als „alt oder neu“, sondern auch als „wahr oder falsch“ gewichtet.

Dazu muss für jeden Inhalt ein Vertrauenswert ermittelt werden, erklärt er. „Wir analysieren die sozialen Netzwerke: Wer spricht mit wem, wer sind die Meinungsführer, was wird kommuniziert? Handelt es sich um eine Quelle, die sich in der Vergangenheit als vertrauenswürdig erwiesen hat?“

Natürlich gäbe es Autoren, die immer wieder Lügen verbreiten. Die werden in Scharls Programm nach dem Motto „Wer einmal lügt, dem glaubt man nie“ im Vertrauensindex gnadenlos hinuntergestuft. Scharl: „Ziel ist es, Spindoktoren zu erkennen, die Meinung manipulieren.“

Denn solche als „Meme“ bezeichnete Themen, die sich viral in Netzwerken verbreiten, stellen Regierungen und Unternehmen zunehmend vor große Herausforderungen. „Pheme“ soll also, wenn alles gut geht, eine Entscheidungshilfe für Policymaker und Entscheidungsträger werden.

„Wir schauen uns jede Woche Millionen von Dokumenten an und müssen redundante Inhalte erkennen“, erklärt der Medienwissenschaftler und sucht nach Copy-&-paste-Stellen. Er stellt sich die Frage: „Was ist Thema? Dazu gehen wir an die Schnittstellen der sozialen Videoplattformen, um uns die Informationen von der Quelle abzuholen. Wir bestimmen, ob das jeweilige Posting relevant ist. Wenn ja, wird es mit Metadaten angereichert. Wir beschlagworten es.“ All das passiert vollautomatisch. Automatisch heißt: Im Vorfeld Computerprogramme schreiben.

„Danach kann ich die Information nach Wahrheitsgehalt filtern. Es handelt sich also um nichts anderes als eine spezialisierte Suchmaschine.“

Arno Scharl interessiert sich besonders für die jüngsten Gerüchte zu Klimawandel und Medizin. In einer Studie soll überprüft werden, ob das System Gerüchte – wie den Ausbruch einer hoch ansteckenden Erkrankung (z. B. Schweinegrippe) – frühzeitig erkennen kann. Für den digitalen Journalismus wiederum wird mit der BBC und dem Südwestrundfunk die Glaubwürdigkeit User-generierten Contents getestet.

Denn: Bahnt sich eine Falschmeldung erst einmal ihren Weg durch das Internet, lässt sie sich nur schwer wieder einfangen. „Löschen lassen, liegt nicht in unserer Hand“, sagt Scharl. „Wenn jemand die Unwahrheit sagen will, hat er das Recht dazu.“ Letztlich helfe nur Aufklärung. „Dass es sich um Unsinn handelt, muss vor allem für die, die zu diesen Themen Entscheidungen treffen, erkennbar sein.“ Und dazu will das EU-Projekt einen Beitrag leisten – einen automatischen.