„Wir sind nicht so einfach zu manipulieren“

Missinformationen haben während der Corona-Pandemie stark zugenommen. Das Ausmaß der Verbreitung wird laut Forschern aber oft überschätzt.
Fake News: Hannah Metzler untersucht, wie Emotionen die Verbreitung von Falschinformationen beeinflussen.

Mit der Corona-Pandemie hat nicht nur die Angststimmung in der Bevölkerung zugenommen. Auch die Anzahl an Fake News in sozialen Netzwerken ist gestiegen. Ob Emotionen wie Angst und Wut zur Verbreitung von Fehlinformationen beitragen, untersucht ein Forschungsprojekt, das von der Neurowissenschaftlerin und Psychologin Hannah Metzler vom Complexity Science Hub in Wien geleitet wird.

Dass Fake News in Krisensituationen zunehmen, sei kein neues Phänomen, erzählt Metzler. „Wenn es Unsicherheiten gibt, versuchen Menschen zu verstehen, was passiert. Missinformationen bieten einfache Erklärungen, die klare Ursachen oder Schuldige ausweisen, und die Welt in Gut und Böse einteilen. Das kann ein Gefühl der Kontrolle in unsicheren Zeiten geben.“ Dafür, dass Menschen Nachrichten, die negative Emotionen hervorrufen, grundsätzlich eher glauben, fand das Team um Metzler bisher aber keine Belege.

Viele Faktoren

Negative Emotionen ziehen zwar unsere Aufmerksamkeit auf sich, das bedeute aber nicht, dass Nachrichten, die solche Emotionen hervorrufen, auch automatisch geglaubt werden. Das hänge von vielen anderen Faktoren ab, erläutert Metzler. Wer die Nachricht teilt und ob die Quelle vertrauenswürdig ist, spielt ebenso eine Rolle, wie die eigene Weltanschauung und ob die Nachricht damit konsistent ist. „Wenn Menschen sich ärgern, kann das sein, weil sie Missinformation als falsch erkannt haben. Deswegen bedeutet Wut nicht automatisch, dass sie die Nachricht glauben und weiter teilen werden“, sagt Metzler: „Wir sind nicht so einfach zu manipulieren.“

Für das Forschungsprojekt untersucht das Forscherteam Postings auf dem Kurznachrichtendienst Twitter aus Österreich. „Soziale Medien erlauben uns, die gesellschaftliche Dynamik von Emotionen rund um bestimmte Themen zu beobachten“, sagt Metzler.

„Wir sind nicht so einfach zu manipulieren“

Soziale Medien wie Facebook oder Twitter erlauben uns, die gesellschaftliche Dynamik von Emotionen rund um bestimmte Themen zu beobachten

von Hannah Metzler, Forscherin

Online-Experimente

Konkret werden dabei unter anderem die Häufigkeit von Wörtern, die bestimmte Emotionen ausdrücken, und die Verweise zu Nachrichtenquellen gezählt. Daneben werden in Online-Experimenten Proband*innen auch Nachrichtenbeispiele gezeigt und ihre Reaktionen beobachtet. Das Ausmaß der Verbreitung von Falschinformationen werde oft überschätzt, sagt Metzler. „Studien, die es bisher dazu gibt, zeigen ein anderes Bild.“ Fake News würden nur von einem geringen Prozentsatz oft politisch motivierter Nutzer verbreitet.

Metzler beziffert ihn unter Verweis auf Studien mit rund ein Prozent für die Jahre vor der Pandemie. Während der Corona-Pandemie gab es einen Anstieg: Rund neun Prozent der Interaktionen auf Facebook in Deutschland hätten mit News aus wenig vertrauenswürdigen Quellen stattgefunden. Trotzdem profitierten vertrauenswürdige Quellen genauso vom verstärkten Interesse.

Warum sind während der Corona-Pandemie dennoch Leute zu Corona-Leugnern geworden? „Die wenigsten Menschen haben komplett ihre Meinung geändert“, vermutet Metzler. Während der Pandemie hätten Themen wie Masken oder Impfen, die bis dahin nicht so wichtig gewesen seien, starke Alltagsrelevanz bekommen. „Menschen, die vorher schon skeptisch waren, haben sich jetzt bestätigt gefühlt und Gehör gefunden. Die Haltung zu diesen Themen wurde zum Zeichen einer Gruppen-Zugehörigkeit und dadurch stark emotionalisiert“, meint die Forscherin. Online-Netzwerke hätten bei der Politisierung solcher Themen sicher eine Rolle gespielt und vor allem extreme Ansichten sichtbar gemacht.

Soziale Medien könnten Dynamiken verstärken, die es in der Gesellschaft bereits gebe, sie seien aber vermutlich nicht die Hauptursache des Problems. Propaganda könne nur dann funktionieren, wenn sie auf fruchtbaren Boden falle und eine Grundstimmung bereits vorhanden sei. „Wenn Menschen das Gefühl haben, dass sie nicht gehört und ihre Interessen nicht berücksichtigt werden, sind sie eher empfänglich für Fake News, die mit viel Emotion daherkommen“, sagt Metzler.

Symptom

Fake News seien ein Symptom, das Konflikte in der Gesellschaft aufzeige. Emotionen seien als Zeichen dafür zu verstehen, dass Dinge diskutiert werden, die für Menschen relevant seien – oft, weil die Themen mit Zugehörigkeit zu bestimmten Gruppen verbunden sind. Die Polarisierung sei aber schwächer, als sie wirke, sagt Metzler. Auf sozialen Medien entstehe der Eindruck, als ob alle stark dafür oder dagegen wären und die Gesellschaft gespalten sei. Die große Mehrheit der Nutzer beteilige sich aber nicht an den Diskussionen.

Ansehen wollen sich die Forscher auch, welche Auswirkungen die Algorithmen der Netzwerke haben. Die seien so optimiert, dass Nutzer viel interagieren und viel Zeit auf den Plattformen verbringen. Für angstmachende Postings ergebe sich dadurch ein Vorteil, sagt Metzler: „Würden sich die Plattformen mehr am öffentlichen Interesse orientieren, wären sie anders programmiert.“

Wie Empfehlungen Ungleichheiten verstärken

Ein Forschungsprojekt analysiert Freundschaftsvorschläge auf Online-Plattformen.

„Wem folgen?“, „Hier ein paar Gruppen, die dir gefallen könnten“ oder „Für dich vorgeschlagen“: Empfehlungen in Online-Netzwerken sollen Leute zusammenbringen und miteinander vernetzen. Erstellt werden sie von Algorithmen. Sie schlagen auf Basis von Postings, Vorlieben, Clickverhalten und Freunden den Nutzern neue Kontakte und Inhalte vor.

Das hat nicht nur positive Effekte. Häufig resultieren daraus Filterblasen und Echokammern. Auch die gesellschaftliche Polarisierung könnte durch die automatisierten Kontaktvorschläge verstärkt werden. Die Empfehlungen können auch dazu beitragen, dass Minderheiten auf den Plattformen an Sichtbarkeit verlieren.

Das Forschungsprojekt „Humanized Algorithms“ der Computerwissenschafterin Fariba Karimi vom Complexity Science Hub in Wien untersucht, wie durch solche Ranking- und Empfehlungsmechanismen Ungleichheiten auf Online-Plattformen zunehmen.

Homophilie, die Tendenz mit Leuten zu interagieren, die einem ähnlich sind, spielt dabei ebenso eine Rolle wie der Matthäus-Effekt. Der bewirkt, dass Menschen sich gerne mit jenen verbinden, die bereits gut vernetzt sind: „Wer hat, dem wird gegeben.“

Netzwerkstruktur

All das hat Auswirkungen auf die Struktur von Netzwerken. Und die bestimmt, wie die Mitglieder des Netzwerkes untereinander interagieren, wie sich Informationen verbreiten und welche Normen und Werte sich etablieren. Auch bei der Bildung und Entwicklung von Vorurteilen spielen diese dynamischen Prozesse in den Netzwerken eine Rolle. Mit dem Forschungsprojekt will das Team um Fariba Karimi, dem auch der Datenwissenschafter Markus Strohmaier und die Sozialwissenschafterin Julia Koltai angehören, aber nicht nur Mechanismen aufzeigen, wie solche Methoden des maschinellen Lernens zu Verzerrungen führen. Die Ergebnisse des Projekts sollen auch dabei helfen, negative Effekte abzumildern und zur Entwicklung besserer Personenempfehlungsalgorithmen beitragen, die Minderheiten gegenüber gerechter sind.