Terror live auf Facebook: Und der Rest?
Kaum eine Plattform hat in den vergangenen Jahren so viel Unheil angerichtet wie Facebook: Sein Algorithmus sortiert uns unseren Nachrichtenfeed verlässlich so, dass die „Empörung um...“-Nachrichten an oberster Stelle stehen. Negative Emotionen sorgen für die stärksten Interaktionen. Und Shitstorms bestimmen unser Leben.
Problematisch ist das alles, weil die Realität vom digitalen Irrsinn langsam, aber sicher eingeholt wird. Absurde Verschwörungstheorien, die mit böswilliger Absicht in die Weltmaschine Facebook eingefüllt werden, sorgen für abstruse und immer wieder blutige Taten. Im Lichte des Massakers in Neuseeland mutet es fast kindisch an, als im Jahr 2016 ein Amerikaner in einer Washingtoner Pizzeria um sich schoss, weil er einen Kinderpornoring aufdecken wollte, den Hillary Clinton von diesem Lokal aus betreiben sollte. Er war einem Hoax aufgesessen und im Internet radikalisiert worden. Verletzt wurde damals niemand. Aber das Thema Hass im Netz wucherte weiter. Ein Grund ist, dass für Facebook und Co. nicht dieselben Regeln gelten wie für herkömmliche Verlage. Würde der KURIER unredigiert abdrucken, was auf Facebook an Hass und Hetze verbreitet wird: Die Zeitung könnte keinen Tag mehr erscheinen.
Facebook hingegen zieht sich auf die Position zurück, man könne nichts dafür, was die User so treiben. Das ist insofern eine hohle Behauptung, als durch die Umsortierung auf Hass und Aufregung mittels Algorithmus sehr wohl in Inhalte eingegriffen wird: Dinge, die gut geklickt werden, reiht Facebook damit nach vorne. Tut ein Verleger mit seinen Produkten anderes?
Der Attentäter von Christchurch nutzte Facebook, um seine Wahnsinnstat ins Netz zu streamen. Sobald das gemeldet wurde, entfernte die Plattform das Video. Das ist löblich. Aber: Was ist mit dem anderen Müll?