Wirtschaft/atmedia

Algorithmus siebt die Hassposter aus

In den Achtzigerjahren war er noch ein knuddliges Spielzeug, mit dem Siegeszug des Internet wurde er ein gefürchteter und verhasster Zeitgenosse, der auch zahlreichen Medienhäusern Kopfzerbrechen bereitet. Der Troll zeichnet sich dadurch aus, dass er ständig Streit sucht und in allen Userforen sein Unwesen treibt. Für die seriösen Leser ist das ein Ärgernis, für die zuständigen Redakteure heißt das mehr Arbeit, weil die Trolle auch zur Ordnung gerufen, zum Teil sogar gesperrt werden müssen. Zwischen März 2012 und August 2013 mussten beispielsweise die Moderatoren bei CNN.com mehr als 37.000 Accounts sperren. Das waren über 70 pro Tag.

Forscher der amerikanischen Eliteuniversität Stanford haben nun einen Algorithmus entwickelt, der die lästigen Hassposter schon vorab aussieben soll.

Weniger lesbar

Sie untersuchten auf drei großen Websiten (unter anderem CNN.com) die Datensätze von Usern, die schon einmal gesperrt worden waren, weil sie zu unflätig geschimpft oder anderweitig gewütet hatten. Dabei zeigte sich recht schnell eine eindeutige Tendenz: Feindselige Troll-Kommentare enthalten weniger abschwächende Wörter wie "vielleicht" oder "erwägen" und sind weniger lesbar geschrieben.

Und: Sie bekommen mehr Antworten als andere Nutzer, was nahelegt, dass sie erfolgreicher darin sind, andere in zeitverschwendende, dafür aber wertlose Diskussionen zu locken.

Aus den Unterschieden zwischen den Nutzern haben die Forscher ein statistisches Modell gebaut. Was sie dabei besonders interessiert: Würde dieses Modell zwischen gesperrten und nicht-gesperrten Accounts differenzieren können? Die kurze Antwort: ja. "Wir müssen nur fünf bis zehn Kommentare betrachten, bis ein Klassifikator fähig ist, eine zuverlässige Prognose zu machen." Die Autoren der Studie glauben, dass solche Algorithmen in Zukunft Moderatoren entlasten können.