Wie Facebooks Nachrichten-Feed zur Eskalation von Gewalt beiträgt

Die Funktionsweise von Facebooks Nachrichten-Feed führt an vielen Orten der Welt zu Ausbrüchen von Gewalt. Filterblasen bekräftigen die Menschen in ihren Ängsten und schüren Gerüchte, kosten dadurch Menschenleben. Facebook tut bisher wenig dagegen.
Muslimische Gläubige beten in einer ausgebrannten Moschee. Die Wände sind rußgeschwärzt, der Teppich verbrannt. In einer Ecke liegt ein Koran, dessen Seiten zu Asche zerfallen. Die Moschee in Digana, Sri Lanka, ist einem Brandanschlag zum Opfer gefallen. Durch Gerüchte und Falschinformationen angestachelt, zogen Angehörige der buddhistischen Bevölkerung Sri Lankas durch die Städte des Landes und attackierten Muslime, brannten Lokale und Apotheken nieder, die Muslimen gehörten. Die Bilanz der Unruhen: mehrere Tote, fast 100 zerstörte Gebäude und zehn Prozent der Bevölkerung in Angst.
Opfer, für die Facebook indirekt verantwortlich ist. Dessen Algorithmen zeigen den Usern ausschließlich Informationen an, die sie länger auf der Plattform halten. Jeder User steckt dadurch in seiner eigenen Filterblase.
Innerhalb weniger Tage verbreitete sich auf Social-Media-Kanälen das Gerücht, die muslimische Minderheit plane die Sterilisierung der buddhistischen Bevölkerung. Über Facebook und WhatsApp waren Falschinformationen in Umlauf gebracht worden, denen zufolge die Polizei 23.000 Tabletten eines Sterilisationsmittels in einer muslimischen Apotheke beschlagnahmt hatte. Jemand kommentierte unter dem Post: „Tötet alle Muslime, verschont nicht einmal ihre Kinder!“. Prominente Extremisten riefen über Facebook zur Selbstjustiz auf. Rasend schnell eskalierte daraufhin der Hass. In der Folge blockierte die sri-lankische Regierung den Zugang zu sozialen Medien.
„Hassrede wird von diesen Organisationen nicht kontrolliert und ist weltweit zu einem kritischen Problem geworden.“
(Harin Fernando, Ministerium für Telekommunikation, Sri Lanka)
In seinen Community Standards schreibt Facebook, Hassrede, die organisierte Verbreitung von Hass und der Aufruf zu kriminellen Handlungen und Akten von Terrorismus, seien verboten. Entsprechende Posts von Einzelpersonen oder Gruppen würden sofort gelöscht und die Konten gesperrt. Dafür setzt der Konzern selbstlernende Algorithmen sowie Moderatoren ein, die die Informationen filtern sollen. Zudem gibt es eine Meldefunktion für Verstöße.
Warum haben diese Kontrollmechanismen in Sri Lanka versagt?
Mehrere Personen und Organisationen hatten Hassrede-Posts an Facebook gemeldet, doch kam entweder keine Antwort zurück oder die Aussage, die Posts verstießen nicht gegen die Community Standards. Nach Recherchen der New York Times gab es in Sri Lanka keine Moderatoren, die der singhalesischen Sprache mächtig waren. Singhalesisch ist die Sprache der buddhistischen Mehrheit des Landes. In der Zeit der Krawalle ist es die Sprache des Hasses.
„Wir geben Facebook nicht die ganze Schuld. Die Keime sind unsere, aber Facebook ist der Wind.“
(Harindra Dissanayake, Berater des sri-lankischen Präsidenten)
Zwei Phänomene haben entscheidend an der Eskalation der Gewalt in Sri Lanka mitgewirkt: Zum einen Facebooks Algorithmus, der Filterblasen schafft und so Gerüchte und Falschinformationen immer mehr bekräftigt. Zum anderen das Versagen der Kontrollmechanismen.
Ein paar Monate nach den Unruhen in Sri Lanka verkündete Facebook, dass in einigen Ländern Falschinformationen geteilt würden, die „offline“ zu Schaden führen könnten. Facebook trage eine Verantwortung, solche Inhalte nicht nur zu reduzieren, sondern zu entfernen. Facebook-Gründer Mark Zuckerberg sagte, das Ziel sei es, die Verbreitung von Fake News und Falschinformation über seine Plattformen zu verhindern.