Zwiebeln - © Foto: iStock/FotografiaBasica

Facebook-Algorithmen: Sind Zwiebeln obszön?

19451960198020002020

Facebook löscht millionenfach Fotos, weil sie gegen die selbst definierten Gemeinschaftsstandards verstoßen. Über die Realitätsblindheit von Algorithmen.

19451960198020002020

Facebook löscht millionenfach Fotos, weil sie gegen die selbst definierten Gemeinschaftsstandards verstoßen. Über die Realitätsblindheit von Algorithmen.

Werbung
Werbung
Werbung

Vor ein paar Wochen lud der Fotograf Mike Hall einige Fotos auf der Facebook-Seite der Northwall Gallery im englischen Winchester hoch. Ein Vorgang, wie er täglich millionenfach vorkommt. Das soziale Netzwerk entfernte diese Bilder aber. So wurde ein Foto mit dem Neonschriftzug „DISCO“ geblockt, weil es angeblich den Verkauf von Alkohol bewerbe. Die Skyline von Hongkong wurde mit der Begründung abgelehnt, dass hier nichts zum Verkauf stehe. Und weidende Kühe hielt der prüde Facebook-Algorithmus für sexuell anstößig. Der Fotograf legte Widerspruch gegen die Entscheidung an. Mit Erfolg: Ein Facebook-Sprecher erklärte, es handele sich bei der Sperre um einen Fehler. Das Unternehmen bedauere den Vorfall. Facebook setzt bei der Moderation von Inhalten – wie andere Plattformen auch – auf eine Mischung aus menschlicher und künstlicher Intelligenz. Während Algorithmen in einem ersten Schritt den groben Abfall trennen, muss eine Armada von Vertragsarbeitern den Restmüll sortieren: Suizide, Sodomie, Massaker. Der digitale Putztrupp, der irgendwo in den USA oder auf den Philippinen auf Bildschirme starrt, muss unter ärgsten psychischen Belastungen entscheiden, ob ein Post gewaltverherrlichend ist oder nicht. Dafür haben sie nicht einmal 30 Sekunden Zeit. Es sind Menschen, die wie Maschinen operieren.

Fatale Botschaften

Um Abgrenzungsprobleme erst gar nicht entstehen zu lassen, hat Facebook den Algorithmus scharf gestellt. So wurden laut einem Bericht des Guardian zwischen Januar und März 2020 allein wegen Nacktheit oder „sexueller Aktivität“ 39,5 Millionen Posts gelöscht, 99,2 Prozent davon automatisch durch Algorithmen. Im Schlund des Datenkraken verschwindet so jede Menge Material, ohne dass davon jemand groß Notiz nimmt. „Es ist viel einfacher, ein KI-System zu bauen, das einen Nippel erkennt, als zu bestimmen, was Hate-Speech linguistisch bedeutetet“, hat Facebook-Chef Mark Zuckerberg einmal gesagt. Damit sprach er aus, was Fachleute längst wissen. Doch die automatischen Filtersysteme haben selbst bei der vermeintlich leichteren Klassifikation von Objekten noch immer Probleme.

Ein Thema. Viele Standpunkte. Im FURCHE-Navigator weiterlesen.

FURCHE-Navigator Vorschau
Werbung
Werbung
Werbung