Groß Denkte (nex) – Wer kontrolliert Hasskommentare bei Facebook? Das Magazin der Süddeutschen Zeitung hat in einem Beitrag erschreckende Zustände bei Facebook aufgedeckt. Eine Kontrolle der Richtlinien des sozialen Netzwerkes findet demnach unter schlechten Bedingungen statt.
Fast unbemerkt in der aufgeheizten politischen Diskussion um Fakenews und Hasskommentare sind seit gut einem Jahr »customer care agents« im Auftrag von Facebook unterwegs, um Meldungen aufzuspüren, die gegen die »Gemeinschaftsstandards« des Konzerns verstoßen.
Vor knapp einem Jahr hatte das Nachrichtenmagazin SPIEGEL darüber berichtet, dass die Bertelsmann-Tochter Arvato damit beauftragt worden sei, in den unzähligen Kommentaren und Posts nach Beleidigungen und Schmähungen zu suchen. Bis dahin wurden von Nutzern gemeldete Beiträge von »communitiy operation teams« geprüft, die in den vier Facebook-Standorten in Dublin, Kalifornien, in Texas sowie dem indischen Hyderabad tätig waren.
Kritiker hatten bemängelt, dass damit praktisch keine Kontrolle in den einzelnen Ländern möglich sei. Eine Handvoll Mitarbeiter, die in der irischen Hauptstadt ihren Dienst taten, waren für knapp 30 Millionen deutsche Facebook-Nutzer deutlich zu wenig. Inzwischen läuft das Projekt muttersprachliche Überprüfung der Aktivitäten im größten sozialen Netzwerk seit über einem Jahr.
Entspannt hat sich die Lage indes nicht. Bei dem selbst gesteckten Ziel, eine halbwegs funktionierende Kontrolle über die Aktivitäten zu gewährleisten, scheint das allerdings auch kaum möglich zu sein. Dem Vernehmen nach sind bei Arvato rund 600 Mitarbeiterinnen und Mitarbeiter mit dieser Aufgabe beschäftigt – bei 25 Millionen Nutzern und entsprechenden Posts täglich ist das fast unmöglich. Und so intransparent wie die Auffindbarkeitsalgorithmen der großen Internetanbieter Google und Facebook erscheinen, so geheimnisvoll sind die Kriterien, nach denen schließlich gelöscht wird oder nicht.
Ein typisches Beispiel, das NEX24 vorliegt: Da lehnt Facebook unter Verweis auf die »Gemeinschaftsstandards« zunächst die bezahlte Anzeige eines Bäckermeisters ab. Der Name des deutschen Handwerksbetriebs, Fucke, deutet darauf hin, dass in der Taskforce von Facebook doch nicht nur Muttersprachler sitzen dürften.
Stress und unklare Vorgaben
Ein Blick hinter die Kulissen konnten jetzt Redakteuren des Magazins der Süddeutschen Zeitung werfen. Ihnen war es gelungen, nach monatelangen Recherchen viele aktive und ehemalige Mitarbeiter des Löschtrupps zu sprechen. Und das, obwohl Facebook es seinen Mitarbeitern untersagt, mit Vertretern der Presse zu reden.
Wenn man die Ergebnisse des »SZ-Magazins« betrachtet, ahnt man, warum. Offenbar arbeiten die Mitarbeiter unter schlechten Bedingungen und sind nicht gut für ihren Job ausgebildet. Selbst denjenigen, die Hasskommentare löschen sollen, ist kaum deutlich, nach welchen Regeln das erfolgen soll. Die Vorgaben, so die Reportage, seien unübersichtlich. Zudem seien die Mitarbeiter gestresst und überlastet. 2.000 Beiträge pro Tag, so die Vorgabe, müssten geprüft werden.
Gewalt und Pornografie
Und was den Mitarbeitern da auf den Bildschirm kommt, das lässt diese verzweifeln. Da ist etwa von Kinderpornografie die Rede, von Gewalt und Folter. Alles Themen übrigens, die in der öffentlichen Debatte keine Rolle spielen.
„Ich habe Sachen gesehen, die mich ernsthaft am Guten im Menschen zweifeln lassen. Folter und Sex mit Tieren.“
„Seit ich die Kinderpornovideos gesehen habe, könnte ich eigentlich Nonne werden – an Sex ist nicht mehr zu denken. Seit über einem Jahr kann ich mit meinem Partner nicht mehr intim werden. Sobald er mich berührt, fange ich an zu zittern.“
„Ich weiß, dass jemand diesen Job machen muss. Aber es sollten Leute sein, die dafür trainiert werden, denen geholfen wird und die man nicht einfach vor die Hunde gehen lässt wie uns“ zitiert SZ eine Mitarbeiterin, der es eigentlich verboten ist, mit Journalisten oder Behördenvertretern zu reden.
Die Folgen für die Betroffenen: Psychische Probleme und Hilflosigkeit. Weder gibt es nach den Recherchen des »SZ-Magazins« eine psychologische Betreuung noch eine angemessene Bezahlung für diese Arbeit. Für den anstrengenden Job zahlt Facebook danach gerade einmal nur etwas mehr als den Mindestlohn.
Auch höher gestellte Mitarbeiter hätten, etwa zur Begutachtung eines Videos, nur acht Sekunden Zeit für eine Löschentscheidung. Eine Kommunikation ist aber weder mit Avarto noch mit Facebook selbst möglich. Konkrete Antworten habe es, so das SZ-Magazin, auf Anfragen kaum gegen. Das zeigt am Ende, dass die derzeitige Diskussion um die Kontrolle sozialer Netzwerke höchstens oberflächlich geführt wird. Die Frage, was kontrolliert werden kann und vor allem wie das erfolgen soll, liegt offensichtlich in einem rechtsfreien Raum, der gerade anfängt, öffentlich zu werden.