Facebook Moderatoren erhalten vollen Zugriff auf Konten von Terror-Verdächtigen. Die Moderatoren sollen Drittanbieter sein, welche Nachrichten der Verdächtigen lesen und deren Standorte ermitteln.
Die Zeitung „The Guardian” hat berichtet, dass Facebook Algorithmen nutzt, welche Personen anhand von Beiträgen und Bildern als Terror-verdächtig einstufen können. Die Konten dieser Personen werden von Administratoren überprüft.
Facebook soll meist nicht eigene Mitarbeiter mit der manuellen Prüfung der Konten beauftragen, sondern Drittanbieter-Unternehmen, die ihren Mitarbeitern fünfzehn Dollar pro Stunde bezahlen.
Aufgaben der Moderatoren sind: Inhalte löschen, private Nachrichten überprüfen und die Standorte der Terror-Verdächtigen lokalisieren. Vorrangig sollen die Moderatoren Konten von Verdächtigen überwachen, welche möglicherweise zur Al-Qaida oder zum Islamischen Staat gehören.
Es soll speziell nach Personen ausschau gehalten werden, die zunächst bestimmte Syrische Orte besuchen und dann nach Europa weiterreisen. Sollte bei einer Person so etwas zutreffen, wird das Konto an einen besonderen Facebook-Team übergeben. Dieses Team soll dann darüber entscheiden, ob die Konten der Terror-Verdächtigen an Strafverfolger aus der USA weitergeleitet werden.
Das Facebook Community Operator-Team umfasst circa dreitausend Mitarbeiter und circa 150 Experten für Terrorismus. Im Gegensatz zu den US-Geheimdiensten sollen diese Arbeiter keiner Kontrolle und Regeln unterliegen. Der vierte Verfassungszusatz gilt für dieses Team auch nicht, dass heißt, diese Moderatoren können unerlaubte Durchsuchungen an US-Bürgern durchführen.
Facebook hat nicht bekanntgegeben, mit welchen Kriterien sie mögliche Terror-Verdächtige Inhalte Bewerten. Facebook sagte, dass die einzelnen Unternehmen wie Facebook selbst, Twitter und Co. „eigene Richtlinien und Definitionen für terroristische Inhalte” anwenden, wenn sie Inhalte löschen.