Face­book: Mode­ra­to­ren bewer­ten Kon­to-Inhal­te von Terrorverdächtigen

Face-book

Face­book Mode­ra­to­ren erhal­ten vol­len Zugriff auf Kon­ten von Ter­ror-Ver­däch­ti­gen. Die Mode­ra­to­ren sol­len Dritt­an­bie­ter sein, wel­che Nach­rich­ten der Ver­däch­ti­gen lesen und deren Stand­or­te ermitteln.

Die Zei­tung „The Guar­di­an” hat berich­tet, dass Face­book Algo­rith­men nutzt, wel­che Per­so­nen anhand von Bei­trä­gen und Bil­dern als Ter­ror-ver­däch­tig ein­stu­fen kön­nen. Die Kon­ten die­ser Per­so­nen wer­den von Admi­nis­tra­to­ren überprüft.

Face­book soll meist nicht eige­ne Mit­ar­bei­ter mit der manu­el­len Prü­fung der Kon­ten beauf­tra­gen, son­dern Dritt­an­bie­ter-Unter­neh­men, die ihren Mit­ar­bei­tern fünf­zehn Dol­lar pro Stun­de bezahlen.

Auf­ga­ben der Mode­ra­to­ren sind: Inhal­te löschen, pri­va­te Nach­rich­ten über­prü­fen und die Stand­or­te der Ter­ror-Ver­däch­ti­gen loka­li­sie­ren. Vor­ran­gig sol­len die Mode­ra­to­ren Kon­ten von Ver­däch­ti­gen über­wa­chen, wel­che mög­li­cher­wei­se zur Al-Qai­da oder zum Isla­mi­schen Staat gehören.

Es soll spe­zi­ell nach Per­so­nen aus­schau gehal­ten wer­den, die zunächst bestimm­te Syri­sche Orte besu­chen und dann nach Euro­pa wei­ter­rei­sen. Soll­te bei einer Per­son so etwas zutref­fen, wird das Kon­to an einen beson­de­ren Face­book-Team über­ge­ben. Die­ses Team soll dann dar­über ent­schei­den, ob die Kon­ten der Ter­ror-Ver­däch­ti­gen an Straf­ver­fol­ger aus der USA wei­ter­ge­lei­tet werden.

Das Face­book Com­mu­ni­ty Ope­ra­tor-Team umfasst cir­ca drei­tau­send Mit­ar­bei­ter und cir­ca 150 Exper­ten für Ter­ro­ris­mus. Im Gegen­satz zu den US-Geheim­diens­ten sol­len die­se Arbei­ter kei­ner Kon­trol­le und Regeln unter­lie­gen. Der vier­te Ver­fas­sungs­zu­satz gilt für die­ses Team auch nicht, dass heißt, die­se Mode­ra­to­ren kön­nen uner­laub­te Durch­su­chun­gen an US-Bür­gern durchführen.

Face­book hat nicht bekannt­ge­ge­ben, mit wel­chen Kri­te­ri­en sie mög­li­che Ter­ror-Ver­däch­ti­ge Inhal­te Bewer­ten. Face­book sag­te, dass die ein­zel­nen Unter­neh­men wie Face­book selbst, Twit­ter und Co. „eige­ne Richt­li­ni­en und Defi­ni­tio­nen für ter­ro­ris­ti­sche Inhal­te” anwen­den, wenn sie Inhal­te löschen.