I den nya och intressanta boken Zucked som skrivits av Roger McNamee, så berättar han nu om hur Facebook gav Motherboard tillgång till det team som ansvarar för modereringen. 

Något som är intressant värre är att Facebook berättade för Motherboard att deras AI-verktyg upptäcker nästan allt skräp som sedan tas bort från sajten. AI-verktygen lyckas också att upptäcka hela 99,5% av det terroristrelaterade innehållet som sedan tas bort. 

Vad gäller falska konton, så berättas det att deras AI-verktyg upptäcker 98,5% av de här kontona, så att de kan tas bort. 

Vad gäller grafiskt våld, så visar det sig att deras AI-verktyg upptäcker hela 86% av det här, så att materialet kan plockas bort. 

Det största problemet handlar om ”hatiskt innehåll”, för där visar det sig att deras AI-verktyg endast lyckas upptäcka 38% av det, så att materialet kan tas bort. 

Baserat på 99,5% framgångsfaktor, så visar det sig fortfarande baserat på 1 miljard användare att 5 miljoner olämpliga inlägg inte upptäcks och därmed syns på sajten. 

Samtidigt visar det sig att de mänskliga moderatorerna har svårt att hitta det olämpliga innehållet som deras AI-verktyg missat. Men, det beror på att de är tvungna att operera i en miljö på Facebook där det är två olika mål som styr verksamheten samtidigt, nämligen att tillåta maximalt och tillämpa generella lösningar på alla problem (McNamee.2019:230).