Forbes: TikTok-moderators krijgen kindermisbruikbeelden te zien in trainingen – IT Pro – Nieuws

Amerikaanse TikTok-moderators van het bedrijf Teleperformance krijgen als onderdeel van hun training child sexual abuse material, ofwel CSAM, te zien. Dat schrijft zakentijdschrift Forbes op basis van informatie die afkomstig is van voormalige TikTok-moderators.

De moderators die Forbes heeft gesproken, werkten voor de Amerikaanse tak van Teleperformance, een Franse multinational die onder meer posts modereert voor socialmediaplatforms. Om CSAM te herkennen en als dergelijke te taggen, kregen de werknemers tijdens trainingen beeldmateriaal te zien waarin kinderen werden misbruikt. Daarnaast kregen ze spreadsheets waarin honderden voorbeelden van CSAM en andere door TikTok verboden content te zien is. De moderators moesten deze spreadsheets dagelijks doornemen als referentiekader, zeggen de ex-werknemers.

“Ik heb een dochter en ik vind het niet kloppen dat een groep vreemden dit materiaal bekijkt”, zegt een voormalig moderator tegen Forbes, die in 2020 wegging bij Teleperformance. “Ik denk niet dat ze zoiets moeten gebruiken voor training.”

Whitney Turner, ook een voormalige moderator van Teleperformance, was zo geschokt door het materiaal dat ze contact opnam met de FBI. Naar eigen zeggen heeft ze met een FBI-agent gesproken in juni, al wil de federale veiligheidsdienst dit niet bevestigen aan Forbes. “Ik was aan het modereren en dacht: Dit is iemands zoon. Dit is iemands dochter. Deze ouders weten niet dat we dit materiaal hebben opgeslagen. Ik weet zeker dat de ouders TikTok kapot willen maken als ze dit zouden weten”, aldus Turner.

In de Verenigde Staten is het verspreiden en bewaren van CSAM verboden. Bedrijven zijn verplicht om de inhoud te melden aan het National Center for Missing and Exploited Children (NCMEC). Vervolgens moet het materiaal 90 dagen bewaard worden, maar het aantal mensen dat de inhoud te zien krijgt, moet tot een minimum worden beperkt.

TikTok reageert tegenover Forbes dat zijn eigen lesmateriaal voor moderators geen CSAM bevat, maar zegt wel dat ‘het platform met derde partijen werkt die hun eigen trainingen verzorgen”. Teleperformance ontkent dat het beelden van kindermisbruik laat zien in zijn trainingen en spreadsheets.

Vergelijkbare artikelen

Meest populair