Actie banner

Duizenden onderbetaalde werknemers filteren geweld, seksuele inhoud en fouten uit Googles AI-antwoorden

Deel dit artikel

,

chatbox office

Wereldwijd werken duizenden mensen dag in dag uit om kunstmatige intelligentie van bedrijven zoals Google te beoordelen en te verbeteren. Hun werk is essentieel maar grotendeels onzichtbaar: ze lezen, bekijken en modereren AI-gegenereerde content, vaak inclusief gewelddadige en seksueel expliciete beelden en teksten. Voor veel van deze zogenaamde raters begon het als een ogenschijnlijk onschuldige baan, zoals bij technisch schrijfster Rachael Sawyer uit Texas, maar al snel bleek het werk veel zwaarder en schrijnender dan verwacht, schrijft The Guardian

AI in een stroomversnelling

Google probeert bij te blijven in de wereldwijde AI-race en lanceerde de afgelopen jaren een reeks producten die moeten concurreren met ChatGPT van OpenAI. Elke nieuwe versie van Googles Gemini-model betekent dat een leger AI-beoordelaars extra hard moet werken om de reacties van het systeem te controleren en bij te sturen. Hun rol is cruciaal: zij zorgen ervoor dat miljarden gebruikers alleen veilige, correcte en gepaste antwoorden te zien krijgen.

Hoewel veel aandacht uitgaat naar de labelaars van trainingsdata, bestaat er daarnaast een minder zichtbare maar minstens zo belangrijke groep: de mensen die continu de output van AI monitoren en corrigeren. Hun taak is repetitief, mentaal belastend en vaak onderbetaald – maar zonder hen zou een chatbot binnen enkele minuten ontsporen.

De confrontatie met extreme content

In het voorjaar van 2024 kreeg Sawyer via LinkedIn een aanbod voor een baan als “schrijfanalist”. Ze dacht dat dit aansloot bij haar eerdere ervaring als contentcreator. Maar op haar eerste werkdag bleek dat haar werk niet uit schrijven bestond, maar uit het beoordelen en modereren van AI-output.

Aanvankelijk ging het om samenvattingen, chats en korte AI-films. Al snel verschoof de nadruk naar het markeren van extreme content: expliciet geweld, seksueel getinte teksten en zelfs beelden van misbruik. Elke taak moest binnen tien minuten afgerond zijn, ongeacht de inhoud. “Ik was geschokt dat mijn werk zulke schokkende inhoud omvatte,” zegt Sawyer. “Ik had geen waarschuwing gekregen, geen toestemmingsformulier getekend, en de functietitel suggereerde iets totaal anders.”

Superbeoordelaars en druk van bovenaf

Sawyer is slechts één van de duizenden werknemers die in de schaduw van Google en andere techreuzen hun werk doen. Vaak via externe bedrijven of uitzendconstructies worden ze ingehuurd als “contractors”. Hun beloning ligt aanzienlijk lager dan die van vaste medewerkers, terwijl ze cruciale veiligheidsrisico’s moeten opvangen.

Binnen het systeem bestaan zelfs zogenaamde superbeoordelaars: werknemers die opvallen door snelheid of consistentie en daardoor nóg meer complexe en zware content toegewezen krijgen. Dat klinkt als een compliment, maar in de praktijk betekent het vaak dat juist deze mensen structureel het meest belastende werk doen.

Het bredere plaatje

Dit probleem beperkt zich niet tot Google. Ook bedrijven als OpenAI, Meta en TikTok maken gebruik van duizenden moderators die AI- en gebruikerscontent filteren. De discussie doet denken aan de jarenlange kritiek op de arbeidsomstandigheden van sociale-mediamoderators. Het verschil is dat het hier niet gaat om gebruikers die extreme content uploaden, maar om AI-systemen die zulke content zelf genereren.

Voor de technologiebedrijven is dit een race tegen de klok: ze willen snel nieuwe producten uitrollen, maar zonder een leger aan menselijke moderators zouden die producten onbruikbaar of zelfs gevaarlijk zijn. De vraag is hoe duurzaam dit model is, zowel voor de werknemers als voor de technologie zelf.

Wat betekent dit voor ons beeld van AI?

Als gebruiker van AI zie je meestal alleen de “gladde” voorkant: slimme antwoorden, handige functies en snelle informatie. Wat vaak onzichtbaar blijft, is de enorme hoeveelheid menselijk werk die nodig is om dat mogelijk te maken. Duizenden werknemers filteren dag in dag uit extreme content, zodat wij geen gewelddadige of ongepaste antwoorden te zien krijgen.

Voor HCC-leden is dit een belangrijke les: AI is geen magie, maar het resultaat van modellen die voortdurend worden bijgestuurd door mensen. Dit roept vragen op over ethiek, arbeidsomstandigheden en transparantie. Wanneer we AI inzetten – of het nu voor werk, hobby of studie is – is het goed om stil te staan bij deze verborgen arbeidslaag.

Hoe meer we begrijpen over dit fundament, hoe bewuster en kritischer we met AI kunnen omgaan.

 

 

'Meld je aan voor de nieuwsbrief' van HCC!artificieleintelligentie

'Abonneer je nu op de nieuwsbrief en blijf op de hoogte van onze activiteiten!'

Aanmelden