Politico bracht onlangs naar buiten dat Apple gevoelige wijzigingen heeft doorgevoerd in de richtlijnen voor zijn aankomende AI-model. Na de verkiezingszege van Donald Trump zou het bedrijf onderwerpen als diversiteit, gelijkheid en inclusie hebben bestempeld tot controversieel. Ook de term systemisch racisme zou uit de instructies voor AI-trainers zijn verdwenen.
Wat is er gebeurd?
Apple werkt met externe AI-trainers van het bedrijf TransPerfect, dat in Barcelona zo’n tweehonderd mensen in dienst heeft om de antwoorden van het toekomstige AI-model te beoordelen. In maart kregen zij aangepaste richtlijnen. Niet alleen gelijkheid en diversiteit, maar ook thema’s als verkiezingen en vaccinaties staan nu in de categorie “controversieel”.
Volgens de richtlijnen zijn dat onderwerpen waarop men “meer aandacht moet besteden” en waarbij antwoorden zorgvuldig moeten worden voorzien van context en bewijs. Het doel lijkt te zijn om botsingen met politieke of maatschappelijke gevoeligheden te vermijden – maar het roept meteen vragen op over censuur en neutraliteit.
Politieke en geopolitieke druk
Apple staat al langer bekend om zijn gevoeligheid voor politieke druk. Het bedrijf doet intensief zaken in China en voldoet daar al jaren aan verzoeken van de regering, zoals het verwijderen van VPN-apps. Ook makers van Apple TV+-series zouden beperkingen opgelegd krijgen om China niet negatief af te schilderen.
Het feit dat Apple nu zijn AI-modellen aanpast rond de thema’s diversiteit en gelijkheid, wordt in de VS dan ook gezien als een signaal dat de politieke wind na de overwinning van Trump direct invloed heeft op de technologische koers van een van de grootste bedrijven ter wereld.
Apple ontkent de inhoud van de gelekte richtlijnen niet, maar benadrukt dat het werkt volgens eigen principes: “We trainen onze eigen modellen en werken samen met externe leveranciers om ze te evalueren met behulp van gestructureerde onderwerpen, waaronder gevoelige, om ervoor te zorgen dat ze op verantwoorde wijze omgaan met een breed scala aan gebruikersvragen.”
Wat staat er op het spel?
De discussie raakt aan een fundamenteel vraagstuk: hoe neutraal kan of moet een AI-assistent zijn? Aan de ene kant willen bedrijven voorkomen dat hun AI’s misleidende of polariserende antwoorden geven. Aan de andere kant kan het bestempelen van hele thema’s als “controversieel” leiden tot verregaande zelfcensuur.
Met Apple’s AI-model, dat naar verwachting volgend jaar uitkomt, wordt dit vraagstuk extra interessant. Apple staat bekend om zijn gesloten ecosysteem en strakke regie op producten. Maar hoe gaat dat uitpakken als het om de open en complexe wereld van AI gaat?
Wat betekent dit voor HCC-leden?
- Wees alert op bias
AI-modellen zijn nooit volledig neutraal. De keuzes die bedrijven maken – welke onderwerpen wel of niet “controversieel” zijn – bepalen hoe antwoorden gekleurd worden. - Vergelijk meerdere AI-bronnen
Vertrouw niet blind op één AI-model. Door dezelfde vraag aan verschillende AI’s te stellen (bijvoorbeeld ChatGPT, Claude of straks Apple’s model), zie je sneller waar bias meespeelt. - Gebruik AI als hulpmiddel, niet als waarheid
Zeker bij gevoelige thema’s blijft het belangrijk om zelf bronnen te checken en je eigen oordeel te vormen. - Volg de geopolitiek
Ontwikkelingen in de VS, China en Europa hebben direct invloed op wat AI-modellen wel of niet kunnen zeggen. Voor gebruikers is dit minder abstract dan het lijkt: het bepaalt straks wat je assistent wel of niet durft te antwoorden. - Oefen kritisch gebruik
Binnen HCC!ai bieden we de gelegenheid om samen te testen, ervaringen uit te wisselen en bewust om te gaan met mogelijke censuur in AI-systemen.
Kader: 5 vragen die jij jezelf kunt stellen bij AI-bias
- Van wie is dit model? (Wie bepaalt de regels?)
- Welke onderwerpen lijken te worden vermeden of verzacht?
- Wordt er verwezen naar bewijs en bronnen, of alleen algemeen gesproken?
- Hoe reageert een ander AI-model op dezelfde vraag?
- Wat kan ik zelf doen om onafhankelijke informatie te vinden?
Conclusie
Met de aanpassingen bij Apple wordt opnieuw duidelijk hoe sterk AI onder invloed staat van politieke en economische belangen. Voor ons als gebruikers en HCC-leden is het essentieel om niet alleen de technologie, maar ook de context waarin zij wordt gemaakt, te begrijpen.
De belofte van AI ligt in toegankelijkheid en kennis, maar alleen als wij kritisch blijven en zelf de regie houden.