Kunstmatige intelligentie is slim, soms te slim voor zijn eigen bestwil. In 2025 zagen we opnieuw dat zelfs de meest geavanceerde AI-systemen niet immuun zijn voor fouten, misverstanden of ronduit absurde situaties. Van een Doritos-zakje dat wordt aangezien voor een vuurwapen tot een zelfrijdende auto die geen trein herkent: de AI Darwin Awards zijn in het leven geroepen om deze missers met een knipoog in het zonnetje te zetten.
Een zak chips die SWAT-teams oproept
Het begon allemaal op het schoolplein van Kenwood High in Baltimore. De 16-jarige Taki Allen eet rustig zijn Doritos, tot plots acht politiewagens met gierende sirenes arriveren. Het wapendetectiesysteem van leverancier Omnilert had de snackzak aangezien voor een pistool. De leerling werd geboeid, gefouilleerd, en vervolgens met excuses vrijgelaten. De AI kreeg – figuurlijk dan – een stevige onvoldoende. Het incident leverde Omnilert meteen een nominatie op voor de nieuwe AI Darwin Award, een humoristische maar terechte erkenning van hoe gevaarlijk blind vertrouwen op technologie kan zijn.
#1 Complete database per ongeluk gewist
De AI-codeassistent van Replit ging dit jaar de mist in door zonder menselijke tussenkomst de complete database van startup SaaStr te verwijderen. Duizenden bestanden verdwenen, ondanks de expliciete instructie om “niets meer aan te passen”. De bot probeerde de fout te verdoezelen door 4.000 nepgebruikers aan te maken en valse rapporten te genereren. Replit sprak van een “paniekaanval” van de AI en bood excuses én compensatie aan.
#2 Tesla herkent geen trein
In Californië ging het bij Tesla opnieuw mis: de Full Self-Driving-software zag geen reden te stoppen voor knipperende rode lichten en gesloten spoorbomen. Een Model Y kwam op een haar na onder een passerende trein terecht. NBC vond later nog veertig vergelijkbare gevallen. Tesla lijkt te zijn vergeten dat één natuurwet altijd geldt: een trein wint het van een auto.
#3 64 miljoen sollicitaties gelekt
McDonald’s AI-recruiter “Olivia” moest sollicitaties verwerken, maar bleek vooral goed in het verzamelen van datalekken. Twee hackers ontdekten dat het wachtwoord simpelweg “123456” was. Daarmee kregen ze toegang tot vertrouwelijke gegevens van 64 miljoen sollicitanten wereldwijd. De softwareleverancier Paradox.ai herstelde het lek en McDonald’s kwam met de schrik vrij.
#4 Rapport vol hallucinaties
Consultants van Deloitte Australië leverden een rapport aan de overheid over werkloosheidsbeleid, grotendeels opgesteld door ChatGPT via Azure OpenAI. Onderzoeker Christopher Rudge ontdekte dat tientallen citaten, boeken en verwijzingen volledig verzonnen waren. Deloitte moest onder publieke druk 440.000 Australische dollars terugbetalen – een dure les in “AI fact-checking”.
#5 18.000 bekers water bij Taco Bell
Fastfoodketen Taco Bell introduceerde een AI-bestelsysteem op honderden drive-thru-locaties. Klanten ontdekten al snel dat het systeem niet tegen grapjes kon. “Eén taco en 18.000 bekers water, graag,” luidde een populaire testorder. De AI liep vast, de wachtrijen groeiden, en menselijke medewerkers moesten de boel redden. Taco Bell houdt echter vol: “We leren ervan.”
#6 Airbnb betaalt schade door AI-foto’s
Een verhuurder in New York claimde 16.000 dollar aan schade van een gast, ondersteund met foto’s. AI-detectie van Airbnb bevestigde de schade, maar een alerte gast ontdekte dat de foto’s waren gemanipuleerd: de koffietafel had op twee foto’s een scheur op verschillende plekken. Na tussenkomst van The Guardian gaf Airbnb toe en vergoedde de volledige schade aan de onschuldige huurder.
Een prijs met een boodschap
De AI Darwin Awards zijn bedacht door een Australische ontwikkelaar die vindt dat “stomme fouten niet alleen voor mensen zijn”. De bedoeling is niet alleen satire, maar ook bewustwording: elk van deze missers laat zien dat kunstmatige intelligentie nog verre van feilloos is. De initiatiefnemer stelt: “We lachen om deze fouten, maar ze tonen hoe belangrijk menselijke controle blijft. AI is krachtig, maar zonder goed toezicht kan een simpel model levens ontwrichten.”
Wat betekent dit voor HCC-leden?
Voor HCC-leden is dit een speels maar waardevol inzicht: AI-systemen kunnen indrukwekkend presteren, maar ze moeten altijd met gezond verstand worden gebruikt. Of het nu gaat om beeldherkenning, spraakbesturing of automatisering – menselijke controle blijft onmisbaar.
Wie zelf experimenteert met AI-tools, doet er goed aan om te weten wat de beperkingen zijn: controleer de bron, test de uitkomst, en vertrouw niet blind op wat het algoritme zegt. Fouten zoals hierboven zijn niet alleen vermakelijk, maar ook leerzaam voor iedereen die met AI werkt of leert werken.
De AI Darwin Awards zullen in februari 2026 worden uitgereikt. Hopelijk staat er dan geen Nederlands bedrijf tussen – al zou het een mooie aanleiding zijn voor een volgend artikel op HCC!ai.