Wat begon als een handig hulpmiddel om juridische informatie sneller te vinden, verandert steeds vaker in een risico voor het verloop van rechtszaken. In de Verenigde Staten en daarbuiten duikt een zorgwekkende trend op: kunstmatige intelligentie (AI) wordt ingezet in rechtbanken, maar doet dat lang niet altijd feilloos. Steeds vaker blijkt dat AI verzonnen jurisprudentie aanvoert, compleet fictieve uitspraken of niet-bestaande wetten, die vervolgens als een feit worden ingebracht in juridische procedures. De gevolgen? Pijnlijk voor betrokkenen, en soms ronduit desastreus.
Volgens een nieuw en grondig onderzoek van juridisch analist Damien Charlotin, dat door Business Insider werd ingezien, is deze problematiek allesbehalve marginaal. In de rechtszaal lijken ‘AI-hallucinaties’ – zoals deze verzinsels genoemd worden – aan een opmars bezig. En hoewel rechters deze fouten steeds beter herkennen, blijven ze voorkomen, met toenemende ernst.
📚 AI als juridische bijsluiter… of als bron van blunders
In zijn onderzoek heeft Charlotin een indrukwekkende database samengesteld van 120 rechtszaken waarin expliciet is vastgesteld dat AI foutieve of niet-bestaande juridische bronnen aandroeg. Dat varieert van uitspraken die nooit zijn gedaan tot juridische interpretaties die volledig uit de lucht zijn gegrepen. In sommige gevallen werd het zelfs gepresenteerd alsof het ging om leidende jurisprudentie.
En dat zijn alleen nog maar de zaken waarin de rechter de fout daadwerkelijk heeft opgemerkt. Charlotin benadrukt dat dit waarschijnlijk slechts het topje van de ijsberg is. Hij vermoedt dat veel AI-hallucinaties ongemerkt door procedures glippen – met mogelijk verstrekkende gevolgen voor het verloop van rechtszaken.
👨⚖️ Van leken tot juristen: iedereen trapt erin
Wat aanvankelijk vooral leek voor te komen bij zelfredzame burgers zonder juridische bijstand, is nu uitgegroeid tot een probleem dat ook professionele advocaten raakt. In 2023 werd nog 70 procent van de AI-gerelateerde fouten veroorzaakt door mensen die zichzelf verdedigden in de rechtszaal. Ze gebruikten AI-tools zoals ChatGPT of juridische zoekmachines op basis van AI om hun verweer te onderbouwen, zonder een advocaat te raadplegen.
Maar in 2024 is het beeld veranderd: meer dan de helft van de AI-hallucinaties kwam toen voor rekening van professionals uit het juridische veld zelf. Jawel – advocaten en juristen, die AI gebruiken om snel relevante uitspraken te vinden of pleitnota’s te genereren, gaan steeds vaker de mist in doordat ze die informatie niet goed controleren.
🌍 Een wereldwijd juridisch hoofdpijndossier
Hoewel het onderzoek zich richtte op de Verenigde Staten, reiken de gevolgen van AI-missers inmiddels over de hele wereld. Charlotin vond soortgelijke gevallen in het Verenigd Koninkrijk, Israël, Spanje, Australië en Zuid-Afrika. In dat laatste land sprak een rechter zich opvallend fel uit tegen een betrokken advocaat, die werd bestempeld als “technologically challenged” – niet bepaald een compliment in een digitale wereld.
Het patroon is overal hetzelfde: AI wordt ingeschakeld om werkdruk te verlichten, maar onzorgvuldig gebruik leidt tot fouten die de geloofwaardigheid van juridische procedures ondermijnen.
💸 Boetes en berispingen: de rechter spreekt zich uit
De rechterlijke macht is allesbehalve laks in haar reactie op deze fouten. Steeds vaker grijpen rechters in wanneer blijkt dat er sprake is van nalatig gebruik van AI. In vier gevallen dit jaar alleen al kregen advocatenkantoren boetes van tienduizend dollar of meer opgelegd – een duidelijk signaal dat slordigheid bij het inzetten van AI niet wordt getolereerd.
Sommige rechters eisen nu dat bij elk gebruik van AI in juridische documenten expliciet wordt vermeld welke tools zijn ingezet, en op welke manier de informatie is geverifieerd. Er wordt zelfs gesproken over het verplicht invoeren van AI-ethiekcodes voor juristen, vergelijkbaar met de gedragscodes die gelden voor medische of financiële professionals.
⚖️ De balans tussen technologie en verantwoordelijkheid
De opmars van AI in de juridische wereld is onomkeerbaar. Tools als ChatGPT en juridische AI-engines kunnen, mits zorgvuldig gebruikt, efficiënter werken mogelijk maken, snellere jurisprudentieanalyse bieden en zelfs helpen bij het structureren van complexe pleidooien. Maar ze zijn géén vervanging voor juridische kennis, zorgvuldige controle en menselijke verantwoordelijkheid.
Het groeiende aantal AI-hallucinaties toont pijnlijk aan dat het gebruik van kunstmatige intelligentie in juridische contexten gebaat is bij duidelijke richtlijnen, transparantie en een kritische houding. De technologie mag dan indrukwekkend zijn, maar een slimme advocaat blijft zelf nadenken – en dubbelcheckt zijn bronnen.
Want in de rechtszaal, waar ieder woord telt en rechtvaardigheid op het spel staat, is er geen plaats voor fantasie. Zeker niet als die is gegenereerd door een computer.