Wat als de ogen en oren van de politie niet meer van vlees en bloed zijn, maar van data en code? Waar vroeger speurders eindeloos dossiers doorspitten, zetten agenten nu in toenemende mate kunstmatige intelligentie (AI) in om grote hoeveelheden informatie razendsnel te analyseren. Van gezichtsherkenning tot het uitlezen van smartphones en het signaleren van verdachte patronen in databergen. En steeds vaker wordt deze klus geklaard door algoritmes. En dat verandert het speelveld van de opsporing ingrijpend.
In een recent verschenen rapport luidt de Wetenschappelijke Adviesraad Politie (WARP) de noodklok. De inzet van AI bij politietaken groeit snel, maar de bijbehorende regelgeving en transparantie blijven ver achter. En dat is zorgelijk, want terwijl algoritmes krachtig kunnen zijn, kunnen ze ook onzichtbaar en ongecontroleerd opereren – met verstrekkende gevolgen voor privacy en gelijke behandeling.
🔍 Van rechercheur naar rekencapaciteit: AI in de frontlinie
De politie maakt inmiddels structureel gebruik van algoritmes voor uiteenlopende toepassingen. Denk aan geautomatiseerde gezichtsherkenning op camerabeelden, het doorzoeken van versleutelde telefoons van verdachten, of het filteren van relevante informatie uit miljoenen berichten of datasets. Sommige van deze systemen zijn zogenoemd ‘autonoom’, oftewel zelflerende AI’s die zelfstandig verbanden leggen en conclusies trekken.
Maar deze technologische revolutie roept ook vragen op. Want wie controleert deze systemen eigenlijk? En wat gebeurt er als de AI fouten maakt – of, nog erger, structureel discrimineert?
Volgens WARP zijn deze zorgen allesbehalve theoretisch. In hun rapport beschrijven ze hoe de politie in toenemende mate ook gegevens verzamelt over mensen die nergens van worden verdacht. Burgers dus, zonder strafblad, maar die toch onderdeel worden van een datastructuur waar geen transparantie over bestaat.
⚖️ Tijd voor regels: acht aanbevelingen voor verantwoord algoritmegebruik
De Wetenschappelijke Adviesraad komt met een stevig pakket aanbevelingen om deze digitale kloof te dichten. Centraal daarin staat het oproepen tot een nieuw wettelijk kader voor het gebruik van AI binnen de politiepraktijk. Want hoewel technologie snel ontwikkelt, blijft toezicht vaak steken in verouderde regels en vaag geformuleerde verantwoordelijkheden.
WARP pleit onder meer voor de oprichting van een onafhankelijke toezichtscommissie die specifiek toezicht houdt op het gebruik van AI door de politie. Deze commissie zou moeten waken over de wijze waarop gegevens worden verzameld, verwerkt en toegepast. Zo moet worden voorkomen dat burgers slachtoffer worden van een ‘black box’-systeem waar geen beroep tegen mogelijk is.
Ook stelt WARP paal en perk aan de inzet van voorspellende algoritmes – systemen die op basis van kenmerken als etniciteit, opleidingsniveau of recidive proberen te voorspellen wie er mogelijk crimineel gedrag zal vertonen.
🧠 De schaduw van sciencefiction: van AI naar Minority Report
Het debat over deze voorspellingen is niet nieuw. Het doet sterk denken aan de dystopische sciencefictionfilm Minority Report uit 2002, waarin Tom Cruise als politiechef verdachten arresteert vóórdat ze een misdaad hebben gepleegd. De film toont een wereld waarin preventie omslaat in onderdrukking, en waar controle alles overheerst.
Hoewel dat misschien als toekomstmuziek klinkt, is de werkelijkheid dichterbij dan men denkt. In 2023 trok de Nederlandse politie zelf de stekker uit het Risicotaxatie Instrument Geweld (RTI-G) – een algoritme dat moest voorspellen of iemand een verhoogd risico op gewelddadig gedrag vertoonde. Na felle kritiek, onder meer van onderzoeksplatform Follow the Money, besloot de politie ermee te stoppen.
Volgens WARP is dat een verstandige stap: algoritmes als RTI-G zijn vaak onvoldoende transparant, leveren wisselende resultaten en vergroten het risico op etnisch profileren. En misschien nog wel belangrijker: ze ondermijnen het vertrouwen van burgers in een eerlijke en onpartijdige rechtsstaat.
🛡️ De toekomst van politiewerk: balans tussen technologie en rechtvaardigheid
AI is geen hype meer, maar een structureel onderdeel van onze samenleving. Dat geldt ook voor de politie. Maar waar technologie groeit, moet ethiek meebewegen. En dat is precies wat WARP bepleit: een robuust systeem waarin algoritmes niet boven de wet staan, maar er juist stevig aan gebonden zijn.
Het rapport maakt duidelijk: kunstmatige intelligentie kan de politie efficiënter maken, maar zonder transparantie en controle loert het gevaar dat we onze vrijheden uit handen geven aan onzichtbare systemen. Daarom is nu het moment om na te denken over hoe we technologie inzetten zónder onze grondrechten te verliezen.
Want wie de toekomst van veiligheid wil vormgeven, moet ook de grenzen ervan durven stellen.