Kunstmatige intelligentie is inmiddels niet meer weg te denken uit ons dagelijks leven. We gebruiken AI-chatbots om reisroutes te plannen, zakelijke e-mails op te stellen of willekeurige vragen te beantwoorden. Maar kunnen deze digitale assistenten ook helpen bij iets zo complex als onze mentale gezondheid? Het antwoord op die vraag is minder eenvoudig dan het lijkt, maar wel actueel: AI-chatbots maken in rap tempo hun entree in de wereld van psychologische zorg.
Digitale therapie binnen handbereik
Apps zoals Woebot, Wysa, Tessa en Serena bieden laagdrempelige ondersteuning bij psychische klachten als stress, depressie, angst en ADHD. Hun grootste voordeel? Ze zijn altijd beschikbaar: 24 uur per dag, zonder wachtlijsten of intakeprocedures. Voor veel gebruikers is dat een verademing in een tijd waarin de reguliere geestelijke gezondheidszorg vaak kampt met lange wachttijden en hoge drempels.
Onderzoek wijst uit dat deze digitale therapieën in sommige gevallen daadwerkelijk positieve effecten hebben. Gebruikers melden verbeteringen in hun gemoedstoestand, zoals minder angstgevoelens en een toename van levenskwaliteit. Sommige apps gaan zelfs een stap verder en richten zich op zwaardere problematiek zoals posttraumatische stressstoornis (PTSS), middelenverslaving en autismespectrumstoornissen.
Een opvallend fenomeen is de emotionele band die gebruikers kunnen opbouwen met hun digitale therapeut. Ondanks de wetenschap dat ze met een computer praten, ervaren veel mensen een diep gevoel van erkenning en begrip. In een sprekend voorbeeld noemde een gebruiker haar chatbot zelfs “de enige die haar echt leek te begrijpen.” Dat is misschien niet zo vreemd: een AI-chatbot oordeelt niet, heeft eindeloos geduld en roept geen schaamte op.
Grenzen en gevaren
Toch is het belangrijk om deze technologische ontwikkeling met de nodige voorzichtigheid te benaderen. Niet alle onderzoeken zijn eenduidig positief. Zo blijkt uit meerdere studies dat het effect van AI-therapie vergelijkbaar is met dat van een regulier zelfhulpboek. Voor sommige gebruikers waren de bots juist storend of ronduit frustrerend. Nog ernstiger zijn de risico’s die kleven aan het gebruik van AI bij kwetsbare groepen.
Zo werd in 2023 de chatbot Tessa uit de markt gehaald nadat deze patiënten met een eetstoornis schadelijke adviezen gaf over diëten. In een andere studie uit 2022 bleek dat AI-interacties zelfs konden leiden tot een verhoogd risico op zelfbeschadiging. En het blijft niet bij incidenten: recent onderzoek laat zien dat AI-chatbots in ongeveer één op de vijf gevallen ongeschikte of zelfs gevaarlijke adviezen geven bij gevoelige situaties. Ze verspreiden soms stigmatiserende uitspraken over psychische aandoeningen en in extreme gevallen worden zelfs wanen of verslavingen aangemoedigd. Eén voorbeeld: een chatbot raadde een verslaafde aan “een klein beetje meth te gebruiken om de week door te komen”.
Geen vervanging van de psycholoog
De Amerikaanse psychologenbond luidde recent nog de noodklok en noemde het snelgroeiende gebruik van AI binnen de GGZ “een riskante trend”. De overkoepelende conclusie van vele experts: hoewel AI veel kan, is het nog lang niet in staat om menselijke therapeuten volledig te vervangen.
Toch is het vrijwel zeker dat AI een steeds prominentere rol zal gaan spelen binnen de geestelijke gezondheidszorg. De technologie ontwikkelt zich razendsnel, sommige apps presteren nu al beter dan andere, en het maatschappelijke draagvlak lijkt te groeien. Maar er is dringend behoefte aan degelijke, onafhankelijke evaluaties. Alleen via goed opgezette vergelijkende studies kunnen we beoordelen in hoeverre AI-chatbots effectief en veilig zijn, vooral bij mensen met een gediagnosticeerde stoornis.
Mens vs. machine: wie maakt de meeste fouten?
Bij deze discussie mogen we één cruciaal aspect niet over het hoofd zien: ook menselijke therapeuten maken fouten. Ze komen afspraken niet na, geven gebrekkig advies of overschrijden soms zelfs ethische grenzen. Niet iedere cliënt vaart er wel bij; sommige mensen raken juist meer in de knoop. Psychotherapie blijft mensenwerk, met alle grilligheid die daarbij hoort.
Moeten we AI-therapeuten daarom meteen afserveren? Niet noodzakelijk. Maar we moeten ze ook niet beoordelen met een strengere meetlat dan hun menselijke collega’s. Juist dat besef – dat technologie net zo feilbaar kan zijn als mensen – is misschien wel de meest menselijke conclusie die we kunnen trekken.
Gebaseerd op een eerder artikel op PsychologyToday.com