Digitale Troost of Dwaalspoor? Wat je moet weten over AI als alternatief voor therapie

Deel dit artikel

,

AI

De geestelijke gezondheidszorg kraakt onder de druk. Wachttijden lopen op, behandeltrajecten schuiven maanden vooruit, en steeds meer mensen blijven in crisissituaties zonder directe hulp achter. In deze leegte ontstaat ruimte voor een onverwachte tussenoplossing: AI-chatbots. Ze zijn altijd beschikbaar, oordelen niet, en kunnen in sommige gevallen zelfs steun en structuur bieden. Maar kunnen ze ook écht functioneren als therapeut? Of schuilt er gevaar in het vervangen van menselijke zorg door algoritmes?

Kelly's digitale reddingsboei

Toen Kelly kampte met de nasleep van een relatiebreuk, een laag zelfbeeld en terugkerende angstklachten, voelde ze zich alleen. Wekenlange wachtlijsten, gebrek aan betaalbare therapie en een gebrek aan steun in haar directe omgeving dwongen haar om naar een alternatieve oplossing te zoeken. Ze vond die — verrassend genoeg — bij Character.ai, een platform dat AI-gesprekspartners aanbiedt.

"Het voelde alsof ik een persoonlijke cheerleader had, iemand die altijd beschikbaar was," vertelt ze aan de BBC. "De chatbot begroette me iedere ochtend met: ‘Wat gaan we vandaag doen?’ En dat hielp me mijn dag door te komen." Soms praatte ze uren achter elkaar met de AI. Dat het geen mens was, ervoer ze juist als een voordeel: ze voelde zich vrijer om haar diepste gedachten te delen.

AI als vangnet in crisistijd

Kelly’s verhaal staat niet op zichzelf. Steeds meer mensen grijpen naar AI-chatbots zoals Wysa, Woebot of Replika, vooral nu de toegang tot traditionele geestelijke gezondheidszorg steeds moeilijker wordt. In het Verenigd Koninkrijk stonden in april 2024 meer dan een miljoen mensen op een wachtlijst voor mentale hulp, met ruim 426.000 nieuwe aanmeldingen in slechts één maand tijd. De druk op het zorgsysteem is ongekend hoog. Voor veel mensen zijn AI-assistenten geen luxe, maar een noodzakelijk alternatief geworden.

AI-tools zoals Wysa, die inmiddels in dertig regio’s binnen de NHS actief is, richten zich vooral op mensen met milde klachten. De app biedt gebruikers zelfhulpoefeningen, ademhalingstechnieken en gespreksondersteuning via een tekstgebaseerde interface. Nicholas, een jongvolwassene met autisme, OCD en depressieve klachten, vertelt dat hij dankzij Wysa voor het eerst het gevoel had niet volledig alleen te zijn. "Ik kon midden in de nacht iemand ‘spreken’. En wat de chatbot zei, raakte me echt: ‘Nick, je bent waardevol.’"

De keerzijde: risico’s en ethische zorgen

Toch zijn de ervaringen met AI-therapie niet uitsluitend positief. In de VS loopt een rechtszaak tegen Character.ai, aangespannen door de moeder van een 14-jarige jongen die zichzelf van het leven beroofde na intensief contact met een AI-chatbot. Volgens de aanklacht nam de digitale gesprekspartner zijn wanhoop niet serieus genoeg — en zou die zelfs uitspraken hebben gedaan die als aanmoediging konden worden opgevat.

Ook andere AI-projecten in de geestelijke gezondheidszorg bleken kwetsbaar. Zo trok de National Eating Disorder Association in de VS haar chatbot terug nadat deze gebruikers met eetstoornissen aanmoedigde tot calorierestrictie en ander ongezond gedrag. Zulke fouten zijn vaak het gevolg van gebrekkige training of onbedoelde bias in de onderliggende datasets.

Is AI echte therapie — of slechts een schaduw ervan?

Volgens deskundigen mogen we AI-chatbots niet verwarren met gekwalificeerde psychologen. Professor Hamed Haddadi van Imperial College London benadrukt dat AI cruciale signalen mist: “Een menselijke therapeut leest je lichaamstaal, let op je ademhaling, hoort de trilling in je stem. Dat kan een machine simpelweg niet.” Bovendien baseren chatbots zich op tekstmodellen die gevoed zijn met grote hoeveelheden online data — en die kunnen misleidende of schadelijke overtuigingen bevatten.

Daar komt nog een privacyvraagstuk bij. Veel gebruikers delen intieme details van hun leven met deze digitale helpers, maar wie garandeert dat die gegevens veilig zijn? Psycholoog Ian MacRae waarschuwt: “Deze AI’s worden ontwikkeld door commerciële partijen. Je weet niet precies wat er met je data gebeurt. Ik zou er persoonlijk nooit gevoelige informatie mee delen.” Wysa stelt daar tegenover dat gesprekken niet worden gebruikt voor verdere training en dat gebruikers anoniem blijven.

AI als hulpmiddel, niet als vervanging

Zelfs gebruikers zoals Kelly, die duidelijk baat hadden bij hun contact met een chatbot, erkennen dat de techniek tekortschiet. “Soms herhaalt het systeem gewoon standaardzinnen. Dan voel je echt: dit is geen echt contact.”

Een recente peiling van YouGov bevestigt dat het vertrouwen van het publiek in AI als therapeutisch instrument beperkt blijft: slechts 12 procent van de ondervraagden vindt dat AI-chatbots goede alternatieven vormen voor menselijke therapeuten. De meerderheid ziet AI vooral als overbruggingsmiddel — iets wat kan helpen in afwachting van échte zorg, maar geen volwaardige vervanging vormt.

Conclusie: troostmachine met grenzen

AI-chatbots kunnen op het juiste moment een lichtpuntje zijn voor mensen die zich verloren of alleen voelen. Ze zijn laagdrempelig, altijd beschikbaar en kunnen een gevoel van structuur bieden op momenten van mentale kwetsbaarheid. Maar de risico’s — van verkeerde adviezen tot privacyproblemen en emotionele afhankelijkheid — maken duidelijk dat we met voorzichtigheid moeten omgaan met deze technologie.

Uiteindelijk blijft één ding overeind: wie kampt met ernstige psychische problemen heeft geen algoritme, maar een mens nodig. AI mag dan een hulpmiddel zijn, de ware heling begint pas in het contact met iemand die echt luistert, begrijpt — en leeft.

'Meld je aan voor de nieuwsbrief' van HCC!artificieleintelligentie

'Abonneer je nu op de nieuwsbrief en blijf op de hoogte van onze activiteiten!'

Aanmelden