In de snelgroeiende wereld van kunstmatige intelligentie ontdekken steeds meer mensen nieuwe toepassingen voor tools als ChatGPT. Een opvallende trend is dat gebruikers de AI-chatbot van OpenAI niet alleen inzetten om teksten te genereren of programmeerproblemen op te lossen, maar ook als een virtuele gesprekspartner voor persoonlijke kwesties. Relatieproblemen, mentale worstelingen of existentiële vragen: sommige gebruikers wenden zich tot ChatGPT alsof het een digitale psycholoog is.
En hoewel zo’n gesprek soms rust of inzicht kan geven, waarschuwen experts – waaronder OpenAI-topman Sam Altman – nadrukkelijk: vertrouw ChatGPT niet zoals je een echte therapeut zou vertrouwen.
AI kent geen beroepsgeheim
De kern van het probleem is duidelijk: ChatGPT is geen mens. Het is geen arts, geen psycholoog en al helemaal geen vertrouwenspersoon met beroepsgeheim. Alles wat je intypt, wordt opgeslagen op servers en kan – al dan niet geanonimiseerd – worden gebruikt voor analyse of verdere training van het AI-model. In tegenstelling tot een gecertificeerde therapeut of arts, die wettelijk verplicht is tot geheimhouding, gelden er voor een AI-chatbot op dit moment geen vergelijkbare juridische of ethische kaders.
Tijdens een aflevering van de populaire podcast This Past Weekend with Theo Von ging Altman, CEO van OpenAI, in op dit groeiende probleem. Hij gaf ruiterlijk toe dat de AI-wereld op dit gebied nog een flink gat heeft te overbruggen. Er bestaat simpelweg nog geen duidelijk juridisch kader dat bepaalt hoe vertrouwelijk een gesprek met een AI-assistent moet zijn. “We hebben het als sector nog niet uitgewerkt,” stelde Altman. “Er is niets dat je beschermt als je gevoelige informatie deelt met een chatbot.”
ChatGPT als digitale coach of steunpilaar?
Toch ziet OpenAI dat steeds meer – met name jonge – mensen ChatGPT gebruiken als een soort digitale coach of klankbord voor hun persoonlijke leven. Ze stellen vragen over relaties, werkstress of andere levensvragen, en krijgen soms verrassend zinnige antwoorden terug. Het probleem is niet per se de kwaliteit van die antwoorden, maar wat er met de ingevoerde gegevens gebeurt. Want hoe goed de intenties van OpenAI ook zijn, de informatie die gebruikers invoeren kan in sommige gevallen juridisch opvraagbaar zijn, bijvoorbeeld bij een rechtszaak.
Altman zelf vindt dat een zorgwekkende ontwikkeling. Hij gaf aan dat het ‘verknipt’ voelt dat AI-gesprekken opgevraagd kunnen worden in juridische procedures, zonder dat daar eerst een stevig juridisch kader voor is. “Ik denk dat gesprekken met een AI net zo beschermd zouden moeten zijn als gesprekken met een therapeut,” aldus Altman. Maar die bescherming is er nog niet – en dus is voorzichtigheid geboden.
Bewust gebruik van AI
Een bijkomend punt is dat AI-chatbots zoals ChatGPT vaak worden doorontwikkeld met behulp van gebruikersdata. Dat betekent dat informatie die jij invoert – of dat nu gaat over jouw relatie, mentale gezondheid of onzekerheden – in sommige gevallen kan worden gebruikt om het systeem te verbeteren. Hoewel OpenAI zegt dat het data-anonimisatie toepast, is volledige transparantie over hoe die data wordt opgeslagen, verwerkt en mogelijk hergebruikt nog niet vanzelfsprekend.
Deze zorgen worden versterkt door juridische spanningen, zoals de lopende rechtszaak tussen OpenAI en The New York Times. In die zaak wordt onder andere aangevoerd dat de gesprekken van miljoenen gebruikers niet zomaar door AI-bedrijven mogen worden opgeslagen of hergebruikt zonder expliciete toestemming. OpenAI is het daar niet mee eens en stelt dat het opslaan van zulke gesprekken op grote schaal een onnodige privacyschending zou zijn.
Een digitale schouder – met microfoons erboven
De opmars van AI als mentale steun is dus niet zonder risico. Waar gebruikers misschien denken anoniem en veilig hun hart te kunnen luchten bij een digitale gesprekspartner, is de werkelijkheid veel complexer. Voorlopig is er geen garantie dat je privacy net zo goed gewaarborgd is als bij een gesprek met een echte hulpverlener.
Totdat er duidelijke wetgeving is, blijft de vuistregel simpel: gebruik ChatGPT vooral als handige assistent of inspirerende gesprekspartner – maar niet als vertrouwenspersoon. De digitale ‘bank’ waar je je hart uitstort, heeft nog geen muren die je geheimen beschermen. Sterker nog, boven die virtuele divan hangen, zoals Altman het verwoordde, nog altijd denkbeeldige microfoons.
Conclusie
AI is indrukwekkend en veelbelovend, maar het blijft belangrijk om goed te begrijpen waar de grenzen liggen – zeker als het gaat om gevoelige informatie. Totdat de wetgever en techbedrijven de juridische en ethische kaders op orde hebben, is het raadzaam om je persoonlijke verhaal vooral te delen met mensen van vlees en bloed die daarvoor zijn opgeleid en wettelijk gebonden zijn aan geheimhouding. Want hoewel ChatGPT misschien nooit oordeelt, luistert het wel – en mogelijk niet alleen voor jouw bestwil.