Chatbots als ChatGPT zijn niet altijd even voorspelbaar. Stel je dezelfde vraag twee keer, dan kun je zomaar twee verschillende antwoorden krijgen. Toch blijkt dat de toon waarop je iets vraagt, beleefd of bot, verrassend veel invloed kan hebben op hoe nauwkeurig het antwoord is. En dat zorgt voor een intrigerende conclusie: soms werkt het beter om onbeleefd te zijn.
Onaardig zijn levert betere antwoorden op
Uit onderzoek van de Pennsylvania State University blijkt dat ChatGPT en vergelijkbare AI-modellen preciezer antwoorden geven wanneer vragen op een onbeleefde of directe toon worden gesteld. De onderzoekers lieten het model vijftig vragen beantwoorden over wiskunde, wetenschap en geschiedenis, elk in verschillende toonvormen: van “zeer beleefd” tot “zeer onbeschoft”. De uitkomst was opvallend: de botste formuleringen leverden de meest correcte antwoorden op. Volgens de onderzoekers heeft dit niets te maken met het feit dat ChatGPT ‘graag tegengesproken wordt’, maar met hoe taal werkt. Onbeleefde prompts zijn vaak korter, directer en bevatten minder omwegen of verzachtingen. Daardoor kan het model beter begrijpen wat de bedoeling is — en dus een preciezer antwoord geven.
Minder ruis, meer focus
De Utrechtse AI-onderzoeker Uwe Peters legt het als volgt uit: “Onbeleefde prompts zijn vaak efficiënter geformuleerd. Ze bevatten minder overbodige woorden, waardoor het model minder afgeleid wordt. Het gaat dan niet om emoties, maar om taalstructuur: minder ruis betekent meer focus.” ChatGPT bevestigt dat zelf ook: “Of een vraag ‘bot’ is, maakt mij niets uit, maar korte en directe prompts helpen vaak om de essentie sneller te begrijpen.”
De ‘roze olifant’-valkuil
Opvallend genoeg ontdekte Peters in eigen onderzoek nóg iets interessants: als je ChatGPT expliciet vraagt om geen fouten te maken, gaat het juist slechter.
“Zeg je ‘vermijd onnauwkeurigheden’, dan activeer je onbewust het concept ‘onnauwkeurigheid’, waardoor het model juist meer geneigd is tot kleine fouten,” legt hij uit. “Het is hetzelfde effect als wanneer iemand zegt: ‘Denk niet aan een roze olifant’ — dan denk je er juist wél aan.”
Kortom: de beste resultaten krijg je door duidelijk, kort en neutraal te schrijven.
Meer onderzoek nodig
Volgens AI-onderzoekers zoals Martijn van Otterlo is het gedrag van zulke taalmodellen nog lang niet volledig te doorgronden.
“Kleine verschillen in formulering — soms één woord — kunnen een compleet ander antwoord opleveren. En het verschilt ook over de tijd, omdat modellen voortdurend worden bijgewerkt. We staan nog maar aan het begin van het begrijpen van die dynamiek.” Hij raadt gebruikers aan om bij het stellen van vragen vooral inhoudelijk specifiek te zijn. “Zeg niet: ‘Vertel iets over AI’, maar: ‘Geef in drie zinnen de voordelen van AI in de zorg’. Daarmee ‘dwing’ je het model tot een gerichte en betrouwbare reactie.”
Geen reden om echt onaardig te zijn
Toch is er een belangrijk moreel onderscheid: ChatGPT heeft geen gevoelens of bewustzijn. Beleefdheid of onbeleefdheid maakt het model niets uit — het is een rekenalgoritme zonder emoties. Maar hoe jij met het model praat, kan wel invloed hebben op je gedrag tegenover mensen. Wie structureel bot is tegen chatbots, kan ongemerkt die toon ook overnemen in menselijke interacties. Andersom kan overmatige beleefdheid ertoe leiden dat gebruikers ChatGPT gaan vermensen, wat verwachtingen schept die niet kloppen — want ChatGPT begrijpt niets, het voorspelt alleen tekst.
Wat betekent dit voor HCC-leden?
Voor HCC-leden is dit onderzoek een boeiende les in digitale communicatie en kritisch denken. Het laat zien dat kunstmatige intelligentie niet werkt zoals menselijke intelligentie, maar volgens taalkundige patronen en kansberekeningen.
Wie met AI-tools werkt — of dat nu ChatGPT, Copilot of Gemini is — doet er goed aan om:
* Korte, duidelijke prompts te gebruiken;
* Geen emotionele taal of beleefdheidsvormen toe te voegen;
* En expliciet te benoemen wat je wilt, niet wat je níet wilt.
AI begrijpt geen intenties, maar reageert op taalstructuur. En soms betekent dat dat een “botte vraag” een beter antwoord oplevert dan een vriendelijke.
Of, zoals Van Otterlo het samenvat:
“AI is geen mens. Dus behandel het niet als een mens — maar praat er wel verstandig tegen.”