De chatnot: waarom veel chatbots nog steeds tekortschieten

Deel dit artikel

,

Chatbot

Wie tegenwoordig een website van een bank, energiebedrijf of webshop bezoekt, komt bijna altijd in aanraking met een chatbot. Vaak heten ze Lisa, Tom of gewoon Info-assistent. Ze zijn bedoeld om klanten snel te helpen en het aantal telefoontjes naar de klantenservice te beperken. Toch blijkt de praktijk vaak teleurstellend. Vragen worden niet goed begrepen, antwoorden voelen onpersoonlijk en in veel gevallen eindigt de klant alsnog in de wachtrij van de telefonische helpdesk.

Dit staat in schril contrast met de ervaring die veel mensen inmiddels hebben met systemen zoals ChatGPT of Gemini. Die laatste laten zien dat kunstmatige intelligentie in staat kan zijn om complexe vragen te begrijpen, door te vragen en antwoorden te formuleren die aansluiten bij de context. Waarom zijn de chatbots die we in het dagelijks leven tegenkomen dan nog steeds zo beperkt?

De belangrijkste oorzaak is technisch van aard. Grote taalmodellen (LLM’s) zoals ChatGPT zijn getraind op enorme hoeveelheden tekst en beschikken over geavanceerde mogelijkheden om context te begrijpen, te redeneren en nieuwe zinnen te construeren. De meeste commerciële chatbots werken echter met eenvoudige vraag-antwoord-schema’s of vooraf ingestelde keuzemenu’s. Hun “kennisvoorraad” is beperkt, waardoor ze geen natuurlijke gesprekken kunnen voeren of flexibel kunnen omgaan met onverwachte vragen.

Een tweede reden is de doelstelling waarmee ze zijn ontwikkeld. LLM’s zijn getraind om zo natuurlijk en menselijk mogelijk te communiceren, terwijl chatbots meestal ontworpen zijn vanuit een kostenbesparingsperspectief. Ze moeten zo snel mogelijk doorverwijzen naar een webpagina, een formulier of een standaardantwoord. In feite functioneren veel chatbots niet veel anders dan een interactieve FAQ.

Waarom maken organisaties dan geen gebruik van de kracht van LLM’s? Het korte antwoord: kosten en risico’s. Het inzetten van een chatbot die draait op een groot taalmodel vraagt meer rekenkracht, complexere integratie en vaak ook maatwerktraining op organisatie-eigen data. Bovendien kunnen LLM’s fouten maken of “hallucineren”.
Dat is een groot risico in sectoren waar nauwkeurigheid en juridische betrouwbaarheid essentieel zijn, zoals verzekeringen, gemeenten of luchtvaartmaatschappijen. Voorbeelden daarvan zijn inmiddels bekend: zo moest een luchtvaartmaatschappij een schadevergoeding betalen omdat een chatbot verkeerde informatie had verstrekt, en trok een grote stad in de VS haar chatbot offline toen deze juridische adviezen gaf die niet klopten.

Toch is er ruimte voor verbetering. Bedrijven die hun klanten serieus nemen, zouden chatbots niet moeten zien als een statisch hulpmiddel dat eenmaal geïnstalleerd klaar is. Regelmatige updates, testen met echte gebruikers, en betere teksten maken al een groot verschil. Daarnaast is het verstandig om in het ontwerp altijd een naadloze overstap naar menselijke medewerkers in te bouwen. Een vriendelijke en duidelijke doorverwijzing kan voorkomen dat de klant gefrustreerd raakt.

Op de langere termijn zullen we waarschijnlijk een verschuiving zien naar hybride systemen: chatbots die draaien op beperkte scripts, maar waar nodig worden ondersteund door veilig getrainde LLM-componenten met duidelijke “guardrails”. Deze technische en inhoudelijke beperkingen zorgen ervoor dat de chatbot geen ongepaste of juridisch riskante antwoorden kan geven.

De uitdaging is duidelijk: van chatnot naar chatbot. Het succes van zulke systemen hangt niet alleen af van technologie, maar ook van de bereidheid van organisaties om te investeren in kwaliteit en gebruiksvriendelijkheid.
Alleen dan kunnen chatbots een echte meerwaarde krijgen en het vertrouwen van gebruikers winnen.

Disclaimer
HCC benadrukt dat dit artikel uitsluitend bedoeld is als achtergrondinformatie en analyse. HCC heeft geen enkel belang in de genoemde bedrijven of technologieën. Hoewel kunstmatige intelligentie en chatbots waardevolle toepassingen kunnen hebben, zijn er altijd beperkingen, risico’s en verantwoordelijkheden verbonden aan het gebruik ervan. Het is aan organisaties en gebruikers om technologie op een zorgvuldige en verantwoorde manier toe te passen.

'Meld je aan voor de nieuwsbrief' van HCC!artificieleintelligentie

'Abonneer je nu op de nieuwsbrief en blijf op de hoogte van onze activiteiten!'

Aanmelden