Een golf van speculatie en bezorgdheid trekt over het internet sinds gebruikers ontdekten dat sommige teksten van ChatGPT onzichtbare symbolen bevatten.
Volgens populaire berichten op sociale media zou OpenAI, het bedrijf achter de chatbot, heimelijk een digitale vingerafdruk in zijn teksten verwerken — een soort watermerk waarmee je kunt achterhalen of een tekst door AI is gegenereerd. Vooral scholieren en studenten reageren bezorgd: kan dit betekenen dat docenten straks eenvoudig kunnen achterhalen of een opdracht met behulp van ChatGPT is geschreven?
Oorzaak: nieuwe modellen en mysterieuze tekens
De geruchten laaiden op na de introductie van twee nieuwe taalmodellen: GPT-3.o en GPT-4.o-mini. In teksten die deze modellen genereren, duiken bij technische inspectie zogeheten Unicode-tekens op — onzichtbare karakters die voor het blote oog onmerkbaar zijn, maar wel zichtbaar worden in programmeertools of teksteditors met geavanceerde weergaveopties. Het gaat bijvoorbeeld om tekens als U+200B, die eruitzien als gewone spaties maar een andere digitale structuur hebben.
Dit verschijnsel leidde tot de speculatie dat OpenAI bewust een digitale handtekening in teksten verwerkt. Op platforms als Reddit en TikTok wordt inmiddels volop gespeculeerd over verborgen signalen in ChatGPT-output en worden video’s gedeeld waarin gebruikers demonstreren hoe deze tekens zichtbaar gemaakt kunnen worden.
OpenAI: “Geen watermerk, maar sporen van training”
OpenAI ontkent echter dat het om een opzettelijk watermerk of detectiemechanisme gaat. In een verklaring laat het bedrijf weten dat de aanwezigheid van dergelijke symbolen mogelijk het onbedoelde resultaat is van het reinforcement learning-proces waarmee de modellen zijn getraind. Tijdens dat leerproces wordt een AI-model beloond of bestraft op basis van de kwaliteit van zijn antwoorden. Dit kan leiden tot subtiele en soms onbedoelde patronen in de gegenereerde output — waaronder het gebruik van specifieke, onzichtbare Unicode-karakters.
Volgens OpenAI is er geen sprake van een bewust ingebouwd herkenningsteken of verborgen metadata. Het bedrijf stelt dat het invoegen van identificerende tekens juist vermeden wordt, uit privacy-overwegingen en om gebruikers niet onterecht in een kwaad daglicht te stellen. Denk bijvoorbeeld aan teksten die met ChatGPT zijn gegenereerd ter inspiratie of voor brainstormdoeleinden, en die ten onrechte als 'fraude' bestempeld zouden kunnen worden als ze traceerbaar zijn.
Afbeeldingen wél met metadata
Op het gebied van beeldherkenning kiest OpenAI overigens een andere benadering. Alle afbeeldingen die via ChatGPT of DALL·E worden gegenereerd, worden automatisch voorzien van zogeheten C2PA-metadata. Deze informatie, ingebed in het bestand, maakt het voor redacties, mediabedrijven en andere organisaties mogelijk om vast te stellen of een afbeelding door AI is gemaakt. Deze transparantie sluit aan bij internationale afspraken over digitale echtheid en verantwoorde AI-toepassingen.
Voor tekstoutput geldt deze aanpak voorlopig nog niet. OpenAI erkent wel dat het technisch mogelijk is om AI-gegenereerde teksten te voorzien van een uniek watermerk. Toch heeft het bedrijf tot nu toe besloten die stap niet te zetten. De reden: men vreest dat gebruikers massaal zullen afhaken als ze weten dat hun tekstbijdragen permanent herkenbaar en traceerbaar zijn. Zeker in een tijd waarin AI-assistenten steeds vaker worden ingezet voor persoonlijke notities, creatieve projecten of zelfs zakelijke communicatie, ligt dat gevoelig.
Verwarring en speculatie nemen toe
Zolang er geen officiële markering is, blijft het bij geruchten, theorieën en online tutorials die proberen aan te tonen hoe AI-teksten alsnog herkend kunnen worden. De verwarring neemt toe, zeker onder jongeren en studenten die ChatGPT regelmatig gebruiken voor huiswerk of essays. Zij vrezen dat oplettende docenten met behulp van technische hulpmiddelen toch kunnen achterhalen of een tekst door een AI is geschreven — ondanks het ontbreken van een officieel detectiesysteem.
Voorlopig blijft het antwoord van OpenAI duidelijk: er is geen geheim watermerk, enkel digitale sporen die voortkomen uit het leerproces van de modellen. Toch lijkt het debat daarmee allesbehalve gesloten. De roep om transparantie groeit — van zowel tegenstanders als voorstanders van AI-gebruik.