Groot probleem met nieuwe AI-modellen: ze vertellen meer onzin

Github
Tweakers schrijft mei 2025: “Toen ChatGPT in 2022 werd gelanceerd, deelde hij als grap Gouden Kalveren uit aan Tweakers-redacteuren – en dat was nog lang niet de vreemdste hallucinatie. Enkele maanden later lieten Google en Microsoft hun eigen AI-chatbots zien, die onder andere cafés aanraadden die nooit hadden bestaan of allang gesloten waren.”
Inmiddels zijn AI-chatbots in staat om informatie op het internet op te zoeken en logischer te redeneren, waardoor ze hun eigen antwoorden kunnen controleren. Hallucineren ze daardoor minder? Helaas niet. Zo schrijft Tweakers.
Hallucinaties bij AI-modellen verwijzen naar situaties waarin een AI – zoals ChatGPT of een ander groot taalmodel – informatie verzint die niet klopt, maar die wel overtuigend en feitelijk klinkt. Een AI-model “hallucineert” als het iets vertelt dat niet waar is, maar dat klinkt alsof het dat wel is.
Het probleem van hallucinaties
Hallucinaties zijn sinds het ontstaan van AI-chatbots een fundamenteel probleem. Bij zo’n hallucinatie verzint het taalmodel een feit of situatie en presenteert die met overtuiging aan de gebruiker, alsof het klopt.
Er bestaan grofweg twee vormen van hallucinaties. De eerste komt voort uit foutieve informatie in de trainingsdata. Als een veelvoorkomende maar onjuiste bewering – zoals “van te veel schermtijd krijg je vierkante ogen” – vaak genoeg voorkomt in de data, kan een taalmodel deze onzin reproduceren. Of dat ook daadwerkelijk gebeurt, hangt af van het specifieke model en zijn instellingen.
De tweede vorm ontstaat door een gebrek aan kennis. In zulke gevallen vult het model de ontbrekende informatie aan met plausibel klinkende tekst, ongeacht of die feitelijk klopt. Hoe ver het model daarin gaat, wordt mede bepaald door instellingen als ‘temperatuur’ of ‘creativiteit’. Deze instellingen zijn nuttig voor brainstormsessies, waarbij juist creatieve output gewenst is. Maar hoe hoger de creativiteit, hoe groter ook de kans op hallucinaties.
De oorzaak ligt in de kern van hoe taalmodellen werken: ze voorspellen het volgende woord op basis van waarschijnlijkheid. Soms is de keuze overduidelijk, maar vaak zijn er meerdere mogelijke woorden met vergelijkbare kansen – en dan wordt het resultaat deels willekeurig.
“Een model zonder waarheidskompas”
Het fundamentele probleem is dat een taalmodel werkt op basis van statistiek en neurale netwerken, zonder een ingebouwd besef van waarheid of onwaarheid. Bedrijven als Google, OpenAI en Anthropic dachten de oplossing te vinden in twee dingen: toegang tot het internet en de mogelijkheid tot redeneren.
Met toegang tot het web kan het model informatie ophalen die buiten de trainingsdata ligt – actuele en hopelijk betrouwbare informatie. Redeneren voegt daar een controlemechanisme aan toe: het model gebruikt zijn eerste antwoord als basis om het te controleren of te verbeteren. Dat kost meer tijd, maar zou moeten leiden tot nauwkeurigere, beter onderbouwde antwoorden.
Toch lijkt het probleem niet opgelost. Integendeel, er zijn aanwijzingen dat nieuwere modellen juist méér hallucineren – ondanks hun vermogen tot redeneren. Dat blijkt uit benchmarks en metingen, bijvoorbeeld die van OpenAI zelf. Benchmarks zijn natuurlijk niet zaligmakend, maar ze geven wel een indicatie: zelfs met geavanceerdere technieken blijft de grens tussen feit en fictie voor AI-chatbots bijzonder vaag.