AI-Hallucinaties: Wat is de beste aanpak?

February 2, 2025
Het is zover, vanaf deze week moeten organisaties voldoen aan de AI-geletterdheid regels. De AI Act schrijft voor dat medewerkers die werken met AI-systemen vanaf 2 februari 2025 in staat moeten zijn deze AI-systemen te gebruiken, te begrijpen en kritisch te kunnen evalueren. In dit blog gaan we dieper in op een van de problemen die illustreert waarom AI-geletterdheid zo belangrijk is: AI-hallucinaties

Wat zijn AI-hallucinaties?

De term AI-hallucinaties refereert naar de situaties waarbij AI-chatbots gebaseerd op een large language model (LLM) feiten genereren die onjuist zijn. Om een AI-chatbot te bouwen gebaseerd op een LLM, wordt het model getraind op een enorme hoeveelheid tekst. Vervolgens probeert het model het volgende woord in een reeks woorden te voorspellen. Door deze oefening worden de patronen die het model gebruikt voor zijn voorspellingen gefinetuned.1 Uiteindelijk heb je dan geen model dat kan converseren, maar een model dat het volgende woord in de zin kan voorspellen. Dit is anders dan een zoekmachine die accurate, of op zijn minst bestaande, informatie verschaft. Dit verschil verklaart waarom AI-chatbots feiten kunnen genereren die geloofwaardig klinken, maar onjuist zijn. Soms kunnen deze hallucinaties ook positieve effecten hebben. In de scheikunde kunnen AI-chatbots niet-bestaande en nieuwe molecuulstructuren bedenken. Creatief en out-of-the-box denken is essentieel voor doorbraken bij het ontwikkelen van nieuwe medicijnen. De onberekenbare ideeën van AI-chatbots blijken voor dit doel erg nuttig.2 

Maar AI-hallucinaties kunnen ook ingrijpende negatieve gevolgen hebben. Zoals voor de burgemeester van Hepburn Shire, een kleine gemeente in het zuidoosten van Australië met 15.000 inwoners. Nadat hij was verkozen uitten inwoners hun zorgen over zijn betrokkenheid bij een omkopingsschandaal twintig jaar geleden. Zeer verontrustend nieuws voor een iemand die verkiesbaar is, want dan is je reputatie fundamenteel voor je positie. Het bleek dat ChatGPT het gerucht verspreidde dat hij schuldig was bevonden en in de gevangenis had gezeten. Het tegenovergestelde was waar: de burgemeester was degene die de omkoping had ontdekt en naar de politie was gestapt.3 

De ‘black box’ & andere problemen

Hoe heeft het AI-systeem kunnen hallucineren dat de burgemeester inde gevangenis heeft gezeten? Het is moeilijk vast te stellen hoe AI-systemen tot de conclusies komen die ze maken. Dit wordt ook wel het ‘black box’-probleem genoemd. Het gebrek aan transparantie bij het interpreteren van AI-systemen wordt gevisualiseerd als een zwarte doos waarbij je niet kan zien wat er zich van binnen afspeelt. 

Als persoonsgegevens worden verzonnen door AI-hallucinaties, kan dit in strijd zijn met de AVG. Privacy activist Max Schrems heeft hierover geklaagd bij de gegevensbeschermingsautoriteit. Wanneer hij ChatGPT vroeg naar de geboortedatum van Max Schrems, gaf ChatGPT steeds verkeerde antwoorden. Als ChatGPT vervolgens werd gevraagd de persoonsgegevens te rectificeren, antwoordde het dat rectificatie onmogelijk was.4  

Hoe lossen we dit op?

Het is mogelijk om naar oplossingen te zoeken die betrekking hebben op het AI-systeem zelf, zoals:

  • Het continu monitoren en verbeteren van het system
  • Het juist en representatief houden van de trainingsdata

Maar het creëren van het perfecte AI-systeem lijkt een onmogelijke opgave. Er kan ook gefocust worden op een oplossing door middel van AI-geletterdheid. Je medewerkers kunnen zowel je sterkste, als je zwakste schakel zijn. Als degene die het AI-systeem gebruikt weet wat ze moeten vragen en hoe ze informatie moeten checken, kunnen de problemen van AI-hallucinaties in de kiem gesmoord worden. Op dit moment dwingt de AI Act organisaties zich te focussen op AI-geletterdheid.

Heb je vragen over het implementeren van AI-geletterdheid binnen jouw organisatie? Wij kunnen helpen! Neem contact met ons op via: annemartine.koetsier@privacycompany.nl.


 

[1] Ars technica, ‘Why ChatGPT and Bing Chat are so good at making things up’, 6 april 2023. URL: https://arstechnica.com/information-technology/2023/04/why-ai-chatbots-are-the-ultimate-bs-machines-and-how-people-hope-to-fix-them/

[2] Psychology Today. ‘Harnessing Jallucinations to Make AI More Creative’, 25 januari 2025. URL: https://www.psychologytoday.com/intl/blog/the-digital-self/202501/harnessing-hallucinations-to-make-ai-more-creative

[3] Reuters, Australian mayor readies world’s first defamation lawsuitover ChatGPT content, 5 april 2023. URL: https://www.reuters.com/technology/australian-mayor-readies-worlds-first-defamation-lawsuit-over-chatgpt-content-2023-04-05/

[4] Noyb, ChatGPT provides false information about people, and OpenAI can’t correct it, 29 april 2024. URL: https://noyb.eu/en/chatgpt-provides-false-information-about-people-and-openai-cant-correct-it

Download
Lynn
Adviseur