Waarom dit nú belangrijk is voor trainers en L&D-consultants

Je krijgt de vraag: “Kun je snel een e-learning module maken over ons nieuwe beleid?” Je denkt: met AI gaat dat vast sneller. Dus je vraagt een model om een outline, leerdoelen en toetsvragen. Het resultaat ziet er professioneel uit, maar bij één check blijkt: een paar definities kloppen niet, een bronverwijzing bestaat niet, en een procedure is “bijna goed” maar net anders dan jullie interne richtlijn. Voor een trainer is dat vervelend; voor een organisatie kan het risico’s opleveren.

AI is namelijk niet alleen een slimme tekstgenerator. Het is een model dat voorspelt wat waarschijnlijk het volgende woord (of beeld, of stukje code) is. En precies dáár komt het grootste misverstand vandaan: de output kan overtuigend zijn zonder waar te zijn. In e-learning—waar nauwkeurigheid, compliance en geloofwaardigheid tellen—moet je begrijpen wat er onder de motorkap gebeurt.

In deze les krijg je een helder, werkbaar beeld van wat “AI-modellen” zijn, wat hallucinaties betekent in de praktijk, en hoe je als beginner daar verstandig mee omgaat zonder in technische details te verdrinken.


Modellen en hallucinaties: de basis in gewone taal

Een AI-model is een systeem dat patronen leert uit data en daarna output genereert op basis van die patronen. In de context van generatieve AI (zoals tekst- of beeldmodellen) is het kernidee: het model heeft tijdens training enorme hoeveelheden voorbeelden gezien en leert statistische verbanden. Bij gebruik “redeneert” het niet zoals een mens, maar voorspelt het de meest waarschijnlijke vervolgstappen in een reeks—bij tekst dus: welk woord hoort hier waarschijnlijkna.

Een belangrijke consequentie: een model heeft geen ingebouwde garantie op waarheid. Het kan correcte informatie geven, maar dat is een bijproduct van het feit dat veel informatie in de trainingsdata klopt—niet een bewijs dat het model “weet” wat waar is. Zie het als een extreem geavanceerde auto-aanvulfunctie die heel goed is in stijl, structuur en plausibiliteit. Dat is precies waarom AI zo bruikbaar is voor e-learningteksten: het kan snel consistent formuleren, samenvatten en structureren.

Hallucinaties zijn momenten waarop een model output produceert die feitelijk onjuist, verzonnen, of niet te verifiëren is, terwijl het wél overtuigend klinkt. Dat kan gaan om een niet-bestaande bron (“Volgens ISO 12345…”), een verzonnen definitie, of subtiele fouten zoals een procedure met één stap te veel. Je ziet het vaak niet meteen, omdat de taal vloeiend is en het format klopt—zeker als je een strak e-learningtemplate gebruikt.

Belangrijk om te onthouden: hallucinaties zijn geen “bug die soms voorkomt”, maar een logisch gevolg van hoe generatieve modellen werken. De kunst is niet om hallucinaties “uit te zetten”, maar om je workflow zo in te richten dat je ze verwacht, opspoort en neutraliseert.


Wat een model wél en niet doet (en waarom hallucinaties logisch zijn)

Van “voorspellen” naar “overtuigend klinken”

Een generatief taalmodel optimaliseert op waarschijnlijkheid: het kiest woorden die passen bij de context van je prompt en bij patronen die het vaak in data zag. Als jij vraagt: “Maak een e-learning over agressiebeleid in de zorg, inclusief wetgeving,” dan is het model geneigd om te leveren wat in soortgelijke teksten voorkomt: definities, stappenplannen, verwijzingen naar wetten, en een professioneel klinkende toon. Het model wordt als het ware beloond (in zijn interne proces) voor coherente, complete antwoorden, niet voor “ik weet het niet”.

Daarom voelt het soms alsof het model “zeker weet” dat iets klopt. Het gebruikt namelijk taalvormen die wij als mensen koppelen aan zekerheid: stellige zinnen, keurige opsommingen, formele termen. Maar die zekerheid is stijl, geen bewijs. Als er in de trainingspatronen veel “beleidsteksten met bronvermeldingen” zitten, dan zal het model ook bronvermeldingen genereren—zelfs als het de specifieke bron niet echt kan controleren.

Een tweede reden dat hallucinaties ontstaan: prompts bevatten vaak onuitgesproken aannames. Wanneer jij zegt “ons onboardingprogramma”, kent het model jullie organisatie niet. Het vult gaten op met generieke aannames. Dat is handig bij het maken van een eerste opzet, maar gevaarlijk als je het direct copy-past naar productionele content. Hoe vager of breder de vraag, hoe groter de ruimte die het model moet invullen met plausibele, maar mogelijk onjuiste details.

Tot slot speelt “druk” richting volledigheid mee. Als je vraagt om “10 toetsvragen met feedback en niveauverschillen”, dan zal het model liever iets produceren dan terugvragen stellen. Zonder duidelijke constraints (zoals “gebruik alléén deze bron” of “zeg het als je het niet zeker weet”), gaat het model dus al snel compleet klinkende antwoorden geven die bij nadere controle gaten vertonen.

Modellen verschillen in gedrag: niet beter of slechter, maar anders

Niet elk model reageert hetzelfde. Sommige modellen zijn sterker in creatief formuleren en structuur, andere in logisch redeneren, en weer andere in het volgen van instructies. Ook instellingen zoals “creativiteit” (vaak temperatuur genoemd) beïnvloeden hoe “vrij” een model varieert. Meer variatie kan nuttig zijn voor brainstormen, maar vergroot doorgaans ook de kans op fouten of verzinsels in feitelijke details.

Voor e-learning is het nuttig om dit verschil te begrijpen, omdat je vaak twee soorten werk hebt. Enerzijds heb je generatief werk: een scenario, voice-overtekst, feedback bij een vraag—daar is stijl en variatie welkom. Anderzijds heb je verificatiegevoelig werk: definities, beleidsteksten, compliance, medische claims—daar wil je juist voorzichtigheid, brongebondenheid en controle. Een beginner maakt vaak de fout om één “AI-stand” te gebruiken voor alles, terwijl de aard van de taak bepaalt hoe streng je moet zijn.

Er is ook een misverstand dat “een groter model geen hallucinaties heeft”. Grotere of modernere modellen kunnen hallucinaties verminderen in sommige situaties, maar ze maken ze niet onmogelijk. Soms zijn ze juist overtuigender in hun fouten, omdat ze beter zijn in taal. In L&D is dat extra tricky: de output kan precies passen bij je didactische format (leerdoelen, Bloom-werkwoorden, samenvattingen), waardoor je brein sneller denkt: “Dit zal wel kloppen.”

De praktische les: behandel modeloutput als een eerste versie die je laat winnen op snelheid en structuur, maar die je pas “waar” verklaart na checken. Zeker bij content die juridische, veiligheids- of reputatierisico’s raakt.

Wanneer hallucinaties het meest voorkomen (en hoe je ze herkent)

Hallucinaties verschijnen vaak in voorspelbare patronen. Het model verzint bijvoorbeeld: specifieke cijfers, jaartallen, namen van wet- en regelgeving, exacte definities, of bronverwijzingen. Het kan ook subtieler: het mengt twee concepten die in de praktijk onderscheiden moeten blijven, zoals “evaluatie” en “assessment”, of “formatieve” en “summatieve” toetsing, omdat ze in taal dicht bij elkaar liggen.

Je herkent hallucinaties niet altijd aan “rare zinnen”. Vaak is het juist keurig geschreven. Let daarom op signalen zoals: ongewoon precieze claims zonder bron (“onderzoek toont aan dat 73%…”), verwijzingen die je niet direct kunt valideren, of procedures die te generiek klinken voor jullie organisatie. Een ander signaal is wanneer het model vragen wegpoetst: het geeft een antwoord alsof het jullie context kent, terwijl je die context nooit hebt aangeleverd.

Een typische beginnersmisvatting is: “Als ik het heel netjes instructeer, kan er niets misgaan.” Heldere prompts helpen enorm, maar ze veranderen de kern niet: het model kan geen werkelijkheid checken. De oplossing is dus niet alleen beter prompten, maar ook slimmer begrenzen en verifiëren. Denk: werken met aangeleverde bronnen, expliciet laten markeren wat aannames zijn, en output laten formatteren op een manier die review makkelijk maakt.

Om het verschil snel te zien, helpt deze vergelijking:

Dimensie Modeloutput die ‘goed’ is voor e-learning Hallucinatie-risico (waar je op let)
Doel Structuur en formulering: leerdoelen netjes, logische opbouw, consistente tone of voice. Waarheidsclaim: feiten, beleid, wetgeving, bronverwijzingen.
Kracht Snelheid: eerste versie van script, cases, feedbackteksten, variaties op voorbeelden. Plausibiliteit: het klinkt correct, dus het voelt correct—maar dat is geen bewijs.
Typische vorm Algemene principes: “stap 1–2–3”, definities op hoog niveau, voorbeeldscenario’s. Specifieke details: jaartallen, artikelen, interne processtappen, “officiële” definities.
Wat jij moet doen Redigeren: didactische scherpte, doelgroep-taal, consistentie met jouw format. Verifiëren: check op bron, laat onzekerheid expliciet maken, corrigeer en documenteer.

Twee herkenbare praktijkbeelden uit L&D en training

Voorbeeld 1: Compliance e-learning met beleidstekst en “net-niet” procedures

Stel: je bent L&D-consultant en je maakt een e-learning over informatiebeveiliging. Je vraagt AI om een module met: definities (persoonsgegevens, datalek), stappen bij incidenten, en 8 meerkeuzevragen. Het model levert snel een mooi pakket: een intro, een stappenplan, en toetsvragen met feedback die didactisch klopt. Je bent in 15 minuten verder dan je normaal na een halve dag zou zijn.

Dan komt de kritieke stap: je vergelijkt het “stappenplan bij incidenten” met jullie echte interne procedure. Het model heeft een plausibele volgorde gemaakt, maar het mist één verplichte escalatiestap en noemt een rol (“Security Officer”) die in jullie organisatie anders heet. Ook verwijst het naar een meldtermijn die algemeen klinkt, maar niet overeenkomt met jullie afspraken. Dit is een klassieke hallucinatievorm: geen bizarre onzin, maar aannames die als feiten worden gepresenteerd.

Wat werkt hier in de praktijk is een gecontroleerde aanpak: je gebruikt AI voor opzet en formulering, maar je behandelt elke procedurestap als “onbevestigd” totdat die matcht met jullie bron. Je laat AI ook expliciet scheiden tussen “wat zeker is” en “wat een aanname is”. Zo maak je review sneller: een SME of compliance officer hoeft niet alles te lezen alsof het definitief is, maar kan gericht de risicodelen checken.

De impact is groot: je wint snelheid op schrijfarbeid en structuur, maar je voorkomt dat er “professioneel uitziende fouten” in de leercontent sluipen. Beperking blijft: zonder jouw bronmateriaal en review kan AI niet garanderen dat beleid klopt. In compliance-contexten is dat geen detail, maar het verschil tussen een bruikbare module en een risico.

Voorbeeld 2: Trainingmateriaal: scenario’s en toetsvragen die “te mooi” kloppen

Stel: je bent trainer en je ontwikkelt een e-learning als voorbereiding op een live training “feedback geven”. Je vraagt AI om drie scenario’s met dialoog, inclusief goede en slechte voorbeeldzinnen, en daarna reflectievragen. Het model geeft sterke teksten: herkenbare situaties, nette formuleringen, en een fijne opbouw. Deze taak past goed bij wat modellen sterk kunnen: taal, variatie, en voorbeeldgeneratie.

Toch kan ook hier een hallucinatie-achtig probleem ontstaan: het model introduceert technieken of termen alsof ze standaard zijn (“de 5-stappen feedbackmethode X”), of het schrijft dialoog die cultureel of organisatorisch niet past (“ik escaleren dit naar HR” in een context waar dat ongebruikelijk is). Het is geen feitelijke wetenschapsclaim, maar een contextuele misfit die jouw deelnemers kan laten afhaken: “Zo praten we hier niet.” In e-learning werkt dat extra sterk, omdat deelnemers alleen met de content interageren—zonder jou erbij om nuance te geven.

Een werkbare aanpak is om de scenario’s te behandelen als ruw materiaal: je behoudt de structuur, maar je lokaliseert taal, rollen en context. Je checkt ook of er geen “namedropping” van modellen of methodes in zit die je niet bewust wilt onderwijzen. AI genereert namelijk graag een “complete” leservaring, inclusief frameworks, omdat dat in trainingscontent vaak voorkomt. Maar als je niet expliciet kiest voor zo’n framework, kan het ruis worden.

De winst: je krijgt snel meerdere varianten van scenario’s en feedbackteksten, waardoor je e-learning rijker wordt zonder weken schrijfwerk. De beperking: jij blijft eindverantwoordelijk voor didactische keuzes en contextfit. AI kan je schrijversblok wegnemen, maar niet bepalen wat bij jouw organisatiecultuur en leerdoelen past.


De kern in één keer scherp (en een veilige mindset)

Je kunt AI in e-learning ontzettend effectief inzetten zodra je het ziet als: een model dat waarschijnlijkheid optimaliseert, niet waarheid. Dat maakt het briljant voor structuur, formulering en variatie, en tegelijk risicovol voor details die “moeten kloppen”. Hallucinaties zijn daarbij niet iets om van te schrikken, maar een aandachtspunt dat je standaard meeneemt in je manier van werken.

Belangrijkste punten om vast te houden:

  • Modeloutput is een draft: professioneel en bruikbaar, maar niet automatisch correct.

  • Hallucinaties zijn vaak subtiel: procedures “bijna goed”, bronnen die bestaan-achtig klinken, termen die net niet passen.

  • Taak bepaalt je strengheid: creatief genereren mag vrijer; compliance en beleid vragen harde verificatie.

Next, we’ll build on this by exploring AI door de e-learning workflow [30 minutes].

Last modified: Monday, 16 February 2026, 8:41 PM