AI-capabilities & limits: wat kan misgaan
Een nette AI-samenvatting die tóch schade kan doen
Je zit in het groot mkb-segment bij een bank of verzekeraar. Een collega gebruikt AI om een klantdossier “even snel” samen te vatten: jaarrekening, interne notities, KYC-signalen, mailwisselingen. De output ziet er professioneel uit: heldere bullets, goede toon, zelfs een “risicoprofiel” in één alinea. Iedereen opgelucht: tijd gewonnen.
Dan begint het echte risico. Misschien staat er één subtiele onjuistheid in de samenvatting (“UBO gewijzigd in Q4” terwijl het Q2 was), of een nuance ontbreekt (“transactiepatroon stijgt” zonder te melden dat er een seizoenseffect is). Of erger: de tekst is in een omgeving geplakt waar je niet kunt aantonen wat ermee gebeurt, wie erbij kan, of hoe lang het bewaard blijft. In finance zijn dit geen schoonheidsfouten: dit kan besluitvorming sturen, klantcommunicatie juridisch riskant maken, of je audit trail ondermijnen.
AI wordt nu op grote schaal gebruikt voor precies dit soort “kleine” taken: schrijven, samenvatten, structureren, classificeren. Juist daarom moet je scherp hebben wat AI wél goed kan, waar het structureel faalt, en welke misvattingen je team kwetsbaar maken. Deze les maakt die grenzen concreet—zodat je AI sneller én veiliger inzet.
Wat bedoelen we met “capabilities & limits” in een gereguleerde omgeving?
Met AI-capabilities bedoelen we: welke taken AI betrouwbaar kan ondersteunen (meestal taal- en patroonwerk), onder welke voorwaarden (goede input, duidelijke instructie, menselijke controle). Met AI-limits bedoelen we: waar AI geen garantie geeft—zoals feitelijke juistheid, volledige volledigheid, bronverwijzingen, of constante reproduceerbaarheid.
Een paar kerntermen die je helpen om risico’s precies te benoemen:
-
Hallucinatie: het model vult ontbrekende informatie overtuigend aan, alsof het feitelijk is.
-
Verankering (anchoring): mensen nemen AI-output onbewust als startpunt en corrigeren te weinig, zelfs als er twijfel is.
-
Reproduceerbaarheid: dezelfde vraag kan een ander antwoord geven; consistent klinkt fijn, maar zegt weinig over waarheid.
-
Modelrisico: de kans dat AI-uitkomsten onjuist, incompleet of vertekend zijn, én dat dit impact heeft op klant of besluit.
-
Audit trail: kunnen reconstrueren wat erin ging, wat eruit kwam, wie het gebruikte, en welke controle is gedaan.
Deze begrippen sluiten direct aan op het Responsible-AI-fundament uit de vorige les: dataminimalisatie, bronverificatie, uitleg/audit trail, en governance met human oversight. Denk aan het vier-ogenprincipe: AI is een extra “assistent” die snelheid brengt, maar geen autoriteit krijgt. De twist is dat AI vaak zó overtuigend schrijft dat het tweede paar ogen extra alert moet zijn.
Waar AI sterk is (en waarom dat soms misleidend veilig voelt)
AI blinkt uit in taken waarbij de “juiste” uitkomst niet één harde waarheid is, maar een goede formulering of structuur. Bij veel kantoorprocessen in banken en verzekeraars gaat het precies daarom: je wilt een tekst die helder, consistent en compleet oogt. Dat maakt AI enorm productief—en tegelijk gevaarlijk, omdat “professioneel” snel wordt verward met “juist”.
Een grote capability is herstructureren en samenvatten. Als je de juiste bronpassages aanbiedt, kan AI razendsnel een dossier opsplitsen in thema’s (bijv. bedrijfsstructuur, signalen, open vragen, acties) en een eerste overzicht maken. In KYC-, acceptatie- of claimprocessen is dit aantrekkelijk: minder tijd aan ordenen, meer tijd aan beoordeling. Maar diezelfde kracht creëert een valkuil: samenvatten betekent altijd selecteren. Het model kiest nadruk op basis van taalpatronen, niet op basis van jouw risicokader of beleid, tenzij je dat expliciet afdwingt.
Een tweede capability is tekstproductie met toon en consistentie. AI kan klantvriendelijke brieven, interne memo’s of notulen in een uniforme stijl genereren. In verzekeren helpt dit bij empathische, duidelijke communicatie; in bankieren bij strakke, zakelijke updates. Het misleidende deel: de tekst kan juridisch “klinken alsof het klopt” zonder dat de inhoud klopt. AI schrijft net zo makkelijk een nette alinea over dekking, voorwaarden of verplichtingen als jouw input onvolledig is—en dat is precies waar reputatie- en compliance-risico ontstaan.
Een derde capability is patroonmatige classificatie (bijv. onderwerp-tags, routing, lijstjes met “open punten”). Dit werkt vooral goed als de taak veel herhaling heeft en je accepteert dat er soms een foutje tussen zit, zolang je een vangnet hebt. De limit zit in de impact: zodra classificatie leidt tot het overslaan van controles (“geen vervolgonderzoek nodig”), schuif je richting besluitvorming. Dan wordt modelrisico een governance-issue: je moet expliciet maken waar AI stopt en menselijk oordeel begint.
Waar het misgaat: drie structurele limieten die je niet wegprompt
1) AI heeft geen ingebouwde waarheidscontrole (en “bronloos” is een rode vlag)
Een taalmodel optimaliseert voor een plausibel antwoord, niet voor waarheid. Dat is geen bug, maar een ontwerpkeuze: het voorspelt welk woord logisch volgt. Daardoor kan het feiten verzinnen, versmelten of verschuiven: een datum wordt kwartaal, een persoon wordt rol, een oorzaak wordt gevolg. In finance is dat extra riskant omdat veel werk draait op “kleine” feitelijkheden: wie is UBO, welke entiteit tekent, welke covenant is geschonden, welke uitzondering is toegestaan.
Deze limit raakt vooral bij samenvatten. Een samenvatting kan onbedoeld nieuwe beweringen introduceren die niet in de input staan (“de klant heeft toegezegd…”), of juist cruciale uitzonderingen weglaten (“onder voorbehoud van…”). Een typische misvatting is: “Ik zeg toch: gebruik alleen de input?” Dat helpt, maar is geen garantie. Als je input ambigu is of een conceptuele sprong vraagt, kan het model alsnog invullen. Daarom is de best practice die al eerder genoemd werd essentieel: verificatie tegen brondata. Niet “klinkt goed”, maar teruglezen in het dossier: klopt dit letterlijk?
Een tweede misvatting is: “Als ik dezelfde vraag opnieuw stel en ik krijg hetzelfde antwoord, dan klopt het.” Consistentie zegt vooral dat het model in dezelfde groove zit, niet dat het feitelijk juist is. Sterk risicobeheer vraagt dus om een simpele vuistregel: geen bron = geen feit. Als een AI-output een concreet feit bevat (datum, bedrag, besluit, status), moet jij kunnen aanwijzen waar dat in bron X of Y staat. Lukt dat niet, dan hoort het niet in een besluitdocument of klantbrief.
2) AI is gevoelig voor context en framing (en mensen corrigeren minder dan ze denken)
AI-output hangt sterk af van wat je aanlevert en hoe je het vraagt. Dat klinkt logisch, maar in praktijk ontstaat er een subtiel risico: de gebruiker gaat ervan uit dat AI “wel snapt wat bedoeld wordt”. In KYC of claims is “bedoeld” precies het probleem: je wilt feiten, beleidstoepassing, en expliciete aannames. Als je prompt onduidelijk is (“maak een risico-overzicht”), kan AI zelf het format en de interpretatie kiezen. Dat kan leiden tot ongewenste conclusietaal, bijvoorbeeld “laag risico” of “geen vervolgonderzoek nodig”, terwijl jij alleen een gestructureerde weergave wilde.
Daar komt menselijk gedrag bovenop. AI creëert verankering: het eerste overzicht voelt als een startpunt dat “ongeveer klopt”. Onder tijdsdruk corrigeert men te weinig, vooral als de tekst professioneel oogt. In gereguleerde omgevingen is dat extra gevaarlijk omdat AI-uitkomst daarna vaak doorstroomt: in een CRM-notitie, een reviewverslag, een acceptatieadvies of een conceptbrief. De output krijgt daarmee status, en later lijkt het alsof “het dossier het zei”, terwijl het eigenlijk een ongetoetste synthesetekst was.
Best practices draaien hier om het expliciet maken van grenzen. Vraag niet alleen “maak een samenvatting”, maar specificeer: feiten gescheiden van interpretaties, onzekerheden benoemen, en geen conclusies. En organiseer human oversight als echte stap: controleer steekwoorden terug naar bron, check of uitzonderingen niet wegvallen, en label het document zichtbaar als “AI-ondersteund concept”. Dat is niet bureaucratisch; het is verdediging tegen het psychologische effect van nette tekst.
3) AI is moeilijk te auditen als je de keten niet vastlegt (input–prompt–output–gebruik)
Zelfs als de output prima is, kan het alsnog misgaan door procesfalen. In finance telt niet alleen het resultaat, maar ook aantoonbaarheid: welke data ging erin, in welke omgeving, met welke instructie, en wat is er met de output gedaan? Veel teams laten precies daar steken vallen: gesprekken met AI staan in losse chatvensters, output wordt gekopieerd in e-mails, en niemand kan later reconstrueren wat de bron was. Dat creëert “audit black holes”.
Deze limit is vooral relevant bij gebruik van AI als productiviteitstool. Men denkt: “Het is maar een concept, dus het hoeft niet vastgelegd.” Maar het concept beïnvloedt wél hoe mensen denken en beslissen, en het kan in de praktijk terechtkomen in klantdossiers of besluitstukken. Zodra dat gebeurt, kan audit of compliance vragen: waar komt deze bewering vandaan? Als je dan geen proceslog hebt (minimaal metadata en context), lijkt het onzorgvuldig—ook als je intentie goed was.
De oplossing zit in simpele, herhaalbare afspraken: werk met goedgekeurde omgevingen, beperk wat je opslaat (dataminimalisatie), maar leg wél vast wat nodig is om te reconstrueren: use case, datum/tijd, gebruiker, model/versie (als beschikbaar), en wat de menselijke controle was. Governance is hier geen extra laag; het is de manier waarop je AI binnen bestaande model- en procesdiscipline brengt. Zodra AI output “in de keten” komt, moet het dezelfde volwassenheid hebben als andere hulpmiddelen: versiebeheer, reviewmomenten, en eigenaarschap.
Snelle reality check: wat je wél en niet mag aannemen
| Dimensie | Waar AI vaak goed in is | Waar het structureel mis kan gaan | Wat je dan doet (Responsible AI) |
|---|---|---|---|
| Samenvatten | Snel structureren, hoofdpunten ordenen, acties inventariseren op basis van aangeleverde tekst. | Weglaten van uitzonderingen, toevoegen van “logische” details, verschuiven van tijdlijn of causaliteit. | Verifieer feiten tegen bronstukken; vraag om feit/interpretatie scheiding; label output als concept. |
| Schrijven (toon/stijl) | Heldere, consistente klanttaal; professionele opbouw; minder typefouten. | Juridisch riskante formuleringen (“toezegging”), te stellige claims, onbedoelde implicaties. | Werk met placeholders voor gevoelige details; eindredactie door eigenaar; vaste check op toezeggingen/voorwaarden. |
| Classificeren/routing | Herkenning van patronen in tekst (onderwerp, categorie, “open vragen”). | Foute routering die controles overslaat; bias door scheve voorbeelden; schijnzekerheid bij twijfelgevallen. | Bouw een vangnet (manual review bij randgevallen); monitor fouten; beperk gebruik tot lage impact. |
| Uitleg geven | Begrippen uitleggen, alternatieven opsommen, conceptueel meedenken. | Overtuigende maar onjuiste redenering; verzonnen bronnen; “policy” die niet jouw policy is. | Hanteer geen bron = geen feit; gebruik voor begrip, niet voor beslisinhoud; laat beleid uit officiële bronnen komen. |
[[flowchart-placeholder]]
Twee realistische voorbeelden (stap voor stap) uit bank en verzekeren in groot mkb
Voorbeeld 1: KYC-periodieke review — samenvatting die per ongeluk een conclusie wordt
Een KYC-analist moet een periodieke review doen voor een mkb-bedrijf met meerdere entiteiten en een gewijzigde UBO-structuur. Het dossier bevat interne notities, een wijzigingslog, transactiesamenvattingen op hoofdlijnen en externe bronnen. De analist vraagt AI: “Maak een overzicht van wijzigingen en risico’s.” De output is strak: “UBO wijzigde recent, transactievolume steeg, risico: verhoogd.” Het leest als een mini-advies, terwijl de analist eigenlijk een structuur wilde om zelf te beoordelen.
De limit zit op twee plekken. Ten eerste kan “recent” in AI-taal onschuldig lijken, maar in KYC maakt het uit of iets vorige maand of negen maanden geleden was—en of er officiële documentatie is. Ten tweede schuift “risico: verhoogd” richting classificatie. Als dit in het reviewverslag belandt, ontstaat er een ketenreactie: extra due diligence, escalaties, of juist een onterechte stempel. De output klinkt als feit, maar het is een taalmodel dat patronen samenvoegt.
Een responsable aanpak houdt AI in de juiste rol. De analist begrenst de vraag: “Geef een feitelijk overzicht van veranderingen met bronverwijzing naar inputpassages; geen risico-oordeel; noteer open vragen.” Daarna voert de analist dataminimalisatie uit (geen rekeningnummers, namen vervangen door UBO-A/Entiteit-1) en verifieert twee cruciale punten: UBO-wijziging tegen officiële documentatie en transactietrend tegen interne rapportage. In het dossier komt een korte notitie: “AI-ondersteunde samenvatting; feiten geverifieerd tegen bron X/Y; conclusies door analist.” De winst blijft (sneller structureren), maar de beslismacht blijft waar die hoort.
Voorbeeld 2: Schadebehandeling — conceptbrief die onbedoeld een toezegging suggereert
Een schadebehandelaar in groot mkb krijgt een claim waarbij gevoelige informatie speelt (bijv. arbeidsongeschiktheid, medische context of andere bijzondere persoonsgegevens). De klant verwacht snelle, empathische communicatie, maar de inhoud moet strikt kloppen: geen dekking toezeggen voordat beoordeling rond is, geen medische interpretaties, en geen onnodige herhaling van gevoelige details. De behandelaar vraagt AI om een “vriendelijke brief die uitlegt dat we uitkeren zodra documenten binnen zijn.” AI schrijft een prachtig stuk—en precies dáár zit het risico: “zodra” kan als toezegging gelezen worden.
Hier zie je twee AI-limits tegelijk: toon ≠ juridische precisie, en framing stuurt de uitkomst. De prompt bevat al een impliciete conclusie (“we keren uit”), en AI maakt dat netjes af. In een audit of klachtprocedure kan zo’n zin problematisch zijn, ook als het “maar een concept” was. Daarnaast is privacy een harde randvoorwaarde: volledige medische details in een ongecontroleerde omgeving is meestal onacceptabel. Zelfs intern wil je dataminimalisatie: AI moet niet meer weten dan nodig is om een briefstructuur te maken.
De veilige werkwijze: gebruik alleen een goedgekeurde omgeving, geef AI een minimale “communicatiesamenvatting” (status, ontbrekende documenten, termijnen) en laat gevoelige details weg. Instrueer: “Schrijf een conceptbrief met placeholders; vermijd medische interpretatie; geen toezeggingen over dekking; benoem dat beoordeling nog loopt.” Vervolgens komt menselijke eindredactie als echte controlestap: check op drie punten—feitelijke claims, toezeggingstaal, en onnodige detailherhaling. Het resultaat is sneller en consistenter communiceren, zonder dat AI je per ongeluk in een juridisch of privacyhoekje duwt.
Wat je meeneemt: snelle winst zonder schijnzekerheid
AI is sterk in taal, structuur en snelheid—but zwak in waarheidsgarantie, contextgevoeligheid en auditbaarheid als je de keten niet beheerst. In finance gaat het mis wanneer “mooie tekst” wordt behandeld als “betrouwbare inhoud”, of wanneer output ongemerkt de besluitketen in glijdt.
Belangrijkste takeaways:
-
Geen bron = geen feit: verifieer concrete claims altijd tegen dossierbronnen.
-
Begrens de rol van AI: laat het structureren en formuleren, niet concluderen of beslissen.
-
Voorkom verankering: organiseer echte human oversight en label output als concept.
-
Beheer de keten: input, prompt, output, opslag en gebruik moeten auditbaar blijven zonder onnodige data te verzamelen.
Next, we'll build on this by exploring Waarde vs. risico & gedeelde accountability [20 minutes].