Wanneer “het verhaal” sneller gaat dan de feiten

Stel: er is een reeks beperkte, moeilijk te verifiëren verstoringen rond energie en logistiek in de regio. Tegelijk verschijnen er op X/Telegram honderden posts met ogenschijnlijk technische details: “gelekte” screenshots van OT-telemetrie, claims over een vermeende Amerikaanse cyberoperatie, en korte video’s waarin een Iraanse woordvoerder iets lijkt te “bekennen”. Binnen uren nemen grotere accounts het over, journalisten pikken het op, en beleidsmakers krijgen druk om publiek te reageren.

In zo’n escalatoire context draait invloed niet alleen om overtuigen, maar om tempo, schaal en consistentie. Wie sneller een plausibel narratief kan neerzetten—met net genoeg “bewijsachtig” materiaal—kan twijfel zaaien, respons vertragen, of juist overreactie uitlokken. Generatieve AI (GenAI) maakt dit goedkoop: één operator kan in minuten varianten, talen, formats en persona’s produceren alsof er een hele redactie achter zit.

Deze les gaat daarom over GenAI voor invloed: hoe narratieven op schaal worden gebouwd, hoe ze worden geoptimaliseerd als een operationele keten (zoals je bij cyber ook in ketens denkt), en welke guardrails nodig zijn om feit, onzekerheid en propaganda uit elkaar te houden in oorlogstempo.


Begrippen die je scherp houden: GenAI, narratief en “influence ops” in oorlogstempo

GenAI (generatieve AI) is hier geen “denkrobot”, maar een productiemotor voor tekst, beeld, audio en samenvattingen. De kernwaarde in influence-campagnes is niet originaliteit, maar variatie en volume: tien talen, vijftig koppen, honderd commentaren, duizend micro-varianten die elk nét anders klinken. GenAI verlaagt daarmee de drempel om een informatieomgeving te satureren, inclusief met overtuigend ogende “context” (pseudo-analyses, grafieken, nepdocumenten) die mensen helpen om een standpunt te rationaliseren.

Een narratief is meer dan een claim; het is een betekenisframe dat drie vragen beantwoordt: wat gebeurt er, wie is verantwoordelijk, en wat moet je nu vinden of doen. In conflict tussen Israël/VS en Iran zie je narratieven vaak draaien rond legitimiteit (“zelfverdediging”), proportionaliteit (“buiten elke maat”), competentie (“ze verliezen de controle”), en slachtofferschap (“wij worden aangevallen”). GenAI versterkt dit doordat het storytelling-elementen kan aanleveren: tijdlijnen, “getuigen”, technische details, morele argumenten en soundbites die klaar zijn voor hergebruik.

De koppeling met de vorige les is direct: waar AI in cyber detectie–triage–respons versnelt, versnelt GenAI in invloed productie–distributie–optimalisatie. En net als in cyber werkt misleiding via ruis, decoys en het uitputten van beoordelingscapaciteit. Een nuttige analogie: GenAI in influence is een drukpers met A/B-testing. Niet één perfecte leugen, maar een stroom varianten die via engagement-signalen automatisch de best werkende versie naar boven duwt.

Belangrijk misverstand om meteen te ontkrachten: “Als het AI is, is het altijd nep.” GenAI kan echte gebeurtenissen verwoorden, samenvatten of vertalen; het probleem is dat dezelfde techniek ook overtuigende onwaarheden kan produceren. De uitdaging is dus niet “AI of geen AI”, maar bewijs, herleidbaarheid en onzekerheidsdiscipline.


Hoe GenAI narratieven op schaal bouwt: de influence-keten (van brief naar bombardement van content)

1) Van strategisch doel naar content-fabriek: framing, doelgroepen en persona’s

Een influence-operatie begint zelden met “schrijf een post”, maar met een doel: verwarring zaaien, vertrouwen ondermijnen, besluitvorming vertragen, of steun mobiliseren. GenAI past hier perfect omdat je het kunt inzetten als een factory die één doel omzet in een complete contentmix: breaking-news posts, opiniedraden, “expert”-analyses, Q&A’s, memes, scripts voor video’s, en reacties om discussies te sturen. De waarde zit in het feit dat het systeem consistente framing kan vasthouden, ook over honderden items en verschillende kanalen.

Daarom werken veel campagnes met message discipline: een klein aantal kernframes die steeds terugkomen in andere woorden. GenAI kan dat automatiseren: dezelfde kernclaim wordt herschreven van “geopolitieke duiding” naar “lokale emotie”, of van “technisch detail” naar “morele verontwaardiging”. Dit lijkt op cyber-triage waarbij je vele losse signalen bundelt tot één incidentverhaal—alleen bundel je hier geen logs, maar publieke uitingen tot één publieke overtuiging.

Persona’s zijn de tweede versneller. Je kunt GenAI laten schrijven als “regionale diplomatie-analist”, “bezorgde ouder”, “energie-expert” of “oud-militair”—en vervolgens per persona de toon, woordenschat en prioriteiten aanpassen. Dat is geen cosmetica: mensen vertrouwen stijl wanneer bewijs schaars is. Het risico is dat stijl dan de plek van verificatie inneemt, waardoor overtuigingskracht stijgt terwijl de waarheidsbasis daalt.

Best practices om dit te herkennen en te begrenzen (analytisch, niet normatief):

  • Vraag steeds naar de kernclaim: wat wordt precies beweerd, in één zin?

  • Scheiding van lagen: claim, interpretatie, oproep tot actie—laat ze niet in elkaar schuiven.

  • Bewijsminimalisme herkennen: veel woorden, weinig verifieerbare details, of “technische” details die niet checkbaar zijn.

Typische valkuil:

  • Misconception: “Dit is te gecoördineerd om nep te zijn.” Juist GenAI maakt coördinatie-in-uiterlijk goedkoop.

2) Distributie en versterking: engagement als “sensor”, platformen als versneller

Zodra de content er is, volgt distributie—en hier gedraagt een influence-campagne zich als een operationele keten. Je lanceert niet één bericht, maar een pakket: meerdere accounts, meerdere talen, verschillende formats, met korte tijdsintervallen. Het doel is dominantie in zichtbaarheid en illusie van consensus: als mensen overal dezelfde kernboodschap zien, stijgt de kans dat ze het als “algemeen bekend” gaan behandelen, zelfs als niemand het hard kan onderbouwen.

GenAI helpt vooral met reactieve snelheid. Wanneer een persconferentie plaatsvindt of satellietbeelden verschijnen, kan een operator in minuten een “duiding” genereren voor elk segment: beleid, militair, economie, humanitair. Daarmee wordt het publieke gesprek niet alleen gevolgd, maar voorgevormd. De parallel met de vorige les: waar AI in cyber ruis kan verminderen via correlatie, kan GenAI in influence ruis juist produceren, zodat echte correcties verdrinken in volume.

Engagement-signalen werken als feedbackloop: welke formulering levert meer shares, welke meme werkt, welke “expert”-toon scoort beter? Dat lijkt op model-feedback in triage, maar hier dient het optimaliseren niet per se de waarheid—het dient bereik. Daardoor kunnen campagnes zichzelf steeds beter afstellen op emotionele triggers: angst, vernedering, wraak, of morele superioriteit. In escalatie tussen staten is dat gevaarlijk, omdat het de speelruimte van diplomatie kleiner maakt.

Veelvoorkomende valkuil in beoordeling:

  • Pitfall: “We zien veel posts, dus er is veel bewijs.” Volume is een distributie-eigenschap, geen bewijs-eigenschap.

  • Pitfall: “Het staat op meerdere plaatsen, dus het is bevestigd.” Cross-posting is vaak één bron die zichzelf vermenigvuldigt.

3) “Bewijsachtige” artefacten: van pseudo-leaks tot technische schijnzekerheid

GenAI wordt bijzonder krachtig wanneer het niet alleen meningen genereert, maar artefacten die op bewijs lijken: “gelekte” memo’s, e-mails, screenshots van systemen, grafieken, of verklaringen in officieel klinkende taal. In een Israël/VS–Iran conflictcontext is dat extra effectief omdat veel onderwerpen technisch zijn (luchtverdediging, cyber, energie, inlichtingen) en het publiek vaak niet kan verifiëren wat plausibel is. Een paar ogenschijnlijk specifieke details—tijdstippen, serienummers, “logregels”—kunnen een claim een aura van authenticiteit geven.

Hier ontstaat een belangrijke oorzaak-gevolg keten: wanneer een artefact er professioneel uitziet, gaan mensen het verwerken als bewijs en bouwen er redeneringen omheen. Vervolgens wordt het artefact zélf een referentie (“zoals die leak liet zien”), zelfs als niemand de herkomst kan traceren. Dit is functioneel vergelijkbaar met false positives in cyber: een overtuigend maar verkeerd signaal kan resources en beslissingen sturen. In informatie-oorlog kan dat leiden tot escalatoire communicatie, verkeerde beleidsreacties, of afleiding van echte incidentrespons.

Een tweede mechanisme is uncertainty hijacking: GenAI kan extreem snel “alternatieve verklaringen” produceren voor echte gebeurtenissen. Zelfs als een feit vaststaat (bijv. storing, aanval, explosie), kan een campagne in uren tien concurrerende oorzaken pushen. Het doel is niet altijd om één alternatief te laten winnen, maar om de zekerheid te laten dalen: “niemand weet wat waar is” wordt dan het dominante gevoel, en dat is operationeel handig voor een actor die tijd wil winnen.

Typische misvatting:

  • Misconception: “Als het technisch klinkt, is het apolitiek.” Technisch detail kan juist worden ingezet om politieke conclusies te smokkelen.

4) Guardrails in analyse: een “triage-model” voor narratieven (zonder overreactie)

In oorlogstempo heb je een manier nodig om narratieven te behandelen zoals je in cyber alerts behandelt: niet elk signaal verdient dezelfde aandacht, en te agressieve respons kan averechts werken. Een werkbaar model is om publieke claims te triageren op twee assen: impact (wat kan dit veroorzaken?) en verifieerbaarheid (kun je het snel checken met betrouwbare bronnen?). Dat helpt om geen energie te verspillen aan laag-impact ruis, en om hoog-impact claims snel te adresseren met duidelijke onzekerheidscommunicatie.

De meest robuuste aanpak is “entity-centric” denken, uit de vorige les vertaald naar informatie: je kijkt niet alleen naar één post, maar naar het cluster eromheen. Welke accounts amplificeren het, welke varianten herhalen dezelfde kernclaim, welke “bewijsstukken” verschijnen tegelijk? Als je hetzelfde narratief in meerdere persona-stijlen ziet, met identieke kernzinnen of dezelfde rare foutjes, kan dat duiden op een gecentraliseerde productiepijplijn. Dit is geen sluitend bewijs, maar het is wél een nuttige prioriteringshint—zoals een hoge risicoscore in cyber pas betekenis krijgt met context.

Onderstaande vergelijking helpt om GenAI-invloed te zien als een keten met eigen failure modes, net als cyber-detectie en -respons.

Dimensie Cyber: detectie–triage–respons Invloed: productie–distributie–optimalisatie
Wat is de “unit” Events/alerts (logs, anomalieën, identity signals) Claims/content (posts, video’s, “leaks”, reacties)
Schaalprobleem Te veel alerts, snelle drift in baselines Te veel content, snelle varianten in taal en format
AI-sterkte Patroonherkenning, correlatie, prioritering; staged SOAR Variatieproductie, vertaling, persona-stijl; engagement-gedreven iteratie
Grootste risico Adversarial noise, automatische acties die jezelf saboteren Bewijsachtige nep-artefacten, uncertainty hijacking, illusie van consensus
Veilige werkwijze Human-in-the-loop; guardrails; entity scoring; forensische borging Claim-triage; bronherleidbaarheid; clusteranalyse; duidelijke onzekerheidslabels

[[flowchart-placeholder]]


Twee uitgewerkte voorbeelden in de Israël/VS–Iran context

Voorbeeld 1: “Gelekte OT-screenshots” rond energie—van signaal naar narratiefdominantie

Een reeks posts claimt: “Iraanse petrochemie ligt plat door Israëlische malware,” met screenshots van vermeende SCADA-schermen en een lijstje “IOC’s” (Indicators of Compromise) die technisch klinken. De timing is perfect: er waren inderdaad storingen, en de vorige les liet zien hoe OT-telemetrie in crisissituaties snel verkeerd geïnterpreteerd kan worden. GenAI maakt hier het verschil door de hoeveelheid bijproducten: binnen een uur verschijnen threads in meerdere talen, een “expert” op LinkedIn geeft duiding, en er circuleren samenvattingen die journalists kunnen citeren.

Stap voor stap zie je het influence-mechanisme:

  1. Kernclaim: “Dit is een gerichte cyberaanval door X.”
  2. Bewijsachtig materiaal: screenshots, pseudo-logregels, “technische” termen die plausibel klinken maar moeilijk te checken zijn.
  3. Framing: de claim wordt gekoppeld aan legitimiteit (“agressie tegen civiele infrastructuur”) of competentie (“Iran kan zichzelf niet verdedigen”).
  4. Schaal: GenAI produceert varianten voor verschillende doelgroepen—technische audience krijgt details; publiek krijgt emotie en simpele conclusies.

De impact is dat besluitvorming onder druk komt: energiebedrijven moeten reageren, overheden worden bevraagd, en tegenreacties kunnen escaleren nog voordat technische analyse rond is. De beperking is dat OSINT-checks vaak achterlopen op de contentstroom: zelfs als je later vaststelt dat screenshots gemanipuleerd zijn, is het narratief al “gezet”.

Een beheerste aanpak lijkt op staged incident response: niet meteen alles ontkennen of bevestigen, maar triage op verifieerbaarheid. Welke delen zijn verifieerbaar (tijdstip van storing, publieke netdata, officiële statements), en welke delen zijn alleen “screenshot-waar”? Door expliciet te communiceren wat je wél en niet weet, voorkom je dat je onbedoeld de valse zekerheidsclaim overneemt (“we onderzoeken een mogelijke cybercomponent” is iets anders dan “het was cyber”). Het voordeel is dat je tempo houdt zonder jezelf vast te pinnen op een verkeerd verhaal.

Voorbeeld 2: Diplomatieke verwarring—GenAI als multiplexer van tegenstrijdige verklaringen

Na een kinetische gebeurtenis (bijv. een aanval op een faciliteit of een interceptie) komen er meerdere verklaringen: sommige accounts claimen een Amerikaanse rol, anderen wijzen naar Israël, weer anderen naar een “false flag” om Iran in diskrediet te brengen. GenAI versnelt hier niet één leugen, maar een portfolio van verklaringen. Dat is strategisch: verschillende doelgroepen kunnen elk “hun” versie vinden, terwijl het algemene effect is dat het publiek en zelfs professionals minder zeker worden over de feitenbasis.

Stap voor stap werkt dit als uncertainty hijacking:

  1. Veranker een echt feit: er was een incident, dus er is aandacht.
  2. Injecteer meerdere oorzaken: GenAI levert plausibel klinkende scenario’s met jargon en verwijzingen naar “bronnen”.
  3. Versterk via persona’s: een “militair analist” benadrukt capaciteiten, een “jurist” benadrukt onrechtmatigheid, een “humanitaire stem” benadrukt slachtoffers.
  4. Laat engagement beslissen: de best presterende varianten worden herhaald en samengevat, waardoor ze “dominante hypotheses” lijken.

De impact is vaak vertraging en verdeeldheid: beleidsteams verliezen tijd aan het reageren op geruchten, en elke officiële zin wordt geframed als “bewijs” voor één van de scenario’s. Net als bij cyber geldt: te snelle automatische respons is riskant. Als je direct één actor beschuldigt op basis van zwakke informatie, kan dat escaleren; als je alles wegwuift, verlies je geloofwaardigheid.

Een werkbare mitigatie is om communicatie te behandelen als forensische discipline: scheid observaties (wat is er daadwerkelijk bekend), hypotheses (wat kan het verklaren), en onzekerheid (wat missen we nog). Dit lijkt sterk op het verschil tussen detectie en attributie uit de vorige les: GenAI-campagnes proberen attributie te “automatiseren” in het hoofd van het publiek (“het móét X zijn”), terwijl volwassen besluitvorming die stap juist langzaam, multi-bron en toetsbaar houdt. Het voordeel is dat je ruimte behoudt voor correctie zonder gezichtsverlies, en dat is in escalatiepolitiek operationeel goud waard.


Wat je vooral moet onthouden over GenAI en invloed

GenAI maakt influence-operaties effectief door volume, variatie en tempo: één boodschap kan als honderd verschillende verhalen verschijnen, aangepast aan taal, cultuur, emotie en kanaal. Daardoor ontstaat snel een illusie van consensus en “bewijsachtige” zekerheid, ook wanneer de herkomst onduidelijk is. De veiligste mindset is dezelfde als bij AI in cyber: behandel het niet als magie, maar als een schaaltechniek met voorspelbare failure modes—ruis, misleiding, en overreactie.

Houd drie ankers vast:

  • Kernclaim eerst: wat wordt precies beweerd, los van stijl en emotie?

  • Verifieerbaarheid boven viraliteit: wat kun je snel checken, en wat is vooral narratief?

  • Onzekerheid is niet zwak: het expliciet labelen van wat je niet weet voorkomt dat je propaganda overneemt.

Next, we'll build on this by exploring Deepfakes & misleiding tegen AI-systemen [20 minutes].

Last modified: Wednesday, 11 March 2026, 10:52 AM