Wanneer “groen” niet genoeg is: een strike die sneller is dan je uitleg

Een Israëlisch/VS-gezamenlijke commandopost ontvangt een time-sensitive melding uit West-Iran. Een AI-systeem fuseert dronevideo, radar en SIGINT en markeert een voertuigcluster als “mogelijk TEL”, met een hoge confidence-score en een CDE-indicatie die op het dashboard “groen” kleurt. De klok telt af: nog zes minuten tot het doel in terrein-dekking verdwijnt. Een operator ziet vooral het samengevatte oordeel, niet de onzekerheden; de jurist zit niet in de live-loop; de commandant voelt de druk om “het window” niet te missen.

In zo’n situatie gaat het niet alleen om rechtmatigheid achteraf, maar om bestuurbaarheid tijdens de beslissing. Kun je in realtime uitleggen waarom dit doel als militair wordt gezien, welke aannames achter “groen” zitten, en wie je moet kunnen bereiken als de informatie wankelt? Transparantie en escalatiepaden zijn dan geen compliance-luxe, maar de praktische infrastructuur die meaningful control mogelijk maakt—zeker in een conflict waar misleiding, decoys en politieke escalatie onder tijdsdruk samenkomen.

In de vorige les verschoof de focus van “was het model goed?” naar “wie draagt verantwoordelijkheid/aansprakelijkheid, en op basis waarvan?”. Vandaag maken we die accountability concreet: welke transparantie je nodig hebt om IHL/LOAC-toetsing te kunnen doen, en hoe escalatiepaden voorkomen dat onzekerheid wordt weggedrukt door tempo.


Transparantie, uitlegbaarheid en escalatie: wat bedoelen we precies?

Transparantie betekent hier: de besluitketen kan zien en vastleggen wat het AI-systeem deed, met welke inputs, welke onzekerheden, en welke aannames. Het gaat niet om “open-source code”, maar om operationele zichtbaarheid: bronmix, confidence vs bewijswaarde, modelversie, datakwaliteit, en de redenen waarom alternatieven wel/niet zijn gekozen. Transparantie is dus een eigenschap van het socio-technische systeem: interface + workflow + logging + rollen.

Uitlegbaarheid (explainability) is de praktische vraag: kan een operator/jurist/commandant het AI-advies omzetten in een controleerbare redenering die aansluit op LOAC: onderscheid, evenredigheid, voorzorgsmaatregelen? Een heatmap of feature-importance is pas nuttig als die helpt om vragen te beantwoorden zoals: “Welke onafhankelijke bronnen corroboreren dit?”, “Wat is de plausible civilian explanation?”, “Welke failure modes zijn hier bekend?”.

Escalatiepaden zijn vooraf vastgelegde routes die bepalen wanneer je een beslissing pauzeert of opschaalt, naar wie (juridisch adviseur, senior intel, commandant, AI/systems), en welke informatie mee moet. Escalatie is geen teken van zwakte; het is een veiligheidsklep tegen automation bias, tijdsdruk en interface-optimisme. In de taal van de vorige les: escalatiepaden operationaliseren precautions en maken accountability aantoonbaar via audit trails.

Een bruikbare analogie is luchtvaart. Een cockpit kan niet elke sensor wiskundig “uitleggen”, maar is wel ontworpen om onzekerheid, inconsistenties en alarmen zichtbaar te maken én om heldere “call-outs” en checklists af te dwingen. In targeting geldt hetzelfde: je hoeft geen model-architectuur te reciteren, maar je moet wel de beslisrisico’s kunnen zien, verifiëren en documenteren.


Drie soorten transparantie die LOAC-toetsing echt mogelijk maken

1) Input- en brontransparantie: “Waar komt dit vandaan, en wat missen we?”

In AI-ondersteunde targeting is de grootste transparantie-illusie dat “meer data” automatisch “meer zekerheid” betekent. Een fused dashboard kan overtuigend ogen—zeker met één samengestelde confidence-score—terwijl de onderliggende inputs ongelijkwaardig en soms tegenstrijdig zijn. Daarom begint bruikbare transparantie bij bronherkomst en -kwaliteit: welke sensoren, welke timestamps, welke dekking, welke lacunes? Zonder dat kun je onderscheid niet redelijk toetsen, omdat je niet weet of je op corroboratie of op één dominante (mogelijk misleidbare) bron leunt.

Brontransparantie moet expliciet maken of de AI-uitkomst steunt op echte multi-source corroboration (zoals de vorige les benadrukte), of op “multi-source ingest” waarbij bronnen wel zijn ingelezen maar in de praktijk niet onafhankelijk bevestigen. Een klassiek voorbeeld: dronevideo en radar kunnen samen hetzelfde object suggereren, maar als ze allebei door dezelfde geometrie of clutter worden beïnvloed, is de schijn van onafhankelijkheid groter dan de werkelijkheid. Transparantie betekent dan: het systeem toont niet alleen “2 bronnen”, maar ook het type afhankelijkheid en de relevante onzekerheden (hoek, resolutie, weersinvloed, terreinmasking).

Voor de Israël/VS–Iran context is dit extra belangrijk door adversarial gedrag: decoys, camouflage, emissiecontrole en het bewust mengen van civiele en militaire patronen. Brontransparantie moet daarom ook contextsignalen bevatten: “bekende decoy-campagne in dit gebied”, “training coverage laag voor dit voertuigtype/terrein”, of “SIGINT inconsistent met een TEL-profiel”. Als die signalen niet zichtbaar zijn bij de operator, verschuift de workflow naar “dashboard groen = door”, precies de automation-bias valkuil uit de vorige les.

Een typische misconceptie is: “Als de AI confidence hoog is, is het onderscheid feitelijk rond.” Confidence is een modelinterne maat, geen bewijswaarde. Brontransparantie maakt dit verschil concreet door confidence altijd te koppelen aan wat het níet dekt: datagaps, contextdrift, en plausible civilian explanations. Dat is niet bureaucratisch; het is de minimale informatie om meaningful control te hebben onder LOAC.

2) Beslis- en assumptietransparantie: “Waarom is dit groen, en welke aannames dragen het?”

Veel AI-ondersteuning in de kill chain werkt met samenvattingen: een target card met een label (“mogelijk TEL”), een score, en een traffic-light CDE. Dat versnelt, maar het verplaatst het risico naar de aannames. De vorige les benoemde dit scherp: “De CDE was groen” is geen LOAC-uitspraak. Assumptietransparantie betekent dat het systeem zichtbaar maakt welke aannames het groene oordeel produceren—en wanneer die aannames mogelijk onwaar zijn.

Neem CDE: een tool kan “laag risico” tonen omdat het model open terrein aanneemt, geen secundaire effecten verwacht, of een beperkte populatielaag gebruikt. In de praktijk kan net buiten het kaartvenster een nederzetting liggen, of kan fragmentatie/brand een groter bereik hebben dan het model. Assumptietransparantie betekent dan: het target package toont de aannames (terrainclassificatie, gekozen blast-model, gebruikte populatie-data, onzekerheidsband) en markeert afwijkingen of ontbrekende data als red flags. Zo wordt proportionaliteit geen “getal”, maar een oordeel met expliciete onzekerheden.

Ook bij “militair doel”-kwalificatie helpt assumptietransparantie. In de vorige les kwam het voorbeeld van AI-netwerkanalyse: “high centrality” kan verleiden tot “dus militair”. Transparantie dwingt dan af: wat is de LOAC-relevante redenering (aard/locatie/bestemming/gebruik), welke aanwijzingen ondersteunen dat, en welke civiele functies zijn plausibel? Als die stap niet in het systeemontwerp is ingebouwd, wordt correlatie ongemerkt gelijkgesteld aan militaire bijdrage—een structurele route naar fouten.

De pitfall hier is interface-design dat twijfel “wegpoetst”. Als onzekerheid alleen in een submenu zit of als waarschuwingen te vaak onterecht afgaan, leren mensen ze te negeren. Best practice is daarom niet “meer tekst”, maar beslisrelevante transparantie: onzekerheid en aannames moeten net zo prominent zijn als de hit zelf, en moeten direct verbonden zijn aan een actie: pauzeren, extra bron checken, of escaleren naar jurist/intel/systems.

3) Proces- en logtransparantie: “Kunnen we aantonen dat precautions echt zijn genomen?”

Zelfs perfecte realtime transparantie is onvoldoende als je achteraf niet kunt reconstrueren wat er is gezien, gewogen en besloten. De vorige les benadrukte audit trails als verdedigingslinie tegen accountability-vervaging. Proces- en logtransparantie betekent dat het systeem automatisch en betrouwbaar vastlegt: inputs (met timestamps), modelversies, interface-views (wat werd getoond), overrides, en de menselijke motivering op kritieke LOAC-punten (onderscheid, proportionaliteit, voorzorgsmaatregelen).

Dit is niet alleen “voor later”. Logging beïnvloedt gedrag nu. Als teams weten dat ze kort moeten noteren welke aannames ze accepteren en waar de grootste onzekerheid zit, remt dat confirmatie- en automation bias. Maar het moet werkbaar blijven: geen lange essays, wel verplichte velden die precies de LOAC-kern raken. Denk aan: “Welke onafhankelijke corroboratie is aanwezig?”, “Wat is de belangrijkste plausible civilian explanation die is overwogen?”, “Welke alternatieven zijn bekeken (munitie/timing/hoek/wachten)?”, “Welke onzekerheid kan het proportionaliteitsoordeel kantelen?”.

Procestransparantie is ook organisatorisch: wie had wanneer toegang tot welke informatie? Een jurist “te laat” betrekken is vaak geen individuele fout, maar een workflow-fout. Escalatiepaden (straks) maken procestransparantie afdwingbaar door stopmomenten te coderen: bij bepaalde triggers moet een tweede paar ogen—en dat wordt gelogd. In een escalatiegevoelige context als Israël/VS–Iran is dat extra cruciaal: niet alleen vanwege burgerslachtoffers, maar omdat onduidelijke besluitvorming ook strategische escalatie kan voeden via misinterpretatie, desinformatie en politieke druk.

De misconceptie hier is: “Als we intern SOP’s volgen, is accountability geregeld.” SOP’s zonder logtransparantie maken het vrijwel onmogelijk om te bewijzen dat LOAC-toetsing zorgvuldig was. En SOP’s die “confidence > X = OK” coderen, lopen precies het risico dat de vorige les benoemde: statistiek wordt behandeld als rechtmatigheid. Transparantie moet dus SOP’s ondersteunen met bewijsbare stappen, niet vervangen door drempelwaarden.


Escalatiepaden: van “twijfel” naar een veilige, snelle route

Escalatiepaden zijn het organisatorische antwoord op een harde realiteit: twijfel verschijnt vaak op het slechtste moment—onder tijdsdruk. Zonder vooraf ontworpen route gaat twijfel dan één van twee kanten op: of je negeert het (“we moeten nu”), of je verlamt (“wie moet dit beslissen?”). Een goed escalatiepad is juist ontworpen om snel te zijn: het reduceert keuzestress door vooraf te bepalen wie je belt, wat je aanlevert, en welke beslissingsbevoegdheid geldt.

Er zijn grofweg drie escalatiepatronen die in AI-ondersteunde targeting vaak nuttig zijn. Ten eerste inhoudelijke escalatie: als de vraag gaat over bronduiding of tegenmaatregelen (decoys, contextdrift), schaal je naar senior intel/ISR. Ten tweede normatieve escalatie: als de kernvraag LOAC-proportionaliteit of militair-doel kwalificatie is, schaal je naar de juridisch adviseur én de targeting authority, met expliciete onzekerheden en alternatieven. Ten derde technische escalatie: als er signalen zijn dat het model buiten zijn geldigheidsgebied opereert (lage training coverage, anomalieën, systeemwaarschuwingen), schaal je naar AI/systems voor een “model health check” en mogelijke beperkingen/stop.

Escalatiepaden werken alleen als ze gekoppeld zijn aan triggers die mensen niet hoeven te “bediscussiëren” in het moment. Triggers kunnen data-gedreven zijn (inconsistentie tussen bronnen, grote onzekerheidsband, ontbrekende populatielaag), context-gedreven (bekende decoy-activiteit, nieuwe tactiek), of impact-gedreven (hoge potentiële civiele schade, cascading effecten bij dual-use). Belangrijk: triggers moeten niet leiden tot automatisch “nee”, maar tot een expliciete keuze: pauzeer, downgrade confidence/bewijswaarde, vraag extra verificatie, of neem een ander effectmiddel.

Ook hier ligt een valkuil: escalatie wordt gezien als vertraging die de missie schaadt. In werkelijkheid is escalatie vaak de snelste manier om fouten te voorkomen die operatie en strategie veel harder raken: onrechtmatige schade, verlies van legitimiteit, escalatiespiralen, en juridisch/politiek fallout. In de Israël/VS–Iran dynamiek kan één foutieve strike met AI-stempel de tegenstander propagandamunitie geven en bondgenoten onder druk zetten—precies waarom snelheid zonder transparantie een schijnvoordeel is.


Transparantie vs. escalatie: wie ziet wat, wie beslist wat?

Onderstaande vergelijking helpt om het verschil scherp te houden: transparantie maakt informatie zichtbaar; escalatiepaden maken handelen op die informatie voorspelbaar en snel.

Dimensie Transparantie Escalatiepaden
Doel Zichtbaar maken van bronnen, aannames, onzekerheid, modelgedrag en beslisredenen. Zorgen dat twijfel of risico snel bij de juiste rol belandt, met duidelijke bevoegdheden.
Kernvraag “Wat weten we, hoe weten we het, en wat weten we niet?” “Wie moet dit nu beoordelen/beslissen, en wat is het stopmoment?”
LOAC-koppeling Onderbouwt onderscheid/proportionaliteit/precautions met controleerbare feiten en aannames. Operationaliseert precautions: bij red flags pauze/extra check/2e beoordeling.
Typische failure mode AI toont alleen een score (“high confidence”) en verbergt aannames; “groen = legaal” sluipt erin. Escalatie is ad hoc; mensen weten niet wie te bellen; twijfel wordt door tijdsdruk weggedrukt.
Wat ‘goed’ eruitziet Target package met bronmix, corroboratie-status, onzekerheidsbanden, failure modes en logging. Vooraf gedefinieerde triggers, contactlijnen, decision rights en minimale info-set voor escalatie.

Twee situaties uit de Israël/VS–Iran dynamiek, stap voor stap toegepast

Voorbeeld 1: “Mogelijk TEL” in West-Iran — transparantie die op tijd kan stoppen

De AI markeert een voertuigcluster als “mogelijk TEL” en voorspelt dat het binnen zes minuten dekking bereikt. De operator ziet een hoge confidence-score en een groene CDE, maar de analist merkt dat de camerahoek berucht is: civiele wegwerkvoertuigen en logistieke trucks kunnen dezelfde silhouet- en warmtepatronen geven. Tegelijk is de SIGINT niet eenduidig: het patroon past gedeeltelijk, maar mist enkele typische emissies. Dit is precies het soort geval waarin inputtransparantie moet voorkomen dat “fused certainty” een illusie wordt.

Stap 1 is brontransparantie: het team moet direct kunnen zien welke bronnen echt onafhankelijk corroboreren. Als de “bevestiging” vooral uit dezelfde beeldbronfamilie komt, is dat een red flag. Stap 2 is assumptietransparantie rond CDE: is “groen” gebaseerd op een aanname open terrein, en is het kaartvenster mogelijk te smal? Als een nederzetting net buiten beeld ligt, of populatiedata mogelijk verouderd is, moet dat zichtbaar zijn als onzekerheid die proportionaliteit kan kantelen. Stap 3 is procestransparantie: noteer kort de plausible civilian explanation en welke aanvullende check haalbaar is (bijv. 60–90 seconden extra pass, andere sensorhoek, shadowing).

Nu het escalatiepad. Een goede trigger hier is: “hoge tijdsdruk + conflict tussen bronnen (beeld vs SIGINT) + bekende silhouette-confusie in dit gebied”. Dat activeert inhoudelijke escalatie naar senior intel (voor context/decoy-inschatting) én normatieve escalatie naar LOAC-adviseur als de proportionaliteitsmarge klein is. De uitkomst kan zijn: niet per se “niet vuren”, maar bijvoorbeeld overschakelen naar shadowing, een andere munitiesoort/hoek, of wachten op een tweede onafhankelijke bevestiging. De beperking is duidelijk: je kúnt het window verliezen. Maar het voordeel is dat je een foutieve strike met grote escalatie- en legitimiteitskosten voorkomt, én dat je achteraf kunt aantonen dat precautions realistisch en aantoonbaar zijn toegepast.

Voorbeeld 2: Dual-use communicatieknooppunt — wanneer netwerk-AI om normatieve escalatie vraagt

Een AI-netwerkanalyse rangschikt een Iraans communicatieknooppunt als “high centrality” omdat verkeer piekt tijdens luchtverdedigingsactivatie. De operationele belofte is groot: verstoring kan een tijdelijk voordeel geven voor luchtoperaties. Maar de vorige les waarschuwde al voor de valkuil: correlatie is geen bewijs dat een object door zijn gebruik effectief bijdraagt aan militaire actie. Transparantie moet hier afdwingen dat “centrality” niet stiekem een LOAC-criterium wordt.

Stap 1 is assumptietransparantie: wat meet “centrality” precies, over welke tijdvensters, en met welke datagaten? Als de AI geen zicht heeft op redundantie (alternatieve routes, fallback-netwerken) of op segmentering (militair vs civiel verkeer), dan is de claim “kritisch militair knooppunt” zwakker. Stap 2 is brontransparantie: is de classificatie ondersteund door technische intel (bijv. bevestigde militaire switches, routing naar militaire nodes) of alleen door traffic-correlaties? Stap 3 is effecttransparantie: welke cascading civiele effecten zijn voorzienbaar (ziekenhuiscommunicatie, noodmeldingen, water/energiebeheer) en welke onzekerheden zitten in die inschatting?

Het escalatiepad hoort hier bijna automatisch te triggeren naar normatieve escalatie: jurist + targeting authority moeten expliciet toetsen of dit object een militair doel is op basis van aard/locatie/bestemming/gebruik, en of het verwachte voordeel concreet en direct genoeg is. Tegelijk is inhoudelijke escalatie naar intel nodig om civiele afhankelijkheden en alternatieven te duiden (bijv. selectieve verstoring, timing, of een effectmiddel dat beter te begrenzen is). De uitkomst kan zijn dat men afziet van het doel, of het herontwerpt: segmentering (alleen militaire subnet), beperktere duur/impact, of een andere timing die civiele schade reduceert. De beperking blijft: modellen onderschatten vaak second-order effecten. Maar door transparantie + escalatie wordt die onzekerheid niet verborgen—en kan proportionaliteit als normatief oordeel, niet als “AI-groen”, worden vastgelegd.


Een transparant besluit is ook een beheersbaar besluit

Transparantie en escalatiepaden zijn de manier waarop je de beloftes van AI (snelheid, datafusie) voorkomt te veranderen in nieuwe kwetsbaarheden (automation bias, onzichtbare aannames, accountability-gaten). In de termen van deze sectie draait het steeds om hetzelfde: AI-output is een indicatie, en IHL/LOAC vraagt dat mensen met voldoende inzicht onderscheid, proportionaliteit en precautions kunnen toepassen—onder tijdsdruk en met tegenmaatregelen van de tegenstander.

Een compacte set takeaways:

  • Brontransparantie voorkomt dat een “fused score” wordt behandeld als onafhankelijk bewijs.

  • Assumptietransparantie maakt “groen” toetsbaar: welke aannames dragen het oordeel, en waar kan het misgaan?

  • Proces- en logtransparantie maakt precautions aantoonbaar en houdt accountability scherp.

  • Escalatiepaden vertalen twijfel naar actie: pauzeren, extra verificatie, of opschalen naar de juiste rol—zonder ad hoc paniek.

Een checklist die je kunt vertrouwen

  • AI versnelt de kill chain, maar zonder transparantie versnelt het vooral fouten in onderscheid en proportionaliteit.

  • “Human-in-the-loop” werkt pas als de mens de bronnen, onzekerheden en aannames ziet én kan ingrijpen.

  • Escalatiepaden zijn voorzorgsmaatregelen in procesvorm: triggers + rollen + minimale info-set + logging.

  • In Israël/VS–Iran scenario’s is dit ook escalatiebeheersing: beter stoppen op twijfel dan achteraf verklaren waarom “groen” misleidend was.

Met deze bouwstenen kun je AI inzetten zonder dat verantwoordelijkheid verdampt in dashboards, en zonder dat snelheid het laatste woord krijgt over rechtmatigheid en controle.

Last modified: Wednesday, 11 March 2026, 10:52 AM