Wanneer een model “een doelwit” ziet

Stel: er komt een melding binnen van een snelle lancering vanuit West-Iran, gevolgd door radarsporen van meerdere objecten richting een strategische locatie. In dezelfde minuten draaien er AI-systemen mee in de kill chain: beeldherkenning op satelliet- en dronebeelden, sensorfusie vanuit radar en SIGINT, en voorspellende modellen die inschatten waar een mobiele lanceerinstallatie naartoe verplaatst. De druk is hoog: de tijdsvensters zijn kort, de dreiging is reëel, en een fout kan escalatie veroorzaken of burgers treffen.

In de oorlogsdynamiek tussen Israël, de VS en Iran is dit geen sciencefiction. Juist in dit soort scenario’s ontstaat de verleiding om “de machine” het werk te laten doen: sneller selecteren, sneller prioriteren, sneller vuren. Maar IHL/LOAC (International Humanitarian Law / Law of Armed Conflict) eist niet alleen snelheid; het eist rechtmatigheid, beoordelingsvermogen en verantwoordelijke besluitvorming te midden van onzekerheid.

Deze les gaat daarom over één kernvraag: hoe past (en begrenst) IHL/LOAC AI-ondersteunde besluitvorming over doelen, middelen en aanvallen? We kijken niet alleen naar regels, maar vooral naar hoe die regels werken wanneer beslissingen (deels) door modellen, data en automatisering worden gevormd.

De minimumtaal die je nodig hebt: IHL/LOAC, “attack”, en menselijk oordeel

IHL/LOAC is het juridische kader dat tijdens een gewapend conflict bepaalt wat mag, wat niet mag, en onder welke voorwaarden. Voor AI-besluitvorming zijn drie begrippen cruciaal, omdat ze telkens terugkomen in target selection en engagement: onderscheid (distinction), evenredigheid (proportionality) en voorzorgsmaatregelen (precautions in attack). Daarnaast speelt military necessity als principe mee: geweld moet een legitiem militair doel dienen, maar noodzaak rechtvaardigt nooit schendingen van IHL.

Een tweede kernbegrip is “attack”: in IHL is dat meer dan “iets opblazen”. Het gaat om gewelddadige handelingen tegen de vijand, inclusief het inzetten van wapensystemen die schade veroorzaken. AI komt vaak in beeld vóór de “attack” (bijv. in classificatie of target nomination), maar precies daar kan het juridisch misgaan: als de upstream AI onbetrouwbaar is, besmet dat downstream de rechtmatigheid van de aanval, zelfs als de trigger uiteindelijk door een mens wordt overgehaald.

Ten slotte is er menselijk oordeel. IHL zegt niet “AI is verboden” of “AI is verplicht”, maar het eist dat beslissingen voldoen aan de normen van onderscheid, evenredigheid en voorzorg. Dat impliceert dat de beslisser (commandant/targeting officer) voldoende begrip en controle moet hebben om een betekenisvolle juridische en operationele afweging te maken. Een nuttige analogie: denk aan AI als een radar met een algoritmische interpretatielaag. Radar kan onmisbaar zijn, maar je schiet niet “omdat de radar het zei”; je schiet omdat je op basis van betrouwbare informatie en beoordeling concludeert dat het een militair doel is, en dat de aanval voldoet aan IHL.

Waar IHL/LOAC AI het hardst raakt: drie juridische toetsen in een AI-kill chain

Onderscheid: classificatie is geen identificatie

Onderscheid verplicht partijen om altijd onderscheid te maken tussen burgers en strijders en tussen burgerobjecten en militaire doelen. AI-systemen worden vaak ingezet om patronen te herkennen: voertuigen in konvooien, warmtebeelden rond lanceerposities, antenne-opstellingen, of gedragsprofielen zoals “night-time movement” op bepaalde routes. Het risico is dat een model “militair-lijkend” gelijkstelt aan militair. IHL vraagt echter niet om “waarschijnlijk militair”; het vraagt om een redelijke, op informatie gebaseerde conclusie dat iets een militair doel is.

In de praktijk faalt AI bij onderscheid vaak op twee manieren. Ten eerste dataset bias: het model is getraind op beelden/gedrag uit andere theaters of verouderde omstandigheden, waardoor het in Iran bijvoorbeeld civiele vrachtwagens met bepaalde silhouetten verwart met militaire logistiek. Ten tweede contextblindheid: een AI kan een object herkennen (bijv. een truck met een bepaalde afdekking), maar niet begrijpen waarom het daar is (humanitarian convoy, landbouw, civiele evacuatie). Dit is precies waar menselijke inlichtingenanalyse, HUMINT/OSINT-context en rules of engagement de AI-output moeten “aarden”.

Best practices onder IHL-lens richten zich daarom op bewijswaardering en multi-source corroboration. AI-output is in feite een vorm van indicatie, geen sluitend bewijs. Een commandant die onderscheid wil borgen, bouwt een keten: sensordata + tijd/plaats + patroon + onafhankelijke bevestiging. Een veelvoorkomende misvatting is dat “hogere model confidence” gelijkstaat aan “juridische zekerheid”. Confidence-scores zijn interne statistische maten; IHL vraagt om redelijke zekerheid in de feitelijke omstandigheden. Die twee kunnen uit elkaar lopen, zeker bij adversarial camouflage of wanneer de vijand civiele spullen bewust inzet (human shields, dual-use, vermenging).

Evenredigheid: AI kan schatten, maar niet normeren

Evenredigheid verbiedt aanvallen waarbij het te verwachten incidentele burgerleed (doden/gewonden/schade aan burgerobjecten) buitensporig is in verhouding tot het verwachte concrete en directe militaire voordeel. AI kan hier helpen door sneller damage estimates te genereren, blast radii te simuleren, of populatiedichtheid en “patterns of life” te modelleren. Maar de typische valkuil is dat teams evenredigheid behandelen als een rekenprobleem in plaats van een normatieve afweging.

AI kan bijvoorbeeld een Collateral Damage Estimate (CDE) ondersteunen door bouwtypes te herkennen, secundaire effecten te modelleren, of tijdsvensters te vergelijken (nacht vs. dag). Toch blijft de kernvraag juridisch: is het verwachte burgerleed buitensporig gezien het militaire voordeel? Dat “buitensporig” is geen getal dat uit een model rolt; het is een oordeel dat afhankelijk is van onzekerheidsmarges, betrouwbaarheid van bronnen, en de aard van het doel. Een model kan bovendien verkeerd “kalibreren”: als training data vooral uit open terrein komt, onderschat het schade in dense urban of in complexe infrastructuurnetwerken.

Een stevige best practice is om AI-schattingen altijd te koppelen aan onzekerheidsbanden en expliciete aannames: “als het doel inderdaad X is, en als de bezetting Y is, dan verwacht CDE Z; bij afwijking stijgt risico.” Zonder dat verandert AI in een “verantwoordelijkheidsvervanger”: men wijst naar het dashboard alsof dat het oordeel heeft gemaakt. Een tweede best practice is alternatievenanalyse als onderdeel van proportionaliteit: andere munities, andere aanvalshoeken, timing, of zelfs afzien van aanval. AI kan opties genereren, maar IHL vereist dat de beslisser actief keuzes maakt en die kan uitleggen.

Misconceptions zijn hier hardnekkig. Eén: “Als het model CDE groen geeft, is het legaal.” Onjuist—groen betekent alleen dat een intern criterium gehaald is, niet dat de juridische toets is voldaan. Twee: “Als het doel high-value is, mag meer collateral.” IHL kent geen vrijbrief; zelfs groot militair voordeel legitimeert geen buitensporige schade. AI kan helpen om trade-offs zichtbaar te maken, maar maakt de norm niet minder streng.

Voorzorgsmaatregelen: de plicht om fouten te vangen vóór ze schieten

Precautions in attack verplichten aanvallende partijen om alle haalbare voorzorgsmaatregelen te nemen om burgerleed te vermijden of te minimaliseren. Dit is waar AI vaak juist heel waardevol kan zijn: snellere detectie van civiele aanwezigheid, betere no-strike filtering, route- en timingoptimalisatie, en real-time re-targeting als omstandigheden veranderen. Maar hetzelfde domein is ook waar automatisering sluipenderwijs “de drempel” verlaagt: omdat het systeem sneller opties geeft, voelt het alsof je sneller mág beslissen.

Voorzorgsmaatregelen vragen om een procesmatige discipline: verification of targets, choice of means and methods, en waar passend effective advance warning. AI moet in zo’n proces zó worden ingebed dat het niet alleen doelen vindt, maar ook twijfel signaleert. Een model dat alleen “positieve hits” presenteert en onzekerheid wegfiltert, werkt tegen de precaution-plicht. Hetzelfde geldt voor automation bias: operators nemen AI-adviezen over, juist bij tijdsdruk. IHL is hier niet naïef: als omstandigheden twijfelachtig zijn, moet je óf beter verifiëren óf afzien.

Een praktische manier om precautions te koppelen aan AI is het bouwen van “stops” in de kill chain: momenten waarop een mens verplicht is te bekijken welke bronnen de AI gebruikte, wat de failure modes zijn, en of veranderde omstandigheden de output ongeldig maken. Denk aan het verschil tussen “AI zegt: target” en “AI zegt: target, maar training coverage is laag in deze regio; civiele objecten met vergelijkbaar patroon bestaan; extra verificatie aanbevolen.” Dat is geen luxe; het operationaliseert de juridische plicht om haalbare voorzorg te nemen.

Hier staat een typische misconceptie tegenover: “Voorzorg is alleen relevant als we al besloten hebben aan te vallen.” Nee—precautions zitten door de hele besluitketen, juist in target development en validation. Als AI vroeg in de keten verkeerde nominaties genereert, kan dat tijd en aandacht wegzuigen van betere verificatie elders, en verhoogt het systeemrisico.

Wat moet een commandant wél en niet delegeren? Een LOAC-blik op AI-rollen

AI kan verschillende rollen spelen in targeting en engagement. Het is belangrijk om die rollen expliciet te onderscheiden, omdat de juridische risico’s verschillen.

Dimensie AI als beslissingsondersteuning AI als beslisser (autonome engagement)
Typische taken Detectie, classificatie, sensorfusie, CDE-ondersteuning, prioritering. De mens neemt het finale besluit op basis van meerdere bronnen. Selectie en engagement van doelen binnen parameters. Mens stelt grenzen, maar het systeem kan zelf “vuren” of effect inzetten.
LOAC-gevoeligheid Gevoelig voor automation bias en slecht gedocumenteerde aannames, maar beter te beheersen met procedures. LOAC-toets blijft zichtbaar in menselijk besluit. Hoog risico op onvoldoende onderscheid bij context-ambigue situaties. Evenredigheid en precautions kunnen moeilijk te “coderen” zijn, vooral bij dynamische omstandigheden.
Best practices Audit trails, bron- en onzekerheidsweergave, multi-source verificatie, human-in-the-loop met echte stopmomenten. Strikte geofencing/temporal constraints, target class beperkingen, fail-safe bij twijfel, uitgebreide tests in representatieve omgevingen.
Veelvoorkomende valkuil “De mens klikte akkoord, dus LOAC is afgedekt.” In werkelijkheid kan de mens niet meaningful beoordelen als het systeem ondoorzichtig is. “We hebben parameters ingesteld, dus het is veilig.” Parameters dekken zelden alle edge cases en adversarial tactieken.

In IHL-termen draait dit om controleerbaarheid en voorspelbaarheid: kan de beslisser begrijpen wat het systeem doet, onder welke omstandigheden het faalt, en hoe het reageert op veranderende feiten? Als die vragen niet met vertrouwen te beantwoorden zijn, dan schuift de operationele praktijk richting een LOAC-risico—ongeacht of er formeel een mens in de loop zit.

[[flowchart-placeholder]]

Twee scenario’s uit het conflict: hoe LOAC-toetsing eruitziet met AI in de loop

Scenario 1: AI-ondersteunde “time-sensitive targeting” op een mobiele lanceerinstallatie

Een plausibel scenario in de Israël/VS–Iran context is een time-sensitive target: een mobiele raketlanceerinstallatie die kort zichtbaar is op ISR (Intelligence, Surveillance, Reconnaissance). AI helpt door meerdere sensoren te combineren: een model markeert een voertuigcluster als “mogelijk TEL” (transporter erector launcher), een ander model voorspelt likely routes naar dekking, en een CDE-tool schat schade als er binnen vijf minuten wordt aangevallen met een bepaalde munitiesoort.

Stap voor stap door de LOAC-lens. Eerst onderscheid: de vraag is niet “lijkt het op een TEL?”, maar “hebben we voldoende verificatie dat dit een militair doel is?” Je zoekt bevestiging: consistentie met eerdere SIGINT, heat signature die past bij recente activiteit, logistieke begeleiding die op militair wijst, en uitsluiting van civiele verklaringen (bijv. wegwerkvoertuigen, landbouwtransport). Als AI confidence hoog is maar de context dun, eist precautions dat je óf extra bron bevestigt óf de aanval uitstelt/annuleert.

Daarna evenredigheid: stel dat het voertuigcluster zich dicht bij civiele infrastructuur bevindt, of nabij een woonkern. AI’s CDE kan een schatting geven van blast effect en mogelijke secundaire schade. Maar de commandant moet expliciet wegen: wat is het concrete en directe voordeel (bijv. het voorkomen van een imminente lancering), en hoe zeker is dat voordeel? Als de inlichtingen onzeker zijn (“mogelijk TEL”) maar collateral risk reëel is, kan “buitensporig” sneller in beeld komen. De beperking is dat AI de onzekerheid vaak onvoldoende normatief vertaalt; daarom moet de menselijke besluitvorming onzekerheid als verhogende factor in de proportionaliteitsweging meenemen.

Tot slot precautions: AI kan alternatieven voorstellen—aanvalshoek, timing, een munitiesoort met kleiner effect, of shadowing tot betere verificatie. De LOAC-vraag is: zijn die alternatieven haalbaar en verminderen ze risico? Als ja, dan is het niet slechts “nice to have”; het is onderdeel van de plicht. Het voordeel van AI is snelheid in opties; de beperking is dat teams onder tijdsdruk geneigd zijn de eerste “werkende” optie te nemen. LOAC vraagt om een discipline die juist in tijdsdruk zichtbaar wordt.

Scenario 2: Doelselectie bij dual-use infrastructuur en cyber/ISR-fusie

Een tweede scenario gaat over dual-use: infrastructuur die zowel civiele als militaire functies ondersteunt, zoals communicatieknooppunten of energie-infrastructuur die ook militaire systemen voedt. In de context van spanningen met Iran kan AI bijdragen aan het mappen van netwerken: welke antennes koppelen aan welke command-and-control nodes, welke datalinks correleren met militaire bewegingen, en welke patronen wijzen op activering van luchtverdediging. Het risico is dat “netwerkcentraliteit” (een AI-metriek) wordt verward met “militair doel” (een juridische kwalificatie).

Stap één blijft onderscheid maar nu op objectniveau: een object is een militair doel als het door zijn aard, locatie, bestemming of gebruik effectief bijdraagt aan militaire actie en vernietiging een duidelijk militair voordeel oplevert. AI kan “effectieve bijdrage” suggereren via correlaties, maar correlatie is geen juridisch bewijs. Bijvoorbeeld: als een datacenter pieken vertoont tijdens militaire activiteit, kan het ook civiele oorzaken hebben. Precautions vereisen dan diepere verificatie: technische intelligence, menselijke analyse, en waar mogelijk het afbakenen van het militaire deel (segmentering) in plaats van breed effect.

Stap twee is evenredigheid met systeem-effecten. Bij infrastructuur kan schade indirect zijn: uitval van ziekenhuisapparatuur, waterpompen, of civiele communicatie. AI kan impact modelleren (bijv. afhankelijkheden in het netwerk), maar modellen missen vaak real-world redundantie of onderschatten cascading failures. LOAC vraagt dat de verwachte incidentele schade—ook indirecte, voor zover voorzienbaar—wordt meegewogen. Het militaire voordeel moet bovendien concreet en direct zijn; “strategische druk” als vaag voordeel is juridisch zwak, zeker als burgerimpact groot is.

Stap drie is precautions in middelen en methoden. AI kan opties genereren zoals een meer gerichte verstoring, timing buiten piekuren, of een methode die herstelbaar is. Binnen LOAC is de vraag of er een minder schadelijk alternatief is dat hetzelfde militaire voordeel kan bereiken. Het voordeel van AI hier is dat het sneller veel varianten doorrekent; de beperking is dat besluitvorming kan verschuiven naar “optimaliseren binnen het model”, terwijl LOAC juist vraagt om kritisch denken over wat het model niet ziet: civiele afhankelijkheden, onvolledige data, en adversarial deception.

Wat je vooral moet onthouden bij LOAC-conforme AI-besluitvorming

IHL/LOAC werkt niet als een “checkbox bovenop AI”. Het is een set normen die je dwingt om AI te behandelen als informatie met onzekerheid, niet als autoriteit. Onderscheid vraagt om verificatie en context; evenredigheid vraagt om normatief wegen, niet alleen rekenen; precautions vragen om procesmatige drempels die fouten vangen vóór het geweld wordt ingezet.

Belangrijkste takeaways:

  • AI-confidence is geen juridische zekerheid; het is een statistische eigenschap die je moet vertalen naar bewijswaardering.

  • Proportionaliteit blijft menselijk oordeel; AI kan schatten, maar niet bepalen wat “buitensporig” is.

  • Precautions zijn procesontwerp; goede AI-integratie maakt twijfel zichtbaar en maakt alternatieven makkelijker, niet sneller “automatisch vuren”.

Next, we'll build on this by exploring Aansprakelijkheid en verantwoordelijkheid [20 minutes].

Last modified: Wednesday, 11 March 2026, 10:52 AM