Waarom “wie beslist?” nu het verschil maakt

Stel: er verschijnt een zwerm onbekende drones boven een olie- en gasinstallatie in de Golfregio. Radar, elektronische oorlogvoering (EW) en luchtverdediging zien tegelijk meerdere sporen, maar de signalen zijn rommelig: sommige doelen lijken echt, andere kunnen lokmiddelen zijn. In zo’n situatie telt elke seconde, maar een verkeerde beslissing kan escalatie veroorzaken, burgers in gevaar brengen of een bondgenoot op het verkeerde moment meesleuren. Precies daar komt AI in beeld: niet alleen als “sneller rekenen”, maar als onderdeel van een besluitketen die bepaalt wie wat wanneer mag doen.

In de oorlogsdynamiek rond Israël, de VS en Iran spelen lange afstanden, hoog tempo, grijze-zone acties (plausible deniability, proxy-actoren) en informatie-onzekerheid een grote rol. AI kan helpen om signalen te fuseren, patronen te herkennen en opties te prioriteren. Maar hoe autonoom mag zo’n systeem zijn? En waar moet een mens altijd ingrijpen? Deze les gaat daarom over autonomie-niveaus en de rol van de mens: de praktische en ethische kern van AI in oorlogsvoering.


Autonomie, automatisering en “mens-in-de-lus” helder onderscheiden

Autonomie wordt in discussies vaak verward met automatisering. Automatisering betekent: een systeem voert een vaste procedure uit (als A, dan B), meestal voorspelbaar en binnen een strak omlijnde taak. Autonomie betekent: een systeem kan binnen doelen en beperkingen zelf keuzes maken over middelen en timing, vaak op basis van onzekere input. In oorlogsvoering is dat verschil cruciaal, omdat het bepaalt of een mens vooral “knoppen bedient” of daadwerkelijk beslissingsmacht behoudt.

Een tweede bron van verwarring is het woord “AI”. In militaire context gaat het vaak om een mix van machine learning (patroonherkenning), sensorfusie (meerdere bronnen combineren), en beslissingsondersteuning (suggesties, prioritering). Dat kan variëren van onschuldige voorbeelden (doelherkenning met vertrouwen-scores) tot systemen die een aanvalswindow kunnen kiezen. Je kunt dus niet zinvol over “AI-wapens” praten zonder te specificeren: welke taak, welke vrijheid, welke menselijk toezicht?

Om het consequent te kunnen analyseren, gebruiken we drie klassieke toezichtmodellen:

  • Human-in-the-loop: de mens moet expliciet goedkeuren vóór een kritieke actie (bijv. een wapenafgifte).

  • Human-on-the-loop: het systeem handelt zelf, maar een mens superviseert en kan stoppen/overrulen.

  • Human-out-of-the-loop: het systeem kan kritieke acties uitvoeren zonder real-time menselijke bevestiging.

Een goede vuistregel: hoe groter de letale of escalatoire gevolgen, hoe sterker de eis om menselijke controle te formaliseren. Tegelijk: hoge dreigingsdichtheid en korte reactietijden duwen organisaties richting meer autonomie. De spanning tussen die twee krachten is de kern van deze les.


Autonomie-niveaus als beslissingsladder (niet als aan/uit-knop)

Autonomie is het best te begrijpen als een ladder van functies binnen de kill chain: waarnemen, begrijpen, beslissen en handelen. Een systeem kan bijvoorbeeld autonoom zijn in detectie maar niet in engagement. In de praktijk zie je vaak “gemengde autonomie”: AI doet snel werk aan de voorkant (filtering, classificatie), terwijl mensen de laatste stap bewaken. Het helpt om autonomie dus te koppelen aan welke stap in de keten wordt geautomatiseerd.

Een bruikbaar kader is om per niveau te kijken naar drie elementen: taakdelegatie, informatierol en beperkingen. Op lagere niveaus gebruikt AI data om opties te tonen; op hogere niveaus maakt AI keuzes in een dynamische omgeving. Die dynamiek is belangrijk: in conflicten rond Iran/VS/Israël heb je vaak EW, GPS-jamming, decoys en snel wisselende ROE (Rules of Engagement). Autonomie “voor comfort” werkt prima in stabiele omstandigheden, maar in contested environments kan het systeem precies daar falen waar het meest telt.

Wat verandert er zodra je autonomie verhoogt? Niet alleen snelheid, maar ook de aard van verantwoordelijkheid. Bij beslissingsondersteuning draag je vooral een risico op verkeerde advisering; bij besluitautomatisering verplaats je het risico naar onbedoelde escalatie. Dat vraagt om andere waarborgen: testregimes, fail-safes, auditlogs, en vooral duidelijke grenzen aan wat het systeem mag optimaliseren. Een AI die “dreiging minimaliseren” optimaliseert kan agressiever reageren dan politiek wenselijk is, zeker wanneer de strategische context vraagt om terughoudendheid.

Typische best practices in dit domein zijn:

  • Definieer autonomie taakspecifiek (detectie vs identificatie vs engagement), niet als één label.

  • Ontwerp expliciete overname-momenten (handover) met duidelijke triggers: lage confidence, civiele nabijheid, veranderde ROE.

  • Bouw voor contested environments: degrade-gracefully, alternatief sensorpad, en conservatieve aannames bij dataverlies.

Een veelvoorkomende misvatting is: “meer autonomie = minder fouten”. In werkelijkheid kan meer autonomie menselijke fouten verminderen (minder vermoeidheid), maar systeemfouten vergroten als onzekerheid, adversarial misleiding of sensoruitval toeneemt. De kunst is dus niet maximaliseren, maar kalibreren.


Rol van de mens: van operator naar gezaghouder (en waar dat misgaat)

Bij AI in oorlogsvoering verschuift de mens vaak van directe uitvoerder naar supervisor van systemen. Dat klinkt comfortabel, maar introduceert bekende valkuilen uit safety-critical domeinen (luchtvaart, kernenergie): automation bias (te snel geloven wat het systeem zegt), complacency (minder actief monitoren omdat het meestal goed gaat), en “out-of-the-loop performance” (verminderd vermogen om in te grijpen wanneer het ineens misgaat). In militaire situaties is dat extra scherp omdat de omgeving adversarial is: de tegenstander probeert juist de zwaktes van je detectie en classificatie uit te buiten.

Een tweede dimensie is gezag en aansprakelijkheid. Zelfs als een operator “alleen maar bevestigt”, kun je een situatie krijgen waarin de mens feitelijk geen echte keuze meer heeft. Bijvoorbeeld omdat het systeem 20 doelen tegelijk presenteert met een rood/oranje/groen label en de tijdslimiet 5 seconden is. Formeel is de mens in-the-loop, maar materieel is het een rubber-stamp. Daarom gaat “meaningful human control” niet alleen over aanwezigheid, maar over begrijpelijkheid, tijd, en alternatieven.

Best practices om de menselijke rol echt betekenisvol te houden:

  • Confidence + rationale: toon niet alleen een label (“hostile”), maar ook waarom (sensorbronnen, kenmerken, onzekerheden).

  • Tempo-management: ontwerp de workflow zodat escalatoire acties tijd/ruimte hebben voor menselijk oordeel, bijvoorbeeld door automatische “hold” bij civiele nabijheid.

  • Training op afwijkingen: operators moeten oefenen met misleidingspatronen (decoys, spoofing) en met situaties waarin AI confidence misleidend hoog is.

Veelgemaakte fouten:

  • Onrealistische ROE-vertaling: regels zijn juridisch/politiek, maar worden in software als simplistische thresholds gegoten.

  • Slechte handover: de mens krijgt pas controle wanneer het systeem al “vastzit” in een actiepad.

  • Geen auditability: achteraf is niet te reconstrueren op basis waarvan het systeem en de operator handelden, wat leren en verantwoorden onmogelijk maakt.

Een hardnekkige misconceptie is dat “de mens is altijd beter in context”. Mensen zijn beter in brede context en intentie-inschatting, maar slechter in het tegelijk verwerken van veel signalen onder stress. Daarom moet je mens + AI zien als complementair, met expliciete taakverdeling en ontworpen frictie op de plekken waar escalatie dreigt.


Autonomie en menselijk toezicht vergeleken (wat verandert er echt?)

Onderstaande vergelijking laat zien hoe dezelfde militaire taak (bijv. luchtverdediging of drone-detectie) verandert afhankelijk van het autonomie- en toezichtmodel.

Dimensie Human-in-the-loop Human-on-the-loop Human-out-of-the-loop
Wie beslist over kritieke actie? Mens beslist expliciet; systeem adviseert. Dit verkleint escalatierisico maar kan te traag zijn. Systeem handelt binnen grenzen; mens superviseert en kan ingrijpen. Werkt goed bij hoge dreigingsdichtheid, maar vereist uitstekende monitoring. Systeem kan handelen zonder real-time mens. Alleen verdedigbaar in zeer smalle, vooraf gedefinieerde situaties; risico op onbedoelde escalatie is het grootst.
Snelheid vs controle Maximale controle, lagere snelheid. Bij saturatie (veel doelen) kan performance instorten. Balans: snelheid hoog, controle via stop/override. Maar ingrijpen kan moeilijk zijn als operator out-of-the-loop raakt. Maximale snelheid, minimale controle. Werkt vooral als omgeving voorspelbaar is—wat in contested warfare zelden zo is.
Belangrijkste risico’s Traagheid, cognitieve overload, inconsistentie tussen operators. Automation bias, gemiste alarms, late overrides. Onbedoelde engagement, fouten door misleiding/spoofing, accountability-problemen.
Benodigde waarborgen Heldere ROE-interfaces, goede explainability, voldoende tijdvensters. Sterke alerting, duidelijke “kill switch”, handover-oefening, auditlogs. Zeer strikte geofencing/targeting-constraints, uitgebreide vooraf-testen, fail-safe defaults, sterke politieke/juridische legitimatie.

[[flowchart-placeholder]]


Voorbeeld 1: Lucht- en raketverdediging onder tijdsdruk (AI als filter, mens als escalatie-rem)

Neem een scenario waarin Iran (direct of via proxies) een mix inzet van raketten, drones en mogelijk lokmiddelen richting een strategischenode (bijv. een basis, havenfaciliteit of energie-infrastructuur). In zulke salvo’s is het probleem zelden “zien we iets?”, maar: welke tracks zijn echt, welke zijn decoys, welke vormen een directe dreiging, en welke verdedigingseenheden (interceptors, EW, jamming) zijn het meest geschikt. AI kan hier waarde leveren door sensorinformatie (radar, elektro-optisch, SIGINT) te fuseren en prioriteiten te berekenen onder onzekerheid.

Stap voor stap ziet de autonomie-verdeling er in een volwassen opzet vaak zo uit. Eerst doet AI track management: het clustert detecties tot sporen en schat baan en intentie (bijv. richting, snelheid, hoogteprofiel). Daarna komt classificatie met confidence: drone vs kruisraket vs ballistisch, met probabilistische scores. Vervolgens kan het systeem een set opties aanbevelen: “Track 17: likely UAV, low altitude; recommend EW-jam corridor A” of “Track 23: high-speed; recommend interceptor type X.” De mens blijft in-the-loop voor weapon release of voor escalatoire toewijzingen, maar laat het systeem de bulk van filtering doen.

De winst is duidelijk: minder cognitieve overload, snellere respons, en een betere kans om saturatie aan te kunnen. De beperking is minstens zo belangrijk: tegenstanders proberen juist de classifier te breken met decoys, routeprofielen die op civiel lijken, of jamming die de sensorfusie onbetrouwbaar maakt. Als de operator het AI-advies te automatisch vertrouwt, kan een “hoog confidence” label een valse zekerheid geven. Daarom is best practice hier: automatisch handelen alleen op niet-letale maatregelen (bijv. sensor cueing, extra tracking, defensieve posture), terwijl letale engagement strikter menselijk blijft, met extra remmen bij civiele nabijheid of twijfel.

Organisatorisch betekent dit dat command & control niet alleen techniek is. Je hebt duidelijke ROE-vertaling nodig: wanneer is een track “hostile”? Welke drempels horen bij welke acties? En je hebt auditlogs nodig: achteraf moet te reconstrueren zijn welke data, welke confidence, en welke menselijke bevestiging tot engagement leidde. In een politiek explosieve omgeving (Israël/VS/Iran) is die herleidbaarheid niet administratief, maar strategisch van belang.


Voorbeeld 2: Doelidentificatie bij grijze-zone aanvallen (AI helpt zoeken, mens bepaalt legitimiteit)

Een tweede realistisch patroon in deze oorlogsdynamiek is een aanval waarbij de dader inzet op ambiguïteit: een drone- of raketaanval wordt uitgevoerd via een proxy, of met platformen die lijken op civiele typen. De technische taak is dan niet alleen “vinden”, maar vooral identificeren en attribueren binnen beperkte tijd. AI kan helpen door enorme hoeveelheden video, satellietbeelden, signalen en open bronnen te doorzoeken op patronen: launch-sites, logistieke routes, type-kenmerken van UAV’s, of herhaalde call-signals.

Stap voor stap: AI kan eerst de search space verkleinen door detectie van verdachte activiteit (bijv. voertuigen bij afgelegen locaties, warmtebronnen, ongebruikelijke nachtbeweging). Daarna kan het systeem objecten classificeren en vergelijken met bekende profielen (vorm, afmetingen, vluchtgedrag, RF-signatures). Vervolgens kan het “link analysis” doen: welke signalen/patronen correleren met eerdere incidenten? Dat versnelt inlichtingenwerk en geeft een gestructureerde hypothese: “meest waarschijnlijk scenario A, alternatieven B/C.”

Maar precies hier is de rol van de mens niet optioneel. De mens (analist/commandant/juridisch adviseur) moet beoordelen of een vermoedelijk militair object ook legitiem doel is, wat de proportionaliteit is, en of er voldoende zekerheid bestaat. AI kan correlaties tonen, maar kan geen politieke context dragen: bijvoorbeeld de risico’s van vergelding, de kans op misattributie, of het effect op regionale escalatie. Een veelvoorkomende valkuil is dat correlatie in data (“lijkt op”) wordt behandeld als bewijs (“is”). In een adversarial omgeving kunnen tegenstanders juist “AI-vriendelijke sporen” planten om je tot een fout te verleiden.

De best practice is daarom om AI hier primair te gebruiken als triage en hypothese-generator, niet als beslisser. Je borgt dat door:

  • expliciete labeling: “indicatie” vs “bevestigd”

  • red-teaming van het model tegen misleiding (spoofing, planted evidence)

  • multi-source confirmatie als harde eis vóór escalatoire acties

De beperking blijft tempo: besluitvormers willen snelheid, zeker bij dreiging van herhaal-aanvallen. De oplossing zit niet in “meer autonomie”, maar in betere workflow: vooraf gedefinieerde bewijsstandaarden, snelle escalatiepaden voor twijfelgevallen, en ontworpen momenten waarop een mens daadwerkelijk kan zeggen: “stop, onvoldoende zekerheid.”


Wat je vooral moet onthouden over autonomie en menselijk toezicht

Autonomie-niveaus zijn geen ideologische keuze, maar een engineering- en governance-vraag: welke taken delegeer je aan machines, onder welke onzekerheid, met welke remmen, en met welke menselijke rol die ook in de praktijk betekenisvol blijft. In de oorlogsdynamiek rond Israël, de VS en Iran is de omgeving vaak contested en politiek gevoelig, waardoor fouten extra kostbaar zijn. Goede ontwerpen maken tempo mogelijk zonder de laatste escalatiestap te “automatiseren via de achterdeur”.

Belangrijkste samenvatting in één adem: AI is sterk in snelheid en patroonherkenning, zwakker in context en intentie; mensen zijn het omgekeerde—dus ontwerp het systeem rond die complementariteit, met heldere handover, auditeerbaarheid en realistische tijd voor menselijk oordeel.

In de volgende les, zul je dit verder uitwerken met Autonome UAV’s, loitering & zwermen [20 minutes].

Last modified: Wednesday, 11 March 2026, 10:52 AM