Waarom AI nu het tempo van oorlog bepaalt

Stel je een nacht voor waarin Israël en de VS tegelijk te maken hebben met een mix van dreigingen rond Iran: ballistische raketten, drones met lage radarreflectie, cyberaanvallen op logistieke systemen, en een informatiecampagne die sociale media overspoelt. In zo’n situatie is het beslissende voordeel niet alleen “meer vuurkracht”, maar sneller en betrouwbaarder waarnemen, begrijpen en handelen dan de tegenstander. Dat is precies waar AI steeds vaker in beeld komt: in de keten van detectie tot besluitvorming, en van planning tot uitvoering.

Wat dit nu urgent maakt, is dat hedendaagse conflicten data-intensief zijn. Sensoren (satellieten, radar, SIGINT, videosystemen), open bronnen (OSINT), en operationele logs genereren continu informatie. Mensen kunnen die stroom niet handmatig filteren zonder tijd te verliezen, en tijdverlies vertaalt zich in gemiste intercepties, verkeerde prioriteiten of escalatie op basis van onvolledig beeld. AI fungeert daarom steeds vaker als een “versnellingsbak” voor militaire processen: niet om oorlog automatisch te voeren, maar om het tempo van oorlogvoering te verhogen.

In deze les kijk je naar de evolutie van AI in conflicten: hoe we van vroege automatisering en expert systems gingen naar machine learning, deep learning, en uiteindelijk AI-ondersteunde besluitvorming in multi-domein operaties. Je leert ook waarom “meer autonomie” niet automatisch “betere uitkomsten” betekent, zeker niet in een politiek explosieve context zoals de oorlogsdynamiek rond Iran.


Een gedeelde taal: wat bedoelen we met AI in oorlog?

Met AI (kunstmatige intelligentie) bedoelen we in dit domein meestal systemen die patronen leren herkennen of beslissingen ondersteunen op basis van data. Belangrijk is het onderscheid tussen AI als analyse (bijvoorbeeld doelherkenning in beelden) en AI als actie (bijvoorbeeld routeplanning of automatische tegenmaatregelen). In militaire toepassingen zit AI vaak in het midden: het systeem doet een aanbeveling, een mens (of een geautomatiseerde regelset) bevestigt of wijzigt.

Een paar kernbegrippen helpen om de evolutie goed te begrijpen:

  • Automatisering: vaste regels (“als-dan”) die een taak versnellen, zonder te “leren” uit data.

  • Machine learning (ML): modellen die patronen leren uit voorbeelden (trainingsdata) en generaliseren naar nieuwe gevallen.

  • Deep learning: ML met neurale netwerken die vooral sterk zijn in beeld-, audio- en signaaldetectie.

  • Decision support: AI die opties rangschikt, risico’s schat, of prioriteiten voorstelt, zonder zelf de aanval te starten.

Een nuttige analogie: denk aan een moderne cockpit. De autopilot kan taken overnemen, maar in turbulentie en bij onverwachte situaties blijft de piloot verantwoordelijk. In oorlog geldt iets vergelijkbaars: AI kan het “vliegen” stabiliseren (data filteren, waarschuwingen genereren), maar context, intentie en politieke gevolgen blijven menselijk terrein. Dat spanningsveld loopt als een rode draad door de ontwikkeling van AI in conflicten.

Omdat dit de start van dit onderdeel is, nemen we één aanname mee: wanneer we “AI in oorlogsvoering” zeggen, bedoelen we een spectrum van toepassingen in inlichtingen, planning, bescherming (defense), en soms aanval (offense)—niet één monolithisch “autonoom wapen”.


Van regels naar lerende systemen: drie golven in militaire AI

1) De eerste golf: automatisering en expert systems (controle boven adaptatie)

De vroege inzet van “AI” in militaire contexten was vaak automation-first: systemen die op basis van expliciete regels een taak sneller deden dan een mens die dezelfde checklist volgt. Denk aan het automatisch correleren van radartracks, of het genereren van waarschuwingen wanneer een object een drempel overschrijdt (hoogte, snelheid, koerswijziging). In die periode is betrouwbaarheid vooral gekoppeld aan controleerbaarheid: een operator kan meestal uitleggen waarom het systeem een alarm geeft, omdat de beslisregels bekend zijn.

Deze aanpak werkt goed wanneer de omgeving min of meer voorspelbaar is en de variatie beperkt blijft. Maar precies daar wringt het in moderne conflicten: tegenstanders leren je regels kennen en spelen eromheen. Bijvoorbeeld: drones kunnen onder radardrempels vliegen, communicatiepatronen kunnen expres wisselen, of decoys kunnen het systeem voeden met plausibele maar misleidende signalen. Regelsystemen reageren snel, maar ze zijn relatief “brittle”: ze breken wanneer de realiteit net buiten het geprogrammeerde kader valt.

Best practices uit deze fase blijven relevant: fail-safe ontwerp, duidelijke escalatiepaden (wanneer moet een mens ingrijpen), en het vastleggen van drempels en uitzonderingen. De grootste valkuil is “automatiseringsbias”: operators vertrouwen het systeem omdat het meestal gelijk heeft, en missen dan net die situaties waarin het fout gaat. Een typische misconceptie is dat “als het systeem consistent is, het wel correct zal zijn” — maar consistent fout is nog steeds fout, en regelsystemen kunnen structureel falen bij nieuwe tactieken.

2) De tweede golf: machine learning voor detectie en classificatie (schaal boven zekerheid)

Met de opkomst van ML verschuift de focus van expliciete regels naar het leren van patronen uit data. In defensie zie je dat vooral bij ISR (Intelligence, Surveillance, Reconnaissance): het automatisch markeren van verdachte objecten in satellietbeelden, het herkennen van voertuigen in dronevideo, of het clusteren van communicatie-events om netwerken te begrijpen. De winst zit in schaal: waar analisten vroeger een beperkte hoeveelheid beeldmateriaal konden bekijken, kan ML grote stromen triëren en prioriteren.

Maar deze evolutie introduceert nieuwe risico’s. ML-modellen zijn gevoelig voor dataset shift: als de omstandigheden veranderen (nieuw cameratype, ander weer, camouflage, gewijzigde tactiek), daalt nauwkeurigheid vaak zonder dat het systeem “meldt” dat het minder zeker is. Bovendien kan een model bias bevatten: het heeft meer voorbeelden gezien van bepaalde objecten in bepaalde omgevingen, en generaliseert dan slecht naar een nieuw theater of nieuwe doeltypes. In een conflict met hoge inzet betekent dat: verkeerde prioriteitstelling, overbelasting van interceptiecapaciteit, of gemiste detecties.

Best practices draaien hier om validatie onder realistische omstandigheden, monitoring van prestaties in het veld, en het expliciet meenemen van onzekerheid (confidence scores) in de workflow. Een veelgemaakte fout is ML als “waarheidsmachine” gebruiken: als het model 0,92 confidence geeft, wordt dat behandeld alsof het 92% zeker “waar” is. In werkelijkheid is die score vaak geen echte kans, maar een modelinterne maat. Een tweede misconceptie is dat “meer data altijd beter is”; zonder goede labeling, representativiteit en kwaliteitscontrole kun je vooral sneller slechte patronen leren.

3) De derde golf: AI in besluitvorming en multi-domein tempo (snelheid boven comfort)

De nieuwste fase gaat niet alleen over detectie, maar over het versnellen van de kill chain (vind–fix–track–target–engage–assess) en de bredere besluitcyclus. AI wordt gebruikt om opties te rangschikken: welke dreiging eerst, welke sensor herpositioneren, welk interceptorsysteem inzetten, welke logistieke route is het meest robuust bij cyberverstoring. In een omgeving met gelijktijdige dreigingen rond Iran kan het verschil tussen “goede informatie” en “goede beslissing” minuten zijn, en AI probeert die besluitruimte te comprimeren.

Hier komt de kernspanning: snelheid kan veiligheid verhogen (sneller intercepten), maar ook escalatie versnellen. Als systemen automatisch prioriteren en aanbevelen, bestaat het risico dat mensen vooral bevestigen in plaats van evalueren—zeker onder tijdsdruk. Daarnaast ontstaat een tweede-orde probleem: tegenstanders gaan niet alleen je sensoren misleiden, maar ook je beslissingslogica. De aanval verschuift dan van “verstop je object” naar “stuur het AI-systeem richting verkeerd gedrag”: via decoys, spoofing, of het creëren van ruis die de prioritering scheef trekt.

Best practices in deze golf zijn mens-machine teaming met duidelijke rollen, “circuit breakers” (regels die automatische escalatie stoppen), en het ontwerpen van workflows waarin AI traceerbare aanbevelingen geeft: welke signalen, welke aannames, welke alternatieven. Een typische valkuil is het bouwen van een systeem dat perfect werkt in testscenario’s, maar in echte operaties struikelt over onvolledige data, gecorrumpeerde feeds of politieke beperkingen. Een hardnekkige misconceptie is dat autonomie gelijkstaat aan “minder fouten”; in werkelijkheid verplaats je fouten vaak van uitvoering naar ontwerp en data.

Om de verschillen helder te zien:

Dimensie Automatisering & regels ML voor detectie AI-gedreven besluitondersteuning
Sterkte Voorspelbaar gedrag, makkelijk te testen tegen vaste criteria. Goed voor drempelbewaking en standaardprocedures. Schaal: kan enorme sensorstromen triëren en patronen vinden die mensen missen. Sterk bij beeld/signal processing. Tempo: helpt prioriteren en coördineren onder tijdsdruk over meerdere systemen/domeinen. Verbindt data aan handelingsopties.
Zwakke plek Breekbaar bij nieuwe tactieken; tegenstander kan regels “spelen”. Kan blind zijn voor context. Gevoelig voor dataset shift en bias; betrouwbaarheid kan stilzwijgend dalen. Uitlegbaarheid vaak beperkt. Kan escalatie versnellen; kwetsbaar voor misleiding van prioriteiten. Moeilijker te auditen en politiek te verantwoorden.
Typische pitfall Automatiseringsbias: operator vertrouwt alarmsysteem te snel. Confidence scores worden als echte zekerheid geïnterpreteerd. Mensen worden “rubber stamp”; aanbevelingen worden niet meer kritisch gewogen.
Beste praktijk Fail-safe, duidelijke drempels, logging en operator-training. Realistische veldvalidatie, performance monitoring, onzekerheid expliciet maken. Human-in-the-loop ontwerp, circuit breakers, traceerbare aanbevelingen en scenario-tests met misleiding.

[[flowchart-placeholder]]


Twee voorbeelden rond Iran: hoe AI de praktijk verandert (en waar het stukloopt)

Voorbeeld 1: Luchtverdediging tegen gecombineerde drone- en raketdreiging

In een scenario waarin Iran of geallieerde proxies een mix inzetten van drones, cruise missiles en ballistische raketten, ontstaat een “saturatieprobleem”: niet elke track kan dezelfde aandacht en interceptor krijgen. AI kan hier op meerdere plekken in de keten versnellen. Stap één is sensorfusie: het combineren van radartracks, infraroodsignaturen en mogelijk satellietwaarnemingen tot één operationeel beeld. ML-modellen kunnen helpen bij classificatie: is dit een dronezwerm, een decoy, of een high-value munition met ander profiel?

Stap twee is prioritering. AI-gedreven systemen kunnen voorstellen welke objecten het grootste risico vormen op basis van koers naar kritieke infrastructuur, vermoedelijke snelheid/hoogte-profielen en eerdere patronen. Dat lijkt puur technisch, maar de impact is organisatorisch: commandocentra moeten beslissen of ze AI-advies als “aanbeveling” behandelen of als “default”. De winst kan groot zijn: sneller triëren betekent eerder onderscheppen. Maar de beperkingen zijn net zo belangrijk: als de tegenstander decoys inzet die het model “hoog risico” laat schatten, verspilt de verdediger interceptors en opent hij gaten.

Stap drie is evaluatie en feedback. Na een onderschepping moet het systeem de uitkomst leren: wat werkte, wat niet, welke signalen waren misleidend. In de praktijk is dit lastig, omdat gevechtsdata incompleet kan zijn en omdat je niet altijd bevestiging hebt van wat het object precies was. De valkuil is dat organisaties dan toch “leren” op basis van onzekere labels, waardoor modellen drift vertonen. Het voordeel van AI blijft reëel—tempo en schaal—maar alleen als er discipline is in datakwaliteit, menselijke controlepunten en expliciete omgang met onzekerheid.

Voorbeeld 2: Doelidentificatie en escalatierisico bij aanvallen op infrastructuur en commandoketens

Een tweede scenario draait om het bepalen van doelen en het inschatten van nevenschade en escalatie. In conflicten waar Israël en de VS Iran als strategische tegenstander zien, zijn doelen vaak verweven met civiele infrastructuur, dual-use faciliteiten en verspreide commandonetwerken. AI kan OSINT, SIGINT-achtige patronen (waar beschikbaar), beelden en logistieke gegevens combineren om kandidaatdoelen te rangschikken: welke locatie lijkt een opslagplaats, welke een communicatiehub, welke een decoy.

Stap één is triage van informatie. In plaats van dat analisten duizenden signalen handmatig doorspitten, filtert AI op afwijkingen: nieuwe activiteit rond een site, ongebruikelijke transportbewegingen, of veranderingen in beveiligingspatronen. Stap twee is hypothesevorming: het systeem suggereert plausibele verklaringen (“increased activity could indicate relocation”), en koppelt die aan eerdere cases. Dit versnelt planning, maar introduceert een cognitief risico: beslissers kunnen AI-hypothesen gaan zien als “bewijs” in plaats van als startpunt voor verificatie.

Stap drie is besluitcontext: politieke risico’s, juridische kaders en proportionaliteit zijn geen simpele variabelen. AI kan scenario’s doorrekenen (bijvoorbeeld mogelijke secundaire effecten), maar de inputs zijn vaak onzeker of betwist. De beperking is dus niet alleen technisch, maar ook normatief: zelfs een accurate detectie kan leiden tot een strategisch slechte beslissing als de interpretatie en escalatie-inschatting niet kloppen. De best practice hier is helder: behandel AI als versneller van analyse, niet als autoriteit. In high-stakes targeting moet het systeem vooral helpen om alternatieven zichtbaar te maken—en expliciet tonen waar onzekerheid zit—zodat escalatie niet “per ongeluk” versnelt door een te soepel geautomatiseerde workflow.


Wat je meeneemt uit deze evolutie

AI in oorlogvoering evolueert niet in één rechte lijn naar “volledige autonomie”. In plaats daarvan zie je een verschuiving van regels → leren → besluitondersteuning, waarbij elk stadium nieuwe voordelen oplevert én nieuwe kwetsbaarheden introduceert. Het centrale patroon is dat AI vooral waarde levert waar de omgeving data-intensief is en tijd schaars is—precies de omstandigheden die moderne escalatie rond Iran kenmerken.

Belangrijkste punten om vast te houden:

  • Automatisering is controleerbaar maar kwetsbaar voor creatieve tegenstanders.

  • ML schaalt detectie, maar presteert alleen betrouwbaar met realistische validatie en monitoring.

  • Besluitondersteuning kan tempo winnen, maar vergroot ook het risico op versnelde escalatie en “rubber-stamping”.

  • In alle fasen blijven data-integriteit, misleiding, en menselijk oordeel de doorslaggevende factoren.

In de volgende les, you'll take this further with Kernbegrippen: autonomie & sensoren [30 minutes].

Last modified: Wednesday, 11 March 2026, 10:52 AM