Sorry, this activity is currently hidden
Section outline
-

Introduction
Deze sectie legt de basis om te begrijpen hoe AI het tempo, de informatiepositie en de besluitvorming in moderne conflicten verandert. In de context van de oorlog van Israël en de VS tegen Iran helpt dit kader om claims over “autonome” systemen, doelkeuze en escalatierisico’s kritisch te beoordelen. We verbinden kernbegrippen met operationele denkmodellen zoals de kill chain en de OODA-loop. Ook maken we de belangrijkste beperkingen en automatiseringsrisico’s expliciet die in deze sector direct kunnen doorwerken.
Learning Objectives
-
Leg de evolutie van AI-toepassingen in conflictomgevingen uit en plaats die in een moderne operationele context.
-
Maak onderscheid tussen narrow AI, ML en generatieve AI en benoem typische militaire use-cases en grenzen.
-
Pas de kill chain en OODA-loop toe als denkmodellen om kansen, beperkingen en escalatierisico’s van AI-inzet te identificeren.
-
-

Introduction
Deze sectie laat zien hoe AI de ISR-keten (Intelligence, Surveillance, Reconnaissance) versnelt en tegelijk nieuwe foutbronnen introduceert. In de context van de Israël–VS–Iran confrontatie is het vermogen om snel, betrouwbaar en uitlegbaar doelen te identificeren en te valideren direct gekoppeld aan escalatierisico en politieke controle. We koppelen technische mogelijkheden (detectie, fusie, patroonherkenning) aan operationele besluitvorming onder onzekerheid.
Learning Objectives
-
De stappen in de ISR-keten beschrijven en aangeven waar AI de kwaliteit en snelheid kan verbeteren of verslechteren.
-
Verschillen uitleggen tussen doelidentificatie en doelvalidatie en de belangrijkste fouttypen en gevolgen benoemen.
-
“Confidence” in AI-uitkomsten interpreteren en vertalen naar beslisruimte in een operationele context (Israël–VS–Iran).
-
-

Introduction
Autonome systemen veranderen de snelheid en schaal waarop militaire acties kunnen plaatsvinden, maar verschuiven ook de kwetsbaarheden in commandovoering en besluitvorming. In de context van de Israël–VS–Iran spanningen is “human control” cruciaal om escalatie door misperceptie, sensorfouten of te snelle sensor-to-shooter koppelingen te beperken. Deze sectie geeft een werkbaar kader om typen autonomie te onderscheiden en de punten te herkennen waar menselijk toezicht in de praktijk faalt. We koppelen dit aan veiligheid en betrouwbaarheid van systemen onder operationele druk.
Learning Objectives
-
Deelnemers kunnen de drie typen autonomie (“in/on/out of the loop”) onderscheiden en toepassen op operationele voorbeelden.
-
Deelnemers kunnen de belangrijkste risico’s in sensor-to-shooter koppelingen benoemen en aangeven waar menselijke controles kunnen falen.
-
Deelnemers kunnen basisprincipes voor veiligheid en betrouwbaarheid (fail-safe, fail-deadly, degradatie) gebruiken om inzetkeuzes te onderbouwen.
-
-

Introduction
In de Israël–VS–Iran context speelt AI een centrale rol in cyberoperaties, informatiecampagnes en misleiding, vaak met korte besliscycli en hoge escalatierisico’s. Deze sectie laat zien hoe AI zowel defensieve detectie als offensieve beïnvloeding kan versterken, en waarom vertrouwen in informatie (en in systemen) een operationele kwetsbaarheid wordt. Je bouwt een kader om AI-gedreven dreigingen te herkennen en hun impact op besluitvorming te duiden.
Learning Objectives
-
Herkennen hoe AI cyberdetectie en respons versnelt en welke operationele trade-offs dat oplevert.
-
Uitleggen hoe generatieve AI beïnvloedingsoperaties schaalt en welke signalen wijzen op gecoördineerde narratiefvorming.
-
Beschrijven hoe deepfakes en adversarial technieken (poisoning/spoofing) AI-systemen en vertrouwen kunnen ondermijnen in een escalatiegevoelige omgeving.
-
-

Introduction
In deze sectie koppel je AI-toepassingen in oorlogvoering aan governance, recht en escalatierisico’s. Dit is cruciaal in de context van de oorlog van Israel en de VS tegen Iran, waar snelle besluitlussen, informatie-onzekerheid en politieke signaling elkaar kunnen versterken. Je leert welke juridische en organisatorische waarborgen nodig zijn om inzet te verantwoorden en escalatie te beperken.
Learning Objectives
-
Leg de LOAC/IHL-principes (onderscheid, proportionaliteit, voorzorg) toe op AI-ondersteunde targetingbesluiten.
-
Benoem en onderscheid verantwoordelijkheids- en aansprakelijkheidsvragen bij AI-gedreven besluitvorming in operaties.
-
Analyseer escalatiepaden in de Israël–VS–Iran context en identificeer AI-gerelateerde triggers en signaling-risico’s.
-
-

Introduction
In deze afsluitende sectie verbind je alle kernconcepten over AI in moderne oorlogsvoering tot één samenhangend kader. Je past die synthese toe op de context van de oorlog van Israël en de VS tegen Iran, waar snelheid, informatie-onzekerheid en escalatierisico’s samenkomen. De focus ligt op het scherp krijgen van begrippen, trade-offs en wat je hierna verder moet uitdiepen.
Learning Objectives
-
Je vat de belangrijkste concepten uit de cursus samen in één coherent overzicht dat inzet, beperkingen en risico’s verbindt.
-
Je past de kernmodellen (o.a. OODA/kill chain, ISR, human control) toe om scenario’s in de Israël–VS–Iran context te duiden.
-
Je formuleert concrete vervolgstappen voor verdieping, inclusief bronnen, vragen en leerdoelen voor je eigen praktijk.
-