Wanneer seconden tellen: één frame kan escalatie veroorzaken

Stel dat er opnieuw een gemengde aanval plaatsvindt met drones en raketten richting Israëlische en Amerikaanse posities in de regio, terwijl er tegelijk meldingen zijn van mobiele lanceerplatformen die snel “shoot-and-scoot” toepassen. In het commandocentrum komt video van UAV’s, satellietbeelden, en elektro-optische/IR-feeds binnen als één grote stroom. Je moet razendsnel antwoord geven op vragen die politiek en militair zwaar wegen: Is dit echt een dreiging of een decoy? Is dit een militair object of civiele logistiek? En hoe zeker weten we dat, voordat er wordt onderschept of teruggeslagen?

Beeld en video zijn aantrekkelijk omdat ze “bewijsachtig” voelen. Maar in high-tempo oorlogsvoering is dat ook een valkuil: een scherp beeld kan alsnog context missen, terwijl rook, nacht, elektronische oorlogsvoering en misleiding de AI juist de verkeerde kant op duwen. Daarom draait deze les om drie kernfuncties in AI-gedreven computer vision binnen de ISR-keten: detectie (wat zit er in het beeld?), tracking (is dit hetzelfde object door de tijd?), en classificatie (wat voor object is het, en hoe zeker is dat?).


De basis: detectie, tracking en classificatie als “triage op beeld”

In de vorige les stond de ISR-keten centraal: van collection & tasking naar processing, exploitation/analysis, en uiteindelijk dissemination & decision. Beeld/video-AI hoort vooral bij exploitation/analysis, maar leunt zwaar op processing: als tijdstempels niet kloppen of geo-registratie “drijft”, gaat een model niet alleen trager werken, maar ook systematisch fouten stapelen. Het kernprincipe blijft hetzelfde: AI is goed in schaal en snelheid, maar je moet onzekerheid expliciet houden en ontwerpen voor misleiding en drift.

Definities die je scherp wil hebben:

  • Detectie: het vinden en lokaliseren van objecten in een frame (vaak als bounding box of segmentatie). Het resultaat is: “hier is waarschijnlijk een object.”

  • Tracking: het koppelen van detecties over opeenvolgende frames tot één “track” met een consistente identiteit. Het resultaat is: “dit is hetzelfde object dat beweegt.”

  • Classificatie: het toekennen van een categorie (bijv. drone vs vogel vs voertuigtype) aan een detectie of track, idealiter met confidence en alternatieven. Het resultaat is: “waarschijnlijk type X (p=0,62), alternatief Y (p=0,21).”

Een bruikbare analogie is opnieuw de SEH-triage uit de vorige les, maar nu toegepast op video: detectie is “wie ligt er in de wachtruimte?”, tracking is “gaat het om dezelfde patiënt die van afdeling wisselt?”, en classificatie is “welke urgentie en diagnose-categorie past het best, met welke onzekerheid?”. Het doel is zelden perfecte zekerheid, maar snelle prioritering en het minimaliseren van dure fouten in de besluitketen.


Drie bouwstenen die moeten samenwerken (en elkaar ook kunnen breken)

1) Detectie: snel vinden is niet hetzelfde als betrouwbaar vinden

Detectie lijkt simpel—een model zet een kader om iets heen—maar in conflictcontext is de echte vraag: welke fouten accepteer je, en waar? Een detector produceert bijna altijd een spanningsveld tussen false negatives (iets missen dat gevaarlijk is) en false positives (iets zien dat er niet is, of onschuldig is). In een verzadigingsaanval met decoys is “alles detecteren” niet per se wenselijk: je creëert dan alert-overload, waardoor operators juist belangrijke signalen negeren. In de ISR-logica uit de vorige les betekent dit dat detectie ontworpen moet zijn voor triage, niet voor maximale “score” op een testset.

Processing bepaalt hier vaak de uitkomst. Slechte stabilisatie van video (trillingen), verkeerde belichting, compressie-artefacten, of latentie kunnen ervoor zorgen dat dezelfde drone in het ene frame perfect zichtbaar is en in het volgende als ruis verdwijnt. AI-gestuurde denoising of super-resolution kan helpen, maar ook schade doen door zwakke signalen weg te poetsen. Dat sluit aan bij de eerdere waarschuwing: processing is niet neutraal; het kan onzekerheid omzetten in schijnzekerheid als je niet logt wat er is aangepast (data lineage) en hoe hard er is “gecorrigeerd”.

Best practices voor detectie in deze context:

  • Drempels per missie: een lagere detectiedrempel voor inbound dreigingen, een hogere drempel voor civiele zones waar false positives politiek duur zijn.

  • Confidence + broncontext tonen: niet alleen “object”, maar ook sensorconditie (nacht/rook) en modelzekerheid.

  • Red-teaming op misleiding: testen tegen camouflage, lokdoelen, en ongebruikelijke invalshoeken die je in dit conflict mag verwachten.

Typische misvattingen en valkuilen:

  • Misvatting: “een box betekent bewijs.” In werkelijkheid is het een probabilistische gok op basis van pixels.

  • Pitfall: “meer detecties is beter.” In een saturatiescenario kan dat je ISR-keten juist verstoppen.

  • Pitfall: drift negeren. Tegenstanders veranderen tactiek (bouwvorm, camouflage, route), waardoor de detector stilletjes slechter wordt.

2) Tracking: identiteit over tijd is waar de grootste fouten ontstaan

Tracking is vaak de stille beslissingsmaker, omdat veel operationele vragen tijd-gebonden zijn: komt dit object binnen of vliegt het weg? Is het dezelfde drone die net achter een wolk verdween? Is een voertuig dat we eerder zagen nu bij een andere locatie? Tracking probeert detecties te “linken” over frames en bouwt zo een traject met snelheid, richting en soms hoogte. Als die identiteit verkeerd wordt gekoppeld, krijg je een keurige, overtuigende track die volledig fout is—precies het soort schijnzekerheid waar de vorige les voor waarschuwde bij fusie en processing.

Waarom tracking moeilijker is dan het lijkt:

  1. Occlusie en clutter: objecten verdwijnen achter gebouwen, reliëf, rook, wolken, of andere objecten.
  2. Camera-beweging: UAV-video beweegt; zelfs kleine jitter verandert pixels sterk. Zonder goede stabilisatie denkt de tracker dat de wereld beweegt.
  3. Look-alikes: meerdere objecten met vergelijkbaar profiel (drones, voertuigen) kruisen paden; een tracker kan “ID-switches” maken.
  4. Latency en asynchrone feeds: als tijdstempels niet kloppen, ga je “spookbeweging” zien of tracks breken.

Best practices die direct aansluiten op de ISR-principes:

  • Fail-soft tracking: toon wanneer een track onzeker wordt (bijv. “track lost”, “reacquired”), in plaats van een nette lijn door te trekken.

  • Multi-source checks: als radar of andere sensoren een track tegenspreken, dwing je het systeem onzekerheid te tonen in plaats van confidence op te blazen.

  • Auditability: log beslissingen van de tracker (waarom werd een detectie gekoppeld?), zodat analisten fouten kunnen terugzoeken.

Veelvoorkomende valkuilen:

  • Automatiseringsbias: operators gaan een track geloven omdat hij er “smooth” uitziet.

  • Fusie die confidence kunstmatig verhoogt: meerdere zwakke aanwijzingen worden als één sterke waarheid gepresenteerd.

  • Verkeerde prioritering: tracking van triviale objects kost compute en aandacht, waardoor high-impact tracks te laat komen.

3) Classificatie: labels zijn decision-artefacts, geen technische details

Classificatie klinkt als: “is dit een drone?” Maar in de besluitketen is classificatie vooral: welke acties worden hierdoor waarschijnlijk? Een label verandert wat mensen en systemen doen—interceptors inzetten, een strike overwegen, een gebied waarschuwen—en daarom moet classificatie ontworpen zijn als een risicocommunicatie-probleem, niet alleen als een ML-probleem. In de vorige les werd benadrukt dat AI-output beter als waarschijnlijkheden en alternatieven kan worden gepresenteerd; dat is bij classificatie essentieel om escalatie door schijnzekerheid te vermijden.

In de praktijk is classificatie vaak hiërarchisch en contextgevoelig. Een model kan eerst “luchtobject” onderscheiden van “grondobject”, daarna “drone/aircraft/bird”, en vervolgens subtypes. Elke stap introduceert onzekerheid. Bovendien kan een tegenstander doelbewust de “beslisgrenzen” bespelen: decoys die nét lijken op een relevante categorie, routes die lijken op niet-bedreigende patronen, en camouflage die kenmerken verstoort waarop het model leunt. Dat maakt red-teaming tegen misleiding geen luxe, maar een operationele noodzaak.

Best practices voor classificatie in deze conflictcontext:

  • Toon alternatieven: “waarschijnlijk drone” is niet genoeg; toon ook “mogelijke decoy” of “onbekend” met confidence.

  • Koppel aan impact: high-impact labels (target nomination) vereisen strengere drempels en vaak menselijk review.

  • Model governance: vastleggen met welke data en aannames het model is getraind, zodat je drift en mismatch sneller herkent.

Typische misvattingen:

  • Misvatting: “hoge accuracy = betrouwbaar in het veld.” In oorlog is out-of-distribution gedrag de norm.

  • Misvatting: “classificatie is objectief.” In werkelijkheid hangt het af van drempels, context en kosten van fouten.

  • Pitfall: een enkel label zonder onzekerheid wordt in briefings vaak als feit doorgegeven.

Hoe de drie samenhangen (en waar het vaak misgaat)

Een nuttige manier om dit te zien is als een keten: detectie → tracking → classificatie. Als detectie veel false positives geeft, gaat tracking “rommel tracks” bouwen; als tracking ID-switches maakt, classificeer je mogelijk het verkeerde object; als classificatie te zeker wordt gepresenteerd, schuift onzekerheid uit beeld wanneer het de besluitlaag ingaat.

[[flowchart-placeholder]]


Waar je op stuurt: ontwerpkeuzes met operationele gevolgen

De kernbeslissingen zijn niet “welk model”, maar “welke fout is duurder” en “hoe blijft onzekerheid zichtbaar”. Hieronder zie je de drie functies naast elkaar, met de typische output, best practices, en wat er misgaat als je te hard op snelheid of “mooie dashboards” stuurt.

Dimensie Detectie Tracking Classificatie
Primaire vraag “Staat er iets?” “Is dit hetzelfde object door de tijd?” “Wat is het (en hoe zeker)?”
Typische output Bounding box/segment + confidence Track-ID + traject + onzekerheid Label(s) + confidence + alternatieven
Best practice uit ISR-logica Mission-aware drempels en alert-hygiëne; false positives beheersen om saturatie te voorkomen Fail-soft (track breaks zichtbaar), logging en multi-source checks om schijnzekerheid te vermijden Confidence + context tonen; strengere governance bij high-impact labels
Veelvoorkomende valkuil Alert-overload: “alles is verdacht” → menselijk filter breekt ID-switches en “smooth” maar fout traject → verkeerd doel of verkeerde intercept-beslissing Automatiseringsbias: label wordt feit → juridische/politieke schade bij fout
Wat misleiding/decoys doen Triggeren massaal detecties, of verstoppen echte doelen in clutter Creëren kruisingen/occlusies om identiteit te breken Nabootsen van visuele cues om grensgevallen als “echt” te laten lijken

Twee conflictgerichte scenario’s, stap voor stap

Scenario 1: Inbound drones + decoys richting luchtverdediging

In een gemengde aanval wil je in minuten onderscheid maken tussen echte dreigingen en saturatie. De detector markeert tientallen objecten op radar-gekoppelde EO/IR video, maar de operationele winst zit niet in het aantal boxes; die zit in het snel vinden van het kleine subset dat waarschijnlijk inbound is en relevant voor intercept. Als je detectiedrempels te laag zet, verdrink je in alerts; te hoog, en je mist low-signature drones. Daarom is mission-aware tuning cruciaal: in een “inbound window” accepteer je meer ruis, maar je moet tegelijk prioritering afdwingen (bijv. op snelheid/heading en nabijheid van beschermde assets).

Tracking bepaalt vervolgens welke objecten consistent inbound blijven. Decoys zijn hier ontworpen om tracking te breken: ze kruisen paden, verdwijnen achter rook, of bewegen op patronen die ID-switches uitlokken. Een robuust ontwerp toont expliciet wanneer een track onzeker wordt of opnieuw wordt “reacquired”, in plaats van een ononderbroken lijn te tekenen. Dit voorkomt dat een operator denkt dat er één object inbound is terwijl het in werkelijkheid twee verschillende objecten zijn geweest die onbewust zijn samengeplakt.

Classificatie is de laatste stap vóór het besluitmoment: “drone”, “mogelijk decoy”, “onbekend”. De sleutel is dat classificatie niet als eindwaarheid de commandolaag in gaat, maar als pakket: label + confidence + ontbrekende bronnen. De impact is concreet: goede triage bespaart interceptors en vermindert kans op verzadiging. De beperking blijft dat bij slimme misleiding een deel van de objecten “onbekend” moet blijven; dat is geen falen, maar een expliciete weergave van onzekerheid die escalatie kan temperen.

Scenario 2: “Mobile launcher hunting” met civiel patroonrisico

Bij jacht op mobiele launchers is video aantrekkelijk omdat je beweging kunt volgen, maar het risico op pattern-of-life misinterpretatie is hoog. Detectie vindt voertuigen en warmtesignaturen in brede gebieden; het doel is een korte lijst maken, niet meteen “hard identify”. In processing is geo-registratie hier beslissend: als kaartprojectie of tijdstempel schuift, lijkt een voertuig twee keer te bestaan of op een onmogelijke plek te staan. Dat creëert spooktargets—en in een high-stakes omgeving kan dat leiden tot haastige, foutieve conclusies.

Tracking helpt om gedragspatronen op te bouwen: stopt een voertuig bij locaties die passen bij launch-prep (korte stops, afscherming, vertrek), of is het consistent met civiele logistiek (regelmatige routes, konvooigedrag, nabijheid van civiele infrastructuur)? Maar tracking kan ook misleiden als het “te glad” wordt gepresenteerd. Een best practice is onzekerheid zichtbaar houden bij occlusie en reacquisition, zodat analisten weten waar de track aannames maakt in plaats van waarnemingen.

Classificatie is hier het meest politiek geladen. Een label “launcher” of “militair voertuig” kan direct leiden tot target nomination, terwijl een civiele truck onder bepaalde omstandigheden er visueel vergelijkbaar uit kan zien—zeker bij lage resolutie of nachtelijke IR. Daarom hoort de output geëxpliciteerd te worden als bewijssterkte: welke cues dragen bij, welke alternatieven blijven plausibel, en welke multi-source bevestiging ontbreekt. De impact van goede beeld/video-AI is snellere gebiedsvernauwing en efficiënter tasking van schaarse ISR-assets; de beperking is dat de laatste stap niet mag doen alsof pixels alleen voldoende juridische en strategische zekerheid geven.


Een werkbare mentale checklist voor beeld/video-AI in ISR

Je hoeft geen model te bouwen om het juiste gesprek te voeren. Als gebruiker of opdrachtgever kun je dit onthouden:

  • Vraag altijd “wat is de onzekerheid?” Confidence zonder context is een escalatie-risico.

  • Ontwerp tegen saturatie: decoys en ruis zijn niet randgevallen maar een kernstrategie.

  • Maak failure zichtbaar: tracks mogen breken; “unknown” is soms de correcte output.

  • Blijf auditbaar: data lineage en logging maken het verschil tussen leren en herhalen van dezelfde fout.

Next, we'll build on this by exploring SIGINT/COMINT & anomaliedetectie [25 minutes].

Last modified: Wednesday, 11 March 2026, 10:52 AM