zondag 21 december, 2025
Podium voor de Journalistiek

Algoritmische oorlogsvoering: 4 vragen over deze levensgevaarlijke ontwikkeling

Beeld: Stijn Terpstra
Buitenland

Het wordt een revolutie in oorlogsvoering genoemd: de toepassing van AI en algoritmes om militaire doelwitten te identificeren en aan te vallen. Krijgsmachten claimen dat deze manier van oorlogsvoering sneller, efficiënter en nauwkeuriger is; kritische experts stellen echter dat het oorlogen vooral dodelijker maakt, met veel burgerslachtoffers tot gevolg. Vier vragen over deze ontwikkeling.

Door: Daan Boelens
Leestijd: 6 min

1. Wat is algoritmische oorlogsvoering? 

In het kort: het gebruik van kunstmatige intelligentie en algoritmes militaire doelwitten in het vizier te krijgen en uit te schakelen. Om deze manier van oorlogsvoering beter te begrijpen, moet de ontstaansgeschiedenis ervan begrepen worden, zo stelt Lauren Gould, projectleider van het ‘Realities of Algorithmic Warfare’-onderzoeksprogramma aan de Universiteit Utrecht. “Begin van deze eeuw zonden Westerse strijdkrachten nog veel troepen naar Irak en Afghanistan. Omdat hierbij veel doden vielen, maar ze wel oorlog wilden blijven voeren, zag je een verschuiving van boots on the ground naar steeds meer oorlogsvoering vanuit de lucht, om zo slachtoffers aan eigen kant te voorkomen.”

Om toch strategische informatie over het slagveld te kunnen verzamelen, gingen strijdkrachten rond 2010 steeds meer gebruikmaken van surveillancetechnologieën. Gould: “Zo werden bijvoorbeeld dronebeelden, satellietbeelden en telefoondata gebruikt om de Afghaanse bevolking constant in de gaten te houden.” Hieruit ontstond een berg aan informatie over potentiële vijanden. “Deze data werd onderzocht door inlichtingenanalisten en als je voldeed aan een aantal kenmerken die zij als verdacht zagen – je hebt bijvoorbeeld contact gehad met een talibanstrijder, maar ook als je slechts een man van bepaalde leeftijd bent – werd je als ‘legitiem doelwit’ gemarkeerd.”

Al snel werd er zo veel data verzameld, dat het te lang duurde om alles grondig te analyseren. Gould: “Op dat moment zeiden commerciële actoren zoals Google, Microsoft, Amazon en Palantir: ‘Wij kunnen jullie helpen met bepaalde software en algoritmes om die data te analyseren.’” Zo werd het produceren en selecteren van oorlogsdoelwitten geleidelijk aan steeds verder geautomatiseerd en overgedragen van mens aan algoritme.

Ook in het kader van de genocide in Gaza speelt AI een cruciale rol

2. In welke oorlogen wordt algoritmische oorlogsvoering momenteel ingezet?

De algoritmische systemen waar de VS mee vochten en experimenteerden in Afghanistan zijn naderhand overgenomen door verschillende westerse bondgenoten en worden momenteel ook ingezet in andere oorlogen. Zo ook in Oekraïne en Gaza, waar de doorslaggevende rol van AI-gedreven doelwitidentificatie goed zichtbaar is geworden voor de buitenwereld. Gould: “Die AI-systemen stellen een Oekraïense soldaat op het slagveld bijvoorbeeld in staat om via een tablet bepaalde bewegingen van Russische soldaten waar te nemen. Vervolgens kunnen drones worden ingezet om deze soldaten op te jagen en te doden.”

Ook in het kader van de genocide in Gaza speelt AI een cruciale en faciliterende rol. Met onder andere surveillancedrones, microfoons en digitale gedragsmonitoring verzamelen de Israëlische strijdkrachten al jaren heel veel data over de Gazaanse bevolking, zo stelt Linde Arentze, die net als Gould onderdeel uitmaakt van het ‘Realities of Algorithmic Warfare’-onderzoeksprogramma. “In die berg aan data laten ze AI zoeken naar Hamasstrijders aan de hand van bepaald gedrag dat zij als verdacht zien, zoals het doorgeven van je telefoon, het lid zijn van bepaalde WhatsApp-groepen of het vaak veranderen van woonadres.”

Bekend is dat Israël minstens drie AI-systemen gebruikt om luchtaanvallen uit te voeren: Lavender, Gospel en Where is Daddy. Gould: “Lavender heeft op de piek van de genocide in Gaza 37.000 Palestijnen met een hoog-risicoprofiel bestempeld. Gospel houdt vervolgens bij op welke locatie deze mensen zich bevinden en Where is Daddy geeft tot slot aan wanneer deze mensen thuis zijn zodat ze ‘s avonds, vaak met bijvoorbeeld familieleden in huis, aangevallen kunnen worden.”

3. Waarom gebruiken krijgsmachten AI in hun oorlogsvoering?

Snellere data-analyse leidt tot snellere doelwitproductie. Zo maakt AI het mogelijk om in veel hoger tempo aanvallen uit te voeren. Arentze ziet hierin ook de voornaamste reden dat krijgsmachten voor AI kiezen. “AI is ontzettend interessant, omdat het krijgsmachten de belofte geeft sneller te kunnen zijn dan hun tegenstander.”

‘Uit verhalen van Israëlische soldaten blijkt dat ze soms maar twintig seconden hadden om te verifiëren of het geselecteerde doelwit wel legitiem was’

Een ander verondersteld voordeel van algoritmische oorlogsvoering is dat AI nauwkeuriger en preciezer zou zijn. Arentze: “In Israël, de VS en West-Europa wordt vaak gesteld dat AI in staat stelt om beter onderscheid te maken tussen burgers en combattanten. Hierdoor zou AI helpen om onbedoelde schade te beperken en oorlogen ‘schoner’ te maken.” Maar gezien de hoeveelheid burgerslachtoffers gaat dit beeld van preciezere oorlogsvoering in de praktijk niet op, aldus Arentze. “Het klinkt mooi, maar daar is de technologie nog niet. Zelfs als de intentie om onderscheid te maken er zou zijn. Ik vraag me af of de technologie er überhaupt ooit gaat komen.”

4. Wat is de impact van algoritmische oorlogsvoering op burgers in conflictgebieden?

De toepassing van AI vermindert menselijke controle over leven-en-doodkeuzes, zo stelt Gould. “Uit verhalen van Israëlische soldaten blijkt dat ze soms maar twintig seconden hadden om te verifiëren of het systeem goed had gewerkt en of het geselecteerde doelwit dus wel legitiem was. Ze ervaarden grote druk om zo snel mogelijk, zo zoveel mogelijk doelwitten goed te keuren. Dat leidt tot meer bombardementen in een dicht stedelijk gebied, wat natuurlijk een impact heeft op de hoeveelheid burgerslachtoffers.”

Daarbovenop maken AI-systemen in oorlogsvoering op verschillende manieren fouten. Door toedoen van verkeerde data, zeer brede coderingen van ‘verdacht gedrag’ maar ook door bijvoorbeeld het verkeerd vertalen van getapte telefoongesprekken, worden ook onschuldige burgers als doelwit bestempeld en gedood. Als voorbeeld wijst Arentze op het AI-gebruik door Israëlische strijdkrachten: “Je kunt je voorstellen dat wanneer je huis wordt gebombardeerd, je van adres verandert. En als je daardoor nog maar één telefoon hebt voor je hele gezin, dan geef je die aan elkaar door. Allemaal gedrag dat op zichzelf niet verdacht is, maar wel zo kan worden gekwalificeerd door AI-systemen. En wie vlucht, voldoet dus in hogere mate aan wat de Israëlische strijdkrachten zien als ‘verdacht’ gedrag.” Een dergelijke toepassing van AI om in hoog tempo doelwitten te selecteren, leidt dus tot meer fouten, minder menselijke controle, en tegelijkertijd veel meer bombardementen. Een recept voor burgerleed, aldus Gould en Arentze.

Eindredactie door Pim Molenaar

Steun Red Pers

Je las dit artikel gratis, maar dat betekent niet dat het Red Pers niets heeft gekost. Wij bieden jonge, aspirerende journalisten een podium én begeleiding. Dat kunnen we nog beter met jouw steun. Die steun komt met twee voor de prijs van één, want onze sponsor matcht jouw donatie. Geef jij ons vijf euro? Dan ontvangen wij een tientje.

Over de auteur:

Daan Boelens (1999, hij/hem) is alumnus Conflict Studies & Human Rights aan de Universiteit Utrecht. Hij heeft een fascinatie voor de wisselwerking tussen conflict, macht en menselijke waardigheid. Als redacteur Geopolitieke Verhoudingen probeert hij te laten zien hoe politieke besluiten uitwerken op de levens van mensen, en hoe verhalen van slachtoffers de maatschappij dwingt verder te kijken dan cijfers en verdragen.

Lees meer van Daan Boelens