AI in het militaire domein: tussen innovatie en morele grenzen

donderdag 9 april 2026, 13:00, Isa Kahraman

Velen kennen de angstaanjagende beelden uit de film Terminator, waarin zelfdenkende machines de mensheid proberen uit te roeien. Lange tijd werd dit gezien als pure sciencefiction. Maar naderen we inmiddels een punt waarop AI daadwerkelijk het slagveld overneemt? Wordt de mens toeschouwer en mogelijk zelfs slachtoffer van autonome wapensystemen? Door de toenemende toepassing van kunstmatige intelligentie in het maatschappelijk leven rijst steeds nadrukkelijker de vraag: hoe gaan we om met AI in het militaire domein?

Technologie en Defensie

Historisch gezien werd nieuwe technologie vaak eerst ontwikkeld voor militaire doeleinden en pas later toegepast in de civiele samenleving. Het internet is daar een bekend voorbeeld van: oorspronkelijk opgezet als ARPANET door het Amerikaanse ministerie van Defensie om communicatie tussen universiteiten en militaire installaties robuust te maken. Daarnaast zou het ook gebruikt worden in geval van een aanval. Uiteindelijk is hieruit het wereldwijde internet voortgekomen. Hetzelfde geldt voor GPS, dat aanvankelijk bedoeld was voor militaire navigatie en wapensystemen, maar nu onmisbaar is in smartphones, auto’s, logistiek en landbouw.

De afgelopen jaren zien we echter een omkering van deze ontwikkeling. De private sector loopt nu voorop in technologische innovatie, waarna het militaire domein deze technologieën overneemt. AI is daarvan een duidelijk voorbeeld. Grote technologiebedrijven zoals Meta, Google en OpenAI ontwikkelen geavanceerde AI-systemen, die inmiddels ook hun weg vinden naar defensietoepassingen.

Met deze ontwikkeling rijst een fundamentele vraag: in hoeverre blijft de mens degene die uiteindelijk beslist over leven en dood? Op dit moment is er in de meeste systemen nog sprake van een ‘human in the loop’: een mens die het uiteindelijke besluit neemt om wel of niet te vuren. Ook grote bewapende drones worden doorgaans nog bestuurd door piloten op afstand.

De veranderende aard van oorlogsvoering

Het is echter niet ondenkbaar dat deze menselijke tussenkomst in de toekomst verder wordt teruggedrongen. De technologische ontwikkelingen gaan zo snel dat drones en andere wapensystemen steeds autonomer kunnen opereren. In de oorlog in Oekraïne zien we al dat drones een steeds grotere rol spelen in de oorlogsvoering, en dat sommige systemen in staat zijn om missies grotendeels zonder directe menselijke tussenkomst uit te voeren.

Als we beseffen hoe ingrijpend AI de aard van oorlogsvoering zal veranderen, dan moeten we ons hierop als samenleving en internationale gemeenschap voorbereiden. Enerzijds is er de strategische vraag: hoe zorgen we ervoor dat we deze technologie effectief inzetten om onze veiligheid te waarborgen? Anderzijds is er de morele en juridische vraag: hoe gaan we ethisch om met het gebruik van AI op het slagveld?

Staan we toe dat een algoritme beslist of een mens gedood mag worden? Of erkennen we dat ook in oorlogstijd ethische grenzen bestaan? Het internationaal humanitair recht is juist bedoeld om zelfs in de meest extreme omstandigheden bepaalde juridische normen te handhaven. De inzet van AI mag daar geen vrijbrief voor zijn om die normen los te laten.

Internationale afspraken

Het Nederlandse ministerie van Buitenlandse Zaken heeft dit ethische dilemma tijdig onderkend en nam in 2023 het initiatief tot de oprichting van de Global Commission on Responsible Artificial Intelligence in the Military Domain (GC REAIM). Deze commissie heeft als doel om het mondiale bewustzijn en begrip te vergroten rondom verantwoord gebruik van AI in het militaire domein, en om bij te dragen aan normontwikkeling en beleidscoherentie op internationaal niveau.

De eerste REAIM Summit vond in 2023 plaats in Den Haag en werd bijgewoond door zestig landen, waaronder de Verenigde Staten en China, maar niet Rusland. De uitkomst was een niet-bindend document met een ‘oproep tot actie’, evenals oproepen om te komen tot onderhandelingen over internationaal bindende regels en handhavingsmechanismen.

Leven of dood

De geschiedenis leert dat uitvinders en wetenschappers soms pas later de morele gevolgen van hun werk volledig overzien. Robert Oppenheimer, een van de grondleggers van de atoombom, probeerde na Hiroshima en Nagasaki de nucleaire wapenwedloop te temperen toen hij de vernietigende impact van zijn uitvinding besefte.

Technologie heeft altijd aan de basis gestaan van militaire machtsverschuivingen. In de Tweede Wereldoorlog gaf de ontwikkeling van kernwapens de Verenigde Staten een beslissend strategisch voordeel. Vandaag zien we dat AI een vergelijkbare transformatieve rol kan spelen. Steeds vaker ondersteunt AI militairen bij hun taken, en in toenemende mate neemt het ook taken van hen over.

Het is daarom verstandig dat Nederland vroegtijdig het debat is aangegaan over hoe deze technologie op een ethisch verantwoorde manier kan worden ingezet. AI zal in de toekomst veel taken kunnen overnemen, maar we moeten expliciet bepalen welke beslissingen nooit door een machine genomen mogen worden. De keuze tussen leven en dood moet altijd bij een mens blijven liggen.

Kaders ontwikkelen

Dat een machine uiteindelijk een handeling uitvoert op basis van menselijke instructie, betekent nog steeds dat een mens verantwoordelijk is voor die keuze. Tegelijkertijd mogen we niet naïef zijn: in oorlogssituaties zullen niet alle partijen zich aan afspraken en regels houden. Ook daarop moeten we voorbereid zijn.

De beelden uit Terminator lijken misschien nog overdreven, maar de technologische ontwikkelingen gaan razendsnel. AI neemt steeds meer taken van mensen over. De mens is echter het dominante soort geworden door zijn vermogen zich aan te passen aan veranderende omstandigheden. Juist daarom is er reden tot hoop: als we de juiste morele en juridische kaders ontwikkelen, kunnen we ons ook aanpassen aan deze nieuwe technologische realiteit zonder onze menselijkheid uit handen te geven.

In februari van dit jaar vond het derde REAIM-congres plaats in Spanje, met een groeiende internationale deelname. Dat momentum moeten we benutten. Nederland kán en móét zijn voortrekkersrol vasthouden. Als land dat zich profileert met Den Haag als stad van Vrede en Recht dragen wij een bijzondere verantwoordelijkheid om ethische grenzen ook in het digitale domein te bewaken. Waar het recht in de fysieke wereld stevig is verankerd, dreigt in de digitale werkelijkheid een nieuw “Wilde Westen”. Dit is het moment om leiderschap te tonen: door normen te stellen, coalities te bouwen en duidelijke rode lijnen te trekken. Niet morgen, maar nu, zodat technologische vooruitgang hand in hand gaat met menselijke waardigheid.

Isa Kahraman is voormalig Tweede Kamerlid namens NSC en voorzitter van de Defensiecommissie.

Deze bijdrage stond in