De digitale technologische ontwikkelingen gaan onstuitbaar voort. Zo veroorzaken data science en kunstmatige intelligentie (KI) veel kansen, bedreigingen en ook discussie. Discussies die veelal vanuit een westers perspectief plaatsvinden en bij andere partijen in het geopolitieke krachtenveld geen relevant onderwerp zijn. Mensenrechten en ethische vraagstukken zijn daarbij zo belangrijk dat we ze zelfs vastleggen in wetten en internationale verdragen.[1] Is vasthouden aan deze moral high ground in (voorbereiding op) een gewapend conflict dan geen recept voor de eigen ondergang?
Begrijp het niet verkeerd: deze door bloed, strijd en tranen verworven rechten, bescherming van de mens en de rechten die het individu toekomen zijn een groot goed. En dat willen we ook graag zo houden. Als we naar de geschiedenis kijken, waren alle grote militaire ontwikkelingen ook onderwerp van discussie, ook toen niet in de laatste plaats in het ethische segment.
Buskruit en vervolgens wapens die kogels afschoten, de tank die het paard toch niet mocht vervangen, vliegtuigen die bommen gooien. De nucleaire middelen zijn misschien wel het meest recente voorbeeld van een serieuze en langdurende discussie over wel of niet hebben van deze middelen, in een deel van de westerse wereld, en zeker ook in Nederland. Tijdens de Koude Oorlog hadden we het op enig moment zelfs over Mutual Assured Destruction als strategie. En toch hadden we – vooral de VS – deze middelen. Just in case. Afschrikken gaat om het hebben van, kunnen en willen inzetten van middelen als dat noodzakelijk is.
Hoe doen we dat in de moderne tijd met die technologische ontwikkelingen, zoals KI? Dat dat onder vredesomstandigheden wordt beperkt met afspraken lijkt vanzelfsprekend. Toch hindert het Defensie om tijdig klaar te zijn voor een volgende oorlog, die hopelijk nooit komt. We creëren met nieuwe sensoren enorme hoeveelheden data die we opslaan en verwerken tot informatie om de besluitvorming over inzet van middelen te voeden. Zowel de verwerking als de besluitvorming is nu al bijna niet meer met mensen te doen. De Israëliërs gebruiken bijvoorbeeld KI, formeel nog met een menselijke besluitvormer in de keten, om snel doelen uit een grote en steeds veranderende dataset en parameters te kiezen.[2] En dat is geen gelijkwaardige tegenstander, iets waar wij ons wel op aan het voorbereiden zijn. Daarmee zetten we onszelf op achterstand. En die wordt steeds groter, zeker omdat mogelijke tegenstanders wel verder gaan.
We moeten deze discussie voeren, net als bij andere grote veranderingen. Blijven we blind vasthouden aan onze moral high ground? Meta-ethisch bekeken: is het onethisch om een vijand met minimaal gelijke middelen te kunnen verslaan, om de eigen ethiek te kunnen handhaven voor de eigen mensen? Misschien een beetje filosofisch, maar ja, de moral high ground begint en eindigt altijd bij de winnaar; die had gelijk.
[1] Nederland is een van de koplopers op dit gebied en droeg bij aan het rapport hierover dat dit jaar uitkwam via de Global Commission on Responsible AI in the Military Domain, ondersteund door HCSS.
[2] Bijvoorbeeld de Iron Dome om zich te verdedigen tegen de grote hoeveelheden raketten en drones die op het land zijn afgevuurd.