De manier waarop militaire conflicten worden voorkomen en gevoerd, verandert ingrijpend. AI kan onze weerbaarheid vergroten en defensie helpen om sneller te handelen, slimmer te analyseren en missies veiliger uit te voeren. Tegelijkertijd roept deze technologie fundamentele vragen op: hoe behoud je menselijke controle? Waar liggen de ethische en juridische grenzen? Het ELSA Lab Defence onderzoekt hoe AI verantwoord kan worden toegepast binnen defensie.
AI-dilemma’s in defensie
Waar militaire conflicten vroeger vooral draaide om traditionele oorlogsvoering, zie je nu een verschuiven naar steeds meer digitale oorlogsvoering. Militairen opereren in een complexe digitale omgeving met misinformatie, vijandige AI en razendsnelle datastromen. Artificiële intelligentie kan daarbij verschil maken, maar roept tegelijk fundamentele vragen op:
- Wat mag AI autonoom beslissen?
- Hoe wordt menselijke waardigheid bewaakt?
- Wat is juridisch toelaatbaar?
Het is vaak onduidelijk welke AI-systemen in militaire context verantwoord ingezet kunnen worden en onder welke voorwaarden. Dit leidt tot twee risico’s: óf AI wordt te snel ingezet zonder oog voor de gevolgen, óf juist te weinig inzet uit angst en onwetendheid. Beide ondermijnen de effectiviteit én het draagvlak van AI binnen militaire operaties.
De rol van Elsa Lab Defence
Het ELSA Lab Defence ontwikkelt een onafhankelijke adviesstructuur voor de verantwoorde inzet van AI binnen defensie. De adviesstructuur bestaat uit twee pijlers:
- Integratie van ELSA-aspecten in alle fasen van militaire AI-systemen: van ontwerp en ontwikkeling tot inzet in het veld.
- Gerichte voorlichting en onderwijs aan militairen, beleidsmakers, media en politiek over de maatschappelijke impact van AI.
Door ethiek, recht en maatschappelijke belangen te integreren in ontwerp en gebruik, helpt het lab om AI binnen defensie doelgericht én verantwoord in te zetten.
Toepassing in de militaire praktijk
Het ELSA Lab Defence combineert inzichten uit value sensitive design (technologie ontwikkelen met menselijke waarden als uitgangspunt), explainable AI (AI-systemen die hun keuzes kunnen toelichten) en human-machine teaming (slimme samenwerking tussen mens en AI).
Deze methoden worden toegepast op de complexe realiteit van Defensie, met realistische casestudies en samenwerking met ethici, juristen, ingenieurs en de krijgsmacht.
Van onderzoek naar toepasbare richtlijnen
ELSA Lab Defence vertaalt onderzoek naar praktische richtlijnen voor verantwoord AI-gebruik in defensie. Er wordt onder andere onderzoek gedaan naar:
- Acceptatie van AI door militairen en de samenleving.
- De impact van technologie op lange termijn en in verschillende missies.
- Internationale militaire en maatschappelijke ontwikkelingen.
ELSA Lab Defence groeit uit tot een onafhankelijke adviespartner voor Defensie. Niet volgens een standaardmodel, maar met contextgevoelige aanbevelingen op basis van voortdurend onderzoek en samenwerking.
Partners van het ELSA Lab Defence
Het ELSA Lab Defence is een samenwerking van toonaangevende organisaties, waaronder TNO, het Ministerie van Defensie en TU Delft, aangevuld met experts van universiteiten, hogescholen en onderzoeksinstituten. Hieronder het overzicht:
• TNO
• Ministerie van Defensie
• TU Delft
• ASSER Instituut
• Haagse Hogeschool
• Universiteit Leiden
• HCSS
• HSD
Meer weten over AI in defensie?
Wil je meer informatie over het ELSA Lab Defence? Neem dan contact op met Jurriaan van Diggelen of Martijn van Emmerik. Wist je dat er ook ELSA Labs zijn voor andere sectoren? Bekijk deze pagina voor het volledige overzicht.
