Israël gebruikte AI-systeem ‘om 37.000 mogelijke Hamas-strijders te identificeren én te kunnen doden’
Een tot nu toe onbekend AI-systeem bracht voor de Israëlische geheime dienst 37 duizend Palestijnse burgers in kaart die voor Hamas zouden strijden, melden verschillende media. De personen op de lijst zouden gedood mogen worden. ‘De machine deed het koeltjes. En dat maakte het makkelijker.’
Volkskrant 4 april 2024. Laurens Verhagen
Het Israëlische leger maakt in Gaza gebruik van een AI-systeem dat de gezichten kan herkennen van Palestijnse burgers. Dit melden de Israëlisch-Palestijnse publicatie +972 Magazine en de Hebreeuwstalige nieuwssite Local Call op basis van gesprekken met zes Israëlische inlichtingenfunctionarissen.
Dit systeem, Lavendel genaamd, identificeerde maar liefst 37.000 potentiële doelwitten op basis van hun vermeende banden met Hamas. Het leger had vervolgens ook toestemming om deze duizenden Palestijnse burgers te doden, blijkt uit de opvallend openhartige verklaringen.
Over de auteurLaurens Verhagen is wetenschapsredacteur van de Volkskrant. Hij schrijft over technologie en de impact van kunstmatige intelligentie op de maatschappij.
Volgens de nieuwspublicaties speelde Lavendel vooral tijdens het beginstadium van de oorlog een centrale rol bij de grootschalige bombardementen op Palestijnen. In de eerste weken zou de luchtmacht bij de bombardementen vrijwel volledig op Lavendel vertrouwen.
Een van de bronnen zegt hierover: ‘Ik heb veel meer vertrouwen in een statistisch mechanisme dan in een soldaat die twee dagen geleden een vriend verloor. Iedereen daar, inclusief ikzelf, verloor mensen op 7 oktober. De machine deed het koeltjes. En dat maakte het makkelijker.’
‘Ik had nul toegevoegde waarde’
Dezelfde bron zegt ook dat Lavendel zichzelf heeft bewezen in de oorlog, gezien het ongeëvenaard aantal bombardementen dat het leger uitvoerde. De invloed van het AI-systeem was zo groot dat het leger de uitkomsten en voorspellingen van de machine behandelde ‘alsof het een menselijke beslissing was’.
Een andere hooggeplaatste gebruiker van Lavendel zegt te betwijfelen of mensen nog wel een nuttige bijdrage kunnen leveren nadat het systeem de doelwitten heeft geselecteerd: ‘Ik had nul toegevoegde waarde als mens (…). Het bespaarde veel tijd.’
Dat laatste is precies het risico waar experts voor waarschuwen bij een te enthousiaste omarming van AI bij militaire beslissingen. De centrale term in dit debat is ‘betekenisvolle menselijke controle’. Die controle gaat niet per se over het drukken op een knop, stelde Ilse Verdiesen, onderzoeker op het gebied van autonome wapens aan de TU Delft en ook werkzaam bij Defensie, eerder tegenover de Volkskrant: ‘Elke stap in het proces waarmee je met AI te maken hebt, vereist dat we weten wat er gebeurt.’
90 procent accuraat
Uit de rapporten is niet duidelijk hoe Lavendel precies is getraind. Wel is helder dat het systeem zoveel mogelijk bronnen combineert, zoals visuele informatie, contacten op sociale media, telefooncontacten, foto’s of WhatsApp-groepen. Nadat uit testen bleek dat het systeem in 90 procent van de gevallen een terechte band tussen een burger en Hamas voorspelde, zou het leger hebben besloten Lavendel te omarmen en in te zetten, schrijft +972 Magazine.
Lavendel is niet het enige AI-systeem dat Israël in de oorlog gebruikt. Eerder werd, ook al via +972 Magazine, bekend dat het leger leunt op een systeem met de naam Het Evangelie. Waar Lavendel is getraind op het herkennen van gezichten, wordt dit systeem gebruikt voor het identificeren van gebouwen en andere constructies.
Het Israëlische leger stelt in een reactie tegenover the Guardian dat het alle acties uitvoert in overeenstemming met het internationaal recht. Verder ontkent het leger dat er een AI-systeem is dat een kant-en-klare lijst met doelen produceert. In plaats daarvan zou het om ‘informatiesystemen’ gaan die als hulpmiddel voor analisten fungeren. Tot slot zegt het leger ‘verschillende pogingen’ te ondernemen om de schade aan burgers zoveel mogelijk te beperken.
Lees ook: