Voor AI was World Central Kitchen “collateral damage”

*

Israël heeft excuses aangeboden voor de dood van medewerkers van World Central Kitchen die werden getroffen door een doelgerichte Israëlische aanval. Wat vooral schrikbarend is, is de constatering dat de aanval uitgevoerd werd door AI. Om preciezer te zijn: door een speciaal ontwikkeld AI-systeem: Habsora dat op hoog tempo doelwitten kan genereren. Hoe het systeem exact werk is niet bekend, maar verscheidene experts gaan ervan uit dat de AI wordt losgelaten op verschillende ‘datastromen’. Daaronder satelliet- en dronebeelden, informatie over de verplaatsingen van Hamas-leden en mogelijk onderschepte communicatie. Zo wordt een doelwit berekend waar een bepaald lid zich zou kunnen bevinden. Het Israëlische leger zelf benadrukt dat in het geval van Habsora alle doelwitten die door de AI ‘doelwitfabriek’  worden voorgesteld, eerst nog door een medewerker geverifieerd moeten worden, voordat er bepaald wordt of er een aanval doorgaat. Maar, vertelt één van de medewerkers, dat betekent niet per se dat er een uitgebreid verificatieproces plaatsvindt. “Het is net als in een fabriek. We werken snel en er is geen tijd om je te verdiepen in een doelwit. Het idee heerst dat we beoordeeld worden op basis van hoeveel doelwitten we weten te genereren.”

Nadat uit testen bleek dat het systeem in 90 procent van de gevallen een terechte band tussen een burger en Hamas voorspelde, heeft het Israëlische leger besloten Habsora in te zetten. De 10 procent onnauwkeurigheid wordt gezien als collateral damage. Of zoals de woordvoerder van het leger zei: “In een oorlog gebeurt dit nu eenmaal.”