Stop de killerrobots, zeggen nu ook de robotmakers zelf
Een groep experts, onder wie opvallend veel makers van robotica, pleit bij de Verenigde Naties voor een onmiddellijk verbod op autonome wapens. Want als deze killerrobots in verkeerde handen komen, is het te laat.
Volkskrant,21 augustus 2017, Laurens Verhagen
Er moet zo snel mogelijk een wereldwijd verbod komen op zogenoemde killerrobots, robots die op eigen houtje oorlog voeren. Dat bepleiten 116 specialisten in een open brief aan de Verenigde Naties.
De mensheid die ten onder gaat aan militaire robots die het heft in eigen hand nemen? Het is niet alleen het uitgebeende scenario voor sciencefiction-films als Terminator, het gevaar ligt veel dichter bij huis. Filosofen, experts op het gebied van kunstmatige intelligentie (AI) en ethici waarschuwen al langer voor de gevaren van autonoom handelende militaire robots, maar in het koor van critici voegen zich ook steeds meer stemmen van de industrie zelf: de makers van robots. In een gezamenlijke open brief pleiten ze voor een verbod op deze zogenoemde killerrobots.
De brief is ondertekend door vooraanstaande experts, onder wie Mustafa Suleyman (oprichter van Google’s AI-zusterbedrijf DeepMind) en de in dit verband onvermijdelijke Elon Musk van Tesla. De kritiek is niet nieuw. Wél nieuw is dat voor het eerst een groot aantal roboticabedrijven zich achter het bepleite verbod scharen. Hieronder bevindt zich ook een aantal Nederlandse bedrijven. De ondertekenaars schetsen een doos van Pandora: als dit soort technologieën in verkeerde handen komen, is het te laat. ‘Bijna iedere technologie kan goed of slecht worden gebruikt en dat geldt ook voor AI’, zo zegt initiatiefnemer Toby Walsh. ‘Ze kunnen worden ingezet om de uitdagingen te lijf te gaan die met de klimaatverandering hebben te maken, of financiële crises. Maar ook voor autonome wapens.’ Walsh wil, samen met de ondertekenaars, een verbod op dergelijke wapens door de Verenigde Naties, vergelijkbaar met het verbod op chemische wapens.
Jeroen van den Hoven, hoogleraar ethiek en techniek aan de TU Delft, is ingenomen met de oproep. ‘Een volkomen terechte waarschuwing. Het is geen toekomstmuziek, het gebeurt nu’, zegt Van den Hoven. ‘Het is bijna te laat. Steeds weer worden we overvallen door nieuwe ontwikkelingen. Filosofen en andere denkers houden zich al veertig jaar bezig met frivole en academische vraagstukken als: hebben computers bewustzijn? Om de Nederlandse computerwetenschapper Edsger Dijkstra te parafraseren; deze vraag is even relevant als de vraag of onderzeeërs kunnen zwemmen.’ Van den Hoven kijkt liever naar de effecten en de vraag wie er nog controle heeft. ‘Je ziet het overal waar AI in het spel is: de mens dreigt controle te verliezen. Er is een denkpauze nodig om een samenhangend geheel van regels te formuleren. Niet alleen bij wapens trouwens, ook bij zelfrijdende auto’s of geneeskunde.’
Ook Lambèr Royakkers (hoogleraar ethiek en techniek aan de TU Eindhoven) schaart zich volmondig achter de brief. ‘Het is opvallend dat de industrie nu zélf vraagt om maatregelen waar je verwacht dat de politiek op de rem gaat staan.’ De politiek en het publiek hebben volgens hem geen flauw idee hoever de ontwikkelingen met AI al gaan. ‘De Nederlandse regering laat zich leiden door een grenzeloos naïef en kortzichtig rapport van de Adviesraad Internationale Vraagstukken (AIV) met als gevolg dat het probleem van autonome wapens helemaal niet leeft.’ In dit rapport uit 2015 acht de AIV het ‘onwaarschijnlijk’ dat de ‘komende decennia’ volledig autonome wapens worden ontwikkeld met het oogmerk om zonder enige menselijke controle te functioneren. Royakkers: ‘Hoe kunnen ze dat zeggen? Ze bestaan nu bijna al.’
Royakkers noemt als voorbeeld drones die zelfstandig op zoek gaan naar bijvoorbeeld een mobieltje met een bepaalde simkaart en de eigenaar uitschakelen. ‘Er moet nog wel iemand op een knop drukken, maar die laatste stap kun je simpel automatiseren. Het probleem is dat robots in de nabije toekomst ook nog eens zelflerend worden, waardoor we niet weten wat er aan hun beslissingen ten grondslag ligt. Als ze dan een zwarte lijst krijgen van mensen die moeten worden uitgeschakeld, gaan ze aan de slag. Ze bepalen zelf ten koste van wat dat dan gaat.’ Een nog concreter gevaar is volgens hem dat dergelijke technologieën in handen van terroristen vallen. ‘Dan is het te laat. Een verbod zou een meer dan welkome rem op de ontwikkelingen zijn. We staan aan de rand van de afgrond.’