Dodelijke autonome wapens moeten verboden worden

Lang leken ‘killer robots’ ontsproten aan de fantasie, maar inmiddels bestaan ze. Aan de Zuid-Koreaanse grens met Noord-Korea opereert de sgr-A1. Zichzelf voortbewegen kan hij niet, maar hij is bewapend met een machinegeweer en kan zelfstandig mensen beschieten. Of neem de Israëlische harop-2, liefkozend ‘Harpy’ genoemd. Harpy vliegt urenlang rond op zoek naar vijandelijke radarsystemen die hij vervolgens uitschakelt met een explosieve kamikazeactie. Na de lancering komt er geen mens meer aan te pas. Zijn wervende reclameleuze: ‘The key to air superiority. And more.’

Data zijn niet onfeilbaar en zelfdenkende robots doen niet aan ethiek

Nee, dit zijn geen volkomen autonoom opererende Hollywood-robots als de Terminator (‘the thing that won’t die, in the nightmare that won’t end’). Het gevaarlijke is echter dat het dodelijke machines zijn waarbij de mens niet méér doet dan het indrukken van de aan-uitknop. Ze zijn uitgerust met kunstmatige intelligentie (AI) die hen in staat stelt zelf hun doelwitten te kiezen en die te doden of vernietigen zonder verdere menselijke tussenkomst. Ze worden daarom ‘dodelijke autonome wapens’ genoemd.

Afgelopen week publiceerde de Nederlandse vredesorganisatie pax het verontrustende rapport Don’t be evil?. Daarin werd geschetst hoe talloze AI-technologieën niet alleen een vreedzame toepassing hebben, maar ook een militaire. Gezichtsherkenning, waaraan onder meer Facebook hard werkt, met behulp van de gebruikers die het hebben ingeschakeld op hun Facebook-pagina’s, is zo’n toepassing. Volgens activisten uit de wereld van de computertechnologie is de stap niet al te groot van de Israëlische Harpy naar een mini-helikopterdrone voorzien van een kleine springlading, die met zijn camera van korte afstand een gezicht scant om zich daarin op te blazen als het voldoet aan het target profile. Opererend in een zwerm zouden ze een ‘niet te stoppen massavernietigingswapen’ vormen. Dit doemscenario werd twee jaar geleden getoond in de YouTube-video Slaughterbots, een waarschuwing afkomstig van gerenommeerde AI-onderzoekers als de Amerikaanse professor Stuart Russell, die beseffen waarvoor hun werk gebruikt kan worden.

pax benaderde vijftig technologiebedrijven uit twaalf landen. Slechts zeven daarvan verklaarden dat hun technologie niet militair mocht worden gebuikt. 22 bedrijven, waaronder Facebook, deden dat niet. Dus bestaat de mogelijkheid dat ze hun vindingen zullen leveren aan producenten van autonome wapens. Microsoft, Amazon en negentien andere bedrijven blijken al te werken aan defensie- en wapenprojecten.

Dat is zorgwekkend. Volgens sommigen is oorlogvoering op basis van digitale data ‘schoner’ omdat de menselijke feilbaarheid wordt uitgeschakeld, maar zelfdenkende robots doen niet aan ethiek. Bovendien zijn data niet onfeilbaar, zelfs niet als er nog wél een mens opdracht moet geven tot vuren. ‘Technologie vergroot fouten’, zei NRC-columnist Maxim Februari zondag, nadat hij als Zomergast een fragment toonde uit National Bird, waarin een drone een konvooi met vrouwen en kinderen vernietigt.

pax, dat dinsdag haar rapport presenteerde aan de VN, is voorstander van een wereldwijd verbod op dodelijke autonome wapens. Opmerkelijk is dat Nederland zo’n verbod niet steunt. Onze regering vindt het voldoende waarborg wanneer een mens besluit het autonome wapen in te zetten. Ze vindt het niet bezwaarlijk als vervolgens de aanval niet meer gestopt kan worden (Kamerbrief 4 maart 2016).

Het is onvermijdelijk dat kunstmatige intelligentie meer en meer zal worden toegepast in wapensystemen. Er zou zelfs al sprake zijn van een wedloop in autonome wapens tussen de VS, China en Rusland. Die kan wellicht vertraagd worden als AI-techies weigeren mee te werken aan militaire projecten. Om die reden stopte Google met defensieopdrachten. Wat ook kan helpen is zoiets schijnbaar onbenulligs als het uitschakelen van gezichtsherkenning op al onze apparaten.