Killer robots

Soldaten zonder honger

Het lijkt een kwestie van tijd voordat de eerste machinale mensendoder in actie komt. ‘We naderen een belangrijke grens als machines kunnen beslissen of ze mensen zullen doden.’ Experts dringen aan op het stopzetten van deze ontwikkeling.

Medium 177220806

Wie zich de toekomst van de mensenjacht wil voorstellen, kan voor inspiratie terecht bij de Amerikaanse robotmaker Boston Dynamics. Neem Atlas, een van titanium en aluminium gemaakte, mensachtige robot van 1 meter 88, compleet met benen, armen, vingers en hoofd en met blauwe ledlampen als verlichting. De robot loopt gemakkelijk op ongelijk terrein, stapt zonder problemen in een auto en rijdt vervolgens weg, hanteert gereedschap en kan zelfs zijn evenwicht houden als hij op één been staat en zijwaarts wordt geraakt. Afgelopen jaar werd Atlas met trots gedemonstreerd aan het publiek.

Boston Dynamics, een afsplitsing van de Amerikaanse universiteit mit, werd afgelopen december overgenomen door Google. Het leeuwendeel van de opdrachten komt van het Amerikaanse ministerie van Defensie. Behalve Atlas ontwikkelde het bedrijf ook al de Cheetah, een vierpotige robot die 45 kilometer per uur kan rennen. Het maakte de RiSE, een minirobot met microklauwen die rechte muren kan beklimmen, en ontwikkelde de WildCat, een robot die kan galopperen, draaien en springen als een dier.

Google staat niet alleen in deze markt. Het Zuid-Koreaanse Samsung maakt bijvoorbeeld de ‘waakrobot’ sgr-1, die niet alleen op eigen houtje kan patrouilleren en met hitte- en bewegingssensoren mensen kan opsporen, maar ook al met een mitrailleur kan schieten.

Formeel zijn deze met militair geld vervaardigde robots niet ontworpen om zelfstandig te doden. Ze zijn bedoeld om zware bepakkingen te dragen of vermiste personen op te sporen. En bij oorlogssituaties zit er een menselijke bestuurder aan de knoppen, ergens in een bunker. Toch zijn sommige militairen erg opgetogen over de dodelijke mogelijkheden. Zo liet een Pentagon-functionaris zich al enkele jaren geleden tegen The New York Times ontvallen: ‘Ze krijgen geen honger. Ze zijn niet bang. Ze vergeten hun bevelen niet. Het kan ze niet schelen als de vent naast ze net is geraakt. Zullen ze beter werk afleveren dan mensen? Ja.’

Een groeiend aantal experts waarschuwt dan ook voor het hoge tempo waarin robottechnologie wordt ontwikkeld. ‘Er zijn nog geen militaire machines die zelf beslissen of zij dodelijk geweld zullen gebruiken. Maar het is waarschijnlijk dat in oorlogen soldaten langzaam zullen worden vervangen door machines’, zegt Christof Heyns, speciaal rapporteur bij de Verenigde Naties voor onwettelijke executies. ‘Het zal niet op stel en sprong gebeuren, en mensen en machines zullen nog heel lang naast elkaar op het slagveld staan. Maar de technologische ontwikkelingen gaan ontegenzeglijk die kant op. Het is vrijwel onvermijdelijk dat hoogtechnologische landen het punt bereiken waarop ze autonome, dodelijke robotsystemen kunnen inzetten op het slagveld. Maar een machine mist moraliteit en mortaliteit. Een machine kan niet en mag niet beslissen over leven en dood. Wij moeten dat punt voor zijn.’

In de heuvels van Afghanistan was het afgelopen jaar soms het curieuze tafereel te zien van soldaten met volgwagentjes van 2500 kilo die elke beweging van de soldaat kopieerden. De smss, zoals deze wagen heet, is ontworpen om bepakking voor soldaten te dragen. ‘Het is een beetje als een hond die je volgt waarheen je ook gaat’, legde Myron Mills van fabrikant Lockheed Martin uit aan persbureau Reuters. ‘Als je sneller gaat lopen of gaat rennen, doet hij het ook. Als je plotseling stopt, stopt hij plotseling achter je.’ Daarnaast heeft het Amerikaanse leger ook nog de Human Universal Load Carrier (hulc) achter de hand. Een in Berkeley ontwikkeld metalen frame dat op de benen en rug van een soldaat past en hem in staat stelt vijftien kilometer per uur te wandelen met een rugzak van negentig kilo.

Deze zomer wordt waarschijnlijk voor het eerst het vloeibare harnas Talos getest. Dit op mit ontwikkelde ‘Iron Man-pak’ bestaat uit slimme materialen die vloeibaar blijven tot ze door een stroomstoot binnen milliseconden keihard worden. Een regen van kogels ketst er dan op af. Volgens alle ronkende verhalen die over de Talos worden verspreid, zal het pak de gebruiker ook warmte, zuurstof en airco verstrekken en helend schuim in open wonden sproeien.

Het superharnas, de superezel en de ijzeren ledematen verwezenlijken de oud-Spartaanse ambitie om supersoldaten te creëren. In Afghanistan deed ook een heel ander soort militaire technologie haar intrede. Boven het slagveld werd voor het eerst de drone op grote schaal ingezet, het onbemande vliegtuig dat een militair met een joystick in Florida in staat stelt om een tegenstander te doden aan de andere kant van de aarde. Als de supersoldaat en de onbemande oorlogsmachine twee tegengestelde ontwikkelingen zijn, dan lijkt de toekomst te liggen bij de laatste.

‘De technologie gaat nu heel snel’, bevestigt Bonnie Docherty, een Harvard-juriste en medeauteur van een rapport van Human Rights Watch over killer robots. ‘De trend in militaire technologie is: steeds autonomer.’ Een indicatie waar het naartoe gaat is volgens Docherty de Amerikaanse X-47B, ’s werelds eerste onbemande gevechtsvliegtuig. Deze grote stalen driehoek wordt vaak drone genoemd omdat hij geen piloot heeft. Maar met een spanwijdte van bijna twintig meter staat hij duidelijk een treetje hoger dan zijn kleine neefjes. De X-47B kan in een vliegende storm landen op een vliegdekschip en kan tienmaal zo ver vliegen als een traditioneel gevechtsvliegtuig.

De vierpotige Cheetah kan 45 kilometer per uur rennen en de RiSE, met microklauwen, kan rechte muren beklimmen

Officieel is de X-47B niet bedoeld als onbemande bommenwerper, maar het toeval wil dat hij twee lege ruimtes heeft waar tweeduizend kilo aan explosieven in passen. En hij kan zichzelf verdedigen in een luchtgevecht. In principe zou de vliegende driehoek op een automatische stand een gevecht kunnen voeren van machine tegen mens. Maar zo ver is het nog niet. Het Pentagon heeft een richtlijn aangenomen waarin staat dat er bij kill decisions altijd een ‘mens in de lus’ moet zitten.

‘De vraag is wat dat precies betekent’, reageert de Britse hoogleraar robotica Noel Sharkey. ‘Het is een eigen richtlijn, oftewel iets wat zomaar kan veranderen als het Pentagon dat nodig vindt. Ze zeggen eigenlijk: we willen nu dat er mensen betrokken blijven bij beslissingen om dodelijke wapens in te zetten. Maar we blijven ondertussen wel wapensystemen onderzoeken die autonoom kunnen opereren.’

Sharkey stond zeven jaar geleden aan de wieg van de nu ontluikende beweging tegen vechtrobots. Hij kaartte het nog obscure onderwerp aan in een artikel in The Guardian in 2007. Onder de kop Robot Wars Are a Reality waarschuwde de wetenschapper dat in Irak voor het eerst gewapende robots waren ingezet op het slagveld en dat ‘we slaapwandelend een wereld betreden waarin robots beslissen wie, waar en wanneer te doden’. Sindsdien is er langzaam maar zeker een heuse campagne van de grond gekomen, met ngo’s als Human Rights Watch en Pax Christi, de internationale Campaign to Stop Killer Robots en VN-rapporteurs en academici die het onderwerp op de internationale agenda proberen te krijgen. Met succes, want in mei zal voor het eerst internationaal overleg over autonome vechtsystemen plaatsvinden. Een expertmeeting weliswaar, oftewel een vrijblijvend en voorzichtig begin. Maar evengoed een begin.

‘Het probleem is niet robots. Ik hou van robots, ik heb dertig jaar van mijn leven aan ze gewijd’, zegt Sharkey vanuit Sheffield. ‘Onbemande machines die door het leger worden gebruikt zijn ook niet het probleem. Die kunnen juist ook levens redden, bijvoorbeeld door bermbommen onschadelijk te maken. Het probleem is de automatische doelwitherkenning die aan dergelijke machines wordt toegevoegd, hun vermogen om zelfstandig dodelijke wapens te gebruiken.’

De waarborgen die nu worden ingevoerd vindt hij volstrekt onvoldoende: ‘Iedereen begrijpt wat er gebeurt als Amerika of een ander land veel geld hebben uitgegeven aan autonome technologie en er oorlog komt. Er is geen twijfel dat die technologie dan ook gebruikt wordt. Als iets geschikt lijkt voor een bepaald soort oorlogvoering kun je ervan op aan dat militairen dat willen onderzoeken. Neem een robot als de Cheetah. Je kunt hem je goed voorstellen als mensenjager.’

De recente geschiedenis heeft Sharkey weinig vertrouwen gegeven dat landen zelf morele grenzen aanhouden als het tot oorlog komt: ‘In de jaren twintig en dertig werd in militaire tijdschriften geschreven over strategisch bombarderen vanuit vliegtuigen. Een enkeling vond dat daarover nieuwe afspraken nodig waren. Maar er was een vrij brede consensus dat dat niet nodig was: de oorlogsregels die waren ontwikkeld tijdens middeleeuwse belegeringen zouden wel voldoende zijn. We weten allemaal wat er tien jaar later gebeurde. Zodra het oorlog is, gaan alle nobele intenties nu eenmaal van tafel. In 1939 drong de Amerikaanse president Roosevelt nog bij zijn Europese collega’s aan op nieuwe regels voor bombarderen. Zes jaar later gooiden de VS zelf de atoombom. Landen moeten daarom nu al afspreken dat ze geen vechtrobots zullen ontwikkelen en ervoor zorgen dat ze dat bij elkaar kunnen controleren.’

Sinds een jaar zijn de Verenigde Naties wakker. In november waarschuwde secretaris-generaal Ban Ki-moon voor ‘zogenoemde killer robots: automatische wapensystemen die, als ze eenmaal zijn geactiveerd, doelwitten kunnen selecteren en aanvallen en opereren in dynamische en veranderende situaties zonder verdere menselijke interventie’. De landen die actief zijn op dit terrein – de Verenigde Staten, Rusland, China, Groot-Brittannië, Israël en Zuid-Korea – zijn er niet afkerig van om over de vechtrobots te praten. ‘Ze zijn zich ervan bewust dat we een belangrijke grens naderen, een waar we goed over moeten nadenken’, zegt de Zuid-Afrikaanse hoogleraar mensenrechten Christof Heyns, speciaal rapporteur bij de VN. ‘Het is een significante stap als het mogelijk wordt dat machines beslissingen nemen over leven en dood. Er zijn geen landen die de problemen die daaraan zijn verbonden ontkennen. En dat is belangrijk.’

Er zijn drie grote vragen die we bij vechtrobots moeten stellen, stelt Heyns vanuit Pretoria: ‘Ten eerste moeten we ons afvragen of machines beslissingen kúnnen nemen over dodelijk geweld. De basis van oorlogsrecht is het onderscheid tussen soldaten en burgers. Zijn machines wel in staat om dat onderscheid te maken? Technisch is het al heel ingewikkeld om een machine onderscheid te laten maken tussen een gevechtsvoertuig en een civiel voertuig. Onderscheid tussen burgers en militairen is nóg lastiger. Machines zullen nooit kunnen begrijpen waarom dat onderscheid bestaat. Ze missen mortaliteit en moraliteit, de twee grondzaken waarop beslissingen over leven en dood zijn gebaseerd; ze kunnen kwantitatieve beslissingen nemen, geen kwalitatieve.’

Ten tweede moeten mensen altijd beschermd worden tegen standrechtelijke en arbitraire executies, dat is in internationale wetten vastgelegd, zegt Heyns. ‘Hoe verhoudt zich dat tot machines? Ziet een machine wanneer iemand de strijd heeft gestaakt? Wanneer is het een gevechtshandeling als een machine een mens doodt, en wanneer wordt het een executie? Wanneer wordt het wreedheid? Wanneer wordt het een mechanische slachting? Over deze vragen moet in brede kring worden gesproken.’

‘Machines missen moraliteiten mortaliteit, de grondzaken waarop beslissingen over leven en dood zijn gebaseerd’

Volgens Heyns is een derde urgente vraag waar de verantwoordelijkheid ligt als machines mensen gaan doden, en waar de aansprakelijkheid ligt als er oorlogsmisdaden zijn gepleegd. ‘Normaal gesproken is dat de soldaat of zijn commandant. Maar drones hebben ons een zorgwekkend voorbeeld gegeven. Er is veel debat over wie verantwoordelijk is voor de doden die zij maken, onder meer omdat we niet precies weten hoe bij drones beslissingen worden genomen over doelwitbepaling en afvuren. Dat debat volgt op de werkelijkheid. Maar oorlogvoering met robots zou de wet moeten volgen, niet andersom.’

VN-secretaris-generaal Ban Ki-moon voegde daar in zijn toespraak in november nog een probleem aan toe. ‘Als technologie één partij in staat stelt om zich steeds meer van het slagveld terug te trekken, en de mogelijkheden om tegen die technologie te vechten kleiner worden, zullen we mogelijk zien dat technologisch inferieure partijen steeds meer hun toevlucht nemen tot strategieën die gericht zijn op het schaden van burgers, als meest toegankelijke doelwit.’

Niet iedereen gelooft dat robots onethische, mechanische doders zijn. In het soms felle debat hierover fungeert de robo-ethicus Robert Arkin als lone ranger voor het Amerikaanse leger. De hoogleraar werd in 2006 door het Pentagon ingehuurd om een studie te schrijven over de vraag of militaire robots ethisch konden opereren. Hij concludeerde dat dit mogelijk was. Sterker nog, in Governing Lethal Behavior in Autonomous Robots stelt Arkin dat het mogelijk moet zijn om robots uit te rusten met een ‘kunstmatig geweten’ dat superieur is aan het menselijke. Robots zouden hierdoor ethischer moeten kunnen opereren dan mensen.

Een belangrijk voorbehoud: de ‘ethische bestuurder’ van robots moet nog wel worden gemaakt. Maar Arkin is optimistisch. Zijn boek is een lange verhandeling over kantiaanse, utilitaristische en deontische logica, over oorlogsrecht, over robotontwerpen en nog veel meer. De belangrijkste stelling is dat mensen om allerlei redenen onethisch gedrag vertonen op het slagveld, maar dat machines dat niet kunnen als zij correct worden geprogrammeerd met de juiste ethische parameters. Als die parameters nou maar juist zijn, wordt de machine vervolgens niet meer gehinderd door lawaai, angst en woede bij zijn morele afweging. ‘Het is duidelijk dat wanneer we een ethisch geweten inbrengen bij een autonoom mechanisme, dat dit geweten slechts zo goed kan zijn als de informatie waarop het reageert’, schrijft Arkin. En dat is prima, want we kunnen aannemen dat een machine ‘evenveel of meer slagveldinformatie verkrijgt dan een soldaat kan verwerken’. Vrij vertaald: als de chip maar sterk genoeg is, wordt de moreel geprogrammeerde robot ethischer dan de emotionele, beïnvloedbare mens.

Dit standpunt heeft vooralsnog niet erg veel aanhang onder wetenschappers. Maar er zijn ook niet veel robotici die ertegenin gaan. Eerder is het zo dat veel wetenschappers die met robots en kunstmatige intelligentie werken liever niet over de militaire toepassingen van hun veld nadenken. Ben Kröse, hoogleraar robotica aan de Universiteit van Amsterdam, wil niet meedoen aan een interview omdat zijn expertise niet ligt bij robotica met militaire doeleinden. Maar hij schrijft ook: ‘Ik denk dat niemand daar graag over wil praten. Terwijl het een relevant issue is.’

Als wetenschappers zelf niet nadenken over de militaire toepassingen van hun werk doen anderen dat namelijk wel voor hen. En zij zetten die technologie in naar eigen inzicht. ‘Drones zijn een voorbeeld van hoe snel het kan gaan als strijdkrachten militair nut zien in een beschikbare technologie’, zegt Harvard-juriste Bonnie Docherty. ‘Voor iemand er erg in had, werden ze ingezet om te doden, niet alleen door de strijdkrachten maar ook door de cia, en in het geheim. We kunnen niet zo naïef zijn dat we geloven dat het bij de volgende technologie beter zal zijn.’

Zonder internationale afspraken is het ook wachten op een race om autonome militaire technologie. En iedereen vermoedt dat die zal gaan tussen China en de VS. ‘De X-47B, het onbemande gevechtsvliegtuig van de VS, is een anti-Chinees vliegtuig’, zegt Noel Sharkey, de Britse hoogleraar robotica. ‘De VS willen er hun militaire voorsprong in de Stille Oceaan mee behouden. Hun vliegdekschepen waren kwetsbaar geworden nadat China de afgelopen jaren zijn kruisraketten sterk had verbeterd. Maar het is gekte om te geloven dat de VS hun voorsprong op het gebied van autonome wapensystemen zouden kunnen vasthouden. Ook het Amerikaanse leger moet die kant niet op willen gaan.’

Bij alle morele overpeinzingen is het overigens wel zaak om voor ogen te houden dat we nog lichtjaren verwijderd zijn van een wereld zoals in de film The Terminator of The Matrix, waarin radeloze mensen zich moeten verweren tegen onverwoestbare, niet te stoppen en hyperintelligente vechtmachines. Robottechnologie is fascinerend, maar vergeleken met mensen zijn robots toch vooral hopeloos immobiele, beperkte en vindingloze creaties. Futuristische technologie werkt doorgaans alleen vlekkeloos onder perfecte, beschermde omstandigheden en op spiegelglad, objectvrij terrein. Een kleine plas kan een onneembare hindernis zijn voor de meest geavanceerde robot, om maar een willekeurige kinderziekte te noemen. Hun signaal voor plaatsbepaling kan afketsen op het water, waardoor de robot denkt dat hij voor een onmetelijk diepe afgrond staat. Maar goed, hoogtevrees heeft hij dan niet.

‘Als mensen zich een voorstelling proberen te maken van autonome vechtrobots doen ze dat vaak via films’, zegt de Zuid-Afrikaanse VN-rapporteur Christof Heyns. ‘Maar het is belangrijk om te benadrukken dat The Terminator fantasie is. Films onderstrepen hoe krachtig robots zijn en geven een valse verwachting van wat technologie kan. Ze voeden het idee dat we vechten wel aan machines kunnen overlaten. Ze geven mensen, ook militairen, te veel vertrouwen in de capaciteiten van machines, zowel wat betreft hun prestaties als hun vermogen om afwegingen te maken.’

Tegelijk moeten we ons ook niet te veel bang laten maken, vervolgt Heyns: ‘Als we technologie kunnen gebruiken om levens te redden, zowel op het slagveld als thuis, moeten we dat zeker niet laten. Het is niet zo dat robotsystemen inherent een slecht idee zijn. Maar het is nauwelijks voor te stellen dat ze ooit zuivere beslissingen kunnen nemen over leven en dood. We moeten dat nooit toestaan.’


Beeld: Studenten sleutelen aan de robot Atlas (Essdras M Suarez/Reuters).