De Russische president Vladimir Poetin zei tijdens een lezing voor studenten in 2017 dat het land dat de leider zal zijn in kunstmatige intelligentie de wereld zal leiden. Het was een opmerkelijke uitspraak. Wie het veld van kunstmatige intelligentie (AI) kent, weet namelijk dat Rusland weliswaar op enkele fronten daarvan succesvol is, maar dat het land met geen mogelijkheid de wereldleider in AI kan worden. Poetin staat niet bepaald bekend als een politicus die gemakkelijk zijn zwakten blootlegt, dus dat hij zo’n uitspraak doet laat zien dat hier iets groots aan de hand is.

Kunstmatige intelligentie is de nieuwe systeemtechnologie. Dat zijn technologieën die de hele samenleving en economie doortrekken, die continu beter worden en in combinatie met andere technologieën tot verdere innovaties leiden. Kortom: ze veranderen de samenleving op systematische wijze. Eerdere voorbeelden daarvan zijn de stoommachine, elektriciteit, de verbrandingsmotor en de computer. In een eerder essay hebben wij laten zien wat voor effecten dat meebrengt voor de samenleving. Kunstmatige intelligentie heeft ook een internationale dimensie. Wat betekent deze technologie voor internationale relaties, voor economische en militaire verhoudingen?

Ook hiervoor is de geschiedenis van systeemtechnologieën een goede leidraad. Die leert namelijk ten eerste dat een dergelijke technologie veel invloed heeft op de economische positie en het verdienvermogen van landen. De stoommachine droeg sterk bij aan de economische opkomst van Engeland en Britse stoommachines werden overal ter wereld bestudeerd en gekopieerd. De verbrandingsmotor droeg begin twintigste eeuw bij aan de economische opkomst van de Verenigde Staten en Duitsland. Dat werd mooi uitgedrukt in de slogan ‘wat goed is voor General Motors is goed voor Amerika’.

Het voorbeeld van Duitsland brengt ook een andere dynamiek aan het licht. Nieuwe systeemtechnologieën beïnvloeden namelijk niet alleen de economische verhoudingen, maar ook de militaire. De verbrandingsmotor maakte voertuigen mogelijk die beslissend waren op het slagveld van de wereldoorlogen. De computer bepaalde mede de competitie tussen de Verenigde Staten en de Sovjet-Unie in de Koude Oorlog. De oorsprong van de computer lag overigens in de Tweede Wereldoorlog, in het onderzoek naar de trajecten van raketten en het kraken van codes door mensen als Alan Turing in Bletchley Park.

De domeinen van economie en veiligheid staan niet los van elkaar. Technologieën die als strategisch worden aangemerkt hebben implicaties voor beide domeinen en die lopen vaak in elkaar over. Neem de hedendaagse discussie over Huawei en 5G-netwerken.

Ook de huidige systeemtechnologie AI beïnvloedt de positie van landen op beide domeinen. Het besef daarvan in regeringszetels overal ter wereld is groot en daardoor lijkt er een ware ‘AI-race’ losgebarsten, vergelijkbaar met de space race tussen de Verenigde Staten en de Sovjet-Unie in de Koude Oorlog. Toch willen wij laten zien dat het idee van een race niet adequaat is. Maar allereerst is het belangrijk om in kaart te brengen hoe landen zich positioneren in wat veelal de AI-race wordt genoemd.

Opgave AI

Afgelopen najaar publiceerde de Wetenschappelijke Raad voor het Regeringsbeleid (WRR) het rapport Opgave AI: De nieuwe systeemtechnologie, dat werd opgesteld onder verantwoordelijkheid van Corien Prins en Haroon Sheikh. In een tweeluik staan Prins en Sheikh stil bij de vragen die AI oproept, vanuit de inhoud van dit WRR-rapport. In het eerste deel verkenden ze de technologie. In dit tweede deel lichten ze toe wat de betekenis van AI is voor de positie van ons land in het mondiale speelveld en internationale samenwerking.

In maart 2017 was Canada het eerste land dat een nationale AI-strategie presenteerde. Verschillende andere landen, zoals Singapore en Japan, volgden rap. Later in 2017 presenteerde China het New Generation Artificial Intelligence Development Plan, misschien wel de meest ambitieuze strategie ter wereld, waarin het land een pad uitstippelt om in 2030 de absolute wereldleider in AI te zijn. Landen als Finland, de VS, het Verenigd Koninkrijk en Duitsland volgen.

Ook minder welvarende landen als India, Kenia en Mexico presenteren AI-strategieën en in 2019 voegt Nederland zich in die rij met het Strategisch Actieplan AI. Sinds 2017 hebben meer dan zestig landen een nationale AI-strategie gepresenteerd.

In de meeste van die documenten staan plannen om wetenschappelijk onderzoek te stimuleren en talent aan te trekken. De Duitse strategie kondigt bijvoorbeeld twaalf research & development-centra en honderd leerstoelen aan. Andere breed voorkomende thema’s zijn beleid om de technologie te commercialiseren en er is ook een zekere aandacht voor ethische aspecten. Verschillende landen kiezen ook expliciet voor bepaalde domeinen waarin zij AI willen inzetten. In Duitsland sluit het aan bij de bestaande ambities voor de industrie. Frankrijk kiest domeinen als mobiliteit, zorg en defensie en Japan richt zich eveneens op zorg en defensie. Rusland zet in op AI bij war games en richt zich net als China op binnenlandse orde en veiligheid. Veel landen ontwikkelen dus AI-strategieën, vaak uit angst de race te verliezen. Hoe ziet het internationale speelveld er nu uit?

Bij een complex fenomeen als AI kunnen we landen niet langs een simpele meetlat leggen. Verschillende zaken zijn van belang, zoals de kwaliteit van het wetenschappelijk onderzoek, de beschikbaarheid van data, de toegang tot de vereiste hardware, een dynamisch bedrijfsleven en een stimulerende overheid. Als we die vijf variabelen als uitgangspunt nemen, dan kunnen we twee ‘AI-supermachten’ identificeren, zoals onderzoeker Kai-Fu Lee ze noemt: de Verenigde Staten en China. Hij neemt aan dat, door de grotere hoeveelheid beschikbare data en de zeer ambitieuze overheid, China de race uiteindelijk zal winnen. Een andere onderzoeker, Jeffrey Ding, zet zijn kaarten echter op de VS, vanwege een beter ecosysteem van internationale bedrijven en toegang tot hardware als geavanceerde chips. Duidelijk is in ieder geval wel dat deze twee landen langs alle vijf variabelen goed scoren.

Dat er weinig transparantie te geven is over AI-wapens maakt een internationaal verdrag lastig

De Europese Unie als geheel is sterk op zaken als wetenschappelijk onderzoek, maar zwakker op de gebieden van data (niet alleen door privacy-overwegingen, maar ook door de diversiteit van nationale systemen) en een bedrijfsleven dat AI op mondiale schaal kan commercialiseren. Veel Europese bedrijven, zoals sap, Dassault, asml en Airbus gebruiken AI en het behoort tot de kern van de businessmodellen van bedrijven als Spotify, Zalando, Adyen en Booking.com, maar Europa heeft geen mondiale technologieplatformen in de liga van Silicon Valley of Chinese bedrijven als Alibaba, Tencent en Baidu.

Dit betekent niet dat kleinere landen als Nederland geen betekenis hebben in de wereld van AI. Sommige landen excelleren bijvoorbeeld in wetenschappelijk onderzoek, zoals Canada en het Verenigd Koninkrijk, maar ook ons eigen land, dat een lange traditie van excellent onderzoek kent. En terwijl een land als Rusland langs de vijf variabelen niet erg hoog scoort, is dat land erg goed in de toepassing van gezichtsherkenning, iets waar het flink op heeft ingezet om de eigen bevolking te controleren.

De meest in het oog springende toepassing op het gebied van AI zijn autonome wapens. Daar is veel angst voor, omdat ze aansluiten bij dystopische beelden van de rise of the machines en films als The Terminator. ‘Killer robots’, worden ze dan ook vaak genoemd. Hoewel er hier geen sprake is van bewuste robots die zich tegen mensen keren, ontwikkelen allerlei landen wel wapens die met enige graad van autonomie kunnen handelen, zoals de Israëlische Harpy-drone, Zuid-Koreaanse robots op de grens met Noord-Korea, de Amerikaanse Patriot- en Aegis-systemen en het Duitse Mantis. China is verantwoordelijk voor negentig procent van de internationale verkoop van gewapende drones.

Er is internationaal veel aandacht voor de gevaren van autonome wapens en maatschappelijke organisaties en overheden zetten zich in voor een verbod. Er zijn wel wat uitdagingen om tot zo’n verbod te komen. Ten eerste is het niet zo gemakkelijk als het lijkt om een autonoom wapen te definiëren. De vraag is bijvoorbeeld om welke taken het gaat als we iets autonoom noemen. Is een drone autonoom als die zelf kan vliegen en doelen kan vinden, maar niet zelf schiet? Of een drone waarbij een mens de aanvalsmodus inschakelt, maar de drone vervolgens zelf kogels afvuurt? En is het ook zo’n gevaar als het wapen alleen autonoom defensief raketten uit de lucht schiet? De vraag is ook hoe intelligent het gedrag moet zijn. Een klassieke mijn ontploft ook zonder menselijke tussenkomst. Dat is niet autonoom, maar automatisch. Waar ligt de grens waarna een actie op een gevaarlijke manier autonoom wordt?

Een tweede uitdaging voor een verbod is het zogenaamde dual-use-karakter van veel AI. Dat betekent dat dezelfde technologie voor zowel civiele als militaire doeleinden gebruikt kan worden. Neem de Fast Lightweight Autonomy (fla) van darpa. Filmpjes van deze drones, die onder James Bond-muziek huizen binnendringen, hebben tot veel ophef geleid. Maar zolang er geen wapens op zitten is de technologie precies dezelfde als die van drones die voor het filmen van documentaires worden gebruikt of voor zelfrijdende voertuigen. De technologie om een voertuig te volgen kan gebruikt worden om een bruidsstoet te filmen én om een vrachtwagen op te blazen.

Ten derde is het lastig om bij deze technologie tot internationale afspraken te komen. Vooral landen met sterke legers, zoals de Verenigde Staten, China en Rusland, zijn op dit moment niet bereid om zich aan een verbod te houden. Landen die zich voor een verbod inzetten, waaronder Ecuador, Pakistan en het Vaticaan, zijn veelal zwakke partijen in het militaire domein of vrezen het gebruik van de technologie door anderen. Ook het feit dat er weinig transparantie te geven is over deze technologie maakt een internationaal verdrag lastig. De autonomie zit namelijk in de software en is dus niet zo gemakkelijk te identificeren als bijvoorbeeld chemische wapens. Dat maakt het moeilijk om landen ter verantwoording te roepen.

Deze drie uitdagingen maken het lastig om snel tot een verbod op autonome wapens te komen. Bemoedigend is wel dat er door veel maatschappelijke organisaties en in organen als de Verenigde Naties groeiende aandacht is voor de gevaren van deze technologie. Tegelijkertijd is het belangrijk om op te merken dat autonome wapens niet de enige manier zijn waarop AI effect heeft op veiligheid. Er zijn allerlei andere toepassingen die internationaal veel minder aandacht krijgen, maar die evengoed zeer gevaarlijk zijn voor samenlevingen. In het militaire domein kan AI op andere manieren worden toegepast. AI biedt bijvoorbeeld ondersteuning in de informatievoorziening en besluitvorming. Door grote hoeveelheden data te analyseren kan het tempo en de kwaliteit van besluitvorming vergroot worden. Denk aan de automatische detectie van cyberaanvallen. AI kan toegepast op surveillancedata abnormale patronen of zwakke signalen van dreigingen detecteren.

Dat militaire organisaties meer gebruik gaan maken van AI betekent vervolgens dat tegenstanders zullen pogen de informatie te ontregelen waar het op wordt toegepast. Experimenten met zogenaamde adversarial attacks hebben al laten zien dat een algoritme een olifant en een auto kon verwarren. Systemen zouden zo gemanipuleerd kunnen worden om aanvallen niet te herkennen, of omgekeerd zaken als dreigend te presenteren om een aanval uit te lokken. Maar ook in de ondersteuning van processen, van logistiek tot planning en administratie, kan AI in het leger gebruikt worden. De invloed van AI is dus veel breder dan alleen autonome wapens. Maar naast deze andere effecten binnen het leger brengt AI tevens veiligheidsvraagstukken met zich mee die niet uit het militaire domein komen, maar zich bevinden in het dagelijks leven van burgers.

De laatste jaren komt steeds meer aan het licht hoe landen sociale-mediaplatformen manipuleren bij tegenstanders. Een deel daarvan gebeurt handmatig. Beroemd is de trollenfabriek in Sint-Petersburg, waar mensen nepprofielen maken om burgers in het buitenland te misleiden. Bedrijven als Cambridge Analytica hebben gebruikgemaakt van microtargeting, waarbij profielen van burgers worden gemaakt om erachter te komen wat voor boodschappen het best resoneren. Op die manier kunnen verkiezingen worden gemanipuleerd, worden de spanningen in samenlevingen uitvergroot en raakt het vertrouwen in instituties verzwakt. Ook sentiment analysis kan hiervoor ingezet worden.

Een groeiend gevaarlijk fenomeen dat van AI gebruikmaakt zijn deepfakes, waarbij deep verwijst naar de AI-techniek van deep learning. Het gaat hierbij om de productie van nepbeelden of geluiden die niet van echt te onderscheiden zijn. Het Amerikaanse bedrijf Lyrebird geeft aan slechts een paar minuten audiomateriaal van iemand nodig te hebben om de stem volledig te kunnen nabootsen in fictief spraakmateriaal. Algoritmes hebben gezichten geproduceerd van niet-bestaande mensen die niet van echte gezichten te onderscheiden zijn. Inmiddels gaan er ook nepvideofragmenten rond. Eind vorig jaar maakte De Correspondent bijvoorbeeld een video waarin minister-president Mark Rutte zich verontschuldigde voor zijn zwakke klimaatbeleid. De actie was ludiek en goed bedoeld, maar gevaarlijkere deepfakes zijn goed denkbaar. En ze worden al gebruikt om politici in diskrediet te brengen en journalisten te intimideren.

Technologieonderzoeker Aviv Ovadya speculeerde dat dit zal leiden tot een ‘infocalyps’, een samentrekking van ‘informatie’ en ‘apocalyps’. Dat is een situatie waarbij dergelijke technologieën zo geavanceerd zijn geworden dat het onmogelijk wordt om echt van nep te onderscheiden.

Een ander gevaar is wat ‘digitale dictatuur’ genoemd kan worden. Lange tijd was het gangbaar om te denken dat digitale technologieën een decentraliserende en democratiserende werking hadden. Het is nu duidelijk dat autoritaire regimes ze ook voor hun doeleinden kunnen inzetten. Bepaalde toepassingen van AI zouden zelfs centralisatie in de hand kunnen werken. Traditionele dictaturen moesten grote organisaties opzetten om de eigen bevolking te bespioneren. Slimme camera’s maken dat werk nu gemakkelijk, goedkoop en op grote schaal te implementeren. De technieken van digitale dictatuur worden inmiddels ook naar andere landen geëxporteerd.

De AI Global Surveillance Index laat zien dat ten minste 75 landen AI-surveillance gebruiken in de vorm van smart city-platformen, gezichtsherkenningssystemen en smart policing. China is een belangrijke exporteur van dergelijke technologieën. In Nederland is de discussie over Huawei en TikTok inmiddels losgebarsten, maar minder bekende Chinese bedrijven als Hikvision, SenseTime, Megvii en dji exporteren ook technologieën over de hele wereld waar vraagtekens bij geplaatst kunnen worden. Er zijn overigens ook westerse bedrijven die technologieën exporteren die voor autoritaire doeleinden gebruikt kunnen worden, zoals Cisco, ibm, Thales en Bosch.

Op de gebieden van economie en veiligheid is er een sterk frame van een ‘AI-race’ tussen landen. Op verschillende punten is dat correct. Schaars talent is bijvoorbeeld iets waarop landen met elkaar concurreren. Maar ook de veiligheidsvraagstukken hebben vaak het karakter van een zero-sum game; de winst van de een is het verlies van de ander. Toch zijn er belangrijke beperkingen aan het idee van een AI-race die ons blind maken voor belangrijke mogelijkheden.

Met dezelfde technologie kun je een bruidsstoet filmen én een vrachtwagen opblazen

Allereerst suggereert het idee van een race dat er maar een enkele winnaar kan zijn. De geschiedenis van systeemtechnologieën laat zien dat dit niet het geval is. Er zijn leidende producenten van auto’s en elektriciteit geweest, maar uiteindelijk hebben burgers van veel landen ervan geprofiteerd. Technologie gaat niet alleen over innovatie en commercialisatie, maar ook over diffusie: er is tegenwoordig maar een aantal landen dat kernenergie kan ontwikkelen, maar een groot palet van andere vormen van elektriciteitsopwekking is voor burgers overal ter wereld toegankelijk en allerlei grote en kleine bedrijven profiteren daarvan. De space race zelf had misschien een winnaar, maar de technologieën die eruit voortkwamen, zoals gps, leveren nu voordeel op voor mensen overal ter wereld.

Een tweede tekortkoming van het frame is dat het suggereert dat alle landen op weg zijn naar dezelfde eindstreep. Het is echter onduidelijk wat het doel bij een complexe technologie als AI zou kunnen zijn en daarmee om te weten of iemand gewonnen heeft. Succes kan op verschillende manieren geboekt worden en landen kunnen heel verschillende trajecten volgen. Canada en het Verenigd Koninkrijk excelleren bijvoorbeeld in fundamenteel onderzoek, terwijl een land als Duitsland zich richt op de verbinding met de industrie. Landen kunnen zo een eigen ‘AI-identiteit’ ontwikkelen, waarmee ze dus op verschillende naast elkaar staande trajecten zitten.

Een volgend gevaar van het frame van de race is dat het een tegenstelling suggereert tussen meedoen aan de race en het borgen van publieke waarden. Om competitief te blijven zouden landen zich niet moeten laten remmen door discussies over de bescherming van rechten. Het is echter maar de vraag hoe succesvol technologieën die rechten schenden op de lange termijn zullen zijn. Het is in ieder geval een prijs die wij niet zouden moeten betalen. De Europese Unie zet zich om die reden terecht in voor human-centric AI.

Een laatste bezwaar dat wij hier noemen is dat het idee van een race suggereert dat een land een technologie binnen de eigen grenzen kan afbakenen. De geschiedenis van systeemtechnologieën laat zien dat dit onmogelijk is. Aan de ontwikkeling van de verbrandingsmotor hebben bijvoorbeeld Zwitsers, Belgen, Duitsers en Amerikanen bijgedragen. De wetenschap die dergelijke grote technologieën voortbrengt heeft een open en internationaal karakter. Regeringen hebben wel pogingen gedaan om een technologie te nationaliseren, maar die zijn mislukt. In het geval van elektriciteit legden de Britten een ‘imperiale keten’ van telegrafische netwerken op die de Amerikanen en Duitsers wisten te omzeilen. Sterker nog, verschillende pogingen om de export van nieuwe technologieën te verbieden hebben juist averechts gewerkt. De Amerikaanse regering plaatste grenzen aan de export van geavanceerde satellieten en op cryptografie, waardoor andere landen Amerikaanse producten niet meer vertrouwden en besloten hun eigen industrie op te zetten. De Amerikaanse competitiviteit werd daardoor ondermijnd.

Het idee dat een AI-race plaatsvindt heeft, kortom, duidelijke beperkingen en risico’s. Hoe kunnen wij dan beter naar het internationale speelveld van AI kijken en wat betekent dat voor ons land? Wij stellen voor het perspectief te verschuiven van ‘natie’ naar ‘netwerk’. Het denken in termen van natie impliceert voor de economie dat er een zero-sum game plaatsvindt waarin ieder land voor zichzelf moet strijden ten koste van anderen. We verliezen daarmee uit het oog dat we onze internationale positie en concurrentiekracht juist ook kunnen versterken door strategische allianties aan te gaan, het versterken van netwerken. Op die manier kunnen we een gerichte ‘AI-diplomatie’ voeren op verschillende terreinen.

Dat kan ten eerste op het gebied van fundamentele wetenschap. Er zijn belangrijke netwerken als ELLIS en CLAIRE, waarvan de laatste Den Haag als zetel heeft gekozen. De geschiedenis van het cern-instituut leert dat Europese wetenschappers een wereldwijd toonaangevend instituut kunnen opzetten als zij hun krachten bundelen, en daar zou Nederland zich op het gebied van AI voor moeten inzetten.

Ook zijn er allerlei met AI verbonden Europese initiatieven, zoals Gaia-X voor cloud- en data-infrastructuur. Hoewel er kritiek is op de wijze waarop dit project is opgezet, zou het goed zijn als Nederland vanaf het begin mede vormgeeft aan dergelijke projecten. Het bundelen van Europese krachten voor de satelliettechnologie Galileo en luchtvaartbedrijf Airbus werd ook met veel scepsis ontvangen, maar deze voorbeelden laten zien dat Europese landen wel degelijk succes kunnen boeken vanuit een situatie van achterstand.

Een derde domein van AI-diplomatie betreft het beschermen van Europese bedrijven tegen vijandige overnames. De groeiende verwevenheid tussen economie en politiek betekent dat Den Haag ook actiever moet inzetten op het creëren van politieke slagkracht wanneer Europese bedrijven in het gedrang zijn. De perikelen rondom asml als gevolg van het handelsconflict tussen de Verenigde Staten en China zijn daar illustratief voor.

Een laatste terrein betreft wetgeving en standaardisering. Dat laatste lijkt een technische aangelegenheid en krijgt daardoor relatief weinig aandacht, maar er is een ware geopolitisering van het gebied aan de gang. Het bepalen van technische standaarden wordt bijvoorbeeld maar liefst 24 keer genoemd in de Chinese AI-strategie. Europa is historisch juist sterk in het zetten van standaarden. Op het gebied van wetgeving betoogt de Fins-Amerikaanse hoogleraar rechten Anu Bradford dat er sprake is van een ‘Brussels Effect’ waarmee de EU wetgevende macht heeft in de hele wereld. Nederland zou zich dus diplomatiek op die sterke gebieden moeten richten.

Ook op het gebied van veiligheid bepleiten wij een perspectiefwisseling van natie naar netwerk. Hiermee bedoelen wij dat veiligheid vaak door de lens van legers en landsgrenzen wordt gezien. De aandacht gaat bij AI dan ook grotendeels naar militaire toepassingen, zoals autonome wapens. Dat is belangrijk, maar er is meer. Zoals we hebben gezien brengt AI veiligheidsrisico’s met zich mee door een ‘informatieoorlog’ die plaatsvindt op de internetplatformen die burgers gebruiken. Dat gevaar bevindt zich dus niet over de grens, maar in het netwerk waar wij ons allemaal op begeven. Het is belangrijk dat Nederland zich op internationaal en vooral Europees gebied inzet voor gezamenlijk beleid.

Maar er is ook veel te doen in eigen land. We moeten zicht krijgen op de technologieën die in ons land worden gebruikt, maar die ook voor autoritaire doeleinden of voor de belangen van buitenlandse overheden gebruikt kunnen worden. En we moeten streng zijn naar Nederlandse bedrijven die aan dergelijke praktijken bijdragen in het buitenland. Binnen het veiligheidsdomein is de laatste jaren meer aandacht voor cybersecurity en de gevaren van aanvallen op digitale infrastructuur. Meer aandacht is nu nodig voor de risico’s van de informatie die over die infrastructuur beweegt.

Wat leert het bovenstaande ons nu precies? Allereerst dat er tot op zekere hoogte sprake is van een internationale AI-race. Tegelijkertijd hebben we gezien dat er beperkingen zijn aan dat frame. Heel concreet betekent dit dat we als Nederland meer kunnen bereiken als we ons perspectief verschuiven van natie naar netwerk. Dat is wat ons betreft een cruciale boodschap, willen wij het verdienvermogen en de veiligheid van een klein en open land als Nederland ook in het aankomende AI-tijdperk zoveel mogelijk zeker stellen.

Lees meer