Intellectuele onheilsprofeten onderzoeken onze toekomst

Op weg naar het einde

In Oxford en Cambridge buigen topwetenschappers zich over een vraag die ieder mens aangaat: welke rampen bedreigen het voortbestaan van onze soort? Van bioterrorisme tot supercomputers tot een nucleaire winter – brrr.

Medium casper3

In Oxford heeft men last van een milde obsessie met het verleden. De universiteit daar laat zich er graag op voorstaan een van de oudste ter wereld te zijn. The Bear, een kleine pub in een achterafstraatje van de oude binnenstad, voert trots de reputatie het oudste dranklokaal van de stad te zijn. De eretitel ‘England’s oldest coffee house’ wordt geclaimd door twee uitspanningen, direct tegenover elkaar gelegen aan High Street. Ze worden bezocht door studenten die de chronologische hiërarchie van de colleges aan de universiteit feilloos kennen. Balliol is ouder dan Merton dat weer een paar jaar jonger is dan het alleroudste University College, opgericht in 1249. Volgens sommigen is St. Edmunds Hall eigenlijk nog ouder (van 1226), maar die kreeg pas officieel een college-status in 1957.

Te midden van dit historisch decor wordt een bijzonder soort wetenschappelijk onderzoek gedaan, onderzoek dat het getut over jaartallen in perspectief plaatst. Bij het Oxford Future of Humanity Institute doet een paar eeuwen meer of minder er namelijk niet toe. Daar wordt nagedacht over de ‘diepe toekomst’ van de mensheid: het voortbestaan van onze soort, niet op de schaal van een paar duizend, maar van miljoenen jaren.

Het werk van dit onderzoeksinstituut is iets om te lezen op een zonnige dag, wanneer je humeur tegen een stootje kan. De publicaties van het Future of Humanity Institute (fhi) staan bol van de rampscenario’s. Zo bestuderen ze onder meer alle mogelijke manieren waarop de mensheid in de toekomst zal kunnen worden uitgeroeid. Doorgaans is het voer voor een Hollywoodfilm – in Oxford worden enorme meteorietinslagen, killer robots en een kwaadaardige werelddictatuur bloedserieus onderzocht.

Onlangs bracht het fhi een rapport uit met daarin twaalf uitgewerkte scenario’s die beschrijven wat kan leiden tot het einde van de menselijke beschaving, of in elk geval het grootste deel daarvan. Wie wil weten of massale sterfte eerder door een wereldwijde pandemie dan door uit de hand gelopen genetische manipulatie zal worden veroorzaakt, kan Global Challenges: 12 Risks that Threaten Human Civilisation lezen: ‘Het eerste wetenschappelijk gefundeerde onderzoek naar mondiale risico’s met een mogelijk oneindige impact waarbij in extreme gevallen al het menselijk leven tot een einde komt.’

Sommige van de risico’s die het voortbestaan van de mens bedreigen vallen in de categorie ‘natuurramp’, zoals een uitbarsting van een supervulkaan die een wolk as uitstoot waardoor zonlicht wordt geblokkeerd en er een ‘landbouwwinter’ begint, met alle gevolgen voor onze voedselvoorziening van dien. In andere gevallen roept de mensheid het onheil over zichzelf af, zoals bij extreme klimaatverandering, op hol geslagen nanotechnologie of kunstmatige intelligentie die zo slim wordt dat ze de mens aan zich onderwerpt.

Medium casper2

Het goede nieuws: de kans dat de Apocalyps zich daadwerkelijk voordoet is klein. Volgens het fhi is de kans op een alles verwoestende meteorietinslag bijvoorbeeld 0,00013 procent (‘een meteoriet met een omvang van meer dan vijf kilometer raakt de aarde ongeveer eens in de twintig miljoen jaar’, schrijven ze, ‘maar we zijn hard op weg om de technologie te ontwikkelen waarmee we een meteoriet in een andere baan kunnen sturen’). En hoewel kernmacht Rusland wordt bestuurd door de onberekenbare Poetin achten de onderzoekers de kans op een alles vernietigende kernoorlog zeer klein. Van een aantal andere scenario’s, zoals een wereldwijd ineenstorten van het ecosysteem, is het onmogelijk om een concrete schatting te geven, omdat er daarvoor te veel onzekerheden zijn (zie kaders).

Hoewel de kans op rampen extreem klein is, is er alle reden om dit soort onderzoek te doen, vertelt Anders Sandberg, filosoof, computerwetenschapper en onderzoeker bij het Future of Humanity Institute. ‘De meeste wetenschappers houden zich bezig met dingen die een grote kans van slagen hebben’, vertelt hij. ‘Wij draaien het om. We zoeken naar gebeurtenissen met een kleine kans, maar met een enorme impact. De inzet is gigantisch bij risico’s die de gehele mensheid bedreigen, zeker als je ook toekomstige levens meetelt die er alleen zullen zijn als een ramp wordt voorkomen. Bovendien worden veel dingen zinloos als we ergens in de toekomst volledig weggevaagd worden. Wat is de muziek van Mozart waard als er straks niemand meer is om ervan te genieten?’

Met dit gedachte-experiment geeft Sandberg het intellectuele visitekaartje van het fhi af, dat zich hoofdzakelijk bezighoudt met ‘existential risk research’. Zoals de Zweedse Sandberg dit type onderzoek toelicht: ‘Bedenk het meest extreme toekomstscenario en kijk wat dat betekent voor de mensheid zo lang die zal bestaan.’

Hoe dan ook toont Sandberg zich een verdienstelijke gids in deze wetenschappelijke niche, die op een klein aantal topuniversiteiten voet aan de grond heeft gekregen (onder meer Cambridge en het Amerikaanse mit hebben vergelijkbare onderzoeksinstituten). Gedurende de dag dat ik met hem optrek komen er onderwerpen aan bod die ik tot dan toe niet tot het terrein van een serieuze wetenschapper rekende, zoals de kans op een invasie van buitenaardse wezens en de mogelijkheid mensen weer tot leven te wekken na de dood.

Mijn zoektocht naar kennis over de verre toekomst die de mensheid wacht (of niet) begint op een gure maandagochtend in februari. Het Future of Humanity Institute zit op een plek die verrassend bescheiden is voor een team wetenschappers dat zich bezighoudt met zoiets hoogdravends als de toekomst van de mens. Ik meld me bij een dertien-in-een-dozijn kantoorgebouw dat prima had kunnen dienen als decor voor The Office. Anders Sandberg zelf doet de deur open. Terwijl hij een enorme mok loeisterke koffie voor me klaarmaakt, wijst hij op een whiteboard dat een ruim zes meter lange muur volledig beslaat. Het is volgekrabbeld met ingewikkelde schema’s en losse gedachten (‘Zijn wij dieren in de tredmolen van technologie?’).

‘Er is hier vanochtend een team van een grote verzekeraar langs geweest’, legt hij uit. ‘We doen hier onderzoek naar risico’s, dus ons werk interesseert ze zeer.’ Het is duidelijk dat de belangstelling niet echt wederzijds is. Het hart van Sandberg (begin veertig, groot, blond met samengeknepen pretoogjes) gaat pas echt sneller kloppen als het gaat om risico’s waar geen polissen voor bestaan.

Eén daarvan komt naar voren in Sandbergs onderzoeken naar buitenaards leven. Samen met collega Stuart Armstrong schreef hij een paper over de vraag waarom de mens nog nooit een andere intelligente levensvorm heeft waargenomen in het sterrenstelsel, terwijl dat gezien de leeftijd en omvang van het universum statistisch gezien al lang had kunnen gebeuren. In vakkringen wordt dit de Fermi-paradox genoemd (naar de natuurkundige die dit vraagstuk het eerst formuleerde, Enrico Fermi). Sandberg en Armstrong vragen zich af of de mens de eerste kan zijn die een ‘leeg en betekenisloos universum’ zal koloniseren. Zo ja, dan is er nog meer reden om onderzoek te doen naar de bedreigingen voor de menselijke beschaving omdat die in de toekomst een veel groter terrein zal omspannen dan enkel de planeet aarde.

Medium casper1

Ruimtewezens, intergalactische reizen – drijft de existential risk research soms niet iets te veel af van waarover mensen zich in het hier en nu druk zouden moeten maken? Sandberg glimlacht. ‘Ik zeg niet dat alle onderzoeksbudgetten naar dit soort onderwerpen moeten, maar het is goed als in ieder geval een paar wetenschappers zich buigen over de meest vergaande scenario’s. Bovendien: veel mensen vonden kunstmatige intelligentie lange tijd onzin. Nu staan de kranten er bol van. De echt moeilijke vraag is: waar trek je de grens? Bij welk percentage zeggen we: dit is onzin? Daarom doen we studies als die over de twaalf Global Challenges. Om het debat aan te jagen over welke risico’s we serieus moeten nemen. Uiteindelijk gaat het erom hoe je op een zinvolle manier kunt nadenken over deze vreemde, rommelige vragen.’

Terwijl Sandberg spreekt, zwaait een medaillon ter grootte van een rijksdaalder dat om zijn nek hangt heen en weer. Het sieraad is een teken dat hij cryonist is, legt Sandberg uit. Na zijn dood zal hij worden geconserveerd in een bad vloeibare stikstof, op -196 graden. Ergens in de verre toekomst, als het probleem van de natuurlijke dood door de mens is overwonnen, hoopt hij te worden ontdooid en eeuwig te kunnen leven. Alcor, een bedrijf in Californië, is verantwoordelijk voor de procedure. Sandberg heeft gekozen voor de ‘light-optie’: alleen zijn hoofd zal worden bewaard. Hij gokt erop dat het vooral van belang is dat de hersenen intact blijven en dat een lichaam overbodig zal zijn, of kan aangroeien op basis van bestaande cellen. ‘Maar natuurlijk hoop ik de toekomst gewoon te kunnen meemaken zonder eerst te hoeven sterven’, zegt hij monter. Net als veel van zijn collega’s heeft hij grote verwachtingen van technieken die een mensenleven ver voorbij bestaande biologische grenzen kunnen rekken.

‘Wat is de muziek van Mozart waard als er straks niemand meer is om ervan te genieten?’

Als Sandberg inderdaad ergens duizenden jaren na nu uit de vriescel wordt gehaald, kan hij waarschijnlijk onder dezelfde baas blijven werken. Filosoof Nick Bostrom, de oprichter-directeur van fhi, is ook cryonist. Vandaag is Bostrom niet in Oxford omdat hij tourt over de wereld om zijn nieuwste boek te promoten: Superintelligentie, een typisch toekomst-van-de-mensheid-boek waarin een vraag wordt doorgedacht die momenteel topprioriteit is op het fhi: moet de mens vrezen voor de opmars van slimme robots?

In Superintelligentie gaat Bostrom uit van het idee dat, aangezien de rekenkracht van computerchips steeds toeneemt, er ergens in de toekomst een punt komt waarop kunstmatige intelligentie de menselijke intelligentie evenaart. Computers zijn nu al slimmer dan de mens in het schaakspel en bij sommige kennisquizzen, maar het ligt in de lijn der verwachting dat de mens ooit op alle gebieden geëvenaard of zelfs voorbijgestreefd wordt door robots. En wat er dan gebeurt, ligt naar alle waarschijnlijkheid buiten onze macht. Bostrom schetst de mogelijkheid van een ‘intelligentie-explosie’: een slimme computer bouwt een nog slimmere computer, die weer een nog intelligentere machine bouwt et cetera. In no time kunnen robots oneindig veel slimmer zijn dan de mens met zijn beperkte hersencapaciteit. Er bestaat dan een reëel risico dat er voor de mens geen rol meer is weggelegd en dat hij daarom wordt weggevaagd. Daarvoor hoeft die supercomputer niet eens kwaadwillend te zijn. Het kan goed zijn dat superslimme robots de belangen van de mens gewoonweg niet in overweging nemen bij het uitvoeren van hun plannen, zoals de mens niet maalt om een mierenkolonie als er een gebouw wordt neergezet.

Nu zou je dit soort scifi-achtige voorspellingen kunnen afdoen als wilde verhalen van een gekke professor die te veel naar Star Trek heeft gekeken, maar dan ga je voorbij aan het feit dat de fine fleur van wetenschap en bedrijfsleven dit soort kwesties zonder een spoortje ironie beziet. Natuurkundige Stephen Hawking bijvoorbeeld uitte eind vorig jaar in een interview met de bbc de zorg dat ‘het ontwikkelen van volledige kunstmatige intelligentie het einde van de mensheid kan betekenen’. Eerder maande Silicon Valley-ondernemer en tech-goeroe Elon Musk beleidsmakers om het onderzoek naar kunstmatige intelligentie te reguleren ‘om te voorkomen dat we onszelf iets enorm stoms aandoen’.

Zowel Elon Musk als Stephen Hawking was in januari aanwezig op een conferentie in Puerto Rico die je het best kunt omschrijven als de Bilderberg-conferentie voor hogere robotkunde: een verzameling van de best and brightest op het gebied van computerwetenschappen, filosofie en aanverwante gebieden, alleen op uitnodiging en verboden voor pers. Bijna de voltallige staf van het fhi was er. En waar de Bilderberg-conferentie grossiert in geheime onderonsjes brachten de deelnemers aan de Puerto Rico-conferentie een gezamenlijke open brief uit die tegelijk optimistisch en bezorgd van toon is. Met behulp van kunstmatige intelligentie is het beëindigen van ziekte en armoede niet ondenkbaar, maar er is nog een hoop onderzoek nodig om ervoor te zorgen dat een KI-systeem doet wat wij willen dat het doet, was de conclusie.

Hoe we de robots ondergeschikt houden aan onze wensen is een vraag waarover bij het fhi volop wordt nagedacht. ‘Wat als we de computer zo programmeren dat hij enkel positieve doelen nastreeft, zoals het maximaliseren van menselijk geluk?’ is bijvoorbeeld een gedachtegang. Dat klinkt fraai, maar wat als de kunstmatige intelligentie bedenkt dat de mensen het meeste geluksgevoel ervaren als ze worden vastgeketend en elektroden krijgen ingebracht die constant het deel van hun brein stimuleren dat zorgt voor een plezierig gevoel? Doel bereikt, maar mensen worden gereduceerd tot willoze idioten die weliswaar ‘grijnzen van gelukzaligheid’, maar voor de rest een vrij leeg leven leiden, zo schetst Bostrom in Superintelligentie. En wie weet kiest een supercomputer ervoor om iedereen die zich tegen dit plan verzet uit de weg te ruimen.

Maar wat nu als we een superslim robotbrein zorgvuldig opbergen en ervoor zorgen dat het zelf geen doelen heeft afgezien van het beantwoorden van onze vraagstukken? Zo’n machine dient toch louter het gemak van de mens? Dit gedachte-experiment over zogenaamde ‘kunstmatige intelligentie in een doosje’ is ook uitgewerkt door het fhi. Nick Bostrom, Anders Sandberg en Stuart Armstrong publiceerden er in 2012 een paper over in het wetenschappelijke tijdschrift Minds and Machines.

Het drietal komt tot de conclusie dat zo’n opgehokt digitaal brein weliswaar veiliger is dan een volstrekt ongecontroleerde supercomputer, maar dat de gevaren voor de mens nog steeds substantieel zijn. Het kan immers mensen manipuleren om hem vrij te laten, zoals de insecten in de doos van Pandora deden. Als kunstmatige intelligentie minstens zo slim is als wijzelf weet ze precies wat de zwakke plekken van haar bewaker zijn en voor welke argumenten die vatbaar is. Een mogelijke oplossing zou zijn een computer zo te programmeren dat hij alleen met ja en nee kan antwoorden en zijn eigen geheugen na elke vraag wist, zodat hij niet verder leert. Maar hoe voorkom je dan dat een kwaadwillende hacker inbreekt en de waarborgen weghaalt die de slimme machine in toom houden? De fhi-onderzoekers gaan een lange lijst van dit soort ‘wat als’-vragen af. Uiteindelijk komen ze uit op een conclusie die doet denken aan doctor Frankenstein: we denken misschien aan de knoppen te zitten maar voor hetzelfde geld creëren we een monster dat we niet kunnen beheersen.

Medium casper4

Een kleine honderd kilometer ten oosten van Oxford kraakt men ook de hersenen over de vreemde, rommelige vraagstukken die te maken hebben met de verre toekomst van de mens. De Universiteit van Cambridge is momenteel druk bezig met het opzetten van het Centre for the Study of Existential Risk (cser), dat een missie heeft die vergelijkbaar is met Oxfords Future of Humanity Institute: onderzoeken welke bestaansrisico’s dreigen voor de mens. Normaal heerst een stevige dosis rivaliteit tussen de twee universiteiten (Oxford én Cambridge duiden de ander aan als ‘the other place’) maar op het gebied van existential risk research trekken de twee samen op, zo legt Seán Ó hÉigeartaigh (rossig haar, korte baard, hemelsblauw overhemd) uit. Hij was onderzoeker bij het fhi, is nu uitvoerend directeur van het cser en heeft een achtergrond in de bio-informatica. Volgens de Ierse Ó hÉigeartaigh is het aantal technologische ontwikkelingen die een potentieel gevaar vormen voor de mens zo omvangrijk dat de wereld groot genoeg is voor meer dan één hooggeleerd rampenpreventieteam.

‘De mensheid staat op een kruispunt’, zegt Ó hÉigeartaigh, die zijn zinnen eerst in zijn hoofd lijkt te repeteren voordat hij ze uitspreekt. ‘De ontwikkeling van verschillende technologieën zit momenteel in een stroomversnelling. Ze worden goedkoper en toegankelijker. Denk aan 3D-printen. Nieuwe technieken worden vooral bedacht met positieve doelen in gedachten, maar ze kunnen ook verkeerd uitpakken. Iets als kunstmatige intelligentie is een zogenaamde _dual-use-_technologie. Het kan geweldig veel goeds doen, maar ook geweldig veel schade aanrichten.’

Als tweede voorbeeld van een technologische ontwikkeling die aan de horizon opdoemt noemt Ó hÉigeartaigh synthetische biologie. ‘Je kunt dit zien als een extreme vorm van genetische modificatie. Momenteel worden de eerste stappen gezet richting het bouwen van een levend organisme dat from scratch door de mens is ontworpen. Er zijn gunstige toepassingen te bedenken, bijvoorbeeld in de gezondheidszorg of in de afvalverwerking. Tegelijk zijn er onbekende risico’s: zo kunnen we niet precies voorspellen hoe zo’n ontworpen organisme een bestaand ecosysteem beïnvloedt.’

Het zo ver mogelijk terugdringen van onzekerheden waarmee onze technologische toekomst is omgeven, behoort ook tot het werk van het cser. Zo onderzocht Ó hÉigeartaigh hoe accuraat de voorspellingen over kunstmatige intelligentie tot nu toe zijn geweest. Het bleek dat die van de expert nauwelijks beter waren dan die van de geïnformeerde leek. ‘Dat kun je interpreteren als: iedereen roept wat en het maakt niet uit wie je gelooft. Maar je kunt het ook zien als een signaal dat we de manier waarop we de toekomstvoorspelling maken grondig moeten verbeteren. Daarom moet meer onderzoek worden gedaan naar potentiële risico’s op de lange termijn, hoe klein die ook zijn. Tot nu gaat de meeste aandacht naar kortetermijnrisico’s. We besteden enorm veel middelen om te achterhalen of een bepaalde stof de kans op kanker met een paar procent vergroot of verkleint, maar een ontwikkeling die het leven van miljarden mensen kan ontwrichten krijgt minder aandacht.’

Momenteel is Ó hÉigeartaigh bezig met het verzamelen van fondsen voor het cser en dat gaat niet altijd gemakkelijk. ‘Binnen de bestaande kaders is het lastig om geld op te halen voor onderzoek naar existentiële risico’s. Wetenschap draait om concrete resultaten, het liefst op de korte termijn. Wij doen onderzoek naar dingen waarvan we niet precies weten wanneer ze zich voordoen en óf ze zich wel voordoen. En we hanteren een extreem lange tijdshorizon. De kans is groot dat niemand die nu leeft de vruchten plukt van ons onderzoek. Het is alsof de uitvinder van de stoommachine alvast nadenkt over een veilige F-16.’

Wat helpt om publieke en private geldschieters over de streep te trekken zijn klinkende namen, en die heeft het cser meer dan voldoende. Het instituut werd opgericht door onder anderen Jaan Tallinn, die rijk werd als mede-bedenker van internetbeldienst Skype en nu als filantroop het fhi, het cser en het Machine Intelligence Research Institute in Berkeley, California ondersteunt. De andere founding directors zijn Huw Price, die in Cambridge de Bertrand Russell-leerstoel voor filosofie bekleedt, en de eminente Martin Rees, voormalig Astronomer Royal en oud-president van de Royal Society en een van de meest vooraanstaande astrofysici ter wereld.

Ik zoek Lord Rees (hij is ook lid van het Britse Hogerhuis) op bij Trinity College, waar hij tot voor kort Master was. Ik loop langs de eiken dining hall met Holbeins portret van Hendrik de Achtste, ga een trappetje op vanaf de stille binnenplaats met perfect gemaaid gazon en tref hem, gekleed in blauw jasje en vrijetijdsbroek, lezend op de bank in zijn lichte, ruime werkkamer. Ik wil Martin Rees graag spreken omdat hij het gevaar van menselijke (zelf)vernietiging al vroegtijdig voorzag. In 2002 verscheen zijn boek Our Final Century, waarin hij de kans dat de mens het einde van de 21ste eeuw niet zou halen op vijftig procent schatte. Hij schreef het boek naar eigen zeggen als ‘citizen scientist’ en ‘bezorgd lid van het menselijk ras’.

‘Je zou verwachten dat ik, als astronoom, me vooral druk zou maken over komeetinslagen en dergelijke’, zegt hij met een glimlach op zijn scherpe gelaat. ‘Niet het geval. Wat ons voortbestaan bedreigt zijn juist die dingen die de mensheid zelf heeft gecreëerd. De vorige eeuw bracht een technologie die de mensheid kon vernietigen. Een reële dreiging van totale vernietiging door duizenden kernbommen is gelukkig enigszins minder geworden, maar in de 21ste eeuw zijn er veel meer technologieën die enorme risico’s in zich dragen. Denk aan bio- en computerwetenschappen, maar ook aan geo-engineering, het kunstmatig vormgeven van het klimaat. Dat kan een ramp worden: niet alle landen zullen de thermostaat hetzelfde willen instellen.’

‘De global village zal een dorpsgek hebben, en die kan een wereldwijd bereik hebben’

Dat we ons over dit soort kwesties druk maken toont volgens Rees aan dat we ruimschoots zijn aangeland bij het antropoceen, een term waarmee het tijdperk wordt aangeduid waarin aarde en atmosfeer definitief worden gevormd door het handelen van de mens. ‘De aarde is 45 miljoen jaar oud. Maar dit is de eerste eeuw waarin een soort, de onze, de toekomst van de biosfeer kan bepalen’, zegt Rees. ‘We hebben die macht dankzij nieuwe technologie, maar die maakt ons op allerlei nieuwe manieren kwetsbaar.’

Extra kwetsbaar zijn we ook dankzij globalisering. Een medische of biologische ramp verspreidt zich nu veel gemakkelijker over de wereld. En ook Rees benadrukt dat technologie veel democratischer is geworden. ‘Je kon niet zomaar een clandestiene kernkop maken. De benodigdheden voor cyberterrorisme of bioterrorisme zijn veel kleiner.’ Het is een van zijn ‘ergste nachtmerries’, zegt Rees, dat een eco-fanaticus op het idee komt dat miljarden mensen een bedreiging zijn voor de aarde en goedkope en toegankelijke biotechnologie zal gebruiken om een dodelijke aanslag te plegen. ‘De global village zal een dorpsgek hebben, en die kan een wereldwijd bereik hebben.’

Gaat het cser of het fhi voorkomen dat die mondiale dorpsgek zich van een gevaarlijk wapen kan voorzien? Eigenlijk is dat een verkeerde vraag. Zowel in Oxford als in Cambridge zijn ze van één ding overtuigd: onderzoek naar bestaansrisico’s is geen kwestie van ontwikkelingen proberen tegen te houden. Technologie schrijdt haast altijd voort en doet zelden een stap terug. Zeker in ons kapitalistisch systeem dat beloningen biedt voor wie de eerste is die een nieuwe technologie op de markt brengt en het risico durft te nemen. De wetenschappers van het cser en het fhi zijn dan ook alles behalve technofoob (de meeste verwachten veel heil van technologie, mits in de juiste banen geleid). Eerder zijn ze de rationele variant van de onheilsprofeet. In plaats van de straat op te gaan en rond te bazuinen dat het einde der tijden nabij is, proberen zij in te schatten uit welke hoek het gevaar precies komt en hoe de mens moet denken over zoiets ongrijpbaars als de uitroeiing van zijn eigen soort.

Minstens zo fundamenteel is de vraag of de mensheid het hoe dan ook waard is om gered te worden. Martin Rees reageert enigszins verbaasd als ik dit aan hem vraag. ‘Natuurlijk. Ik ben een mens, dus het voortbestaan van de mens gaat me aan het hart.’ Voor Anders Sandberg in Oxford is het antwoord minder klip en klaar. Hij moet lachen als ik de vraag stel. ‘Dat hangt ervan af wat voor waarde je toekent aan een mensenleven. Je zou kunnen beargumenteren dat we niets meer dan een toevallige verzameling van atomen zijn en dat deze specifieke samenstelling geen aparte morele status heeft.’

En is er ergens een lichtpuntje te vinden in de diepe toekomst die de mensheid wacht? Met al die nadruk op rampen en vernietiging lijkt het misschien niet zo. Toch brachten Owen Cotton-Barratt en Toby Ord, twee onderzoekers van het Future of Humanity Institute, onlangs een kort artikel uit waarin ze een nieuw type onderzoek aankondigden dat parallel moet lopen aan het bestuderen van de grote rampen die ons voortbestaan bedreigen. Verwacht de komende jaren onderzoek naar existential hope: de kans dat in de verre toekomst iets extreem goeds gebeurt.


De twaalf belangrijkste rampen die de mensheid kunnen vernietigen

Rampen met een ‘oneindige impact’, die al het menselijk leven nu en in de toekomst vernietigen, worden onderschat door beleidsmakers en opgeblazen in de populaire cultuur. Daarom deed het Future of Humanity Institute in Oxford samen met de Zweedse Global Challenges Foundation de eerste serieuze poging om de belangrijkste bestaansrisico’s die ons boven het hoofd hangen in kaart te brengen (en ze berekenden de kans dat deze rampen zich voordoen). Lees en huiver.

1. Extreme klimaatverandering

‘Gewone’ klimaatverandering (tot vier graden opwarming van de aarde ten opzichte van nu) is een mondiaal probleem. Verdere opwarming, zoals bijvoorbeeld kan gebeuren door het smelten van de permafrost, leidt tot een catastrofe die de menselijke beschaving bedreigt. Massale sterfte, hongersnoden, sociale ineenstorting en massale migratie zijn dan zeer waarschijnlijk. Kans: 0.1 procent.

2. Kunstmatige intelligentie

Het meest besproken bestaansrisico van dit moment, maar een van de meest onbegrepen. Experts verschillen sterk van mening over hoe lang het zal duren voordat computers menselijke intelligentie zullen evenaren, en of dit überhaupt ooit mogelijk zal zijn. Of superslimme computers het menselijk bestaan zullen bedreigen is ook verre van zeker. De auteurs van het Global Challenges-rapport schatten de kans daarom op 0 tot 10 procent.

3. Kernoorlog

De kans op een nucleaire oorlog tussen de Verenigde Staten en Rusland is aanzienlijk kleiner geworden, maar atoombommen blijven een existentieel gevaar. Niet zozeer omdat er in één klap zoveel doden vallen (met de huidige voorraad kernwapens is een dodenaantal van meer dan twee miljard onwaarschijnlijk) maar omdat de rook de zon voor lange tijd kan blokkeren (met een ‘nucleaire winter’ tot gevolg) of omdat grote delen van de ozonlaag worden verwoest. Kans: 0,005 procent.

4. Mondiale pandemie

Een bekend type ramp vanwege eerdere ervaringen met de pest en de Spaanse griep. De kans is groter dat de mensheid ten onder gaat aan één allesvernietigende pandemie dan aan een aantal kleinere. Kans: 0,0001 procent.

5. Ecologische ineenstorting

Een drastische verandering in het mondiale ecosysteem, waardoor de aarde niet langer een miljardenpopulatie kan voorzien en het mensenras uitsterft. Een extreem complex risico, met veel onbekende oorzaak-gevolg-relaties. Kans: niet te schatten.

6. Ineenstorting mondiaal systeem

Economische of maatschappelijke ineenstorting op wereldschaal. Een aanhoudende economische depressie met massaal bankroet, bijvoorbeeld. Gaat gepaard met sociale onrust en het wegvallen van law and order. Een wereldwijd systeemfalen kan het einde zijn van de menselijke beschaving. Veel onbekende variabelen. Kans: niet te schatten.

7. Grote asteroïde-inslag

Een grote komeet raakt de aarde waardoor onze beschaving wordt verwoest of zelfs al het menselijk leven in één klap wordt uitgeroeid. Gelukkig is de kans groot dat we dankzij reeds bestaande onderzoeksprogramma’s een dodelijke komeet in een andere baan kunnen leiden. Kans: 0,00013 procent.

8. Supervulkaan

Een vulkaan die meer dan duizend kubieke kilometer materiaal uitspuwt. Infrastructuur en mensen blijven in grote mate intact, maar de uitbarsting kan het zonlicht blokkeren. Dit is eerder gebeurd in de geschiedenis van de planeet. Met de huidige kennis en technologie kunnen we er niks tegen toen. Kans: 0,00003 procent.

9. Synthetische biologie

Bouwkunde en biologie gecombineerd. Kan de mensheid helpen, maar een verkeerd ontwerp kan mensen of een cruciaal gewas (rijst, bijvoorbeeld) aantasten. Ook bestaat het gevaar van bio-oorlog en bioterrorisme. Kans: 0,01 procent.

10. Nanotechnologie

Superprecieze machines op atomair niveau. Kunnen gebruikt worden om nieuwe materialen te creëren maar ook voor nieuwe wapens. En er is het ‘grijze brij’-scenario: op hol geslagen zichzelf reproducerende nanomachines gebruiken de hele planeet als grondstof waardoor er niets meer overblijft. Kans: 0,01 procent.

11. Onbekende gevolgen

De ‘onbekende onbekendheden’. Voorbeelden: ontwikkelt iemand een supervervuilende stof die de hele mensheid steriel maakt? Sturen we per ongeluk signalen de ruimte in die moordlustige aliens naar de aarde lokken? De kans dat ze zich voordoen is verwaarloosbaar klein, maar samen verdienen ze een eigen categorie in het onderzoek naar bestaansrisico’s. Kans: 0,1 procent.

12. Slechte global governance

Het ontstaan van een totalitaire werelddictatuur of een andere mondiale overheersing die menselijke beschaving ten onder doet gaan. Kans: onmogelijk in te schatten.


Beeld: (1) Deep Impact, 1998, regie Mimi Leder (United International Pictures); (2) Volcano, 1997, regie Mick Jackson (Twentieth Century Fox Film Corporation) (3) Contagion, 2011, regie Steven Soderbergh (Warner Bros.); (4) The Day After Tomorrow, 2004, regie Roland Emmerich (Twentieth Century Fox Film Corporation)