Mensen zijn ondoorgrondelijke wezens. Dat geldt niet alleen de ander, maar ook onszelf. ‘Wij mensen van de kennis, we kennen onszelf niet’, zo vangt Nietzsche zijn Genealogie van de moraal (1887) aan: ‘We blijven onszelf nu eenmaal noodzakelijkerwijze vreemd.’ Dat klinkt contra-intuïtief. Zijn wij van alle dingen niet het meest bekend met onszelf? Dat mag zo zijn, maar te denken dat dit tot zelfkennis leidt, is volgens Nietzsche de moeder van alle dwalingen. In zijn datzelfde jaar gepubliceerde De vrolijke wetenschap legt hij uit waarom dit zo is: ‘Het bekende is het gewone; en het gewone is het moeilijkst te “doorzien”, dat wil zeggen, als probleem te zien, dat wil zeggen als vreemd, als ver, als “buiten ons” te zien.’
Is dat de reden dat we ons in onze pogingen onszelf te doorgronden van oudsher hebben vergeleken met en onderscheiden van wezens die buiten ons liggen, zoals onsterfelijke goden en dieren? Sinds de opkomst van de moderne techniek is de machine een geliefde metafoor geworden. Een eeuw nadat Descartes de werking van het menselijk lichaam in louter mechanistische termen beschreef, maar daarbij – wellicht uit angst vanwege ketterij vervolgd te worden – een uitzondering maakte voor de onsterfelijke, immateriële ziel, reduceerde Julien Offray de La Mettrie in zijn voor alle zekerheid anoniem gepubliceerde De mens een machine (1748) ook de menselijke geest tot een product van materiële processen. Volgens De La Mettrie zijn wij net als andere dieren louter machines, hoogstens wat complexer. Of, zoals Daniel Dennett, een hedendaagse volgeling van De La Mettrie, het uitdrukt: natte robots (moist robots).
Het is een bijzonder vruchtbare metafoor gebleken die de moderne geneeskunde vleugels heeft gegeven. Metaforen zijn meer dan een ‘ornamentele vernis’. Ze zijn cognitieve instrumenten die ons niet alleen helpen onbekende of ongrijpbare zaken in concepten te vangen, maar ze oriënteren ook ons handelen. Door het hart als een mechanische pomp op te vatten werd niet alleen een nieuw begrip van de bloedsomloop mogelijk, het opende ook de weg om, net als bij machines, kapotte onderdelen, bijvoorbeeld een defecte hartklep, te repareren of te vervangen. In november 2021 werd in het Medisch Centrum Utrecht zelfs voor het eerst een compleet mechanisch kunsthart bij een patiënt geplaatst. Daarmee werd de conceptuele metafoor tot wat we met filosofe Katherine Hayles een materiële metafoor zouden kunnen noemen. Een tot realiteit geworden denkbeeld. De mens is geen machine, maar wordt aan de leiband van de metafoor tot machine gemaakt.
Nou ja, ten dele dan. Hoe vruchtbaar de machine-metafoor ook mag zijn, we mogen een metafoor niet verwisselen met de realiteit. Hij onthult op zijn best een bepaald aspect van wat en wie wij zijn en plaatst dat op de voorgrond. Hoewel het mechanistisch-materiële mensbeeld de huidige levenswetenschappen domineert, slaagt het er nog altijd niet in greep te krijgen op onze subjectieve binnenwereld: gedachten, waarnemingen, lichamelijke sensaties, motieven en gevoelens, morele waarden, schoonheid, religieuze extase. De levende ervaring van de kleur of smaak van aardbeien of van de vlinders in je buik bij een verliefdheid laten zich niet in mechanische termen beschrijven.
En zelfs wanneer je deze ervaringen in een wiskundige formule zou kunnen vangen, is die niet hetzelfde als de ervaring zelf. Maar hoewel iedereen bekend is met dergelijke kwalitatieve ervaringen, zijn ze door de vluchtigheid van onze binnenwereld nog lastiger te vangen dan onze lichamelijke kenmerken, die deel uitmaken van de fysieke, meetbare buitenwereld. Daarom zijn we wat de binnenwereld betreft aangewezen op niet-materiële metaforen. Omdat Descartes’ ‘onsterfelijke ziel’ aan geloofwaardigheid heeft verloren, is het levensverhaal een populair identificatiemodel geworden. Als we onszelf of anderen trachten te begrijpen, nemen we vaak onze toevlucht tot verhalen. Evenals een verhaal speelt ons leven zich af in de tijd, heeft het een begin en een eind, is het verweven met herinneringen aan voorafgaande gebeurtenissen en anticipaties van toekomstige, en doordrenkt met motieven, gevoelens en waarde. En net als verhalen wordt ons leven gekenmerkt door toeval en tegenwerking. Ons leven is een plan waar telkens iets tussenkomt. En anders dan de materiële processen in de buitenwereld, die door algemene wetmatigheden worden bepaald, is ieder levensverhaal uniek.
Het verhaal, zo betoogt de filosoof Paul Ricoeur, biedt niet alleen een treffend beeld van ons leven, onze ‘narratieve identiteit’ wordt ook daadwerkelijk geconstrueerd door middel van verhalen. Uit de vele en vaak ambigue levenservaringen construeren we een expliciet levensverhaal om ons vervolgens daarmee te identificeren. Daarbij maken we niet alleen gebruik van onze eigen levenservaring, maar identificeren we ons ook met de levensverhalen van reële en fictieve rolmodellen.
Mensen zijn onuitputtelijke wezens. De geschiedenis van de technologie biedt telkens nieuwe metaforen aan om onszelf te duiden. Waar de millennia-oude ‘alfa-technologie’ van het gesproken en op schrift en te boek gestelde verhaal ons een narratieve identiteit verschafte en de meer recente ‘bèta-technologie’ van de machine een mechanistisch zelfbeeld, is met de ontwikkeling van de computer en de daarop gebaseerde informatietechnologieën een nieuwe bron van zelfidentificatie op de voorgrond getreden. Met de computer-metafoor wordt de mens – en in het bijzonder het menselijke brein – voorgesteld als een ‘informatie-verwerkende machine’.

Het fascinerende van de computer is dat hij een brug slaat tussen alfa- en bèta-technologieën. Computers zijn weliswaar machines (ze vormen de subklasse van automaten, die op basis van een programma ingevoerde data zelfstandig kunnen verwerken), maar tot de verwerkte data behoren ook verhalen (bijvoorbeeld bij narratieve computergames) en andere talige en op taal gebaseerde verschijnselen, zoals het recht (juridische expertsystemen) en de politiek (kieshulpen). In het menselijk verkeer ontpopt de computer zich bovendien als een ‘gamma-technologie’, gericht op de regulering van menselijk gedrag.
Sociale netwerken als Facebook, datingsites als Tinder en gsm-, ble-, gps- en nfc-chips in telefoons en smartcards bepalen met wie en op welke wijze we kunnen communiceren en elkaar ontmoeten, welke ruimtes en transportmiddelen we mogen betreden en welke financiële transacties we kunnen verrichten. Omdat de programmeerbare computer ieder proces kan simuleren noemde de computerpionier Alan Turing hem niet zonder reden een universele machine. En informatietechnologie wordt om die reden ook wel aangeduid als een systeemtechnologie, niet alleen omdat deze uit een veelheid van heterogene componenten bestaat (hardware, software, protocollen, wetgeving et cetera), maar ook omdat ze vervlochten is met vrijwel alle systemen en processen in de samenleving. Daarom ook functioneert de informatietechnologie steeds meer als het ‘besturingssysteem’ van ons leven.
In die zin is ook de computer-metafoor zowel een conceptuele als een materiële metafoor. En deze metafoor verleidt ons niet alleen om onszelf als een database op te vatten, maar transformeert ons ook daadwerkelijk tot een database.
Data- getallen, woorden, afbeeldingen, geluiden – vormen de grondstof van de computer en worden door de computer in digitale vorm opgeslagen en verwerkt. Databeheer vormt daarom de basis van de informatietechnologie en daarbij spelen databasemanagementsystemen een centrale rol. Het begrip ‘database’ kan daarbij op meerdere dingen slaan. In de eerste plaats wordt het gebruikt om een verzameling data aan te duiden, ook kan het verwijzen naar de fysieke drager van die data (boek, kaartenbak, computergeheugen) of naar de manier waarop die data zijn georganiseerd (het databasemodel).
Met betrekking tot de database kunnen vier basisoperaties worden onderscheiden, die wel het abcd van het databeheer worden genoemd: add (toevoegen van data), browse (doorzoeken van data), change (updaten van data) en destroy (verwijderen van data). Databases kennen een lange geschiedenis, die wordt gekenmerkt door een toenemende flexibilisering. Het ouderwetse telefoonboek is een voorbeeld van de starre papieren database. Hoewel daarin snel en efficiënt de naam van een abonnee kon worden opgezocht, vereiste het toevoegen, updaten en verwijderen van data dat het telefoonboek in zijn geheel werd herdrukt, tot verdriet van de postbode die ze moest distribueren. Kaartenbakjes met contactgegevens hadden het voordeel dat daarin tamelijk eenvoudig data konden worden toegevoegd, veranderd en verwijderd. Het probleem bleef echter dat ook dit type database maar langs één dimensie kon worden doorzocht, op naam van de abonnees. Wie meerdere dimensies wilde doorzoeken moest de kaartenbak in zijn geheel herordenen of meerdere kaartenbakken naast elkaar gebruiken (zoals de klassieke indexen in de bibliotheek, waarin dezelfde data eenmaal op auteur en eenmaal op onderwerp zijn geordend).
Met de in netwerken verbonden computers heeft de flexibilisering van het databeheer een enorme vlucht genomen. Met een eenvoudig spreadsheetprogramma kan een contactenlijst op ieder kenmerk – naam, adres, postcode, telefoonnummer, e-mailadres, leeftijd, beroep – worden geordend. Ook het kopiëren en uitwisselen van data en complete databases wordt ogenschijnlijk een fluitje van een cent. De in de jaren zeventig tot ontwikkeling gekomen relationele database vormt in zekere zin het hoogtepunt van deze flexibilisering. Hierin wordt het object van databeheer ‘geatomiseerd’, zoveel als mogelijk opgedeeld in enkelvoudige, niet verder deelbare elementen. Vervolgens kan met behulp van zoekopdrachten (query’s) in principe ieder element met alle andere worden gerecombineerd. In een webshop, streamingdienst of op een datingsite kun je zo het artikel, de film of de partner selecteren die aan al je criteria voldoet.
Databasemanagement is een economische goudmijn. Het succes van mondiale Big Tech-bedrijven als Amazon, streamingdiensten als Spotify en Netflix en datingsites als Tinder is gebaseerd op de transformatie van het klantenbestand tot een relationele database. Wanneer je een boek bij Amazon bestelt, worden je persoonsgegevens niet alleen gerelateerd aan je zoek- en koopgeschiedenis en beoordelingen, maar ook aan die van alle andere klanten. Op basis daarvan doet Amazon je aanbevelingen – ‘klanten die x kochten, kochten ook y’. Inmiddels is meer dan een derde van alle door Amazon verkochte artikelen het resultaat van dergelijke aanbevelingen. In 2012 verwierf het bedrijf een patent op een anticipatory shipment-algoritme, dat artikelen al in jouw richting stuurt voordat je ze hebt besteld of zelfs maar zou kunnen weten dat je ze zou willen kopen.
Dankzij de datafication of everything worden steeds meer data gekoppeld aan onze persoonsgegevens, van financiële transacties, telefoonverkeer en mediagebruik tot aan onze medische en genetische data, politieke voorkeuren en verplaatsingen door de geografische ruimte. Bovendien worden de talloze meer of minder gestructureerde databases in toenemende mate samengevoegd tot gigantische ‘datameren’ (Big Data), die worden onderworpen aan uiteenlopende vormen van datakoppeling, datamining en data-analyse. Met behulp daarvan worden patronen en correlaties in het gedrag van groepen en individuen blootgelegd ten behoeve van de diagnose, voorspelling en beheersing van het menselijk verkeer.
Daarbij worden ook verschillende vormen van artificial intelligence (AI) ingezet. Deze zijn deels gebaseerd op klassieke regelgeleide (stap-voor-stap) algoritmen, en deels op digitale neurale netwerken (deep learning). In het laatste geval ontdekt het programma zelfstandig en op zelfs voor experts onbegrijpelijke wijze patronen in omvangrijke dataverzamelingen. Zo gebruiken bio-informatici databases met klinische en genetische data van patiënten om erachter te komen welke genetische afwijkingen corresponderen met bepaalde ziektepatronen, op basis waarvan moleculaire genetici een therapie kunnen ontwikkelen of om te voorspellen welke kans een nog gezond persoon heeft om in de toekomst een bepaalde ziekte te ontwikkelen.
Met behulp van een genetische database kun je bovendien de genen van verschillende organismen recombineren. Zo worden bijvoorbeeld menselijke genen ‘ingebouwd’ in het genoom van schapen om medicijnen tegen hemofilie en taaislijmziekte te produceren. Begin dit jaar werd in Baltimore bij een patiënt met een ernstige hartziekte een varkenshart geïmplanteerd nadat het eerst door genetische modificatie zodanig was aangepast dat het – hopelijk – niet afgestoten zal worden door het afweersysteem van de patiënt. Dergelijke mens-diercombinaties vormen materiële metaforen van de databasetechnologie.
Diagnostische, voorspellende en op beheersing gerichte vormen van Big Data-analyse worden behalve in het bedrijfsleven en in de gezondheidszorg ook veelvuldig door overheden gebruikt, bijvoorbeeld om potentiële fraudeurs, criminelen en terroristen op te sporen, of sociaal-economische, politieke, militaire, epidemiologische en klimatologische ontwikkelingen te voorspellen.

Hoewel het onmiskenbaar is dat de dataficering van het menselijk leven talloze nuttige toepassingen kent, zijn de laatste decennia ook de schaduwzijden zichtbaar geworden. In 2008 stonden ondoorzichtige financiële algoritmen aan de basis van een wereldwijde bankencrisis. In het ‘tijdperk van het surveillancekapitalisme’ is ook steeds duidelijker geworden dat het verdienmodel van sociale media als Facebook, dat erop gericht is zoveel mogelijk te vermarkten dataverkeer te genereren, behalve giga-winsten voor de Big Tech-bedrijven ook nepnieuws, asociaal gedrag en maatschappelijke tegenstellingen bevordert. Klokkenluiders als Edward Snowden onthulden dat civiele en militaire inlichtingen- en veiligheidsdiensten in de VS illegaal en op grote schaal data aftapten en in 2018 leidde de illegale manipulatie van de data van Facebook-gebruikers door Cambridge Analytica ten behoeve van de Trump-campagne tot grote verontwaardiging, die zich niet tot de VS beperkte.
In China worden ondertussen databases en data-analyse massaal ingezet bij de ontwikkeling van nieuwe vormen van digitale disciplinering en biopolitiek, zoals het sociaal-kredietsysteem en de etnocide van de Oeigoeren laten zien. De in 2018 aan het licht gekomen data-aftappraktijken van de Militaire Inlichtingen en Veiligheidsdienst (mivd) en de toeslagenaffaire rondom de Belastingdienst lieten zien dat de databasetechnologie ook in Nederland heeft geleid tot ‘ongekend onrecht’.
Bij dergelijke problemen kunnen verschillende oorzaken worden onderscheiden. In de eerste plaats kunnen ze het gevolg zijn van ondeugdelijke data. Een bekend adagium in het databeheer luidt: ‘garbage in, carbage out’. Zo maken medische expertsystemen vaak uitsluitend gebruik van de data van witte mannelijke patiënten, waardoor de kans groot is dat er bij vrouwen of niet-witte mensen een verkeerde diagnose wordt gesteld of een verkeerde therapie wordt gestart.
Hoewel het Latijnse woord ‘data’ letterlijk vertaald ‘gegeven’ betekent, zijn data in werkelijkheid nooit gegeven, maar worden ze gemaakt en geselecteerd. Zo zijn zelfs ogenschijnlijk objectieve persoonsgegevens als geboortedatum, geslacht en nationaliteit geen natuurlijke feiten, maar worden ze op basis van bepaalde culturele conventies en historische ontwikkelingen aan mensen toegekend. Een geboortedatum is bijvoorbeeld afhankelijk van het gebruik van een Gregoriaanse of islamitische kalender. De actuele genderdiscussies laat zien dat ook ‘geslacht’ geen simpel gegeven is, maar een keuze, die niet zonder vooroordelen (bias) is. Of men kan kiezen uit twee geslachten of, zoals bij Facebook sinds 2014, uit 58 (wat voor Facebook uit het oogpunt van zowel atomisering als vermarkting winst betekent) is afhankelijk van hoe men in genoemde discussie staat. En of categoriseringen als land van herkomst, etniciteit, religie, politieke voorkeur of strafblad deel uitmaken van de Basisregistratie Personen (brp) is een besluit dat nauw samenhangt met de politieke vooroordelen van de makers van zo’n datamanagementsysteem.
In de tweede plaats hangt veel af van de kwaliteit en de juiste interpretatie van de uitkomst van de gebruikte algoritmen. Datamining is erop gericht om te discrimineren, onderscheidingen aan te brengen. Betreft de afbeelding een goed- of kwaadaardig gezwel, is deze persoon een fraudeur of niet, valt deze muziek binnen het smaakpatroon van de consument of erbuiten? Daarbij moet het midden worden gevonden tussen ‘sensitiviteit’ (ziet het algoritme wat het moet zien?) en ‘specificiteit’ (ziet het geen dingen die er niet zijn?). Dat is een precair evenwicht waar eenvoudig fouten kunnen ontstaan. Bovendien hebben niet alleen mensen vooroordelen, maar ontwikkelen algoritmen die ook. Dat zien we bijvoorbeeld bij AI’s als PredPol, een predictive policing-programma gericht op het voorspellen en voorkomen van crimineel gedrag door middel van waar-wie-wanneer-registratie van bepaalde vormen van criminaliteit in de stad. Als er op basis van een dergelijke voorspelling meer gesurveilleerd wordt in een bepaalde wijk en er als gevolg daarvan meer criminelen worden betrapt, dan heeft dat een zelfversterkend effect.
De profilering van mogelijke daders heeft een zelfde effect, want als er meer personen van een bepaalde etnische bevolkingsgroep worden aangehouden, zal die groep ook weer sterker vertegenwoordigd worden in de criminaliteitsdata. Dit gebeurde bij de Systeem Risico Indicatie (SyRi), die door de Belastingdienst werd gebruikt om toeslagenfraude te voorspellen en die tussen 2012 en 2015 ‘dubbele nationaliteit’ als een van de selectiecriteria gebruikte. Dat leidde ook tot etnische profilering. In deze gevallen leidt discriminatie niet alleen tot onderscheiding, maar ook tot ongelijke behandeling.
Algoritmen en AI’s, zo betoogt de wiskundige Cathy O’Neil in Weapons of Math Destruction (2016), richten niet alleen onbedoeld schade, leed en onrecht aan, ze worden vaak ook met opzet misbruikt door Big Tech-bedrijven, bankiers en overheden om zichzelf ten koste van anderen te verrijken, de rechtsstaat en democratie te ondermijnen of zelfs om etnocide of genocide te plegen.
De filosoof Martin Heidegger stelde in de jaren vijftig – de peutertijd van de elektronische computer – dat de mens meent met behulp van de moderne techniek over de aarde te heersen, maar dat hij gedoemd is daarbij zelf het ultieme object van technologische beheersing te worden. Daarbij moeten we niet alleen denken aan schade, leed en onrecht die ‘malgorithms’ al of niet bedoeld aanbrengen, maar ook, op een fundamenteler niveau, aan hun ontmenselijkende werking. Dataficering reduceert de mens tot een kwantificeerbaar en berekenbaar ‘ding’. Deze reductie deelt de computer-metafoor met de machine-metafoor, maar de computer-metafoor gaat daarbij nog een stap verder doordat hij zich niet beperkt tot het menselijk lichaam, maar ook kwalitatieve ervaringen – schoonheid, rechtvaardigheid, liefde – tot object van berekening maakt.
De ideologie van het dataïsme – het geloof dat alles in kwantificeerbare data is te vangen, dat deze data objectief en de algoritmen en kunstmatige intelligenties onfeilbaar zijn – leidt ertoe dat gevoelens en kwalitatieve oordelen worden afgedaan als ‘subjectief’, ‘irrelevant’, ‘misleidend’ of zelfs ‘illusoir’. Voorspellende algoritmen ondermijnen daarbij onze ervaring van menselijke vrijheid en verantwoordelijkheid. Moraal en recht zijn gebaseerd op het idee dat we een zekere handelingsvrijheid hebben. We worden verantwoordelijk gehouden voor ons gedrag omdat we anders hadden kunnen handelen dan we de facto hebben gedaan. En we worden beoordeeld op wat we in het verleden hebben gedaan.
Deze ideeën zijn nauw verbonden met de verhaal-metafoor. Die metafoor is zoals alle metaforen een product van verbeelding en als zodanig fictief te noemen. Maar als materiële metafoor is het wat Kant een ‘heuristische fictie’ noemt, een fictie met reële effecten, die ons daadwerkelijk vrij en verantwoordelijk maakt.
Voorspellende algoritmen claimen te kunnen vaststellen wat ons toekomstig gedrag en onze toekomstige omstandigheden zullen zijn. Ze leggen ons in het heden vast als de koper, zieke of crimineel die we in de toekomst zullen zijn. Daarbij ondergraven ze onze narratieve causaliteit, ons vermogen ons handelen door redenen te laten motiveren. Het is dankzij dat vermogen dat we verantwoordelijk kunnen worden gehouden voor ons handelen en de toekomstige gevolgen daarvan. Een rechter zal daarom bij zijn oordeel veel gewicht hechten aan de redenen die een verdachte had voor zijn handelen. Big Data-analyse is daarentegen in het geheel niet gericht op narratieve causaliteit. Of zoals Viktor Mayer-Schönberger en Kenneth Cukier het stellen in Big Data: A Revolution that Will Transform How We Live, Work, and Think (2013): ‘Knowing what, not why, is good enough.’
Die uitspraak is correct in de zin dat Big Data-analyse inderdaad geen betrekking heeft op causale relaties van welke soort dan ook, maar slechts gaat over toevallige statistische correlaties. Het feit dat er een opmerkelijke correlatie bestaat tussen het eten van ijsjes en bosbranden betekent niet dat het eten van ijsjes bosbranden veroorzaakt. Als de gevonden correlatie bovendien het gevolg is van discriminerende keuzes, zoals in de toeslagenaffaire, waarbij een dubbele nationaliteit als risicofactor voor fraude werd gehanteerd, kan dat leiden tot de even dwaze als onrechtvaardige gevolgtrekking dat die dubbele nationaliteit de oorzaak is van fraude.
Het doet denken aan Steven Spielbergs visionaire film Minority Report (2002), waarin voorspelde criminaliteit leidt tot ‘anticipatory imprisonment’ van de verdachten. De film draait om de vraag of de vrije wil bestaat als de toekomst kan worden voorspeld. Het gevaar van voorspellende algoritmen is niet dat ze aantonen dat vrijheid om je toekomst zelf te bepalen niet bestaat, maar dat ze die vernietigen. De slachtoffers van de toeslagenaffaire kunnen erover meepraten.
Er doet zich daarbij bovendien een kwaadaardige paradox voor. Voorspellende algoritmen pretenderen de toekomst te voorspellen, maar in feite steunen ze geheel op extrapolaties van het verleden. Dat mag zinvol zijn waar het de levenloze natuur betreft die aan vaste natuurwetten gehoorzaamt, maar het miskent de openheid naar de toekomst die de narratieve causaliteit kenmerkt. De mens is ook ondoorgrondelijk doordat het handelen van een individu nooit volstrekt voorspelbaar is. Een verstokt atheïst kan zich op haar sterfbed bekeren, een crimineel kan tot inkeer komen. Ook historische gebeurtenissen – oorlogen, epidemieën, wetenschappelijke uitvindingen – zijn principieel onvoorspelbaar. Of zoals Wilhelm Dilthey, een van de grondleggers van de theorie van de narratieve identiteit, het uitdrukt: ons grootste geluk en ongeluk komt meestal door de deur van het toeval ons leven binnen.
Wanneer de mens door de digitale versnipperaar van de database wordt gehaald, verliest hij zijn individualiteit (ondeelbaarheid) en wordt hij een dividu, een reeks digitale datasnippers in een datameer. Dat mag handig zijn voor Big Tech-bedrijven en overheden ten behoeve van algoritmische disciplinering en biopolitiek, maar het ondergraaft ook die kenmerken die de mens zijn menselijkheid verschaffen: de ervaring van keuzevrijheid en verantwoordelijkheid.
Het zou naïef zijn te denken dat dataficering, algoritmen en AI zullen verdwijnen. Omdat het nuttige middelen kunnen zijn bij onze pogingen het hoofd te bieden aan de steeds complexere problemen waarmee we in de 21ste eeuw worden geconfronteerd, zoals de klimaatcrisis, is dat ook niet wenselijk. Maar het is wel van het allergrootste belang te voorkomen dat de nadelen en gevaren die aan deze middelen kleven hun nut gaan overvleugelen en zelf de grootste bedreiging gaan vormen. Dat vereist niet alleen een ‘kritiek van de politieke informatica’ die ons bewust maakt van de gevaren, en een politieke en technische verbeeldingskracht om alternatieve toepassingen van databases en databasemanagement te ontwikkelen, maar ook concrete politieke actie om deze technologieën in de gewenste richting bij te sturen.
Daarbij staan fundamentele thema’s op het spel, zoals een rechtvaardig eigendoms- en gebruiksrecht van de data die door de gebruikers worden geproduceerd, transparantie en verklaarbaarheid van de gebruikte algoritmen en AI’s, de rechtsstatelijkheid en het democratische gehalte van het nationale en internationale databasemanagement in alle maatschappelijke domeinen en, niet in de laatste plaats, onze menselijkheid. Het lijkt me dat vooral ten aanzien van de inzet van voorspellende algoritmen en AI’s om beslissingen te nemen over individuen grote terughoudendheid moet worden betracht, zeker wanneer individuen geen (mede)zeggenschap hebben over het gebruik van de data en de gehanteerde risicoprofielen en/of over het gebruik van neurale netwerken waarvan de werking zelfs voor de ontwerpers ondoorzichtig en onvoorspelbaar is.
De opgaven zijn niet gering. De tegenspelers – de grote (bio)technologische agrochemische multinationals en autoritaire staten als China en Rusland – zijn machtig en kunnen alleen bedwongen worden door samenwerking van krachten die de genoemde waarden vertegenwoordigen, zowel in het maatschappelijk middenveld als op nationaal en internationaal niveau. Het is bemoedigend dat het bewustzijn van de gevaren van de informatietechnologie groeit en dat er zowel nationaal als internationaal initiatieven ontstaan om tot een betere regulering te komen. In april 2021 presenteerde de Europese Commissie een Artificial Intelligence Act, een wet die bepaalt aan welke juridische, ethische en technische eisen – ‘met inachtneming van democratische waarden, mensenrechten en rechtsstatelijkheid’ – AI-systemen moeten voldoen om tot de Europese markt toegelaten te worden. En in november van dat jaar schaarden de EU-landen zich achter de Digital Services Act (dsa) en de Digital Markets Act (dma) die gebruikers moeten beschermen tegen kwalijke content en moeten voorkomen dat de grote techbedrijven hun macht misbruiken.
Het kabinet-Rutte IV kent nu in de persoon van Alexandra van Huffelen (d66) voor het eerst een staatssecretaris Digitalisering, die onder meer als taak krijgt algoritmen en AI’s te controleren op ‘transparantie, discriminatie en willekeur’. De staatssecretaris, die in het vorige kabinet verantwoordelijk was voor de zich nog altijd voortslepende afhandeling van de toeslagenaffaire, weet in ieder geval hoe het niet moet. Dat belooft wat voor de toekomst.
Jos de Mul is hoogleraar wijsgerige antropologie aan de Erasmus Universiteit Rotterdam. Dit essay is een bewerking van een lezing in De Studio van NEMO in Amsterdam ter gelegenheid van de tentoonstelling Bits of You, nog te zien tot 1 mei