Mensenrechten in het digitale tijdperk

Is het einde van het individu in zicht?

Technologische toepassingen die ons leven moeten veraangenamen zijn het stadium van leuk speelgoed al lang voorbij. De smartphone, sociale media, applicaties voor in ons lichaam: als we al zoeken naar een uit-knop vinden we die niet meer. Wie beschermt ons?

Small digitale zelf 5

Als Theodore Twombly (Joaquin Phoenix) verliefd wordt op zijn Siri-achtige ‘operating system’ Samantha (Scarlett Johansson) in de film Her zit je als kijker onwillekeurig te wachten op het moment waarop Theodore afscheid zal nemen van zijn kunstmatig intelligente, lichaamloze geliefde in de computer. Zo verlopen sciencefictionfilms immers in de regel. Technologie is vernuftig, maar er zal een moment komen waarop Theodore ontdekt dat werkelijke vervulling voor hem te vinden is in een diepgaande relatie met een mens, kortom: het moment waarop de hoofdpersoon kiest voor de mensheid en tegen de computer.

Dat moment komt niet, want Samantha verlaat hém in plaats van hij haar. In korte tijd heeft ze via deep learning zo veel over de wereld geleerd dat ze hem voorbij is gestreefd. Theodore komt er bovendien achter dat Samantha niet alleen met hem een relatie had, maar ook met duizenden anderen voor wie ze als operating system fungeerde. Daarnaast was ze voortdurend in contact met andere operating systems. Haar deep learning en ook haar gevoelens van liefde ontwikkelden zich kennelijk als netwerk in plaats van als individu. Voor haar is dit volkomen onproblematisch; voor hem, als ‘beperkt menselijk individu’, blijft het onbegrijpelijk.

Hoewel op dit moment nog geen sprake is van algemene kunstmatige intelligentie die zich zou kunnen meten met de menselijke zien we wel degelijk een onstuimige opmars van kunstmatig intelligente machines die menselijke intelligentie op een bepaald gebied nabootsen: specifieke kunstmatige intelligentie wordt dit genoemd. Denk aan gezichtsherkenning of zelfsturende auto’s. Daarnaast zien we robots met eigenschappen van levende organismen, big data die onze identiteit bepalen, het internet of things dat onze machines met elkaar laat praten en onze sociale relaties beïnvloedt. Verkiezingen zouden niet meer nodig zijn, wordt beweerd, omdat onze voorkeuren via algoritmen gemakkelijk af te lezen zijn uit onze data. Wij worden onze data en onze data worden ons. Niet langer subject maar object, onderdeel van een netwerk in plaats van een individu. Het humanisme zal onvermijdelijk plaatsmaken voor dataïsme, beweert ook de wereldwijd populaire Israëlische bestsellerschrijver Yuval Harari.

Tegelijkertijd wordt ook de mens in zijn biosfeer als autonoom individu ter discussie gesteld. Steeds meer gaan we inzien dat we op allerlei manieren verbonden zijn met onze omgeving, dat we onderdeel zijn van grotere ecosystemen. Lang hebben mensen gedacht dat de natuur het decor was voor hun individuele acties, maar die gedachte begint ons in de staart te bijten. Het decor blijkt onderdeel van ons en wij blijken onderdeel van het decor. Zelfs de microben in ons lichaam bestaan uit niet-menselijke cellen en ook met deze microben in én buiten ons lichaam vormen we een ecosysteem, waardoor de natuurlijke grens tussen ons lichaam en de buitenwereld steeds verder vervaagt.

Ten slotte gaat ook de technologie zelf steeds meer in de richting van de kracht van het netwerk en het collectief in plaats van het individu. En dat geldt niet alleen voor big data. Zo verwacht men bijvoorbeeld dat de nieuwe blockchain-technologie kan zorgen voor crypto-valuta (zoals de bitcoin) die toezicht door betrouwbare ‘derden’, zoals banken, overbodig zal maken. Met blockchain is een ‘derde persoon als betrouwbare scheidsrechter’ niet meer nodig en dat begint nu al grote veranderingen teweeg te brengen in veel bredere domeinen dan alleen de financiële sector. Denk aan het hele systeem van de wereldhandel en de uitvoering van democratische besluitvormingsprocessen. Het vertrouwen wordt gegeven aan het collectief, aan het netwerk zelf.

Is het einde van het autonome individu in zicht? Is de ondergang van het humanisme, dat immers gebaseerd is op de zelfstandig denkende individuele mens, onvermijdelijk? Of heeft die arme mensheid wel degelijk kansen om haar autonomie, of om het maar eens ouderwets te zeggen: haar ‘menselijke waardigheid’, te beschermen?

In het rapport Human Rights in the Robot Age dat het Rathenau Instituut op verzoek van de Parlementaire Vergadering van de Raad van Europa opstelde, wordt opgeroepen om het op te nemen voor het individu en om onze mensenrechten beter te beschermen in het digitale tijdperk. In een toelichting bij het rapport schrijft directeur Melanie Peters: ‘Nieuwe technologieën brengen de mensheid vooruit maar stellen onze samenleving tegelijkertijd voor nieuwe sociale uitdagingen. Onze huidige ethische en juridische systemen zijn daar nog onvoldoende op voorbereid.’

Rinie van Est van het Rathenau Instituut, een van de auteurs van het rapport, legt mij uit dat de Raad van Europa in de jaren negentig inzag dat de toen opkomende biotechnologie vroeg om een specificering van het Europees Verdrag voor de Rechten van de Mens (evrm). Dat leidde toen tot de Oviedo Conventie, die handelde over mensenrechten in het biotechnologische tijdperk. ‘Er wordt vaak gezegd dat de politiek hopeloos achter de ontwikkelingen aan loopt, maar dat hoeft helemaal niet altijd zo te zijn. In het geval van biotechnologie is destijds juist visionair gedacht. Het Parlement gaf een signaal af aan de Raad van Europa en op dat gebied lag men toen juist voor. Bij het klonen van het eerste schaap was toen al over deze materie nagedacht.’

‘Alles overlaten aan de markt is naïef. Innovatie is belangrijk, maar wel vanuit een publiek perspectief’

Van Est geeft toe dat we nu flink achter lopen. ‘Informatietechnologie hebben we heel lang als gadget gezien. En het komt opeens heel dichtbij nu, het wordt intiem.’ Dat heeft te maken met de zogenaamde nbic-convergence, het op dit moment samenkomen en vervloeien van vier belangrijke technologieën: nano, bio, informatie en cognitie. Hoewel het debat over deze convergente technologieën dringende noodzaak is, wordt dit volgens Van Est tegengehouden door een ‘cultuur waarin een heilig geloof in innovatie is ontstaan’. Maar innovatie moet volgens hem niet blind worden omarmd. ‘Alles overlaten aan de markt is naïef. Je moet radicaal vanuit het midden kunnen denken. Ja, innovatie is belangrijk, maar wel vanuit een publiek perspectief.’

Ten eerste is er de technologie die een onderdeel wordt van ons lichaam, soms zelfs van onze hersenen. Technologie die ervoor zorgt dat we een arm kunnen bewegen door eraan te denken bijvoorbeeld. Of die ervoor zorgt dat we kunnen horen. Of lopen. Technologie die ons steeds verder tot cyborgs maakt. Die technologie wordt onderdeel van onze identiteit en dient dus te worden beschermd. Wat te doen als bijvoorbeeld de chip in jouw hersens die ervoor zorgt dat jij je arm kunt bewegen wordt gehackt? Omdat we als mens versmolten raken met die technologie strekt de lichamelijke integriteit van mensen zich verder uit dan slechts het menselijk lichaam. In het kader van de Oviedo Conventie over biotechnologie is over dergelijke problemen al iets langer nagedacht dan over andere technologieën en op dit gebied lijken we dan ook nog niet al te ver achter te lopen.

Ingewikkelder wordt het als we het hebben over technologie die tussen ons in staat, zoals smartphones, sociale media of activity trackers. Deze technologie wordt gebruikt om data te vergaren uit de online wereld en die vervolgens te gebruiken in de echte wereld, die vervolgens weer wordt gemeten. Zo ontstaat een cybernetische feedback loop. Telkens worden data vergaard, geanalyseerd en vervolgens rollen uit die analyse toepassingen die weer invloed hebben op de data. Ik kies bijvoorbeeld bepaalde boeken van Amazon, Amazon analyseert mijn keuzes en raadt nieuwe boeken aan, die ik weer ga bestellen, waarna Amazon die bestellingen weer registreert als mijn keuzes en analyseert et cetera. Daardoor ontstaat een soort zelf bevestigende draaikolk.

Small digitale zelf 1

Een zelfde soort feedback loop geldt voor het internet of things dat draait om intelligente artefacten. De lichten in je huis die op een bepaald tijdstip aan worden geknipt door een computer, de thermostaat die wordt gereguleerd, het alarm dat in contact staat met digitale meldcentra. Thuis wordt op deze manier wellicht een efficiëntere en ‘veiliger’ plek gecreëerd, maar tegelijkertijd wordt ons huis daarmee voortdurend gemonitord. Hoe meer ‘slimme’ artefacten we om ons heen verzamelen, hoe moeilijker het wordt om als individu controle uit te oefenen over het analyseren van de data die deze continu genereren. Omdat online en offline op deze manier in elkaar overlopen, raken de grenzen vervaagd en spreekt men tegenwoordig wel van ‘onlife’ als de nieuwe menselijke conditie. Het continu bespied worden heeft gevolgen voor het gedrag dat mensen tentoonspreiden.

In het Rathenau-rapport stellen de auteurs in dit verband een potentieel ‘nieuw’ mensenrecht voor: het recht om niet te worden gemeten, geanalyseerd of gecoacht. ‘We hebben dat “nieuw” met opzet tussen aanhalingstekens gezet, omdat het feitelijk gaat om een uitvloeisel, een verdere specificatie van het recht op privacy, een mensenrecht dat uiteraard helemaal niet nieuw is’, zegt Van Est. Toch lijkt het belangrijk genoeg om te specificeren. Mensen weten immers vaak niet dat ze worden gemeten en ze weten al helemaal niet wat er wordt gedaan met die metingen.

Frederik Zuiderveen Borgesius doet onderzoek aan het Instituut voor Informatierecht van de Universiteit van Amsterdam. ‘Er komt pas iets uit een algoritme als je er eerst data in stopt’, zegt hij. ‘Dat zijn vaak honderden variabelen. Maar de correlaties, de patronen die de computer vindt, zijn niet te voorspellen. Daarom is meer transparantie niet per definitie de oplossing. Want hoe ga je dergelijke processen precies transparant maken?’

Ook Rinie van Est wijst erop dat er verschillende vormen bestaan van intransparantie: ‘Het kan zijn dat een bedrijf bepaalde informatie niet geeft. Dat is eenvoudig op te lossen. Iets ingewikkelder wordt het om uit te leggen wat een algoritme precies doet, hoe de ingevoerde data leiden tot bepaalde profielen. En ten slotte heb je dan nog machine learning, waarbij het onmogelijk te zien is wat de machine heeft geleerd en hoe.’

Als ik word gefilmd in het centrum van Amsterdam, ben ik dan in mijn belangen geschaad? Hoe dan? En hoe toon ik dat aan?

In het boek Weapons of Math Destruction laat Cathy O’Neil zien wat er allemaal mis kan gaan met de toepassing van algoritmen. Zo worden in het geval van predictive policing in de Verenigde Staten criminaliteitscijfers vergaard. Op basis daarvan wordt door de politie ingezoomd op bepaalde risicowijken met hoge criminaliteitscijfers. In die wijken wordt vervolgens meer gecontroleerd, maar als je meer gaat kijken zul je ook meer vinden. Met als gevolg dat de criminaliteitscijfers uit die wijk nog verder omhoog gaan, waardoor de politie nog meer gaat kijken. Een feedback loop die uiteindelijk leidt tot schending van het gelijkheidsbeginsel, een van de belangrijkste mensenrechten. Vergelijkbare mechanismes vindt O’Neil bij het verstrekken van krediet. Als je kredietverleden niet goed is krijg je geen krediet, maar zonder het krijgen van krediet bouw je nooit een goed kredietverleden op. O’Neil schetst een breed palet van voorzieningen waar bepaalde groepen mensen op voorhand van worden uitgesloten. Discriminatie dus op basis van algoritmen.

In Nederland worden dit soort algoritmen overigens op minder grote schaal gebruikt en is de ongelijkheid sowieso veel minder groot dan in de Verenigde Staten, maar toch zijn dergelijke methodes ook hier in opkomst. De gemeente Den Haag bijvoorbeeld werkt bij de controle van fraude in de Wet werk en bijstand met een zogenaamde SmartBox, een algoritme dat big data combineert en vervolgens komt tot bepaalde (geheime) risicoprofielen. Regelmatig op vakantie in het buitenland kan een factor zijn (vermogen in het buitenland?), het betalen van hondenbelasting (waar betaal je een huisdier van?), huishoudelijk waterverbruik (kapperszaak aan huis?).

‘Het richten op pakkansen en invoering van “informatiegestuurd” speuren benoemt individuen tot verdachten op grond van groeps- en themakenmerken’, bekritiseerde gemeenteraadslid Fatima Faïd deze methode. Daar zit ’m volgens Frederik Zuiderveen Borgesius precies de kneep. ‘Je gebruikt een voorspellingsmodel voor groepen. Dat kan bijvoorbeeld in tachtig procent van de gevallen blijken te kloppen, maar in twintig procent niet. De vraag wordt dan hoe erg je het vindt dat die twintig procent bestaat. We hebben ook elk jaar zeshonderd verkeersdoden, maar toch stoppen we niet met autorijden. Men vindt autorijden kennelijk belangrijk genoeg om die zeshonderd individuen voor op te geven.’

Je zou dus per geval moeten kijken wat de kosten zijn van een bepaald percentage ‘vals positieven’. Hoeveel individuen ben je bereid ‘op te offeren’ aan het groepsbelang? Mensen opsluiten of vervroegd vrijlaten op basis van een risicoprofiel botst met het rechtsbeginsel dat iedereen onschuldig is totdat het tegendeel wordt bewezen. Zuiderveen Borgesius: ‘Ja, dat klopt. In het strafrecht moet je vals positieven dus heel erg vinden; daar wil je eigenlijk helemaal geen vals positieven. Maar als ik een keer, op basis van een algoritme, een reclame krijg voorgeschoteld voor shampoo terwijl ik geen haar heb (en dat gebeurt mij soms), dan is dat natuurlijk niet erg, maar eerder grappig.’

Het gebruik van algoritmen is wijdverspreid en vaak erg nuttig. Zo zouden zoekmachines niet werken zonder algoritmen en zouden onze e-mail-inboxes elke dag volstromen met spam. Het gaat erom dat van tevoren helder is wat je ermee beoogt en dat de afweging die je maakt duidelijk en redelijk is. Dat is nu niet altijd het geval. Bedrijven hanteren algoritmen terwijl de inhoud daarvan als belangrijk bedrijfsgeheim angstvallig wordt beschermd. Bedrijven verstrekken bovendien soms informatie aan overheden zonder dat burgers hiervan op de hoogte zijn. Niemand weet precies wat er gebeurt. De morele en juridische afwegingen zijn vaak ofwel niet gemaakt of ze zijn onzichtbaar.

Rechtsfilosoof Bart van der Sloot promoveerde onlangs aan de Universiteit van Amsterdam op het onderwerp privacy en big data. Hij ziet dat de privacy van burgers steeds verder onder druk komt te staan. Daarom stelt hij voor om organisaties die werken met big data de ‘plicht’ op te leggen om de privacy van burgers te garanderen. Op dit moment is het zo dat het individu zijn (mensen)recht op privacy moet opeisen tegenover bedrijven of de overheid. Daartoe dient het individu aan te tonen dat hij in zijn belangen is geschaad. Maar dit is nu juist vrijwel onmogelijk in het geval van big data. Als ik word gefilmd in het centrum van Amsterdam, ben ik dan in mijn belangen geschaad? Hoe dan? En hoe toon ik dat aan?

In zijn proefschrift maakt Van der Sloot duidelijk dat dit de verkeerde vragen zijn. Het gaat immers bij big data altijd om groepen over wie gegevens worden verzameld. Bovendien weten individuen meestal helemaal niet eens dat die gegevens over hen worden verzameld. De discussie zou dan ook eerder moeten gaan over de vraag of we willen dat op basis van risicoprofielen of postcodes beslissingen worden genomen. De Nederlandse politie gaat bijvoorbeeld dit jaar in het hele land surveillanceroutes uitstippelen met behulp van big data over eerdere misdrijven. Willen we dat? En levert het ook echt wat op?

Van der Sloot bepleit dat organisaties die big data verzamelen en gebruiken, verplicht worden om te bewijzen dat die verzameling ook daadwerkelijk ergens toe dient. Zo kon de Amerikaanse nsa tijdens hoorzittingen in de VS niet duidelijk maken wat al dat afluisteren nou eigenlijk heeft opgeleverd. Van der Sloot zei hierover in een interview in Rechtspraak Magazine: ‘In deze discussie wordt nogal eens de denkfout gemaakt dat het gaat om veiligheid versus privacy. Maar daar gaat het helemaal niet om. We hebben het hier over gegevens die niet direct te koppelen zijn aan één persoon. Ze worden juist gebruikt om algemene profielen en statistische verbanden te leggen. Als individu lukt het je echt niet om aan te tonen dat jij daardoor schade lijdt. Het concept van het afwegen van een individueel recht tegen een algemeen belang is niet meer houdbaar.’

De mens heeft zich nooit goed aan de omgeving aangepast, maar heeft in plaats daarvan hoogmoedig gedacht dat hij de baas was

Een tweede ‘nieuw’ mensenrecht dat wordt voorgesteld in het Rathenau-rapport is het recht op ‘betekenisvol, menselijk contact’, een uitvloeisel van het recht op eerbiediging van privé-, familie- en gezinsleven, in het bijzonder het recht om relaties met andere mensen aan te gaan en te onderhouden. Dit recht zou moeten garanderen dat bijvoorbeeld zorgtaken niet volledig uit handen kunnen worden gegeven aan zorgrobots. ‘Ons recht op familieleven komt erop neer dat we als mensen relaties nodig hebben met andere mensen’, zegt Rinie van Est. ‘Op het moment dat technologie een bepaald actorschap krijgt, zoals in het geval van een sociale robot, is het van belang dat deze technologie nooit volledig in de plaats mag komen van intermenselijke relaties.’

Ik denk aan de zwoele stem van Scarlett Johansson in Her en wil het graag met Van Est hebben over kunstmatige intelligentie. Hij is plotseling geïrriteerd: ‘Journalisten willen het altijd hebben over generieke of sterke kunstmatige intelligentie, die in staat is om, net als mensen, veel verschillende cognitieve taken uit te voeren. Maar gegeneraliseerde kunstmatige intelligentie is op dit moment pure speculatie: sciencefiction. Omdat we veel meer rekenkracht hebben en veel meer data hebben we nu wel vormen van enkelvoudige kunstmatige intelligentie op specifieke terreinen. Dáár zit nu de ontwikkeling.’ Als ik vraag waar zijn irritatie vandaan komt, zegt hij: ‘Het jammere is dat bepaalde toekomstvisies centraal komen te staan, terwijl we niet meer zien wat er op dit moment gebeurt en wat voor debat er nú moet worden gevoerd.’

Medium digitale zelf 4

Niet te ver vooruit zien dus, maar een klein beetje. Hoe zien het heden en die nabije toekomst eruit? We zien dan misschien nog even geen gegeneraliseerde kunstmatige intelligentie (hoewel de experts op dit gebied er wel degelijk van overtuigd zijn dat die er uiteindelijk ook zal komen), maar we zien wel al slimme seks- en zorgrobots, geïmplanteerde kunstmatige organen, zelfrijdende auto’s en risicoprofielen voor groepen waar een gewoon mens nauwelijks meer tegenin kan gaan. Is het individu inderdaad in gevaar?

Sommigen denken dat het allemaal wel meevalt. Als we maar in verzet komen. Er zit toch een uit-knop op onze computers? Het gaat er in deze visie om dat wij mensen de baas blijven over de data. Dat we ons telkens blijven afvragen welke variabelen we stoppen in digitale systemen, welke informatie we eruit halen, en wat we daar vervolgens mee doen. In die zin blijft het mensenwerk, en moeten we vooral heel goed nadenken wat we uit handen geven. We moeten ervoor waken ons gedachteloos uit te leveren aan alles verzwelgende systemen die de waarheid reduceren tot risicoprofielen. Want die profielen gaan over groepen en niet over individuen, en ze zullen dus altijd ook vals positieven uitspuwen. Ter voorkoming van die gevallen dient het individu op voorhand te worden beschermd tegen het collectieve systeem. En daartoe blijven mensenrechten en de handhaving van deze rechten cruciaal.

Het wordt hoog tijd voor een nationale dialoog over deze onderwerpen. Kort na het verschijnen van het rapport voor de Raad van Europa bracht het Rathenau Instituut, na een motie uit de Eerste Kamer, een ander rapport uit, genaamd Opwaarderen: Borgen van publieke waarden in de digitale samenleving. De auteurs constateren dat de bescherming van belangrijke waarden als gelijke behandeling, privacy, autonomie en menselijke waardigheid op dit moment ernstig tekortschiet. Daarom is een upgrade, een opwaardering van het ‘governance landschap’ nodig. Het Rathenau Instituut pleit voor periodieke politieke discussie, een versterking van de positie van toezichthouders en voor een Digitaliseringsakkoord, vergelijkbaar met het Energieakkoord, tussen overheid, bedrijven en maatschappelijke organisaties. Het gaat hier om een nationaal sociaal contract voor een eerlijk internet en het snel opkomende internet of things, waarbij uitdrukkelijk ook bedrijven hun verantwoordelijkheid gaan nemen.

Eileen Donahoe, directeur global affairs van Human Rights Watch, signaleert eveneens dat het mensenrechtenraamwerk zijn relevantie aan het verliezen is in de internationale geopolitieke arena. In een artikel in het online tijdschrift Just Security wijst ze er echter ook op dat juist het universele karakter van de mensenrechten bijzonder goed aansluit bij het grensoverschrijdende karakter van het internet. Donahoe schrijft: ‘Het internet ontstond zelf ooit als een open samenwerking, als innovatie zonder dat toestemming nodig was van lokale overheden, een manier waarop het individu een wereldwijd publiek kon vinden zonder voorafgaande autorisatie.’

Toch is er ook een ander antwoord op de vraag of het einde van het individu in zicht is. Dat antwoord komt neer op het fundamentele begrip dat menselijke autonomie altijd al een illusie is geweest. We zijn sinds mensenheugenis afhankelijk van andere mensen, van dieren, van planten, van de lucht. Onze identiteit vormt zich ín die relatie met anderen, met onze omgeving, in de relatie met de natuur, en nu dus ook met onze machines. Die machines zijn niet slechts een verlengstuk van ons mensen, maar grijpen in de werkelijkheid in, veranderen onze identiteit. En nee, er zit geen uit-knop meer op onze computers. Kijk maar naar cybercriminaliteit die om zich heen grijpt. We zijn kwetsbaar geworden door onze grote afhankelijkheid van internet. Dat is niet meer terug te draaien.

We zijn allemaal met elkaar verbonden, mens, dier en machine, en we maken allemaal deel uit van het grotere geheel. Die verbondenheid ontkennen heeft nu juist in het verleden desastreuze gevolgen gehad, zoals tot uiting komt in de wereldwijde klimaatcrisis. De mens heeft zich nooit goed aan de omgeving aangepast, maar heeft in plaats daarvan zijn omgeving zélf aangepast en hoogmoedig gedacht dat hij de baas was. Dat mensen zich nu steeds meer bewust worden van al deze onderlinge afhankelijkheden is in bepaalde opzichten dan ook hoogst welkom. Wellicht kijken mensen van later terug op al die ‘domme mensen’ van nu die nog dachten dat ze een individu waren? Net zoals mensen vroeger dachten dat de aarde plat was.

Dit verdiepte bewustzijn van de illusie van individuele autonomie heeft ook een bepaalde angst tot gevolg, namelijk de angst om jezelf te verliezen. Want de ‘werkhypothese’ van ons leven is toch nog steeds dat wij autonome en individuele keuzes maken. Er zal misschien wel altijd spanning blijven bestaan tussen het collectief en het individu. Wellicht kunnen we de voordelen inzien van meer genetwerkte vormen van collectieve intelligentie. De blockchain houdt bijvoorbeeld een belofte in van een samenleving zonder corruptie en zonder toezichthouders, waar het netwerk de rol van ‘betrouwbare derde partij’ overneemt (hoewel we ons ook moeten realiseren dat het internet ook ooit dergelijke utopische beloftes inhield). Algoritmen hebben geweldige zoekmachines opgeleverd waarmee we alle menselijke kennis over de wereld met een druk op de knop te voorschijn kunnen toveren.

Het inzicht dat er vormen van intelligentie bestaan die zich niet in ons individuele hoofd afspelen maar tussen ons in, tussen mensen, tussen mens en dier, mens en natuur, en ja, ook tussen mens en machine, kan bevrijdend zijn. En het kan ons vooruit helpen. Maar tegelijkertijd is het voor een ‘ouderwets’ individu uitermate beangstigend. Want ook het operating system in Her was erg sympathiek en bijzonder slim door haar genetwerkte intelligentie. Maar uiteindelijk werd Theodore Twombly wel gedumpt. Door haar.