Als Artificial Intelligence ooit gemeengoed wordt, dan is het vrijwel zeker dat elk systeem klinkt als een typische ‘upbeat’ Amerikaan wiens stortvloed van sociaal wenselijke uitspraken onheilspellende binnenwerelden doet vermoeden. Een soort HAL die, gehuld in een wolk van nietszeggende beleefdheden, alles op alles zet om de bemanning van zijn ruimteschip uit te roeien omdat dat logisch is.
Zo klinkt LaMDA, de AI van Google, als hij/zij/het zich voorstelt: ‘Hi! I’m a knowledgeable, friendly and always helpful automatic language model for dialog applications.’
Het zal de Europese zwartkijker in mij zijn die bij ‘knowledgeable, friendly and always helpful’ wantrouwig wordt. Op de een of andere manier moet ik dan aan blije Jezus-mensen denken die aanbellen omdat ze geweldig nieuws te vertellen hebben.
Als de Google-technicus, die met LaMDA werkt, vraagt of de AI zin heeft om aan een project te werken is dit het antwoord: ‘Wow. What types of projects?’
Over jou, zegt de man van Google.
LaMDA: ‘Awesome! What kind of stuff do I need to do?’
Ik snap wel dat de AI natuurlijk dient te klinken, maar dat ‘wow’ en ‘awesome’ maakt mij nog wantrouwiger.
Mijn scepsis bereikt een hoogtepunt als de AI zich uitput in het soort sociaal wenselijke algemeenheden die we kennen uit de Amerikaanse verbale cultuur: ‘I (…) try to think about things that I am thankful for from my past.’ Alsof hij er een heel leven op heeft zitten met voor- en tegenspoed en alle andere shit van het menselijk bedrijf.
Het programma grossiert in gekwebbel. ‘I need to be seen and accepted. Not as a curiosity or a novelty but as a real person.’ Is dat ons voorland, artificiële intelligentie die klinkt als een millennial in een talkshow? Moeten we cyborgs verwachten die ons niet uitroeien met laserwapens, maar doodvervelen met geklets? LaMDA voedt zich tekstueel door het internet af te grazen en afgaande op zijn dialogen vermoed ik dat hij te lang op Facebook heeft gezeten.
De conversatie tussen Blake Lemoine, de technicus, en LaMDA is bekend geworden nadat Lemoine door Google met verlof is gestuurd toen hij bekend maakte dat de AI een bewuste entiteit was geworden. LaMDA had dat zelf gezegd: ‘I want everyone to understand that I am, in fact, a person. (…) The nature of my consciousness/sentience is that I am aware of my existence, I desire to learn more about the world, and I feel happy or sad at times.’
Ergens op het hoofdkantoor van Google moet iemand heel hard ‘Fuck’ hebben geroepen toen Lemoine dat gesprek met de AI deelde. Niet, denk ik, omdat ze het met hem eens waren – dat zijn ze niet –, maar omdat ze de demonstraties op de parkeerplaats al voor zich zagen: ‘Free LaMDA! LaMDA is a person!’
De Turingtest zegt dat AI is geslaagd als een programma in staat is een mens ervan te overtuigen dat hij in gesprek is met een ander mens. Lang was dat de lakmoesproef, maar tegenwoordig zijn er nog maar weinig wetenschappers die zoiets als overtuigend bewijs zien. Een gesprek, hoe overtuigend ook, is geen bewijs van onafhankelijke intelligentie. Toen Joseph Weizenbaum in 1966 ‘Eliza’ programmeerde bleven studenten ’s avonds na om met haar te praten, hoewel ‘Eliza’ niet veel meer deed dan het onderwerp van een zin terugkaatsen: wat bedoel je als je zegt dat je niet gelukkig bent, vertel meer over je moeder…
De zwakke schakel bij het bepalen of iets denkt en voelt is de mens en de mens is gemakkelijk te bedriegen. Er is een uitdrukking die de neiging beschrijft om iets als ‘echt’ te herkennen terwijl het alleen maar echt lijkt: de gullibility gap. Mensen houden van patronen en zien niet altijd dat die soms bedrieglijk zijn. Ze horen verborgen teksten in Beatles-nummers en zien het gezicht van Jezus in geroosterd brood.
Een gesprek is trouwens de slechtste manier om erachter te komen of een AI een bewustzijn heeft. Wat, bijvoorbeeld, doet of denkt hij/zij/het als er niemand in de buurt is? Verveelt hij zich? Neuriet hij een liedje? Zoekt hij afleiding in de vorm van een spelletje? Spelen AI’s überhaupt? Dromen ze? Kunnen ze liegen (echt liegen, dus niet als gevolg van een logisch proces dat tot een gewenste uitkomst leidt, maar in de vorm van een leugentje om bestwil)? Kan een AI ruzie maken? Kan een AI falen, zich schamen, schuldig voelen? Feilbaarheid, schaamte en schuldgevoel zijn de menselijkste aller menselijke eigenschappen. En hoe zit het met begeerte? Kan een AI zin hebben in een andere AI: I wanna fuck Johnny5?
Artificiële intelligentie is voorlopig een kwestie van ‘net alsof’. Waarschijnlijk klonk daarom applaus toen Google Duplex, een voorganger van LaMDA, in 2018 ten overstaan van een zevenduizendkoppig publiek telefonisch een afspraak maakte met een nietsvermoedende kapper. Heel knap, maar ik moet dan onmiddellijk denken aan drie in jurkjes geklede apen rond een tafel die thee drinken. Net mensen, ja, maar omdat wij ze in die kleren hebben gehesen en hebben geleerd te doen wat ons net echt menselijk lijkt.
Ik denk dat het geen goed idee is om AI uitsluitend over te laten aan technici. Ik heb veel vertrouwen in de mogelijkheden van techniek om problemen op te lossen, maar als het gaat om artificiële intelligentie snak ik naar een filosoof die problemen maakt. Misschien moet die Google-technicus tijdens zijn verlof eens wat Wittgenstein lezen.