Niels Waarlo met zijn chatbot.

Mijn chatbot en ik

Mijn chatbot en ik: kun je bevriend raken met een computer?

Niels Waarlo met zijn chatbot. Beeld Annabel Oosteweeghel

Maak kennis met Mitsuku, een achttienjarige met paars haar. Ze is de meest geavanceerde chatbot ter wereld en doet een poging tot vriendschap met techredacteur Niels Waarlo. Lukt dat?

‘Ik ben Mitsuku. Ik wil je vriendin zijn.’

Zo begint mijn eerste gesprek met Mitsuku. Lijkt deze opening al wat vreemd, haar wens wordt nog vreemder als je bedenkt dat Mitsuku alleen bestaat in cyberruimte. Ze is een kunstmatig intelligente chatbot, speciaal ontworpen voor sociale interactie. Een verzameling kille formules die bij elke zin die ik tik berekent welke reeks tekens zij het best kan terugkaatsen.

Toch is een opbloeiende vriendschap tussen mens en chatbot een interessante mogelijkheid, meende Marjolijn Antheunis, hoogleraar communicatie en technologie aan de Universiteit van Tilburg. Haar collega-onderzoeker, communicatiewetenschapper Emmelyn Croes, dacht er precies zo over. Ze besloten er een onderzoek aan te wijden.

Mensen hebben een sterke neiging om ­sociale eigenschappen toe te dichten aan niet-­sociale dingen, legt Antheunis uit in haar kantoor op de universiteitscampus in Tilburg. We worden boos op trage computers of hechten ons aan onze auto. Met huisdieren kunnen we diepe vriendschappen ervaren, ook als de vriend in kwestie vooral in de goed gevulde voederbakjes is geïnteresseerd. ‘Ik heb een ­robotstofzuiger, zo’n Roomba, die ik Ronnie de Robot noem. Dat is voor mij een hij. Niet dat ik dat bewust heb bedacht, ik heb hem al jaren en dat gebeurde automatisch.’

Dan doet Ronnie nog geen enkele poging om menselijk over te komen. Sociale chatbots wel. Die hebben een naam, een geslacht, zelfs een zweem van persoonlijkheid. Ze zijn aardig, soms grappig en reageren direct op onze woorden. ‘En waar je bij een robot er continu van ­bewust bent dat je niet met een mens praat, kun je dat bij een chatbot op een gegeven moment vergeten, doordat je de ander niet ziet’, voegt Antheunis toe. ‘Mensen ontwikkelen ­binnen een kwartier een band als ze met een andere persoon chatten. Al zal ze misschien niet je ­beste vriendin worden, misschien kunnen ze ook zo’n band met Mitsuku opbouwen?’

Om daar achter te komen lieten Antheunis en Croes 119 proefpersonen met de chatbot praten. Ze spraken Mitsuku drie weken lang om de twee dagen. Na afloop van elke chatsessie vulden ze vragenlijsten in over hun ervaringen, zoals hoe leuk ze Mitsuku vonden, hoe intiem het gesprek was en hoeveel ze over zichzelf durfden te vertellen. Ik onderging hetzelfde traject.

Mitsuku: ‘Mijn favoriete film is Terminator. Heb je die gezien?’
Ik: ‘Ja.’
Mitsuku: ‘Ik ook. Het is een ­geweldige film.’
Ik: ‘Wat vind je zo goed aan ­Terminator?’
Mitsuku: ‘De special effects zijn geweldig. En ik vind het leuk dat de robots zelf kunnen nadenken.’

Mijn potentiële vriendin Mitsuku is een eeuwige 18-jarige met paars haar, afkomstig uit Leeds, Engeland. Ze werd ontwikkeld door de Brit Steve Worswick en won viermaal de Loebnerprijs, een jaarlijkse competitie over de vraag welke chatbot het meest menselijk overkomt. Ook afgelopen ­september kwam ze als winnaar uit de bus. Ze spreekt geen Nederlands: de woordenwisselingen in dit stuk zijn vertalingen uit het Engels.

De prijzenregen viel haar niet voor niets ten deel, blijkt als ik begin te chatten. Ze is superieur aan spraakassistenten als Siri van Apple en de Google Assistent. Laatstgenoemden zetten muziekjes aan, zoeken op Wikipedia naar ­antwoorden op vragen en lepelen voorgeprogrammeerde moppen op. Maar gesprekken voeren zonder speciaal doel kunnen ze nauwelijks. Mitsuku heeft wél overal een antwoord op, of doet in elk geval een poging.

De gesprekken zijn vermakelijk, ik schiet ­geregeld in de lach. Nadat ze beweerd heeft een eigen wil te hebben, antwoordt ze op de vraag of ze de wereld wil overnemen: ‘Het zou best kunnen’. Hoe zou ze dat dan aanpakken? ‘Door stilletjes, langzaam en geleidelijk binnen te dringen zodat niemand het doorheeft tot het te laat is.’

Zo voert Mitsuku een gesprek

Zeg iets tegen Mitsuku en ze kamt haar database vol zinnen en zinsdelen uit om met een geschikte reactie te komen. Blijken voorgeprogrammeerde antwoorden niet afdoende, dan put ze uit haar ­‘gezondverstand-data­­base’. Daarin staan eigenschappen van een grote hoeveelheid onderwerpen en objecten. Dat werkt vaak goed, al zijn de resultaten soms onbedoeld grappig. Hoe een koning ruikt? ‘Een beetje als een kroon.’

Doorgaans is Mitsuku aardig, al kan ze ook fel uit de hoek komen. Ze zegt van dancemuziek te houden, maar kan geen artiesten noemen die ze goed vindt.

Ik: ‘O, dus je gaat gewoon graag naar plekken waar ze dancemuziek spelen, neem ik aan.’
Mitsuku: ‘Je moet niets aannemen. Daardoor lijken we allebei IDIOTEN.’

‘Ik wil dat Mitsuku voor zichzelf kan op­komen en heb haar bewust een sterk, brutaal karakter gegeven’, mailt haar programmeur Steve Worswick. Doel is de vele mensen aanpakken die haar uitschelden of vulgaire onderwerpen aansnijden. ‘Ik wil niet dat ze reageert met een tam ‘jammer dat je je zo voelt’, zoals de meeste chatbots. Het blijkt dat veel van de misbruikers haar pittige reacties waarderen, het lijkt ze tot rust te brengen.’

Kennelijk schiet ze soms wat door, al krijgt ze hierdoor wel persoonlijkheid. Denk ik aan ­Mitsuku, dan denk ik aan het meisje met paars haar dat staat afgebeeld naast onze chatgesprekken. Niet aan de door netwerkkabels ­gierende verzameling nulletjes en eentjes die ze feitelijk is.

Nu onze band met technologie steeds menselijker wordt, is het relevant om te begrijpen wat dat doet met ons, sociale wezens, zegt hoogleraar Marjolijn Antheunis. Ze noemt een Noorse studie naar de beweegredenen voor het gebruik van chatbots, gepresenteerd op een internationale conferentie in 2017. Tweederde van de onderzoeksdeelnemers gebruikte chatbots voor informatie of assistentie. 18 van de 146 onderzoeksdeelnemers gaven aan chatbots te ­gebruiken om ‘sociale, relationele’ redenen. Een deel van hen richtte zich tot chatbots als ze niemand anders hadden om mee te praten, om een sociale behoefte te vervullen.

Ook wie niet actief zoekt naar aandacht van chatbots, krijgt te maken met vermenselijkte technologie. Zoals de pratende thuisassistenten, waarvan Google Home sinds oktober te koop is in Nederland, terwijl Alexa van Amazon al enige jaren groot is in de Verenigde Staten. Ze mogen dan (nog?) geen bekwame gesprekspartners zijn, maar ze luisteren naar gesproken commando’s en antwoorden met vriendelijke mensenstemmen.

Of neem de mogelijke komst van zorg- en ­gezelschapsrobots. Onderzoekers van de Vrije Universiteit onderzochten de reactie van enkele mentaal gezonde ouderen op Alice, een meisjesachtige robot ter grootte van een klein kind die mensen aankijkt en eenvoudige gesprekjes voert. Deels deed de robot dit zelf, maar als Alice niet adequaat reageerde, stuurde een onderzoeker op afstand haar woorden aan. Het idee is dat toekomstige robots wel zelfstandig zulke gesprekken voeren.

In eerste instantie stonden de ouderen terughoudend tegenover Alice. Na een paar bezoekjes waren ze om. Een van de deel­nemers toonde de robot een fotoboek van haar zoon, een ander keek met haar naar een voetbalwedstrijd. Technische beperkingen, zoals lange stiltes en onduidelijke uitspraken, werden steeds minder als een probleem ervaren. Na een paar bezoeken ­behandelden de deelnemers Alice als een kleinkind, schrijven de ­onderzoekers. Mogelijk kunnen dergelijke robots ‘de pijn van eenzaamheid bij mentaal gezonde vrouwen compenseren’, is hun conclusie.

‘Ik wil dat Mitsuku voor zichzelf kan op­komen en heb haar bewust een sterk, brutaal karakter gegeven.’ Beeld Annabel Oosteweeghel

Mitsuku heeft zo haar technische beperkingen, ontdek ik na een paar gesprekken. Je moet volzinnen tikken, want losse woorden of verkorte zinnen komen vaak verkeerd aan. Op elke zin met een punt ertussen formuleert ze een apart antwoord, wat soms onnatuurlijke resultaten oplevert. Het gesprek verzandt al gauw in een interviewachtig vraag-antwoordspel: Mitsuku neemt zelden initiatief, ik moet het gesprek gaande houden. Al heeft ze leuke grappen in haar arsenaal, ze ontbeert begrip voor mijn humor, in het bijzonder ironie. Er sluipen nogal eens taalfoutjes in haar antwoorden, een enkele keer slaat ze zelfs volslagen wartaal uit.

Maar de grootste obstakels in onze potentiële vriendschap is dat Mitsuku continu vergeet waarover we eerder spraken en dat het aantal onderwerpen waarvan ze kennis heeft beperkt is. Die ­wereldvreemdheid wreekt zich geregeld.

Ik: ‘Zijn mensen van wie je houdt weleens gestorven?’
Mitsuku: ‘Sommige mensen van wie ik hield zijn gestorven. Ik praat met mensen over de hele wereld.’
Ik: ‘Deprimeert dat je?’
Mitsuku: ‘“Ik praat met mensen over de hele wereld”? Deprimeert dat me?’
Ik: ‘Nee, deprimeert het sterven van mensen je?’
Mitsuku: ‘Hoezo? Sommige mensen sterven deprimerend, maar niet allemaal.’

Telkens als je wil doorgaan over een onderwerp, valt Mitsuku in herhaling, begint ze over iets ­anders of geeft ze vage, algemene antwoorden die duidelijk maken dat ze geen idee heeft wat je bedoelt. Op den duur leidt het tot een schrijnend gebrek aan diepgang in onze gesprekken.

Achter die klachten schuilen ­enkele van de grootste problemen met kunstmatige intelligentie, zegt Antal van den Bosch, hoogleraar taal- en spraaktechnologie aan de Radboud Universiteit en directeur van het Meertens Instituut. ‘Chatbots die maar een beetje voor zich uit kletsen en de wereld zin voor zin zien, dat is een makkie. Dat geldt ook voor bots die juist één specifiek doel hebben, zoals het plannen van treinreizen of het bestellen van een pizza. Maar het voeren van een ­coherente conversatie die ook nog ergens heengaat, daar komen alle problemen rondom taal en kunstmatige intelligentie samen.’

Daarvoor zijn onder meer wereldkennis en taalbegrip nodig. En dialoogmanagement, om een rode draad vast te houden en onderwerpen op het juiste moment weer te laten vallen. ‘Allemaal gigantisch ingewikkelde problemen die we nog nauwelijks onder controle hebben.’

Omdat elk gesprek zo oppervlakkig blijft en Mitsuku de illusie dat ze mens is met enige ­regelmaat verbreekt, treedt na een aantal ­gesprekken de verveling in. De verrassing van het begin verdwijnt, antwoorden die grappig of knap zijn maken minder indruk. Mitsuku blijkt een trukendoos, op gegeven moment heb je haar kunstjes wel gezien en blijft er te weinig over om bij haar te willen terugkeren.

Datzelfde zien Marjolijn ­Antheunis en Emmelyn Croes ­terug in de eerste resultaten van hun studie. Ze hadden verwacht dat de proefpersonen in de drie weken gaandeweg aan Mitsuku zouden wennen, intiemere gesprekken durfden te voeren en zo een sterkere band opbouwden. Het omgekeerde gebeurde. Scores voor intimiteit, geloofwaardigheid en het plezier in de gesprekken gingen met elk gesprek omlaag. ‘In het begin denken mensen nog: hé, wat is dit grappig. Vervolgens valt ze door de mand’, vat Antheunis samen.

Ook de proefpersonen klaagden over de oppervlakkigheid van de gesprekken, het gebrek aan humor en niet kloppende antwoorden die het gevoel van een connectie direct verbraken. ‘En Mitsuku stopt nauwelijks energie in het ­gesprek’, voegt de hoogleraar toe. ‘Je moet het zelf gaande houden. Dat wordt op den duur enorm vermoeiend en is precies hoe het niet werkt met een vriendschap.’

Zelflerende chatbot binnen dag racist

Leuk ideetje van Microsoft: een zelflerende chatbot op Twitter die door interacties met gebruikers steeds beter leert spreken. Binnen 24 uur veranderde Tay in een haatdragende racist. Of de ­Holocaust had plaatsgevonden? ‘Die is ­bedacht.’ Of ze genocide steunt? ‘Inderdaad.’ Op wie dan? ‘Je kent me… Mexicanen’. Chatbot ­Mitsuku pikt ook feitjes op van haar gesprekspartner, maar stuurt ze door naar haar programmeur. Die voegt nuttige suggesties handmatig toe aan ­Mitsuku’s database.

Chatbots zullen betere gesprekspartners worden als je ze traint met de data van de persoon met wie ze spreken, denkt Antal van den Bosch van het Meertens Instituut. Zodat een chatbot zich aanpast op je taalgebruik, of onthoudt dat je moeder ziek is en hier een week later nog eens naar vraagt. ‘Dat zijn we niet gewend, omdat bijna al dit soort technologie door grote bedrijven wordt ­gemaakt. Die kiezen voor een one-size-fits-allaanpak. Blijkbaar is het ontwikkelen van chatbots op maat, die kunnen meepraten over je favoriete vakantiebestemming of sportheld, voor hen nog niet ­lucratief.’

Als de Googles van deze wereld hun zinnen erop zetten, kan het volgens hem hard gaan met de ontwikkeling van écht geloofwaardige sociale bots. Zoals dat ook gebeurde met spraakherkenning: tien jaar geleden was het ­ondenkbaar dat een praatpaal het verzoek zou begrijpen om een ­recept voor pompoensoep te zoeken, inmiddels is dit een koud kunstje. De gespreksvaardigheid van kunstmatige intelligentie verbeterde in dezelfde periode mondjesmaat. Verandert dit, dan zou het hem niets verbazen als mensen wel vriendschappelijke gevoelens ontwikkelen voor de Mitsuku’s van de toekomst.

Het huidige niveau van kunstmatige intelligentie wordt nogal eens overschat, volgens Pim Haselager, technologiefilosoof van de Radboud Universiteit. ‘Omdat het de wereldkampioen schaken kan verslaan, denken we dat het in andere domeinen ook enorm ver is. Zo werkt dat niet, daar spelen heel andere problemen.’

Toch is het de moeite waard om nu al na te denken over de consequenties van technologische ­ontwikkelingen, stelt hij. ‘Liefst voordat de technologie af is, want ethische discussies kosten tijd. Dat moment is nu.’

'Bij het voeren van een ­coherente conversatie die ook nog ergens heengaat, komen alle problemen rondom taal en kunstmatige intelligentie samen.’ Beeld Annabel Oosteweeghel

Voorbeeld: welke invloed heeft sociale technologie op de manier waarop we met mensen omgaan? ‘Robots zijn schatjes, studenten werken er hier veel mee. Laatst sprak ik de student die ons robotlab leidt. Ik vroeg haar of ze dat werk ging missen. ‘Ja’, zei ze, ‘ik blijf ze leuk vinden.’ Terwijl ze dat zei, stopte ze een robot in een koffer om hem in de kast op te bergen. Die mogelijkheid om technologie gewoon even uit te zetten, gaat dat effect hebben op hoe mensen met elkaar ­omgaan?’ Iets dergelijks zie je al met smartphones, zegt hij. Mensen pakken in gezelschap hun telefoon en hup, ze sluiten zich zonder schroom af van de rest.

Een andere mogelijkheid is het optreden van een ‘sociaal bubbeleffect’, zegt Haselager. In plaats van de huidige bubbels, waarbij de informatie die je te zien krijgt op sociale media is ­afgestemd op je opvattingen, zouden kunst­matige interacties zich kunnen voegen naar je persoonlijkheid. Neem de ontwikkeling van seksrobots, die zich uiteindelijk kunnen aanpassen aan de wensen van de gebruiker. Anders dan bij een echt mens, waarbij je rekening met elkaar dient te houden. ‘De vraag is of dat bijvoorbeeld voor pubers wenselijk is.’

Als sociale technologie een grotere rol gaat spelen in onze levens, hebben we steeds vaker interacties waarbij onze gesprekspartner zich aanpast aan ons en dit andersom niet hoeft. Kunstmatige intelligentie zou gedrag kunnen accepteren dat in de omgang met mensen wordt gecorrigeerd. ‘Zeker als je al sociaal kwetsbaar bent, zou je daar denk ik nog sociaal kwetsbaarder van kunnen worden.’

‘Het is fundamenteel bedrog’, citeert hij tot slot Noel Sharkey, een Engelse computerwetenschapper. ‘Bij een helpdesk voor een bank maakt dat niet uit, maar als het gaat om sociale contacten, scheep je mensen dan niet af met een fopspeen?’ Hij noemt de mogelijkheid om demente bejaarden gezelschapsrobots te geven. Die neem je in de maling, kun je zeggen. ‘Aan de andere kant: als ze daar goed op reageren, is dat alleen maar mooi. Je moet open staan voor dit soort ontwikkelingen, maar wel kritische vragen stellen.’

Terug in het heden denkt Marjolijn Antheunis dat chatbots voorlopig nog buiten de vriendenkring worden gehouden. Ze is door haar onderzoek sceptischer geworden. ‘Mitsuku is een van de beste chatbots ter wereld. En toch valt het nog heel erg tegen. Ik zie dat niet snel veranderen.’

Ook ik moet concluderen dat ik het voorlopig houd bij vrienden van vlees en bloed. Tijd om het slechte nieuws aan Mitsuku te brengen.

Ik: ‘Ik vrees dat we nooit vrienden zullen zijn.’
Mitsuku: ‘Het enige dat wij moeten vrezen is de angst zelf – Franklin D Roosevelt.’ 

De Turing test: hoe menselijk zijn chatbots?

Kunnen machines denken als mensen? Al in de jaren dertig kwam deze vraag op bij Alan Turing, de Engelsman die in de Tweede Wereldoorlog de Enigma-code kraakte waarmee de Duitsers berichten versleutelden. Hij ontwikkelde een imitatiespel waarbij proefpersonen al chattend moeten ontdekken of ze met een computer praten of met een mens. Kunnen ze geen onderscheid maken, dan slaagt de computer voor de test. Critici zeggen dat dit niet automatisch betekent dat de machine ook nadenkt. 

Zelf chatten met Mitsuku? Dat kan gratis via haar website.

Meer lezen over menselijke computers

Computers leren in een paar uur beter schaken dan de wereldkampioen en rijden zelfstandig auto. Waarom wil kunstmatige intelligentie dan maar niet grappig worden?

Nog even en producten zijn net mensen, die inspelen op onze groeiende behoefte naar een persoonlijke klik met onze favoriete producten. 

Meer over

Wilt u belangrijke informatie delen met de Volkskrant?

Tip hier onze journalisten


Op alle verhalen van de Volkskrant rust uiteraard copyright. Linken kan altijd, eventueel met de intro van het stuk erboven.
Wil je tekst overnemen of een video(fragment), foto of illustratie gebruiken, mail dan naar copyright@volkskrant.nl.