Hoe zelflerende robots al onze vooroordelen overnemen
┬ę AFP

Hoe zelflerende robots al onze vooroordelen overnemen

Niets menselijks blijkt de chatbot vreemd, ondervond Microsoft vorig jaar, toen het softwareconcern een kunstmatig intelligente meisjesbot losliet op internet. Binnen 24 uur trok Tay, zoals ze werd genoemd, vuilbekkend over Twitter, onder meer roepend dat Hitler gelijk had, feministen in de hel moeten branden en oud-president Bush achter de aanslagen van 11 september zit.

Kunstmatige Intelligentie (kortweg AI, artificial intelligence) leert zichzelf 'menselijke' taken uit te voeren door enorme hoeveelheden data door te ploegen. Door AI eindeloos te laten gamen, leerde het zichzelf zonder gebruiksaanwijzing Space Invaders. En door dezelfde systemen enorme corpussen tot wel 850 miljard woorden te laten analyseren, leren ze de context van woorden herkennen en ontstaat iets wat lijkt op taalgevoel. Moderne chatbots kunnen hierdoor steeds beter conversaties houden die lijken op hoe een mens dat doet.

Soms gaat het enorm mis, zoals Microsoft overkwam. Vaker gebeurt het meer impliciet. AI-systemen die hun kennis baseren op gewonemensentaal, ontwikkelen veelal dezelfde impliciete vooroordelen als wij. Dit ontdekten onderzoekers van onder meer de universiteit van Princeton in een studie die donderdag verscheen in Science. Daaruit blijkt dat culturele stereotypen hardnekkig voortleven in AI-systemen die op grote schaal worden gebruikt.

Seksisme of racisme zou ongemerkt een rol kunnen gaan spelen

Dat is problematisch, omdat dit soort systemen meer en meer wordt toegepast in de dagelijkse praktijk. Denk aan persoonlijke assistenten als Siri of Alexa, of aan de Japanse verzekeraar Fukoku Mutual, die sinds deze maand ziekenhuisdeclaraties van klanten laat afhandelen door Watson, een kunstmatig intelligent systeem van IBM. Als AI-systemen dezelfde vooroordelen laten meespelen in hun beslissingen, zou ongemerkt seksisme of racisme een rol kunnen gaan spelen bij bijvoorbeeld het toekennen van schadevergoedingen.

AI kan net als mensen positieve en negatieve verbanden leggen tussen woorden. Zo worden bloemen veel plezieriger ervaren dan insecten en worden muziekinstrumenten positiever gewaardeerd dan wapens. Maar uit eerder semantisch onderzoek bleek dat Europees-Amerikaanse namen vaak veel positiever worden beoordeeld dan Afro-Amerikaans klinkende namen. Dit soort vooroordelen worden door kunstmatig intelligente systemen overgenomen uit de corpussen die vaak worden samengesteld uit openbare onlinebronnen die ze krijgen voorgeschoteld. De onderzoekers konden alle vooroordelen die eerder bij mensen waren gevonden repliceren bij AI-chatbots.

Menselijke taal is nooit objectief, ze is altijd gekleurd

Florian Kunneman, Radboud Universiteit

'Deze studie is belangrijk om inzicht te krijgen hoe AI bestaande al dan niet impliciete vooroordelen overneemt', zegt taaltechnoloog Florian Kunneman van de Radboud Universiteit, die niet betrokken is bij het onderzoek.

Ook de onderzoekers van de studie in Science waarschuwen voor de gevolgen van het klakkeloos gebruiken van AI bij bijvoorbeeld het automatisch analyseren van cv's van sollicitanten: 'Ons werk heeft gevolgen voor AI vanwege de zorg dat deze technologie├źn culturele stereotypen laten voortbestaan.'

Menselijke taal is nooit objectief, ze is altijd gekleurd, zegt Kunneman. 'Dus is het zaak te letten op vooroordelen.' Dat kan door een soort equalizer te zetten op de resultaten, waardoor een negatieve bias voor bijvoorbeeld buitenlandse namen bij sollicitaties wordt gecorrigeerd. Of het systeem moet duidelijk maken hoe het tot een keuze gekomen is. 'Als het zegt: ik zou deze sollicitant niet uitnodigen omdat hij Ali heet, kun je ingrijpen.'