De week in tech Imagenet

U bent een wees, zegt de computer

Een kunstproject over kunstmatige intelligentie maakt duidelijk hoe problematisch algoritmen kunnen zijn.

Het virale snoepje van deze week is de site Imagenet Roulette. De site kreeg op sommige momenten zoveel aanloop, dat ze bezweek onder de aandacht. Imagenet Roulette doet maar één ding: mensen kunnen een portretfoto uploaden waarna de site terugkomt met een beschrijving van dit portret. ‘Meisje’ bijvoorbeeld. Of specifiekere labels als ‘wees’ of ‘Igbo’ (een etnische groep uit het zuidoosten van Nigeria). Op sociale media delen bezoekers van de site enthousiast (of soms ook boos) hun foto met de bijbehorende beschrijving.

Vroeger was ik een wees Beeld Imagenet Roulette

Blijkbaar voorzien dit soort sites in de behoefte bij mensen om zichzelf via een vervormde spiegel te zien. Dit was precies de verklaring voor het succes van FaceApp, dat liet zien hoe we eruitzien in een oudere versie. Imagenet Roulette vertelt ons niet hoe anderen ons zien, maar hoe de computer ons ziet.

Dat gaat verder dan onschuldig vermaak. De site is onderdeel van een fysieke tentoonstelling die de komende maanden in het Prada in Milaan plaatsvindt: Training Humans. Hierin staan fotocollecties centraal die AI-wetenschappers gebruiken om hun AI-systemen te trainen. De bekendste en grootste collectie is Imagenet. Deze werd een jaar of tien geleden opgezet door onderzoekers van Stanford en Princeton en bestaat inmiddels uit 14 miljoen foto’s. Die zijn geclassificeerd met labels volgens een vaststaande taxonomie. Dat labellen is handwerk. De foto’s bevatten vooral heel veel voorwerpen, maar ook mensen. En onder het kaartje ‘mens’ hangen vervolgens weer duizenden subcategorieën.

Ik ben een Igbo Beeld Imagenet Roulette

De makers van de tentoonstelling en site willen naar eigen zeggen inzichtelijk maken wat er gebeurt ‘als technische systemen worden getraind op problematische trainingsgegevens’. Imagenet bevat ‘een aantal problematische, beledigende en bizarre categorieën.’ Sommige zijn volgens hen racistisch, andere getuigen van vrouwenhaat. Dat vooroordelen en fouten in trainingsdata kunnen doorwerken in nieuwe AI-systemen is al langer bekend. En er wordt ook voor gewaarschuwd. Maar het blijft voor het publiek een nogal abstract probleem omdat het niet ziet welke labels een systeem aan een gezicht hangt. Tot nu. Imagenet geeft een interessante inkijk in het proces en laat zien wat er mis kan gaan. En tegelijk ook hoe knullig die systemen nog zijn in hun pogingen mensen in hokjes onder te brengen. Dat is andere koek dan een broodtrommel onderscheiden van een wasbeer. Zelf probeerde ik het met drie verschillende foto’s. Bij de eerste plakte het systeem het kaartje ‘psycholinguïst’. Ik doe iets met taal, dus soit. Bij de tweede staat ‘Igbo’. Precies ja, de etnische groep uit Nigeria. En bij de laatste – een jeugdfoto uit de sombere jaren tachtig – houdt Imagenet het op ‘wees’. Wat niet klopt.

Blijkbaar is dit hoe computers mij zien.

Meer over

Wilt u belangrijke informatie delen met de Volkskrant?

Tip hier onze journalisten


Op alle verhalen van de Volkskrant rust uiteraard copyright. Linken kan altijd, eventueel met de intro van het stuk erboven.
Wil je tekst overnemen of een video(fragment), foto of illustratie gebruiken, mail dan naar copyright @volkskrant.nl.
© 2019 DPG Media B.V. - alle rechten voorbehouden