Column Casper Albers

Algoritmes tonen ons de fundamentele misstanden in de maatschappij

Mark Rutte is een politicus, Thierry Baudet een copiloot en Geert Wilders een nieuwslezer. Dat heb ik niet zelf bedacht, maar is het resultaat van kunstmatige intelligentie.

De website ImageNet Roulette heeft de afgelopen weken aardig wat stof doen opwaaien. Op deze site kan je een foto uploaden en dan bekijkt een algoritme welk label er het beste past. Dit doet het algoritme door de foto te vergelijken met ImageNet, een grote database van foto’s waar kwalificaties als vrouw, bouwvakker en wiskundige aan gehangen zijn.  

De slechte prestaties van dit algoritme kunnen u doen twijfelen aan de kracht van kunstmatige intelligentie, maar er zijn soortgelijke sites die het stukken beter doen. Neem bijvoorbeeld Yandex.ru, de Russische versie van Google (omdat Nederland zo’n belastingparadijs is, zit hun hoofdkantoor op Schiphol. We kunnen dus van de ‘nationale trots Yandex.ru’ spreken). Als je bij Yandex image search een pasfoto uploadt, vindt die opvallend vaak foutloze informatie over de persoon op de foto, zoals een naam of profiel op een datingsite. Mede dankzij deze site kon internetcollectief Bellingcat informatie rond de aanslag op de MH17 boven water halen.

Dat Baudet een copiloot wordt genoemd, is (een beetje) grappig. Minder grappig is dat de site ook de nodige racistische, discriminerende en vrouwonvriendelijke labels aan foto’s plakt. Bij ImageNet Roulette was dit juist de bedoeling van de makers: de schaduwkant van kunstmatige intelligentie laten zien.

In haar boek Algoritmes aan de macht beschrijft de Britse wiskundige Hannah Fry tot wat voor problemen dergelijke algoritmes kunnen leiden. Ook die variëren van voornamelijk grappig – zelfrijdende auto’s die niet kunnen rijden als het sneeuwt omdat ze niet om kunnen gaan met grote lappen wit – tot ronduit schandalig: algoritmes die Amerikaanse rechters moeten gebruiken om strafmaten te bepalen, waarbij blanke verdachten structureel milder gestraft worden dan niet-blanken.

Als een algoritme niet werkt, is de logische gedachte om de fout op te lossen. Dit is niet zomaar mogelijk, want het is onduidelijk hoe het algoritme tot keuzes komt. Dit is ook het verschil tussen statistiek en kunstmatige intelligentie. Bij statistiek zijn de spelregels van het algoritme transparant en kun je ingrijpen bij ongewenste resultaten. Bij kunstmatige intelligentie is het algoritme een black box. Een algoritme krijgt een trainingsset, oftewel een grote stapel voorbeelden. Bij ImageNet Roulette dus veel foto’s met bijpassend label. Op basis van die set leert het algoritme en past het deze kennis toe om op nieuwe foto’s een label te plakken, waarbij het algoritme niet vrijgeeft op basis van welke spelregels dit geleerd wordt.

Dat de algoritmes blanken minder zwaar straffen en foto’s een vrouwonvriendelijk label opplakken, komt omdat zij dat in de trainingsset geleerd hebben. Algoritmes zijn een spiegel van de maatschappij. Als het je niet bevalt wat je in de spiegel ziet, geeft dan niet direct de  spiegel de schuld. Het wijst op een fundamentele misstand in de maatschappij zelf,  waar niet alleen de kunstmatige intelligentie, maar ook wijzelf van kunnen leren. 

Casper Albers is hoogleraar statistiek aan de Rijksuniversiteit Groningen.

De NOS en verkiezingsuitslagen, dat gaat vaak mis, aldus hoogleraar statistiek Casper Albers.

De geschiedenis van de statistiek zit vol racisten

Meer over

Wilt u belangrijke informatie delen met de Volkskrant?

Tip hier onze journalisten


Op alle verhalen van de Volkskrant rust uiteraard copyright. Linken kan altijd, eventueel met de intro van het stuk erboven.
Wil je tekst overnemen of een video(fragment), foto of illustratie gebruiken, mail dan naar copyright @volkskrant.nl.
© 2019 DPG Media B.V. - alle rechten voorbehouden