Opinie Algoritmen risico's

Op naar een nieuwe balans tussen overheid, markt en algoritmen

De overheid moet veel meer kennis en kunde ontwikkelen om klaar te zijn voor de digitale toekomst.

Portret van Jan Middendorp, Kamer-lid voor de VVD. Beeld ANP

Toen het Amerikaanse Amazon probeerde computergestuurd, zonder menselijke invloed nieuw personeel aan te nemen en zo vooroordelen tijdens sollicitatieprocedures uit te sluiten, gebeurde er iets onverwachts. In het algoritme dat het sollicitatieproces aanstuurde bleek een mechanisme te zitten waardoor alleen maar mannen werden aangenomen. Data-analyse, kunstmatige intelligentie en de algoritmen kunnen ons leven mooier, makkelijker en vrijer maken, maar net als bij Amazon kunnen algoritmen ook tot onverwachte gevolgen leiden en soms zelfs onbedoeld of met opzet onze grondrechten, zoals privacy of gelijke behandeling, aantasten.

Algoritmen kunnen in handen van kwaadwillenden tot veel persoonlijke ellende leiden. Een voorbeeld zijn phishingmails. Op grotere schaal kunnen algoritmen ook gebruikt worden om via social media onze democratie te manipuleren. Werken de spelregels voor onze verkiezingen, soms nog uit de tijd van Thorbecke, in een tijd dat politieke campagnes online worden uitgevochten? Dit soort vragen spelen overal waar algoritmen met hun in computertaal mensenwerk overnemen.

Versnipperde aanpak

Algoritmen zijn zo handig omdat ze ons ‘persoonlijk’ kunnen leren kennen als wij daar toestemming voor geven. De slimme toepassingen die algoritmen aansturen worden beter als ze toegang krijgen tot onze mobiele telefoon en ze mee kunnen kijken in ons dagelijks leven. Ook de overheid kan efficiënter werken door het gebruik van algoritmen. Bijvoorbeeld bij de belastingdienst maar ook bij het ophalen van vuilnis in gemeenten. Algoritmen, die ook extern ingekocht kunnen worden door de overheid, doorbreken de grenzen tussen overheid en niet-overheid. Het was altijd het individu dat beschermd moest worden tegen de staat. Die had ruim toegang tot ons persoonlijk leven. Nu weten supergrote technologiebedrijven minstens net zoveel van ons. Na altijd aan de balans tussen overheid en markt te hebben gebouwd, moeten we daarom naar een nieuwe balans tussen overheid, markt en algoritmen.

En dat moet snel. Als we met de traditionele versnipperde aanpak doorgaan, of niets doen, lopen we het risico straks gestuurd te worden door computertaal van technologiebedrijven uit Amerika of China. Of weten we straks niet meer hoe de overheid digitaal beslissingen over ons neemt. Dat kan niet, want als je als vrouw een baan bij de overheid misloopt, wil je zeker weten dat er geen selectiemechanisme diep in een algoritme verborgen zit dat alleen maar mannen selecteert. Maar daar wringt de schoen. Om onze werkwijze, wetten en regels klaar te maken voor de digitale toekomst moet de overheid veel meer kennis en kunde hebben en zich anders organiseren.

Regie

Wat moeten we concreet doen? Ten eerste moet de nationale overheid de regie nemen en kennisdeling met het bedrijfsleven stimuleren. Algoritmen kijken niet naar landsgrenzen, dus is ook samenwerking in Europa nodig. Toch mag Nederland niet afhankelijk worden van Europa. Alleen als we zelf kennis en kunde opbouwen kunnen we zorgen dat we bij het vormgeven van de digitale toekomst oog houden voor het verschil tussen een multinational en de bakker op de hoek en innovatie niet belemmeren. Met één druk op de digitale knop kan het straks: niet alleen voor Facebook maar voor alle schoenmakers in Europa regels opstellen over websites en daarop gebruikte algoritmen. Zo’n one size fits all aanpak zou een flinke overdracht van bevoegdheden naar Europa betekenen en dat moeten we niet laten gebeuren.

Vaak weten we niet precies waar we toestemming voor geven als we cookies op internet accepteren of een gebruiksovereenkomst van een app aanvinken. Daarom moeten we, ten tweede, mensen bewuster maken over algoritmegebruik. Dat kan door bij risicovolle algoritmen een simpele en korte uitleg te geven in de vorm van een bijsluiter of een illustratie. Ten derde moet de overheid met de private sector instrumenten ontwikkelen zodat mensen makkelijker ‘nee’ kunnen zeggen. Daarbij kunnen keurmerken en ratingsystemen voor algoritmen een belangrijke rol spelen.

Ten vierde moet op het snijvlak van consumentenbescherming, data, identiteit en privacy nieuw toezicht komen. Dat moet de bestaande toezichtstructuur aanvullen en het kenniscentrum worden voor algoritmegebruik. Overheids en niet-overheidsinstellingen moeten de samenleving meer vertellen over de algoritmen die zij gebruiken en vooral wat dat in de praktijk betekent voor mensen. Daarbij moet aangesloten worden bij bestaande rapportageverplichtingen en accountantscontrole over operationele en financiële risico’s. De inzichten die zo’n systeem kunnen opleveren gaan ook het publiek debat over digitale normen en waarden helpen.

Alleen als we weten wat we doen en de overheid zich goed organiseert kunnen we grip houden op gebruik en de toepassingen van algoritmen zonder door te schieten met nieuwe regels en verboden. Dan kunnen we algoritmen met menselijk overzicht, veilig benutten en zorgen dat mensen in vrijheid keuzes kunnen blijven maken.

Meer over

Wilt u belangrijke informatie delen met de Volkskrant?

Tip hier onze journalisten


Op alle verhalen van de Volkskrant rust uiteraard copyright. Linken kan altijd, eventueel met de intro van het stuk erboven.
Wil je tekst overnemen of een video(fragment), foto of illustratie gebruiken, mail dan naar copyright @volkskrant.nl.
© 2019 de Persgroep Nederland B.V. - alle rechten voorbehouden