OpinieArtificiële intelligentie

Verwacht geen wonderen van artificiële intelligentie

Een blind vertrouwen in maatschappelijke oplossingen dankzij nieuwe technologieën is naïef.

Corinne Cath-Speth en Roel Dobbe
Koningin Máxima lanceert in september een lesprogramma voor scholieren over kunstmatige intelligentie, afgekort AI.  Beeld EPA
Koningin Máxima lanceert in september een lesprogramma voor scholieren over kunstmatige intelligentie, afgekort AI.Beeld EPA

De artificiële intelligentie of AI-revolutie lijkt onderweg en onafwendbaar. Als we de projecties en marketingcampagnes mogen geloven, vormt het de groeimarkt voor het komende decennium en gaat het tal van maatschappelijke problemen oplossen. De opmars van zelflerende algoritmes brengt menig politicus en ambtenaar in vervoering. Maar helaas wordt er doorgaans een te rooskleurig beeld geschetst van AI-systemen. Deze zijn namelijk veel fragieler en foutgevoeliger dan vaak voorgesteld.

Zo stelden zelflerende algoritmen van IBM al foutieve medische ingrepen voor die fatale gevolgen kunnen hebben. Elon Musk lanceerde de zelfrijdende functionaliteit van Tesla veel te vroeg, op afraden van zijn ingenieurs; meerdere ongelukken en mensen­levens verder, begint zelfs de auto-industrie langzaam zijn vertrouwen in deze technologie te verliezen.

Op te lossen kwesties

Ook bij de overheid gaan ­discussies voorbij aan legio kwesties die we moeten oplossen om er voor te zorgen dat AI-systemen (1) veilig en rechtvaardig zijn en geen nieuwe problemen veroorzaken, (2) de historie en kennis van mensen en organisaties respecteren (en benutten!) en (3) de rechtsstaat en democratie versterken, in plaats van uit te hollen. Is er bij de overheid voldoende aandacht voor de beperkingen en gevaren van deze technologie? En is er genoeg bereidheid om de beloftes en de werking van deze systemen nauwkeurig te toetsen op basis van hun impact op belangrijke publieke waarden?

Datagedreven jeugdbeleid

Nederlandse overheidsinstanties ­maken al decennialang gebruik van algoritmen en softwaremodellen bij besluitvorming en cruciale processen. Nu wordt naarstig geëxperimenteerd met zelflerende algoritmen.

Zo ontwikkelt de gemeente Rotterdam ‘datagedreven jeugd­beleid’. In plaats van te vertrouwen op ervaren jeugdwerkers, bepalen algoritmen wat jongeren aan zorg nodig hebben, op grond van gevoelige en ongestructureerde data. In het kader van het ‘experiment’ worden privacyzaken van deze kwetsbare groep voor het gemak als ‘niet urgent’ beschouwd.

Het Systeem Risico Indicatie (SyRI) is ontwikkeld om o.a fraude met toeslagen en belastingen op te sporen. Ook hier worden persoonlijke data van burgers uit allerlei departementen aan elkaar gekoppeld. Helaas, buiten het zicht van het ­publiek. Juist vanwege zorgen over de invloed op de privacy en de rechtsstaat, wordt op dit moment een bodemprocedure tegen de staat voorbereid. De uitdagers vragen de rechter het systeem onrechtmatig te verklaren.

Dat genoemde systemen invloed hebben op onze rechtsstaat, lijkt maar langzaam door te dringen bij onze overheid, terwijl dit in andere landen al lang en breed wordt bediscussieerd. Nog te vaak is hier het devies ‘alles aan de kant’ om innovatie mogelijk te maken en vooral om te ‘versnellen’, vanuit het gevoel dat we ‘achterlopen’ met de digitalisering.

Op de rem

De realiteit noopt ons op de rem te trappen en zorgvuldiger te werk gaan. Want zelflerende algoritmen maken fouten, zijn gevoelig voor manipulatie en kunnen vaak slecht overweg met uitzonderingssituaties. Bovendien nemen algoritmen beslissingen op basis van ingevoerde data en de aannames van ontwikkelaars. Zo raakt vooringenomenheid en discriminatie ingebakken: critici van SyRI vrezen dat met name huishoudens in zwakke wijken bij voorbaat verdacht worden. SyRI zou deze discriminatie ook kunnen versterken, omdat het een ‘hoger risico’ steeds meer zal associëren met het type huishoudens dat het vaker heeft gezien. En door zich op zwakkeren te richten, wordt het opsporen van fraude bij welgestelden steeds minder aannemelijk.

Positieve ontwikkelingen zijn er ook: coalitie en oppositiepartijen zien de noodzaak in van nieuwe wetgeving om de ontwikkeling en integratie van algoritmen bij de overheid in goede banen te leiden. En een tijdelijke Tweede Kamercommissie voor de Digitale toekomst buigt zich over de in te halen kennisachterstand bij politici. Met meer kennis begrijpen zij beter waartoe AI-systemen wel en niet in staat zijn, en kunnen ze opgeklopte marketing doorprikken. Met nieuwe wetgeving kunnen leveranciers tekortkomingen niet verhullen als ‘bedrijfsgeheim’. Artificiële intelligentie is niet ‘onafwendbaar’ noch een wondermiddel voor complexe maatschappelijke problemen.

Corinne Cath-Speth is promovendus in Oxford, Roel Dobbe is postdoc aan de New York University.

Wilt u belangrijke informatie delen met de Volkskrant?

Tip hier onze journalisten


Op alle verhalen van de Volkskrant rust uiteraard copyright.
Wil je tekst overnemen of een video(fragment), foto of illustratie gebruiken, mail dan naar copyright @volkskrant.nl.
© 2023 DPG Media B.V. - alle rechten voorbehouden