Kunstmatige intelligentie

Bedenkingen bij ChatGPT: zakken we weg in een moeras van desinformatie?

null Beeld Joren Joshua
Beeld Joren Joshua

In korte tijd veroverde de indrukwekkende AI-software ChatGPT de wereld. Zowel het publiek als het bedrijfsleven koesteren hoge verwachtingen. Critici zien nog wel een aantal beren op de weg.

Laurens Verhagen

‘Het Jurassic Park-moment van de kunstmatige intelligentie’ noemde de Amerikaanse AI-expert Gary Marcus het onlangs in een podcast. Hij heeft het over het veelbesproken stuk AI-gereedschap ChatGPT. Dat is niet iets waarmee dinosaurussen tot leven kunnen worden gewekt, maar een laagdrempelig chatprogramma dat onschuldig oogt.

Het is nauwelijks voor te stellen dat ChatGPT pas twee maanden werd gelanceerd. Voor het eerst kan het grote publiek zelf bewust aan de slag met AI door het programma opdrachten te geven, van het maken van een samenvatting van een tekst tot het verbeteren van programmeercode en het schrijven van een recept in dichtvorm. Microsoft zegde afgelopen week toe er nog eens een paar miljard dollar in te investeren en zal de technologie in zijn zoekmachine en Office-pakketten integreren.

Van de initiële bewondering en verbazing (‘Wow, dit is behoorlijk goed’) over ChatGPT ging het via laatdunkendheid (‘Dit is best dom’) naar angst (‘Wacht even, dit kan weleens heel groot worden’) en paniek (‘Help, onderwijs! Help, onze banen!’). Waar veel van de discussies zich tot nu toe toespitsen op de vraag wat ChatGPT voor het onderwijs betekent, zijn er ook andere aspecten waarover experts zich zorgen maken.

1 Te hoge verwachtingen

‘De moeder van Piet heeft vier kinderen. Drie heten Sophie, Anna en Sem. Hoe heet de vierde?’ Het programma heeft geen idee, hoewel er geen kennis buiten deze zin vereist is om de vraag te beantwoorden: ‘Als ik maar drie namen weet, kan ik de vierde onmogelijk voorspellen’, antwoordt AI-software ChatGPT.

Hoe goed ChatGPT vaak ook voor de dag kan komen, dit soort voorbeelden bewijzen dat de AI vooralsnog ver verwijderd is van iets wat op echt begrip of menselijke intelligentie lijkt.

‘ChatGPT kan maar beperkt logisch redeneren’, legt AI-kenner Laurens Vreekamp uit. ‘Het is geen deterministische, maar een voorspellende machine.’ Statistiek dus: wat is de hoogst mogelijke kans dat een mens binnen een specifieke context na woord A woord B zou gebruiken? Niet voor niets noemen experts een taalmodel als ChatGPT een ‘stochastische papegaai’, een systeem dat op basis van toevallige uitkomsten fragmenten uit andere teksten nabauwt.

Ondertussen liggen de verwachtingen van het grote publiek een stuk hoger, vermoedelijk aangewakkerd door de bedrieglijk goed geformuleerde antwoorden die het programma een zweem van echte intelligentie geven. En misschien ook door de zonnige vergezichten die OpenAI-oprichter Sam Altman schetst, wiens taalgebruik dat van de archetypische techoptimist is. Altman is, net als bijvoorbeeld Elon Musk, een van de mensen voor wie als een paal boven water staat dat AGI (Artificial General Intelligence) eraan komt; het soort kunstmatige intelligentie dat niet op één specifiek vlak uitblinkt, maar de mens op álle vlakken de baas is.

ChatGPT is op dit gedroomde pad slechts een onbeduidend tussenstopje, aldus Altman. De technologische revolutie die nu is ingezet, is volgens hem niet meer te stoppen. Anders dan zijn sceptici ziet Altman vooral een prachtige toekomst voor zich waarin machines op eigen initiatief wetenschappelijke ontdekkingen doen, de prijs van (door machines geleverde) arbeid naar nul gaat en de hele mensheid profiteert van een ongekende rijkdom aan vrije tijd.

2 Niet iedereen profiteert

‘Het is onze missie om ervoor te zorgen dat de gehele mensheid zal profiteren van AGI’, zo luidt het prominent uitgedragen motto van OpenAI. Niets nieuws onder de zon in Silicon Valley: Google wilde altijd het goede doen (Don’t be evil), terwijl Facebook de wereld mooier wilde maken door alle mensen met elkaar te verbinden. Technologie is er, kortom, om problemen op te lossen en de wereld beter te maken. De techno-utopische retoriek van OpenAI doet het goed bij investeerders, maar wordt voorlopig niet gestaafd door de praktijk.

Geleerd van genante voorbeelden uit het verleden – denk aan de chatbot van Microsoft die binnen no time transformeerde tot een agressieve nazi – is OpenAI doodsbang de mist in te gaan met haatdragende, seksistische, agressieve of racistische teksten. Daarom huurt OpenAI, dat naar schatting al zo’n 30 miljard dollar waard is, een leger Kenianen in dat tegen een zeer laag uurloon (tussen 1,24 en 1,85 euro per uur) het taalmodel minder giftig moet maken, zo onthulde Time Magazine. Pijnlijk voor een bedrijf dat tegelijkertijd zegt dat de hele mensheid zal profiteren van AI. ‘Miljardairs die pronken met hun altruïsme, dat is ook te mooi om waar te zijn’, zegt Gys-Walt van Egdom, docent vertaalwetenschap aan de Universiteit Utrecht. ‘Uiteindelijk draait het ook bij OpenAI om geld.’

Het is niet het enige punt van zorg. Zo klagen wetenschappers over het – o, ironie – gesloten karakter van OpenAI, dat Microsoft exclusief toegang heeft gegeven tot zijn broncode. En zijn er zorgen over de impact op het klimaat van de gigantische taalmodellen waarvan OpenAI gebruikmaakt, want het trainen en gebruik ervan kost enorm veel rekenkracht en daarmee energie. Het leidde ertoe dat de Nijmeegse AI-hoogleraar Iris van Rooij haar collega’s opriep niet mee te gaan in de ChatGPT-hype: ‘Waarom laten we winstgedreven AI-technologie onze academische onderzoeks- en debatagenda’s bepalen? We moeten ons er juist tegen verzetten en er kritisch op reflecteren.’

3 Misbruik ligt op de loer

AI heeft de potentie om veel werk uit handen te nemen, waarmee de kosten hiervan richting nul gaan, voorspelt OpenAI-oprichter Altman zelf. Dat klopt, maar het zullen niet alleen de rechtgeaarde bedrijven zijn die daarvan profiteren. Vertaalwetenschapper Van Egdom haalt de berucht knullige phishingmails uit het verleden aan, waarin ‘Nigeriaanse prinsen’ naïeve slachtoffers verleiden tot het overmaken van geld. Die rammelende berichten kunnen met behulp van ChatGPT in een handomdraai worden opgewaardeerd tot overtuigende en goedlopende teksten in combinatie met een bijpassende site.

Een andere vorm van misbruik is dat de kunstmatige intelligentie wordt gebruikt voor het voeren van desinformatiecampagnes door bijvoorbeeld statelijke actoren zoals Rusland. Het bijhouden van een nieuwssite met overtuigend lijkende, maar foutieve informatie is nog nooit zo eenvoudig geweest. Kortom: ook de kostprijs van onzin en desinformatie gaat richting nul.

4 Een tsunami aan bullshit

Over een jaar of drie zal maar liefst 90 procent van alle inhoud op internet geproduceerd zijn door computers, voorspelt deepfakespecialist Nina Schick. Dat kunnen teksten zijn, maar ook audio-, foto- of videomateriaal. Het probleem daarbij: de AI zal de komende jaren weliswaar in rap tempo beter worden in het creëren van vloeiende teksten, maar niet noodzakelijkerwijs een beter waarheidsbegrip krijgen.

Nu al gaat het lang niet altijd goed en geeft ChatGPT verkeerde informatie, hoewel het taalmodel is gevoed met grote hoeveelheden teksten die door mensen worden geschreven. Maar wat gebeurt er als de input wordt vervuild met – weliswaar goed geschreven – onzin? Een ‘tsunami aan bullshit’, waarschuwde Phil Libin, de oprichter van notitie-app Evernote, onlangs. Vertaalwetenschapper Van Egdom onderschrijft dit probleem en schetst een nieuw hoofdstuk in de postwaarheid, waarbij het de AI een worst zal zijn of ze een waarheid of leugen verspreidt. Bullshitting noemt de Amerikaanse filosoof Harry Frankfurt dit gedrag, een grotere bedreiging dan de leugen, omdat de leugenaar de waarheid weliswaar verdoezelt, maar haar nog wel respecteert.

null Beeld Joren Joshua
Beeld Joren Joshua

En die bullshit zal zich in rap tempo vermenigvuldigen, voorziet Van Egdom: ‘De taalmodellen die we nu zien, zijn zo efficiënt dat de digitale wereld steeds meer over de echte wereld heen zal worden gelegd, totdat de contouren van de echte wereld nauwelijks meer te zien zullen zijn.’ Van Egdom verwijst naar de Franse filosoof Jean Baudrillard die al decennia geleden de term ‘hyperrealiteit’ muntte om een situatie te beschrijven waarin de werkelijkheid zó doordrenkt is van haar voorstellingen (‘simulaties’) dat het onmogelijk is de twee nog van elkaar te onderscheiden.

In het geval van een toename aan door ChatGPT uitgespuwde teksten zou dat kunnen betekenen dat consumenten geen onderscheid meer kunnen maken tussen ‘echt’ (door mensen) geproduceerd materiaal en de synthetische kopieën die slechts een illusie van authenticiteit en begrip van de wereld geven.

Is er nog een uitweg uit deze wirwar aan voorstellingen, contouren, presentaties en imitaties? ‘We laten dit allemaal gebeuren en ondertussen zakken we weg in het drassige moeras van de technologie’, zegt Van Egdom. Digitale geletterdheid kan een deel van de oplossing zijn, hoopt hij.

AI-kenner Vreekamp blijft positief: ‘Het publiek is zich inmiddels bewust van de risico’s en beperkingen van technologisch gedreven oplossingen, dat was wel anders bij de opkomst van sociale media.’ Hij verwacht dat synthetische en door mensen gemaakte teksten naast elkaar zullen blijven bestaan, of in hybride vorm. Diensten als ChatGPT zal dan ook geen totaaloplossing blijken, maar vooral een buitengewoon nuttige hulp in bijvoorbeeld een zoekmachine, mailprogramma of tekstverwerker.

Wilt u belangrijke informatie delen met de Volkskrant?

Tip hier onze journalisten


Op alle verhalen van de Volkskrant rust uiteraard copyright.
Wil je tekst overnemen of een video(fragment), foto of illustratie gebruiken, mail dan naar copyright @volkskrant.nl.
© 2023 DPG Media B.V. - alle rechten voorbehouden