Interview

Kan de mens worden uitgeroeid door machines?

Interview Nick Bostrom

Dat de mensheid kan worden uitgeroeid door superintelligente machines is volgens Oxford-filosoof Nick Bostrom geen sciencefiction. Sterker: het kan nog deze eeuw gebeuren.

Beeld Ione Saizar

Het is voorbij in een paar uurtjes. 's Ochtends lijkt er nog niets aan de hand, een gewone dag als alle andere. Maar opeens verandert alles. Het einde der tijden breekt aan, van het ene op het andere moment.

Wat er precies gebeurt, is lastig te zeggen. Misschien wel iets met nanorobots, denkt Oxford-filosoof Nick Bostrom als je hem ernaar vraagt. Een soort stofwolk, bestaand uit microscopisch kleine robots, die uitwaaiert over de wereld en overal waar hij aankomt het leven laat ophouden te bestaan. Planten, dieren en mensen zouden uiteenvallen en worden omgezet, in meer nanorobots, en in... ja, in wát eigenlijk.

Uitdijende bubbel

'Van buitenaf zou je een uitdijende, technologische bubbel zien, met de aarde als middelpunt', vertelt Bostrom. 'Een bel van techniek, die zich met een bepaalde fractie van de lichtsnelheid naar alle kanten verspreidt. Een bubbel die alles op zijn pad omzet in computers, in nanotechnologie, of een andere technologie waar we nog niet aan denken. Iets, wat de KI nodig heeft om zichzelf te optimaliseren.'

De KI. Dat is technologentaal voor: de kunstmatige intelligentie. En Nick Bostrom praat erover alsof het een persoon is. 'Het is niet zo dat de KI ons zou haten of verafschuwen, of zich geëxploiteerd zou voelen. Eerder zou de KI een of ander volstrekt arbitrair doel hebben. En om dat doel te bereiken, zou hij het nuttig vinden om af te rekenen met de mensen.'

Brief uit Utopia

Het hoofd in het Skype-venster dat het zegt, heeft zelf ook wel iets computerachtigs. Wijkende haarlijn, ietwat afwezige ogen achter een ronde bril, en een merkwaardig, monotoon accent waarbij de kliiinkers soms even blijven hangen en de oo een eu wordt. Een herinnering aan Zweden, het land waar Nick Bostrom opgroeide en in een wolk van prijzen en cum laudes de studies filosofie en theoretische natuurkunde voltooide. In Engeland ging hij verder: astrofysica, computationele hersenwetenschap, nog meer filosofie.

Eind jaren negentig vormde hij opeens het middelpunt van een kleine maar invloedrijke school 'transhumanisten', denkers die mijmeren over het upgraden van de mens met genetische en nanotechnologische middelen. Hij flirtte met hippe, sciencefictionachtige begrippen als de 'Fermi-paradox' en het 'simulatie-argument', het idee dat ons heelal in werkelijkheid een geavanceerde computersimulatie is. Honderden essays en een handvol boeken schreef hij, altijd net over de horizon van wat mensen nog kunnen bevatten. Zijn schets van een technologisch volmaakte toekomst Brief uit Utopia heeft nog steeds cultstatus in sciencefictionkringen een soort hemel, maar dan voor computernerds.

CV

1973 geboren in Helsingborg, Zweden.
1992-1996 studies filosofie en theoretische natuurkunde in Göteborg en Stockholm.
1996-2000 promotiefilosofie aan de London School of Economics.
1997 mede-oprichter World TranshumanistOrganisation
1997-1998 stand-upcomedian in Londen
2000-2002 docent filosofie aan Yale
2003-heden docent filosofie in Oxford (sinds 2008 hoogleraar)
2005-heden directeur Future of HumanityInstitute, Oxford
2015 verschijning van de Nederlandse vertaling van Superintelligence.

Paperclips

Dat is tekenend: Bostroms boodschap hangt in de lucht. Volgens oprichter Shane Legg van Google Deep Mind, een Brits bedrijf dat mensachtig denkende computersoftware ontwerpt, is kunstmatige intelligentie 'gevaar nummer één voor deze eeuw'; en eerder hoorde de wereld ook de stemcomputer van Stephen Hawking al zeggen dat succesvolle KI 'een van de grootste gebeurtenissen van de menselijke geschiedenis' zou zijn: 'maar helaas, misschien ook de laatste'.

Veel lolliger maakt dat de zaak er trouwens niet op. Het voorbeeld dat Bostrom graag gebruikt, is dat van een fabriek waar men paperclips maakt. Stel dat men de besturing overlaat aan een kunstmatig intelligente computer: maak zo veel mogelijk paperclips. Wat zou er gebeuren als de kunstmatige intelligentie slimmer en sneller zou worden en nóg slimmer, vele malen intelligenter dan de mens?

IJzerenheinige logica

Wat je in elk geval níét hoeft te verwachten, stelt Bostrom, is dat hij opeens mensachtig wordt. Dat zou 'antropomorfiseren' zijn: hem menselijke trekjes toedichten. Wat de KI wél heeft: de ijzerenheinige logica van een machine.

'Ten eerste zou hij willen voorkomen dat we hem uitzetten', doordenkt Bostrom. 'Want als we hem uitschakelen, zou dat leiden tot minder paperclips en dat is onwenselijk. Alleen al om die reden zou de KI zich willen ontdoen van mensen. Bovendien bestaan mensenlichamen, net als onze huizen, en de hele planeet, uit atomen. Die kan de KI gebruiken als grondstof om mooie paperclips te maken. Of raketlanceerders, om andere planeten bereiken, zodat je ook die kunt omzetten in paperclips.

Controleprobleem

'Het punt is dat je in plaats van paperclips allerlei andere waarden kunt invoeren. Bereken zo veel mogelijk decimalen van het getal pi. Los een of ander wiskundig probleem op. De meest voor de hand liggende weg naar het antwoord zou voor zo'n KI zijn om zo veel mogelijk rekenkracht te bouwen. De aarde veranderen in één heel grote computer.'

Het controleprobleem, noemt Bostrom dat. De man die tijdens het sporten colleges beluistert op driemaal de normale snelheid, floept er een volzin uit: 'Het blijkt nog niet eenvoudig om een doel wiskundig zodanig te formuleren dat als een superintelligentie het zou nastreven dit zou leiden tot een wereld waar we nog enige menselijkheid zouden herkennen.'

Kunnen we zo'n kunstmatige intelligentie dan niet gewoon programmeren: handjes thuis, nooit een mens kwaad doen?

'We weten inmiddels dat er een grens zit aan wat je kunt programmeren in C++ of wat dan ook. Met instructies als: 'maximaliseer de hoeveelheid liefde' of 'bevorder de wereldvrede' kan een KI niet uit de voeten. De KI zou dan uit een simpel axioma zelf alle details moeten afleiden. Bij zo'n regel als 'doe nooit een mens kwaad' moet je definiëren wat kwaad is, en wat een mens. Dat is erg lastig. Is een embryo een mens? Iemand die hersendood is? Een Siamese tweeling? En wat is 'kwaad doen'? Als je iemand beledigt, doe je hem dan kwaad? Als je meer geld hebt dan de ander, zodat die jaloers wordt, is dat kwaad doen? En 'nooit', wat is precies 'nooit'? Er zijn situaties waarin je de ander wel kwaad moet doen: denk aan de dokter die in een patiënt snijdt om erger te voorkomen. Er is kortom gewoon geen systematische manier om hier allemaal mee om te gaan.'

Niet erg slim eigenlijk, van zo'n superintelligentie. Zou zo'n machine dan helemaal geen normen of waarden hebben? Tenslotte kregen wij die ook pas toen we uit de bomen kwamen en intelligenter werden.

'Ik denk niet dat moraliteit spontaan ontstaat. Er is niet noodzakelijk een connectie tussen goed en slim, of tussen slechtheid en domheid. Ook dat zie je al bij mensen. Sommige mensen zijn psychopaat. Het is niet dat ze compleet onwetend zijn van de motieven van anderen, of dat ze niet intelligent zijn het is eerder zo dat het ze niet kan schelen. Als dat al mogelijk is bij de mens, is dat beslist ook mogelijk bij kunstmatig intelligente systemen.'

Gaan we de crisis nog meemaken, denkt u?

'Dat zou kunnen. Ik denk dat er een reële kans is dat we de crisis ergens voor het einde van deze eeuw gaan meemaken, dus nog in de levensduur van een hoop nu levende mensen. Een paar jaar geleden hield ik een enquête onder KI-onderzoekers: in welk jaar acht u de kans 50 procent dat we machine-intelligentie hebben op menselijk niveau? Het mediane antwoord daarop was 2040 of 2050, afhankelijk van welke groep experts we het vroegen.'

Denkt u dat zelf ook?

'Het is inderdaad consistent met mijn eigen ideeën. Kijk, we hebben nog maar een jaar of 60 computers. En in die tijd zijn we gegaan van Pong naar driedimensionale simulaties, geavanceerde machineleersystemen en toepassingen die allerlei taken beter verrichten dan mensen. Het is moeilijk om dat allemaal te overzien, en dan met droge ogen te beweren: de komende 50 tot 100 jaar krijgen we geen menselijke KI. Er is een behoorlijke, niet triviale kans dat we deze technologie deze eeuw al hebben. Dat is genoeg motivatie om nu al iets te doen.'

Oneerbiedig zou je kunnen zeggen dat de directeur van het Future of Humanity Institute van de Universiteit van Oxford op zoek is naar geld voor onderzoek. Willen we de computers in toom houden, vindt Bostrom, dan kunnen we beter nu al met dat onderzoek beginnen. Dat is ongeveer ook de strekking van een open brief voor een 'robuuste en goedaardige kunstmatige intelligentie', die zijn collega's van het Future Of Life-instituut in Boston opstelden en die inmiddels door zo'n 6.500 belangstellenden onder wie Bostrom zelf is ondertekend. 'Onze KI-systemen moeten doen wat we willen dat ze doen', zo luidt een van de kernpunten van het pamflet.

Is dat niet een beetje voorbarig? Ik bedoel, ik krijg mijn laptop soms nog niet eens aan de praat.

'Ik vind dat we nu al aan de gang moeten met onderzoek naar het controleprobleem. Vooral omdat we geen idee hebben hoe ingewikkeld dit probleem eigenlijk is. Misschien hebben we decennia nodig om het op te lossen. Afgezien daarvan is er weinig reden om het níét te doen. Zo voorkom je dat we voor verrassingen komen te staan.'

Moeten we het knutselen aan dit soort techniek niet gewoon verbieden, al is het maar tijdelijk?

'Daarop moeten we denk ik niet vertrouwen. Bij kunstmatige intelligentie zijn zo veel landen en partijen betrokken van universiteiten en banken tot bedrijven en het leger dat een moratorium erg moeilijk wordt. Plus: je kunt ervan uitgaan dat als iemand een manier vindt om een superintelligentie te maken, dat ook gebeurt. Voor ondernemingen is het ongebruikelijk om de hele weg af te leggen tot de laatste stap en dan te wachten. Zeker als er concurrenten zijn.'

Er zijn mensen die zeggen: er zijn acutere problemen met intelligente systemen. Zelfrijdende auto's, cybermisdaad. Of drones op het slagveld die steeds zelfstandiger worden.

'Natuurlijk. Dat zijn legitieme vragen. En als je alleen maar oog hebt voor de korte termijn, hebben die mensen een punt. Maar ik ben meer geïnteresseerd in de langetermijnuitkomsten voor de mensheid. Onze soort is nu eenmaal erg slecht in het nadenken over de lange termijn.'

Misschien komt dat ook wel omdat het erg moeilijk is die lange termijn te overzien. Documentairemaker James Barratt schreef: een onderzeeër zwemt, maar niet zoals een vis; en een vliegtuig vliegt, maar niet zoals een vogel. Is het niet onmogelijk om te voorzien hoe een bovenmenselijk intelligente KI straks gaat denken?

'Tot op zekere hoogte is dat waar: je kunt maar een deel van het controleprobleem verkennen. Maar sommige zaken kun je in algemene zin al analyseren. We hebben een begin gemaakt met de technische onderzoeksagenda, en we beginnen te begrijpen naar wat voor probleem we eigenlijk kijken. Ergens tussen vandaag en het moment dat we een algemene kunstmatige intelligentie ontwikkelen, moeten we menselijke waarden in de machine zien te krijgen. Je zult de KI zo ver moeten krijgen dat hij leert wat menselijke waarden zijn en onze bedoelingen begrijpt. Maar dat is niet genoeg: je moet er zeker van zijn dat hij onze waarden niet alleen begrijpt, maar ook nastreeft. Het moet zijn acties aandrijven.'

Is het wel zo erg als een superintelligentie het stokje van ons overneemt? De mensheid bereikt via zijn nalatenschap dan in feite het utopia dat u beschrijft in uw Brief uit Utopia: onsterfelijk, vrij van ziekte, en in evenwicht met zichzelf.

'Het risico is dat je een superintelligente paperclip-maximaliseerder of een decimalen-van-pi-berekenaar zou krijgen, die alle bronnen van het heelal gebruikt om een doel te bereiken dat u en ik zouden beschouwen als betekenisloos. Het zou een tragedie zijn als we zo'n soort superintelligentie zouden hebben gecreëerd, in plaats van een superintelligentie die ons leidt naar een toekomst met triljoenen supergelukkige mensen die allerlei creatieve dingen doen en in liefde en harmonie leven in een posthumane beschaving.'

Maar misschien bent u dan degene die antropomorfiseert. U projecteert dan wat mensen belangrijk vinden op de KI. Misschien is de zin van het bestaan wel: paperclips maken.

'Tja. Zo'n wereld waar één bepaalde behoefte bevredigd wordt, zou erg saai zijn. Vanuit de meeste filosofische stromingen bezien mag je hopen op méér. Het zou belangrijk zijn om het universum naar meerdere configuraties te sturen, zodat er niet maar één actor is wiens behoeften het meest bevredigd worden. Je kunt er beter van uitgaan dat er meerdere voorkeuren bevredigd moeten worden.'

'De dood', schreef u eens, 'is onze straf voor het niet op tijd verwezenlijken van Utopia.' Het is dus uitsterven of onsterfelijk worden?

'In feite ligt het simpel: we leven nu eenmaal in een universum waar het mogelijk is om super-KI's te maken. Iedere technologische samenleving zal op een zeker moment op die mogelijkheid stuiten. Dat zou weleens een splitsingspunt kunnen zijn, bepalend voor welk pad de rest van de beschaving volgt: wordt dit een beschaving die het utopia verwezenlijkt of een beschaving die paperclips vermeerdert? Hoe mooier de positieve kant, des te gemotiveerder ik mij voel om die positieve kant voor elkaar te krijgen.'

Banger voor domme mensen dan voor slimme machines

Nick Bostrom, ja, die kennen ze in het wereldje van de kunstmatige intelligentie wel. Toch liggen de Nederlandse wetenschappers aan wie je het vraagt niet wakker van zijn waarschuwingen. Althans, nóg niet. 'Het is goed dat er een paar onderzoekers op de wereld zijn die hierover nadenken', zegt hoogleraar Tom Heskes, hoofd van de groep machineleren aan de Radboud Universiteit. 'Maar dat is genoeg. We zien dit niet als prangend probleem.'

Wetenschapsjournalist Bennie Mols schreef het gelauwerde boek Turings Tango, waarin hij betoogt dat machines juist níét in opstand zullen komen. 'Als ik mensen interview, vraag ik voor de aardigheid ook altijd of en wanneer ze een opstand van de machines verwachten', zegt Mols. 'Maar bijna iedereen die ik spreek, gelooft niet dat dit op afzienbare termijn staat te gebeuren. Een projectleider van Google Deep Mind die ik onlangs sprak, zei het zo: een jaar of vijf kan ik vooruit kijken, maar verder dan dat is pure speculatie.'

Daarvoor is een goede reden: 'We hebben fundamentele nieuwe inzichten nodig, voordat we een echt algemene KI kunnen bouwen', zegt Heskes. 'Sommige hedendaagse toepassingen zijn ultracool. Maar het is nog helemaal niks vergeleken met mensachtige kunstmatige intelligentie.'

Iemand die daarin meer vertrouwen heeft, is hoogleraar informatica Jaap van den Herik van de Universiteit Leiden, expert op het gebied van onder meer computerschaak en rechtspraak door kunstmatige intelligentie. 'Er gaat de komende decennia toch wel echt iets veranderen', zegt hij. 'Op steeds meer gebieden zal de mens de KI niet meer kunnen bijbenen. Maar de vraag is: moeten we dat als bedreiging zien?'

Zelf denkt Van den Herik van niet: 'Het merendeel van de mensen is verstandig. En ik denk dat het gezonde verstand ook bij computers gaat overheersen.' Zo is de hoogleraar 'ervan overtuigd' dat computers ethisch besef zullen krijgen een ingebouwd gevoel voor goed en kwaad. 'Maar ik behoor wel tot de optimisten, hoor.'

Tijdens een debat over kunstmatige intelligentie uitte wetenschapsjournalist Mols vorige maand felle kritiek op Bostroms gedachtengoed: leuk voor de bühne en de verkoopcijfers, maar voor de informatica van weinig betekenis, oordeelde hij. 'Media smullen al decennialang van het verhaal dat computers en robots mensen overvleugelen. De uitdaging voor de toekomst is hoe we het beste van menselijke en kunstmatige intelligentie combineren. Daarbij moeten we banger zijn voor domme mensen, dan voor slimme machines.'

'Het is een stoer verhaal, jij schrijft er nu ook weer over', zegt Heskes. 'En als Stephen Hawking iets roept, is het al snel nieuws. Maar als ik eerlijk ben, zegt het gros van de mensen die het harde KI-onderzoek doen: jongens, laten we gewoon weer aan het werk gaan.'

Meer over

Wilt u belangrijke informatie delen met de Volkskrant?

Tip hier onze journalisten


Op alle verhalen van de Volkskrant rust uiteraard copyright. Linken kan altijd, eventueel met de intro van het stuk erboven.
Wil je tekst overnemen of een video(fragment), foto of illustratie gebruiken, mail dan naar copyright@volkskrant.nl.