Hoe de mens ervoor kan zorgen dat killerrobots niet op eigen houtje over leven en dood gaan beslissen

Majoor Ilse Verdiesen onderzoekt hoe de mens 'in control' kan blijven

Dragen autonome wapens bij aan een schone, humane oorlogsvoering of openen we hiermee de doos van Pandora? Majoor Ilse Verdiesen onderzoekt hoe de mens 'in control' kan blijven.

Beeld afp

Ilse Verdiesen is majoor bij de landmacht, maar onderzoekt ondertussen ook aan de TU Delft hoe zogeheten autonome wapens zo moeten worden ontworpen dat de mens 'in control' blijft. Het onderwerp lijkt actueler dan ooit. Afgelopen zomer pleitte een groep experts (onder wie niet alleen Teslabaas Elon Musk, maar ook roboticabedrijven) voor een verbod op killerrobots door de Verenigde Naties. Verdiesen is aanstaande maandag een van de gasten in het KennisCafé van de Volkskrant in De Balie in Amsterdam, dat gaat over deze zogenoemde killerrobots.

Want het debat hierover is ernstig gepolariseerd. Aan de ene kant zijn er dus de mensen als Elon Musk die aandringen op een verbod voordat het te laat is. Maar aan de andere kant staan mensen die deze stellingname afdoen als dystopische sciencefiction: de mens zit immers nog altijd aan de knoppen.

Dus eerst maar even: wat zijn autonome wapens eigenlijk?

'Daar is lang niet iedereen het over eens. Autonome wapens zijn in mijn definitie wapens die volgens vooraf gestelde criteria op eigen houtje doelen kunnen uitschakelen. De mens programmeert ze dus nog wel en beslist ook wanneer ze worden ingezet.'

KennisCafé Robotoorlog!
Maandag 16 oktober, 20-22 uur
De Balie, Amsterdam.
Kaarten en info: debalie.nl.

En worden ze zo ook gebruikt?

'Voorzover ik weet, geeft de mens nu nog altijd het laatste zetje. Neem bijvoorbeeld de Goalkeeper. Dit wapensysteem van Nederlandse bodem kan het hele proces voor zijn rekening nemen, van surveillance en detectie tot vernietiging. Maar een militair bepaalt waar zo'n systeem gebruikt wordt en die drukt op de knop.'

Zogenoemde 'killerrobots' zijn al lang geen sciencefiction meer, zegt bijvoorbeeld de Britse robotoorlogdeskundige Noel Sharkey. En Musk en consorten willen een verbod voordat we zijn overgeleverd aan systemen die geheel op eigen houtje beslissen over leven en dood.

De vraag is dus: zijn we nog wel op tijd?

'Dat denk ik wel, ja. Maar het is wel van groot belang dat we nadenken over het ontwerp van die systemen. Hoeveel vrijheid krijgt het systeem om zelf te beslissen? Waar in het proces moet nog menselijke controle worden ingebouwd? Dit zijn de belangrijkste vraagstukken in de kunstmatige intelligentie.'

Is een van de grootste problemen niet dat we niet precies weten hoe zelflerende machines tot een conclusie komen? Dat we feitelijk geen inzicht hebben in de algoritmen?

'We kunnen ons niet neerleggen bij de constatering dat de algoritmen per definitie niet transparant zijn. Bij een verantwoorde artificial intelligence (AI) hoort inzicht in de algoritmen die ten grondslag liggen aan beslissingen. Bedrijven moeten op de een of andere manier gedwongen worden hierover duidelijkheid te verschaffen. Gelukkig zie je steeds meer aandacht voor de ethische kant van kunstmatige intelligentie. Kijk maar naar Googledochter DeepMind, die een aparte ethische afdeling opricht.'

Nog los van die algoritmen: techniek is niet neutraal. Wie bepaalt de normen en waarden waarmee killerrobots worden volgestouwd?

'Ik heb geen flauw idee wie dat heeft gedaan bij de bestaande autonome wapens. Dat is ook voor mij totaal onbekend. Het is hoog tijd dat hier iets verandert. Welke normen stoppen we in machines? Het maakt allemaal nogal uit. Zo maak je boven zee een andere afweging dan in een scenario waarbij een drone boven dichtbevolkt gebied vliegt. Hoeveel nevenschade is nog toelaatbaar? Of: vinden we het toelaatbaar als een machine autonoom beslist over leven en dood? Hoe autonoom mag een wapen zijn? Iemand moet daar toch ideeën over hebben en daarmee de wapens programmeren. We moeten kortom vooraf nadenken welk waarden we inbouwen.'

En gebeurt dat ook?

'Eigenlijk nog nauwelijks. Zelf heb ik een eerste aanzet gegeven door te inventariseren hoe mensen denken over deze vragen. Dit onderzoek moet nog veel breder. Daarom ben ik ook blij dat de discussie eindelijk gevoerd wordt. Niet alleen in de academische wereld, maar ook bij de Verenigde Naties en bij bijvoorbeeld DeepMind.'

Dus een volledig verbod is wat u betreft niet aan de orde?

'Nee hoor. Er is principieel niets tegen autonome wapens, zolang AI maar doet wat wij willen dat het doet. Dat kan alleen door al in het ontwerp rekening te houden met deze eis.'

Meer over

Wilt u belangrijke informatie delen met de Volkskrant?

Tip hier onze journalisten


Op alle verhalen van de Volkskrant rust uiteraard copyright. Linken kan altijd, eventueel met de intro van het stuk erboven.
Wil je tekst overnemen of een video(fragment), foto of illustratie gebruiken, mail dan naar copyright@volkskrant.nl.