Is een robot als rechter daadwerkelijk objectiever?

De robotrechter staat voor de deur. Een ideaal hulpmiddel voor overbezette rechters, zegt de een. Nee, zegt de ander. De menselijke maat verdwijnt op deze manier uit de rechtszaal.

Beeld Martyn F Overweel / de Volkskrant

Niet voor niets heeft vrouwe Justitia een blinddoek om: rechters moeten onbevooroordeeld beslissen over goed en kwaad. Zonder aanziens des persoons. Idealiter komt iedere rechter tot dezelfde uitspraak. De praktijk is iets weerbarstiger, uiteraard.

Jaren geleden werden acht Israëlische rechters gedurende tien maanden en duizend zaken gevolgd. Uit deze geruchtmakende studie kwam naar voren dat het tijdstip van de behandelde zaken nogal uitmaakt. Rechters bleken aan het begin van de dag relatief coulant, waarna dit tot aan de lunchpauze geleidelijk daalde. Na de lunchpauze gingen ze weer met hernieuwde energie aan de slag en, jawel, steeg de coulance-schaal weer scherp. Conclusie: triviale omstandigheden spelen een grote rol. Weg objectiviteit.

Kunnen robotrechters hier een nuttige rol spelen? Voorstanders van kunstmatige intelligentie in de rechtszaal denken van wel. Volgepompt met historische data zouden machines tot de ideale beslissing moeten kunnen komen.

Volgens Frits Bakker, voorzitter van de Raad voor de Rechtspraak kunnen veel zaken in de toekomst geautomatiseerd worden afgedaan. Het gaat volgens hem dan vooral om routineachtige zaken. 'Dat gaat snel, efficiënt en goedkoop', aldus Bakker onlangs bij de afsluiting van de Dag voor de rechtspraak. De tijdswinst kan vervolgens gebruikt worden voor complexe zaken, zoals problematische echtscheidingen. Rechters komen nu tijd te kort.

Voor Jaap van den Herik, hoogleraar informatica en recht aan de Universiteit van Leiden, gaat dit allemaal nog lang niet ver genoeg. Uiteindelijk kan de computer iedere rechter vervangen, denkt hij. 'Daar ben ik honderd procent van overtuigd. Juristen hebben de kracht van zelflerende programma's nog niet in de gaten. Dus zeggen ze: het mag niet. Maar waarom zou je het willen tegenhouden?'

Van den Herik is niet onder de indruk van het argument dat een computer intuïtie of empathie mist. 'Als je de ontwikkelingen van de laatste tijd bekijkt, zie je dat computers ook intuïtie hebben. Kijk naar de recente overwinning op 's werelds beste go-speler. Dat kan niet zonder intuïtie.' Ook kunnen computers empathisch zijn, voorspelt Van den Herik. Volgens de hoogleraar komt tegenstand vooral voort uit angst voor controleverlies. 'Mensen willen altijd maar de regie in handen houden. Dat is een archaïsche gedachte. Alsof we de vervangers van god zijn.'

Algoritmes om te spiegelen

Niet iedereen kijkt naar de technologische mogelijkheden zoals rasoptimist Van den Herik. Computers die alle rechters vervangen en geheel zelfstandig rechtspreken? Peter-Paul Verbeek (hoogleraar filosofie van mens en techniek aan de Universiteit Twente) ziet het er niet snel van komen. 'Nee, dat scenario zie ik niet zitten. En waarom zouden we dat ook willen? Rechtspreken lijkt me nou net bij uitstek iets waar mensen over moeten gaan. Ik geloof meer in het inzetten van technologie als hulpmiddel voor rechters.'

De computer als zeer geavanceerde assistent dus. 'Het is fantastisch als een rechter tot nieuwe inzichten kan komen met behulp van algoritmes. Hij kan zich bijvoorbeeld beter spiegelen aan eerdere uitspraken en zich zo gedegener voorbereiden. Het laatste oordeel blijft aan de mens.'

Het op deze manier inzetten van techniek heeft volgens Verbeek twee grote voordelen. Allereerst zal het de werkdruk van rechters aanzienlijk verminderen, waardoor ze meer tijd hebben voor andere, lastiger zaken. Daarnaast zullen algoritmes ook bij een minder voor de hand liggend probleem helpen, denkt hij: het toenemende wantrouwen van burgers ten aanzien van de door hen als linkse, bevooroordeelde en elitair beschouwde rechters. 'Techniek kan hier een oplossing zijn, omdat algoritmes objectiever zijn. Als het lukt om voor burgers transparanter te maken hoe vonnissen tot stand komen, heft dat de spanning op tussen het populisme en de elite.'

Maar zijn die algoritmes wel zo objectief? In de Verenigde Staten wordt kunstmatige intelligentie al ingezet om de strafmaat te bepalen, schreef The New York Times onlangs. Zo werd Eric Loomnis uit Wisconsin veroordeeld tot zes jaar gevangenisstraf, deels op basis van een softwarepakket genaamd Compas van het bedrijf Northpointe. Uit de analyse van die software bleek dat Loomnis een verhoogd risico op herhaalgedrag vertoonde. Loomnis stelde daarna dat hij geen eerlijk proces heeft gehad omdat de rechter zijn oordeel baseerde op de geheime algoritmes van die software.

Opvoeden

Dit argument is niet nieuw: zo schreef ProPublica naar aanleiding van Compas dat zwarte verdachten op basis van algoritmes meer kans maken om verkeerd te worden beoordeeld dan witte verdachten. Verbeek ziet die gevaren ook. 'De vooroordelen die er in de algoritmes of data zitten, kunnen worden versterkt in het eindresultaat. Neem die chatrobot van Microsoft die al na een paar minuten de holocaust aan het ontkennen was.'

Wat dat betreft kun je een parallel trekken met het opvoeden van kinderen, zegt Verbeek. 'Je moet ze trainen en corrigeren als het fout gaat.' Die algoritmes zijn dus cruciaal. 'Wat zijn goede algoritmes? Het wordt hoog tijd dat er een ethiek van de algoritmes komt. Het is onaanvaardbaar als ze niet inzichtelijk en transparant zijn.' En: de mens blijft nodig. 'Op zijn minst om de vinger aan de pols te houden.'

Meer over

Wilt u belangrijke informatie delen met de Volkskrant?

Tip hier onze journalisten


Op alle verhalen van de Volkskrant rust uiteraard copyright. Linken kan altijd, eventueel met de intro van het stuk erboven.
Wil je tekst overnemen of een video(fragment), foto of illustratie gebruiken, mail dan naar copyright @volkskrant.nl.
© 2019 DPG Media B.V. - alle rechten voorbehouden