Xiaofa ziet er schattig uit - ongeveer zo groot als een kind met een wit shirt en een gele broek. Je hoeft er niet bang voor te zijn. Ze kent het antwoord op 40.000 rechtsvragen. Xiaofa is een robot. De president van de Chinese Hoge Raad heeft lokale rechtbanken gevraagd hun voordeel te doen met machine learning om rechters en partijen te helpen zaken op te lossen.
Inmiddels zijn er meer dan honderd robots waaraan burgers inhoudelijke vragen kunnen voorleggen of waaraan de vraag kan worden gesteld wie de meest geschikte advocaat is. Ik begrijp de Chinese collega’s wel: als de robot weet wat de rechter waarschijnlijk gaat zeggen, is het voor de rechter moeilijker het recht niet eerlijk (of corrupt) toe te passen of zich niet aan de lijn van het centraal comité te houden.
Afgelopen jaar verschenen alleen al in dit blad diverse boeiende beschouwingen over het gebruik van kunstmatige intelligentie in de rechtspraak.1 De strekking is steeds: het komt eraan, nee het is er al, maar laten we wel behoedzaam te werk gaan. Minister Dekker heeft zich recent daarbij aangesloten. De nieuwe technologie “biedt ons vele aantrekkelijke mogelijkheden. Zij kan dienen ter ondersteuning van het besluitvormingsproces, zij kan onder omstandigheden ook leiden tot het volledig geautomatiseerd nemen van beslissingen”.2 Hij noemt daarin diverse interessante, nu nog vooral efficiency bevorderende experimenten. Er staat nog meer aan te komen of het nu gaat om ondersteunende technologie (ophalen van informatie, sorteren processtukken, review contracten), vervangende technologie (video-conferencing, digitaal procederen) of veranderende technologieën (online dispute resolution). Het feit dat dit nieuwe rechtsvragen zal oproepen moet ons niet afschrikken, al was het maar omdat dergelijke vragen de rechter nu al bespringen vanwege het gebruik van kunstmatige intelligentie in de samenleving.3
Waarin schuilt het belang van die behoedzaamheid met betrekking tot kunstmatige intelligentie? Het gaat m.i. vooral om de impact van kunstmatige intelligentie op de uitkomst van rechterlijke beslissingen. Ik geef als voorbeeld van die impact de invloed van zoekmachines. De cruciale vraag is of het kunstmatige intelligentiesysteem – de zoekmachine – (nog) is gebaseerd op correcte aannames (validation). Het is voor een zoekmachinebouwer bijvoorbeeld verleidelijk beslissingen van de Hoge Raad een zwaarder gewicht toe te kennen dan die van een Hof. Daarom komen de beslissingen van de Hoge Raad bovenaan en dat gewicht wordt vergroot doordat die beslissingen steeds worden aangeklikt. Maar ziet de gebruiker dan nog wel de verstandige reactie van een Hof op een gat dat die Hoge Raadbeslissing heeft opengelaten? Een iets ander punt is dat de mens niet alleen bij het zoeken in de jurisprudentie, maar ook bij het te verwachten digitaal ondersteunde doorzoeken van dossiers zijn ‘pilot skills’ niet zal moeten verliezen. Nu reeds kennen we de verleiding niet meer te hard na te denken als de computer de uitkomst geeft van toepassing van de LOVS-oriëntatiepunten of de alimentatierichtlijn: is het erg als de rechter de vaardigheid verliest zelf die uitkomst te bepalen?
In het recht gaat het niet alleen om rechtvaardige regeltoepassing maar ook om billijke gevalsbeoordeling. Hoe minder data over een geval worden ingevoerd, des te eenvoudiger is de uitkomst. Daarom gaat het met automatisch opgelegde verkeersboetes meestal goed: gelijke gevallen worden gelijk behandeld. De rechter komt er aan te pas als een niet-ingevoerd gegeven van belang is – bijvoorbeeld dat de vliezen van de zwangere passagier waren gebroken.
In de meeste zaken vergt de billijkheid dat meer factoren in aanmerking worden genomen dan in het voorbeeld van de snelheidsovertreding. Daarmee wordt het leervermogen van de robot des te belangrijker. Het z.g. ‘deep learning’ komt erop neer dat een systeem bijvoorbeeld wordt gevuld met een heleboel kattenfoto’s, vervolgens met een nieuwe foto wordt gevoed en ervan leert als de keuze ‘ja, een kat’ goed of fout is. Elke nieuwe rechterlijke beslissing levert dan evenzo feed-back op voor het systeem, waardoor dat leert welke data relevant zijn. Het maakt voor het leerproces niet uit of de data van feitelijke aard zijn of van normatieve aard en al helemaal niet of ze bewust een rol speelden. Dat brengt het gevaar met zich dat bijvoorbeeld iemands huidskleur volgens het systeem relevant kan blijken.
Een team geleerden heeft uit de door het EHRM beschreven ‘circumstances’ in 79% het uiteindelijke rechtsoordeel accuraat ‘voorspeld’. Dat is minder bijzonder dan het lijkt als we beseffen dat de rechter de feiten selecteert in directe wisselwerking met de totstandkoming van zijn rechtsoordeel.4 Maar het onderzoek onderstreept dat de vraag welke data meewegen steeds belangrijker zal worden: als kantoor A een even goede robot heeft als kantoor B zullen beiden van te voren kunnen inschatten dat het gaat om de vraag of de rechter feit X meeneemt in de (al dan niet door zijn eigen robot gesteunde) beoordeling. Overigens is dat nu ook al zo: de inbreng van een nieuw gegeven kan in een rechtsstrijd een nieuwe rechtsvraag oproepen. Maar de kunstmatige intelligentie zal eraan bijdragen dat kleinere details grotere impact hebben. En ik denk dat de grootste verandering die de kunstmatige intelligentie de rechtspraak zal brengen daarmee samenhangt.
Eeuwen lang was het probleem van de jurist ernaar te streven gelijke gevallen gelijk te behandelen. Voor kunstmatige intelligentie is gelijke behandeling geen probleem: integendeel, zij het dat een AI-systeem zoveel factoren kan laten meewegen dat mensen de ‘gelijkheid’ nauwelijks meer herkennen. Niettemin zal aan de rechter steeds meer de vraag worden voorgelegd of vanwege een bijzondere omstandigheid van het geval – of omdat de kunstmatige intelligentie ons bijvoorbeeld een racistische uitkomst biedt – moet worden afgeweken van de door de machine gegeven uitkomst. Dat zal uiteindelijk het verschil betekenen tussen een rechter en Xiaofa.
Dit Vooraf verschijnt in NJB 2019/362, afl. 7
- Onder meer Corien Prins en Jurgen van der Roest, 'AI en de rechtspraak', NJB 2018/206; H.Prakken, 'Komt de robotrechter er aan?', NJB 2018/207; M.A.P. Bovens, B. Eck en S. Zouridis, 'Algoritmische rechtstoepassing in de democratische rechtsstaat', NJB 2018/2101.
- Kamerstukken I, 34775 VI AH (brief aan de voorzitter van de Eerste Kamer van 19 december 2018).
- Vgl over de toetsbaarheid en inzichtelijkheid van algoritmes ECLI:RVST:2017:1259 en ECLI:HR:2018:1316.
- N. Aletras e.a. Predicting judicial decisions of the European Court of Human Rights: a Natural Language Processing perspective, PeerJ Computer Science 2
Afbeelding: Pixabay