Aansprakelijkheid voor AI-systemen

De recente Resolutie van het Europees Parlement over civielrechtelijke aansprakelijkheid voor artificiële intelligentie (AI) is een belangrijke stap naar meer rechtszekerheid, maar biedt ook voer voor discussie.1

Het Parlement beoogt met de Resolutie de Commissie aan te zetten tot het opstellen van gemeenschappelijke regels voor AI-systemen. Wie ‘tastbare’ illustraties zoekt: bekijk de praktijkvideo’s over toepassingen in de zorg die moeten resulteren in snellere en meer accurate beslissingen bij preventie, diagnostiek en behandeling.2 Maar wat als het aldaar getoonde AI-systeem dat analyseert of het hartritme afwijkingen vertoont een verkeerde inschatting maakt waardoor de patiënt te laat wordt geholpen? Grote kans dat gedupeerden van het kastje naar de muur worden gestuurd. Immers de zelflerende capaciteiten van AI-systemen vormen een uitdaging voor de vaststelling van (de relatie tussen) schade en schadeveroorzakend handelen.

Wat valt op in de Resolutie? Allereerst dat het Parlement een kwestie van stal haalt die al veel langer buiten de context van AI is bediscussieerd: productaansprakelijkheid. Gegeven de huidige rechtsonzekerheid spoort het Parlement de Commissie aan om ‘te beoordelen of de richtlijn productaansprakelijkheid moet worden omgezet in een verordening, de definitie van “producten” te verduidelijken door aan te geven of digitale inhoud en digitale diensten daaronder vallen.’ Ook moeten concepten als ‘schade’, ‘gebrek’ en ‘producent’ worden heroverwogen. Een andere ‘klassieker’ in de Resolutie is het al dan niet toekennen van rechtspersoonlijkheid (of rechtssubjectiviteit) aan zelfstandig handelende systemen. Wat het Parlement betreft is het antwoord ontkennend. Weliswaar sturen dergelijke systemen deels autonoom allerhande fysieke dan wel virtuele handelingen aan: het blijft altijd een (rechts)persoon die – althans als startpunt van deze handelingen – de systemen creëert, programmeert of exploiteert.

Waar de bovenstaande kwesties al decennia onderwerp van debat zijn, geldt dat niet voor de aanbeveling van het Parlement om te komen tot een gedifferentieerde aanpak voor civielrechtelijke aansprakelijkheid in het geval van schade. Eerder al koos de Commissie voor een dergelijke aanpak in het – februari 2020 – gepresenteerde Witboek Kunstmatige Intelligentie.3 Voor zowel Commissie als Parlement is een belangrijke reden voor een risico-gebaseerde aanpak de noodzaak van een balans tussen het efficiënt en billijk beschermen van potentiële slachtoffers van schade en tegelijkertijd voldoende ruimte bieden aan ondernemingen, met name het MKB, om te innoveren.

Waar de Commissie het begrip ‘risicovolle’ toepassing hanteert en daartoe twee cumulatieve criteria introduceert (1. type sector waarin de AI wordt toegepast; 2. type gebruik binnen deze sector), kiest het Parlement voor een onderscheid tussen AI-toepassingen die wel of niet een ‘hoog risico’ met zich meebrengen. Van een hoog risico is volgens het Parlement sprake ‘wanneer de autonome werking ervan leidt tot een aanzienlijke kans op schade voor een of meer personen, op een willekeurige wijze die verder gaat dan wat redelijkerwijs mag worden verwacht.’ Ook hier spelen type sector en toepassing overigens een rol. Relevant voor de beoordeling is verder de wisselwerking tussen de ernst van de mogelijke schade, de waarschijnlijkheid dat het risico tot schade leidt en de wijze waarop het AI-systeem wordt gebruikt.

Het Parlement stelt voor alle AI-systemen met een hoog risico in een uitputtende lijst op te nemen. Deze zal – gegeven de snelle technologische ontwikkelingen – ten minste iedere zes maanden moeten worden herzien. Voor deze systemen geldt een vermoeden van schuld. En: zoals motorrijtuigen verplicht verzekerd moeten worden tegen wettelijke aansprakelijkheid, zo worden operators van AI-systemen met een hoog risico verplicht een aansprakelijkheidsverzekering af te sluiten. De Commissie dient ook vast te stellen voor welke bedragen en omvang dekking moet worden geboden. Bij de beoordeling dient de Commissie nauw samen te werken met een nieuwe permanent comité dat vergelijkbaar is met het bestaande Technisch Comité motorvoertuigen, waarin nationale deskundigen van de lidstaten en belanghebbenden zitting hebben.

Aansprakelijkheid en de verplichting tot verzekeren ligt bij de operator van een AI-systeem. Hij heeft de controle over de risico’s die aan het systeem verbonden zijn en is veelal een zichtbaar aanspreekpunt voor slachtoffers. Het Parlement definieert operator ruim. Het is niet alleen de (rechts)persoon die controle uitoefent over dan wel baat heeft bij de werking van het AI-systeem (zgn. front end operator). Operator is ook de (rechts)persoon die doorlopend de kenmerken van de technologie definieert dan wel een essentiële ondersteuning voor het functioneren van het systeem biedt (back end operator).

De Resolutie is een belangrijke stap in de discussie over het bieden van noodzakelijke rechtszekerheid en bescherming bij het gebruik van AI-systemen. Maar het zal een uitdaging voor de Commissie en ook verzekeraars worden de voorgestelde regels in de praktijk vorm te geven. De aanbevelingen lijken te suggereren dat de (potentiële) risico’s bekend of althans voorzienbaar en daarmee bespreekbaar zijn. En dat een zeer concrete afweging valt te maken bij de vraag of het AI-systeem wel of niet als ‘hoog risico’ vermeld moet worden. Maar de zelflerende kenmerken van AI-systemen vragen bovenal om een dynamische vorm van beoordelen. Deze kenmerken vragen om sensitiviteit van beoordelaars en verzekeraars voor onzekerheden en ambiguïteiten die over niet-berekenbare en nog onbekende risico’s en risicoproblemen blijven bestaan. Ze noodzaken tot het agenderen van de vraag: moeten operators proactief op zoek gaan naar de kwetsbaarheden en bredere kosten voor de samenleving die op langere termijn met hun toepassing gemoeid kunnen gaan? En tenslotte: breng bij de beoordeling vooral ook juridische expertise aan boord en niet alleen - zoals het Parlement stelt – AI-expertise en ‘deskundigen op het gebied van ethiek, antropologen, sociologen en specialisten op het gebied van geestelijke gezondheid.’

 

Dit Vooraf verschijnt in NJB 2020/2804, afl. 41

 

Afbeelding: Pixabay

 

1. https://www.europarl.europa.eu/doceo/document/TA-9-2020-0276_NL.html#title1
2. https://www.datavoorgezondheid.nl/actueel/nieuws/2020/10/14/praktijkvideo%E2%80%99s-over-artificiele-intelligentie-in-de-zorg
3. https://ec.europa.eu/info/sites/info/files/commission-white-paper-artificial-intelligence-feb2020_nl.pdf

 

Over de auteur(s)
Corien Prins
Hoogleraar Recht en Informatisering