Rood beeldmerk van Rutten & Welling Advocaten
9 september 2021

Artificiële intelligentie en civiel recht

Ontwikkelingen op het gebied van Artificiële intelligentie (AI) gaan razendsnel. Had ik in mijn vorige artikel nog geschreven dat zelfstandig denkende en moordende machines nog verre toekomstmuziek zouden zijn, inmiddels is het eerste dodelijke slachtoffer van AI waarschijnlijk al een feit. In een rapport van de Verenigde Naties over de burgeroorlog in Libië schrijven de rapporteurs dat autonoom opererende drones van Turkse makelaardij een belangrijke rol hebben gespeeld bij een veldslag en daarbij zeer waarschijnlijk dodelijke slachtoffers hebben gemaakt. Anders gezegd: drones zouden op basis van eigen beslissingen en zonder menselijke tussenkomst dodelijke slachtoffers hebben gemaakt. Ook bij de 2020 oorlog tussen Azerbeidzjan en Armenië hebben drones en AI een doorslaggevende rol gespeeld bij de uiteindelijke winst door Azerbeidzjan. De eerste incarnatie van Terminator heeft de vorm van een drone uit Turkije aangenomen.

Het idee van een zelfbeslissende, dodelijke (vlieg)machine baart mij grote zorgen. De ontwikkeling van deze systemen is volgens het Proposal for a Regulation laying down harmonised rules on artificial intelligence van de Europese Commissie een onaanvaardbaar risico. Ik denk dat deze ontwikkeling niet is te stoppen: het militair voordeel van onbemande en autonoom opererende oorlogsmachines is daarvoor vermoedelijk te groot. Een algeheel verbod lijkt mij een volstrekte illusie. Ik kan alleen maar hopen dat het oorlogsrecht hier duidelijke en te handhaven regels over zal gaan bevatten, en dat deze – voor de verandering – eens gerespecteerd zullen worden.

AI en civiel recht

Ik houd mij niet bezig met oorlogsrecht: mijn vakgebied is het civiele recht. Maar ook hiervoor zal AI vergaande consequenties hebben. Civiel recht betreft namelijk de onderlinge rechtsbetrekkingen tussen burgers en ondernemingen. De achterliggende assumptie daarbij is dat natuurlijke personen en ondernemingen (meer precies: rechtspersonen) de enige “juridische” actoren zijn. Zij zijn de enigen die handelingen verrichten die rechtsgevolgen beogen, waarmee bedoeld wordt: het doen ontstaan, wijzigen of teniet laten gaan van juridische relaties.

Natuurlijk verrichten deze actoren ook handelingen die niet-beoogde rechtsgevolgen hebben, maar waar het Burgerlijk Wetboek (BW) die wel aan verbindt. Het meest bekende voorbeeld daarvan is de onrechtmatige daad. Denk  hierbij aan (verkeers)ongevallen. Beoogd is dat (vrijwel) nooit, toch verbindt de wet daar een rechtsgevolg aan, namelijk schadeplichtigheid jegens het slachtoffer.

Het Burgerlijk Wetboek verbindt aan de handelingen van andere “actoren” soms rechtsgevolgen voor (rechts)personen. Voor bijvoorbeeld de handelingen van kinderen jonger dan 14 zijn de ouders aansprakelijk, voor dieren de bezitter. Ook voor levenloze zaken kan iemand aansprakelijk zijn: opstallen, roerende zaken, en voor de eigen (of van buiten de EU geïmporteerde) producten. Het zal duidelijk zijn het bij levenloze zaken niet gaat om een doen of nalaten van die levenloze zaak, maar om  eigenschappen die de zaak heeft of juist ontbeert.

AI en rechtspersoonlijkheid

Waar moet binnen dit stelsel AI toe worden gerekend? Goed beschouwd is een AI-systeem een levenloze zaak die zelfstandig handelt.  Er is daarom wel eens geopperd om AI-systemen (vaak robots) rechtspersoonlijkheid te geven. Dit zou betekenen dat een AI-systeem op dezelfde wijze drager van rechten en verplichtingen zou kunnen zijn als een natuurlijke persoon of een rechtspersoon. Het AI-systeem kan dus bijvoorbeeld geld en goederen bezitten. De andere kant van rechtspersoonlijkheid is dat anderen vorderingen (claims) kunnen instellen tegen het AI-systeem, bijvoorbeeld vanwege een door het AI-systeem gemaakte fout.

In 2020 heeft het Europese parlement een resolutie aangenomen over de aansprakelijkheid bij AI. Daarbij is een duidelijke keuze gemaakt om aan AI-systemen géén rechtspersoonlijkheid toe te kennen. Ook al zou een dergelijk systeem volledig autonoom virtuele en/of fysieke handelingen uitvoeren, er is op dit moment altijd nog een (rechts)persoon die het systeem heeft ontwikkeld en/of gebruikt. De Turkse drone zou weliswaar zonder menselijke tussenkomst dodelijk slachtoffers hebben gemaakt, het is nog steeds een menselijke beslissing geweest om die drone in te zetten, al dan niet met als beoogd doel de dodelijke slachtoffers. Een systeem als Skynet dat volledig autonoom en zelfvoorzienend is, blijft gelukkig nog (even?) toekomstmuziek.

De fundamentele keuze om geen rechtspersoonlijkheid toe te kennen aan AI-systemen brengt met zich mee dat nagedacht moet worden over wie er dan wel aansprakelijk is voor schade die een AI-systeem heeft veroorzaakt. De genoemde resolutie van het Europees Parlement geeft daarvoor een aanzet. Hoe dat stelsel in elkaar steekt en hoe dat zich verhoudt tot het Nederlandse aansprakelijkheidsrecht is het onderwerp van mijn derde artikel over de juridische implicaties van AI.

Heeft u vragen op het raakvlak van Recht en ICT? Neemt u contact met mij op!

s.blommendaal@ruttenwelling.nl

mr. Serge Blommendaal