Fabrikanten van producten die gebruik maken van kunstmatige intelligentie, zijn ten alle tijden aansprakelijk voor eventuele schade. Om de rechten van gebruikers beter te beschermen, scherpt de Europese Commissie scherpt de aansprakelijkheidsrichtlijn aan.
Deze zomer was de nieuwe chatbot van Meta het doelwit van hoon. Slechts een paar dagen nadat de Blenderbot 3 van het moederbedrijf van Facebook in de Verenigde Staten online ging, was het zelflerende programma verworden tot een racistische verspreider van nepnieuws.
Hetzelfde gebeurde in 2016 met de chatbot Tay. Door Microsoft ontwikkeld om op Twitter conversaties aan te gaan met echte mensen. Ook Tay nam een verkeerde afslag en werd door Microsoft al snel weer offline gehaald.
Echte schade aan echte mensen
De affaires rondom programma’s als Tay en Blenderbot werken op de lachspieren en zijn relatief onschuldig. Hooguit is hun verhaal een pijnlijke les dat een robot neigt tot rechts-extremisme als die de opdracht krijgt om online in contact te treden met echte mensen.
Toch zijn zelflerende computersystemen weldegelijk in staat om echte schade aan echte mensen aan te richten. En dan gaat het niet alleen om zelfrijdende auto’s die een verkeerde inschatting maken waardoor er een aanrijding plaatsvindt.
Zorgelijk is het ook wanneer serieuze softwareprogramma’s die gebruik maken van AI-technieken onverwacht racistisch gedrag vertonen. Het gaat dan om programma’s die bijvoorbeeld gebruikt in beveligingscamera’s of voor de analyse van sollicitatiebrieven.
Burgers moeten robots kunnen vertrouwen
Of het nu gaat om autonoom vervoer, automatisering van complexe processen of het efficiënter gebruik van landbouwgronden de Europese Unie verwacht veel van de technologische innovaties die mogelijk zijn dankzij kunstmatige intelligentie. Maar AI-toepassingen kunnen alleen een succes worden als burgers het vertrouwen in de techniek niet verliezen. Daarom kwam de Europese Commissie vorig jaar al met een Wet Kunstmatige Intelligentie. De nieuwe aansprakelijkheidsrichtlijn is het vervolg daarop.
In de wet is geregeld onder welke voorwaarde kunstmatige intelligentie toegepast mag worden. Zo is het verboden om ‘slimme’ producten op de markt te brengen die een bedreiging zijn voor de “veiligheid, bestaansmiddelen of rechten van mensen”. Voorbeelden daarvan zijn speelgoed dat kinderen aanzet tot gevaarlijk gedrag of AI-systemen die het overheden mogelijk maakt om burgers intensief te volgen.
Alleen onder strenge voorwaarden zijn AI-toepassingen toegestaan in het vervoer, onderwijs, ziekenhuizen en het personeelsbeleid. Bij dat laatste gaat het bijvoorbeeld om software die gebruikt wordt bij selectieprocedures. Minder streng zijn de voorwaarden bijvoorbeeld voor het inzetten van chatbots, al is het verplicht dat gebruikers wel altijd moeten weten dat ze met een machine en niet met een mens contact hebben. Zonder risico zijn volgens de Europese politici AI-technieken in computerspelletjes of spamfilters.
Verouderde wetten
De vraag is alleen wie verantwoordelijk is voor schade die ontstaat door het gebruik van producten waar kunstmatige intelligentie in verwerkt is. De aansprakelijkheidsrichtlijn zoals die nu geldt is volgens de Europese Unie na 40 jaar verouderd. Volgens de huidige wet is ene fabrikant aansprakelijk voor schade die wordt veroorzaakt door een gebrekkig product.
Maar in een analyse van de Europese Commissie trekken de ambtenaren de conclusie dat die definitie in het digitale tijdperk tekortschiet. “In het geval van op kunstmatige intelligentie gebaseerde systemen, zoals autonome auto’s, kan het echter moeilijk zijn aan te tonen dat er sprake is van een gebrekkig product”. Vooral het aantonen van een oorzakelijk verband tussen een ontwerpfout en een schade is bij zelflerende systemen problematisch.
Het ‘gedrag’ van een kunstmatig intelligent systeem verandert over de tijd. Dat ‘leren’ is vaak een dermate complex proces dat het soms onmogelijk is om te traceren waarom een systeem een bepaald ‘besluit’ genomen heeft. Dat kan liggen aan het ontwerp van de software, maar ook aan de kwaliteit van de data die de computer gebruikt om te leren. Het gevaar bestaat volgens de Europese Commissie dat het voor gebruikers feitelijk onmogelijk is om in geval van schade hard te maken dat die het gevolg is van een gebrek aan de ‘slimme’ computer. Tegelijkertijd betekent deze situatie rechtsonzekerheid voor fabrikanten die mogelijk investeringen in nieuwe technieken belemmeren.
Voorspelbare regels
Met de nieuwe aansprakelijkheidsrichtlijn hoopt de Europese Commissie ‘voorspelbare regels’ in te voeren. De norm wordt dat schade die wordt veroorzaakt door producten die gebruik maken van AI-technieken wordt vergoed.
Ook wordt het makkelijker voor gebruikers om hun recht te halen bij de rechter. In plaats van het aantonen van een oorzakelijk verband, staat in het voorstel van de Europese Commissie dat voortaan het ‘vermoeden van een oorzakelijk verband’ genoeg is om een schadevergoeding te claimen. Daarnaast krijgen slachtoffers het recht op toegang tot bewijsmateriaal van bedrijven om hun zaak te kunnen onderbouwen.De rechtszekerheid van fabrikanten wil de Commissie beschermen door het recht in te voeren om een schadeclaim op basis van het vermoeden van een oorzakelijk verband juridisch aan te vechten.
Update tegen racisme
De Europese Commissie ziet de wettelijke voorwaarden voor de inzet van kunstmatige intelligentie en de nieuwe aansprakelijkheidsregels als twee kanten van dezelfde mediale. Dankzij de wet is het verboden om zelflerende systemen op de markt te brengen die discriminerend gedrag vertonen. De nieuwe richtlijn regelt dat een fabrikant aansprakelijk blijft als zo’n algoritme onverhoopt toch verboden gedrag gaat vertonen. Daarmee worden ontwikkelaars gedwongen hun producten te blijven volgen en zondig met een update te voorzien van een hersenspoeling.