© Microsure

De Europese Commissie wil een lijst aanleggen voor superriskante toepassingen van AI (artificiële intelligentie) zoals voor de medische zorg of de zelfrijdende auto die door een veiligheidscheck moet voordat deze de markt op mag. Dat staat in het witboek over artificiële intelligentie ‘Een Europese benadering voor uitmuntendheid en vertrouwen’ dat de Europese Commissie vorige week publiceerde.

Reden is dat nu niet duidelijk is wie aansprakelijk is voor verkeerde beslissingen die AI zelfstandig neemt als er slachtoffers vallen. Daarom wil de Europese Commissie dat vooraf duidelijk is hoe de AI besluiten neemt. Ook wil de Europese Commissie dat te traceren is hoe de AI getrained is, hoe de AI data verzamelt, wat de AI er mee doet en in hoeverre en voor welke partijen deze data toegankelijk zijn.

Te veel werk voor MKB

Voor het midden- en kleinbedrijf (MKB) is het niet te doen om alle AI die ontwikkeld wordt door een securitymolen te halen, zo staat in het witboek. En op sommige terreinen is dat ook niet nodig omdat er weinig risico te voorzien valt. Stel bijvoorbeeld dat een klein bedrijf een inroosterrobot maakt die leraren indeelt voor het lesrooster op een middelbare school.

Meld je aan voor onze Nieuwsbrief!

Je wekelijkse innovatie overzicht: Elke zondag onze beste artikelen in je inbox!

    Als de robot een verkeerde inschatting maakt, bijvoorbeeld door te veel ingewikkelde vakken achter elkaar te plaatsen voor een bepaalde klas en ontspannende lessen zoals gym, muziek en tekenen ook allemaal achter elkaar te plaatsen, is dat geen drama. De school kan dat makkelijk veranderen zonder dat leerlingen of docenten schade oplopen. Dat soort AI hoeft niet op veiligheidsrisico’s gecontroleerd te worden voor de maker het gaat verkopen.

    Lees ook: Eurocommissaris Vestager presenteert nieuwe AI-wetgeving in 2020

    Maar als de AI van een zelfrijdende auto tijdens een rit, of de AI van een instrument tijdens een medische operatie, een verkeerde beslissing neemt waardoor iemand overlijdt, is volgens de opstellers van het witboek onduidelijk op wie de schade nu te verhalen valt. Het is immers de AI die een besluit neemt, niet de bedenker van de AI.

    Zorg en vervoer risicogebieden

    Voor de ontwikkeling en toepassing van AI op terreinen waar risico te verwachten valt zoals de vervoersindustrie en de gezondheidszorg, zal er daarom een lijst van te controleren categorieën opgesteld worden. Die zal geregeld worden herzien. Ook de binnen die categorieën op de markt gebrachte AI zelf zal geregeld moeten worden gereviseerd omdat deze vaak updates krijgen.

    Het witboek gaat in op allerlei aspecten van AI die nu niet geregeld zijn. Zo ontbreekt het aan transparantie. Iemand die last of schade heeft van de werking van AI en daarvoor verhaal wil halen bij de rechter, komt alleen aan bewijs als de eigenaar van de AI dat verstrekt. Op dit moment zijn er geen duidelijke regels waarmee burgers die informatie kunnen afdwingen. Dat moet in de toekomst wel het geval zijn. Alle informatie die voor de werking van de AI gebruikt is – er zijn soms verschillende leveranciers betrokken – zal bewaard moeten worden.

    Daarbij is onduidelijk wie precies verantwoordelijk is voor een eventuele, voor mensen schadelijke werking van de AI. De ontwikkelaar maakt het basisproduct, maar de gebruiker traint de robot daarna ook nog. Hoe dat zit, moet ook helder worden.

    Debat over gezichtsherkenning

    Een onderwerp dat in de Europese Unie moeilijk ligt en waarover een groot debat komt, is de toepassing van AI die gebruik maakt van biometrische kenmerken op afstand, zoals gezichtsherkenning. In het document staat dat dit alleen toegestaan kan worden als dit een bepaald zeer belangrijk doel dient, zoals bijvoorbeeld veiligheid. Voor het betrappen van burgers die door rood lopen over een zebra via een camera die de burger aan zijn gezicht herkent mag AI volgens de Europese Commissie niet gebruikt worden. In China gebeurt dat wel. Daar krijgt een wandelaar die een stoplicht negeert automatisch een boete in de bus als een camera met AI hem herkent en de overtreding registreert.

    Lees ook: Europa moet investeren in hub voor mensgerichte robots in MKB

    In verschillende media leverden de voorgenomen wettelijke beperkingen voor de toepassing van AI de Europese Commissie al kritiek op omdat deze de ontwikkeling van AI in de EU op achterstand zou zetten ten opzichte van de VS en China. Bovendien zou de technologie de EU toch wel bereiken, maar dan via Chinese in plaats van Europese bedrijven.

    Nieuwe Europese wetgeving voor AI in de maak

    Dit witboek voor de ontwikkeling en de toepassing van AI is feitelijk een startdocument van de Europese Commissie op basis waarvan ze een wet of wetsaanpassing maakt die door de nationale regeringen, parlementen en het Europees parlement goedgekeurd moet worden. (Welke van de twee het wordt, ligt nog niet vast.)

    Meepraten?

    Belanghebbenden zoals consumentenorganisaties, universiteiten en bedrijven kunnen tot 19 mei voorstellen indienen bij de Europese Commissie om de voorgenomen wetgeving op het gebied van AI te beïnvloeden.

    Steun ons!

    Innovation Origins is een onafhankelijk nieuwsplatform, dat een onconventioneel verdienmodel heeft. Wij worden gesponsord door bedrijven die onze missie steunen: het verhaal van innovatie verspreiden. Lees hier meer.

    Op Innovation Origins kan je altijd gratis artikelen lezen. Dat willen we ook zo houden. Heb je nou zo erg genoten van de artikelen dat je ons een bedankje wil geven? Gebruik dan de donatie-knop hieronder:

    Doneer

    Persoonlijke informatie

    Over de auteur

    Author profile picture