Samenvatting van dit artikel:
- De EU-parlementscommissies hebben overeenstemming bereikt over strengere regelgeving voor kunstmatige intelligentie (AI).
- Het akkoord heeft tot doel AI-systemen veiliger en ethischer te maken en de bescherming van de rechten van individuen te waarborgen.
- De voorgestelde regelgeving omvat onder andere verboden op bepaalde vormen van AI en verplichte transparantie- en aansprakelijkheidsregels voor AI-ontwikkelaars.
De Europese Unie is vandaag een stap dichterbij het invoeren van nieuwe regels voor kunstmatige intelligentie gekomen. Ze werden het vandaag na een stemming eens over de AI Act. Dit moet de eerste allesomvattende wetgeving worden die de technologie reguleert, met nieuwe regels voor het gebruik van gezichtsherkenning, biometrische bewaking en andere AI-toepassingen.
Na twee jaar onderhandelingen wordt verwacht dat de wet nu naar de volgende fase gaat, waarin wetgevers de details van de wet afstemmen met de Europese Commissie en individuele lidstaten. In de stemming van donderdagochtend zijn de Europarlementsleden overeengekomen om het gebruik van gezichtsherkenning in openbare ruimtes en preventieve politiegereedschappen te verbieden, en om nieuwe transparantiemaatregelen op te leggen aan generatieve AI-toepassingen zoals OpenAI’s ChatGPT.
Indeling van AI-tools op basis van risico
Onder de voorstellen zullen AI-tools worden ingedeeld op basis van hun waargenomen risiconiveau, variĆ«rend van laag tot onaanvaardbaar. Regeringen en bedrijven die deze tools gebruiken, zullen verschillende verplichtingen hebben, afhankelijk van het risiconiveau. GroenLinks-EuroparlementariĆ«r Kim van Sparrentak tegen persbureau Reuters: “Deze stemming is een mijlpaal in het reguleren van AI en een duidelijk signaal van het Parlement dat fundamentele rechten een hoeksteen moeten zijn. AI moet mensen, de samenleving en het milieu dienen, niet andersom.”
AI Act: doelen en zorgen
De AI Act werd twee jaar geleden voorgesteld door de EU en heeft als doel om normen voor AI vast te stellen voordat China en de VS dit doen. Er zijn zorgen over banenverlies, desinformatie en inbreuken op auteursrechten als gevolg van het gebruik van AI. De wet verdeelt AI-systemen in risicogroepen, verbiedt gevaarlijke systemen en reguleert ‘hoog risico’ AI met een keurmerk. Er is flexibiliteit ingebouwd om aanpassingen aan snelle ontwikkelingen mogelijk te maken.
Verboden en ‘hoog risico’ AI-systemen
Verboden AI-systemen zijn onder andere gedragsbeoordeling van mensen, realtime biometrische identificatie (gezichtsherkenning) door opsporingsdiensten. Het Parlement wil verder gaan door emotieherkenning door de politie, grenscontrole, werk en onderwijs te verbieden, en criminaliteits- en fraudevoorspellingen op basis van profilering te verbieden. ‘Hoog risico’ AI-systemen kunnen een impact hebben op mensenrechten en gezondheid, waaronder politie-opsporingssystemen voor verdachten, cv-scanning voor sollicitanten, beveiliging van kernreactoren en watervoorzieningen. Strenge eisen omvatten geen discriminatie, transparantie, duidelijkheid voor toezichthouders en verplichte risicoanalyse.
Het is een belangrijk moment, omdat het de eerste keer is dat wetgeving ingaat op generatieve AI-modellen. Volgende maand zal er een plenaire stemming in het Europees Parlement plaatsvinden, gevolgd door onderhandelingen met de Raad van de Europese Unie. De verwachte wet zal begin volgend jaar van kracht gaan, de implementatie ervan zal twee jaar duren.