Image; Pixabay
Author profile picture

Zoals verwacht heeft het Europees Parlement vandaag zijn onderhandelingspositie over de Wet op de Kunstmatige Intelligentie (AI) aangenomen met 499 stemmen voor, 28 tegen en 93 onthoudingen in afwachting van de besprekingen met de EU-lidstaten over de uiteindelijke vorm van de wet. De regels moeten ervoor zorgen dat AI die in Europa wordt ontwikkeld en gebruikt, volledig in overeenstemming is met de rechten en waarden van de EU, waaronder toezicht op de mens, veiligheid, privacy, transparantie, non-discriminatie en sociaal en ecologisch welzijn.

  • Volledig verbod op kunstmatige intelligentie (AI) voor biometrisch toezicht, emotieherkenning en voorspellend politiewerk.
  • Generatieve AI-systemen zoals ChatGPT moeten vermelden dat de inhoud door AI is gegenereerd.
  • AI-systemen die worden gebruikt om kiezers te beïnvloeden bij verkiezingen worden beschouwd als zeer riskant.

Verboden AI-praktijken

De regels volgen een risicogebaseerde benadering en stellen verplichtingen vast voor aanbieders en degenen die AI-systemen inzetten, afhankelijk van het risiconiveau dat de AI kan genereren. AI-systemen met een onaanvaardbaar risico voor de veiligheid van mensen zouden daarom verboden worden, zoals systemen die gebruikt worden voor social scoring (het classificeren van mensen op basis van hun sociale gedrag of persoonlijke kenmerken). Europarlementariërs breidden de lijst uit met verboden op indringend en discriminerend gebruik van AI, zoals: “real-time” biometrische identificatiesystemen op afstand in openbaar toegankelijke ruimtes; “post” biometrische identificatiesystemen op afstand en voorspellende politiesystemen (gebaseerd op profilering, locatie of crimineel gedrag in het verleden).

AI met hoog risico

Europarlementariërs zorgden ervoor dat de classificatie van toepassingen met een hoog risico nu ook AI-systemen zal omvatten die significante schade toebrengen aan de gezondheid, veiligheid, grondrechten of het milieu van mensen. AI-systemen die worden gebruikt om kiezers en de uitkomst van verkiezingen te beïnvloeden en in aanbevelingssystemen die worden gebruikt door sociale mediaplatforms (met meer dan 45 miljoen gebruikers) werden toegevoegd aan de lijst met risicovolle toepassingen.

Verplichtingen voor AI voor algemene doeleinden

Aanbieders van foundationmodellen – een nieuwe en snel ontwikkelende ontwikkeling op het gebied van AI – moeten mogelijke risico’s (voor de gezondheid, veiligheid, grondrechten, het milieu, de democratie en de rechtsstaat) beoordelen en beperken en hun modellen registreren in de EU-database voordat ze op de EU-markt worden gebracht. Generatieve AI-systemen die gebaseerd zijn op dergelijke modellen, zoals ChatGPT, zouden moeten voldoen aan transparantie-eisen (vermelden dat de inhoud door AI is gegenereerd en helpen om zogenaamde deep-fake beelden te onderscheiden van echte beelden) en waarborgen tegen het genereren van illegale inhoud. Gedetailleerde samenvattingen van de auteursrechtelijk beschermde gegevens die zijn gebruikt voor de training zouden ook openbaar moeten worden gemaakt.

Innovatie ondersteunen en burgerrechten beschermen

Om AI-innovatie te stimuleren en kleine en middelgrote ondernemingen te ondersteunen, hebben Europarlementariërs vrijstellingen toegevoegd voor onderzoeksactiviteiten en AI-componenten die onder open source licenties worden geleverd. De nieuwe wet bevordert zogenaamde regulatory sandboxes, of real-life omgevingen, opgericht door overheden om AI te testen voordat het wordt ingezet.

Tot slot willen Europarlementariërs het recht van burgers om klachten in te dienen over AI-systemen en uitleg te krijgen over beslissingen gebaseerd op AI-systemen met een hoog risico die een significante impact hebben op hun grondrechten, versterken. Europarlementariërs hervormden ook de rol van het EU AI-Bureau, dat toezicht moet houden op de implementatie van het AI-reglement.