Zelfrijdende auto’s, maar ook deepfakes tijdens verkiezingen: AI wordt gebruikt in zowel constructieve, als zorgwekkende toepassingen. Europese bedrijven staan voor de uitdaging om een evenwicht te vinden tussen snelle adoptie en verantwoord gebruik van AI. De AI-wet biedt een duidelijk kader. Maar ook hulpmiddelen, zoals synthetisch gegenereerde data, komen van pas.
Waarom je dit moet weten:
Europa wil AI reguleren met de AI Act. Deze wet gaat burgers beschermen.
Europa wil koploper worden op het gebied van AI. Van gevestigde bedrijven als SAS en Hugging Face tot startups als het Duitse Aleph Alpha en het Franse Mistral: we kunnen de komende jaren veel verwachten van AI op Europese bodem.
De AI Act
Tegelijkertijd moeten de grondrechten en de veiligheid van burgers worden gewaarborgd. Dat doet Europa door middel van een nieuwe AI-wet. Het Europees Parlement heeft deze wet onlangs goedgekeurd. AI-systemen worden geclassificeerd op basis van risico en de wet stelt strenge eisen aan toepassingen met een hoog risico. Zo moet schade aan de gezondheid of schending van de grondrechten worden voorkomen. Bedrijven kunnen boetes tot 35 miljoen euro krijgen als ze de wet overtreden. De AI-wet wordt naar verwachting in juni van kracht.
SAS, marktleider in AI- en analysesoftware, is vanaf het begin betrokken geweest bij het wetgevingsproces. Onlangs gaf het bedrijf een briefing over ethische AI en over de nieuwe wet. Kalliopi Spyridaki, hoofd privacystrateeg bij het bedrijf: “De wet heeft betrekking op AI die wordt toegepast in onder andere speelgoed, vliegtuigen of overheidssystemen. Daarnaast bevat de wet maatregelen om te voorkomen dat AI verkiezingen verstoort. Denk bijvoorbeeld aan het gebruik van deepfakes. Het moet voor consumenten duidelijk worden of bepaalde content echt is, of door AI gegenereerd.” Toepassingen met een ‘onacceptabel’ risico worden helemaal verboden. Denk bijvoorbeeld aan het verzamelen van afbeeldingen van gezichten in databases, zoals China doet.
Richtlijnen en tools
SAS-experts onderzochten de fundamentele componenten die organisaties nodig hebben om een betrouwbaar AI-systeem op te zetten. Dat gaat bijvoorbeeld over de kwaliteit van data. Josefin Rosén, AI-specialist bij SAS: “Datamodellen zijn net als melk. Ze worden na verloop van tijd ‘minder vers’. De sleutel is om ze aan te passen aan een steeds veranderende realiteit. Mensen moeten de prestaties van modellen continu monitoren en op tijd aan de bel trekken.”
Naast richtlijnen kunnen ook bepaalde tools bedrijven helpen om AI ethisch toe te passen, zegt Rosén. Bijvoorbeeld synthetische data. Deze gegenereerde gegevens komen van pas als een bedrijf een AI-model wil trainen, terwijl er onvoldoende gegevens beschikbaar zijn. Of het gaat om privacygevoelige informatie. Onderzoek voorspelt dat dit jaar 60% van de gegevens die gebruikt worden om AI-toepassingen te ontwikkelen, synthetisch gegenereerd worden. Voor de gezondheidszorg, waar patiëntgegevens niet altijd vrij gebruikt mogen worden, is dit nuttig. Het Erasmus MC gebruikt het al. SAS heeft ook nuttige programma’s voor synthetische data.
Daarnaast bestaan er verklarende AI-modellen. Deze zijn speciaal ontworpen om het besluitvormingsproces van AI-systemen begrijpelijk te maken voor mensen. Ze onthullen de interne logica en redenering achter AI-beslissingen, waardoor bedrijven kunnen ingrijpen als AI bijvoorbeeld discriminerende processen toepast. De Utrechtse startup Deploy richt zich op verklarende AI. Klanten van Deeploy zijn onder andere zorgpensioenfonds PGGM en vergelijkingssite Independer.
Overreguleren is een valkuil
Het valt nog te bezien hoe de nieuwe wetgeving in Europa zal uitpakken. De AI-wet wordt breed gesteund. Toch zijn veel bedrijven en overheden terughoudend. De goedkeuring van de wet in de lidstaten verliep moeizaam; Duitsland en Frankrijk boden weerstand. De landen waren bezorgd over te strenge regels, die Europese ontwikkelaars zouden benadelen. Vergeleken met de AI Bill of Rights in de VS is de Europese wetgeving uitgebreider en gedetailleerder. AI-experts, zoals Jens Bontinck van ML6, waarschuwen ook voor het risico van overregulering.