De regering Biden-Harris kondigt nieuwe maatregelen aan om verantwoorde AI-innovatie te bevorderen en de rechten en veiligheid van burgers te beschermen. Tot de belangrijkste maatregelen behoren een investering van 140 miljoen dollar voor zeven nationale instituten voor AI-onderzoek, openbare beoordelingen van generatieve AI-systemen en ontwerpbeleidsrichtsnoeren voor het gebruik van AI door de Amerikaanse overheid.
Ondertussen stelt de EU wetgeving voor waarin fundamentele rechten en veiligheid aan de orde komen, met de nadruk op aansprakelijkheid. Nu generatieve AI aan belang wint, werken EU-wetgevers aan een actualisering van de AI-wet om technologieën als ChatGPT te reguleren. Beide zijden van de Atlantische Oceaan werken aan afstemming van het AI-risicobeheersbeleid, aangezien samenwerking tussen de EU en de VS essentieel is voor wereldwijd AI-beheer.
Bijeenkomst in het Witte Huis benadrukt verantwoorde AI-innovatie
Op 4 mei 2023 hebben vicepresident Harris en hoge regeringsfunctionarissen de CEO’s van Alphabet, Anthropic, Microsoft en OpenAI ontmoet om te praten over verantwoorde AI-innovatie en het belang van betrouwbaarheid en ethische waarborgen die de risico’s en mogelijke schade voor individuen en de samenleving beperken. Deze bijeenkomst maakt deel uit van de bredere inspanning van de regering Biden-Harris om met alle stakeholders in gesprek te gaan over kritieke AI-kwesties.
De nieuwe acties van het Witte Huis omvatten een investering van 140 miljoen dollar om zeven nieuwe National AI Research Institutes op te zetten, waarmee het bestaande netwerk van organisaties die zich bezighouden met verantwoord AI-onderzoek verder wordt uitgebreid. Daarnaast hebben toonaangevende AI-ontwikkelaars zoals Anthropic, Google, Hugging Face, Microsoft, NVIDIA, OpenAI en Stability AI toegezegd deel te nemen aan een openbare evaluatie van AI-systemen op een evaluatieplatform dat is ontwikkeld door Scale AI in de AI Village tijdens DEFCON 31.
EU ontwikkelt aansprakelijkheidsregels voor AI en pakt generatieve AI aan
De Europese Commissie werkt intussen aan een eigen rechtskader voor AI, waarbij de nadruk ligt op grondrechten en veiligheid, zodat degenen die schade ondervinden van AI-systemen dezelfde bescherming genieten als degenen die schade ondervinden van andere technologieën. Het Europees Parlement heeft een initiatiefresolutie over wettelijke aansprakelijkheid voor AI aangenomen en de Commissie verzocht met wetgeving te komen. Daarop heeft de Commissie het voorstel voor een richtlijn inzake aansprakelijkheid voor kunstmatige intelligentie (AILD) ingediend, dat tot doel heeft de werking van de interne markt te verbeteren en uniforme niet-contractuele civiele aansprakelijkheidsregels vast te stellen voor door AI veroorzaakte schade.
Nu generatieve AI-technologieën zoals ChatGPT snel groeien, hebben ook de EU-wetgevers haast gekregen. Dragos Tudorache en Brando Benifei, leden van het Europees Parlement, stelden wijzigingen voor die bedrijven met generatieve AI-systemen verplichten auteursrechtelijk beschermd materiaal dat wordt gebruikt in trainingsmodellen openbaar te maken. De commissie wil op 11 mei stemmen over het akkoord, en als dat succesvol is, gaat het naar de trialoogfase voor een debat tussen de EU-lidstaten, de Europese Commissie en het Europees Parlement.
Afstemming van de AI-regelgeving: Samenwerking tussen de EU en de VS
Ondanks hun verschillende benaderingen van AI-risicobeheer hebben de EU en de VS een gemeenschappelijk standpunt over risicogebaseerde benaderingen, beginselen van betrouwbare AI en internationale normen. De EU-VS-Raad voor handel en technologie werkt aan methoden voor betrouwbare AI, aan internationale AI-normen en aan onderzoek naar opkomende AI-risico’s en nieuwe technologieën.
Verdieping van de samenwerking tussen de EU en de VS is van cruciaal belang om ervoor te zorgen dat het AI-risicobeheerbeleid de pijlers worden van wereldwijd AI-governance en democratische controle.