Onderzoekers van de Universiteit van Chicago hebben Nightshade ontwikkeld, een tool die is ontworpen om de training van AI-modellen te verstoren die ongeautoriseerde web-scraped afbeeldingen gebruiken. Ars Technica berichtte hierover. De tool verandert afbeeldingen subtiel, waardoor ze er voor het menselijk oog normaal uitzien, maar corrumpeert effectief AI-trainingsprocessen. Deze ingenieuze oplossing is bedoeld om makers van content te beschermen tegen het gebruik van hun werk zonder toestemming, een veelvoorkomend probleem in de AI-industrie. Nightshade maakt deel uit van een breder juridisch debat over het gebruik van auteursrechtelijk beschermd materiaal in AI-trainingsgegevens. Nightshade wil de macht teruggeven aan de makers van inhoud.
- Nightshade verstoort AI-training met subtiele beeldveranderingen en verdedigt zo artiesten tegen ongeautoriseerde modeltraining.
- Het gebruik van auteursrechtelijk beschermde gegevens door AI leidt tot juridische discussies en er lopen rechtszaken en regelgevingsvoorstellen.
- Nightshade biedt een nieuwe verdediging voor kunstenaars, maar de effectiviteit hangt af van de veranderende juridische omgeving.
Data poisoning
Nightshade werkt volgens een mechanisme dat bekend staat als ‘data poisoning’. Het past beelden subtiel aan op manieren die onzichtbaar zijn voor het menselijk oog, maar een grote invloed hebben op het trainingsproces van AI-modellen. Het team achter Nightshade wil het trainen van AI-modellen verstoren die gebruik maken van afbeeldingen die zonder toestemming van de kunstenaar van het web zijn geschraapt, inclusief auteursrechtelijk beschermd materiaal. Deze innovatieve tool probeert zo visuele kunstenaars en uitgevers te beschermen tegen misbruik van hun werk om generatieve AI-beeldsynthesemodellen te trainen.
De kern van Nightshade is een techniek die trainingsgegevens corrumpeert door afbeeldingen subtiel te veranderen zodat ze hun oorspronkelijke visuele uiterlijk behouden, maar beïnvloed worden door een heel ander concept. Dit brengt AI-modellen op een dwaalspoor wanneer ze op de gegevens worden getraind. Het doel is om de macht tussen AI-trainers en makers van inhoud in evenwicht te brengen door de laatste in staat te stellen om terug te vechten tegen ongeautoriseerde modeltraining.
Kunstzinnigheid, AI en het auteursrechtconflict
Het gebruik van auteursrechtelijk beschermde gegevens om AI-modellen te trainen heeft een juridisch en ethisch debat aangewakkerd in de techwereld. Er zijn rechtszaken aangespannen tegen AI-platforms, zoals Stable Diffusion en Midjourney, door artiesten die beweren dat hun auteursrechtelijk beschermde materiaal zonder toestemming is gebruikt. Zelfs Getty Images, een belangrijke hub voor creatieve content, heeft een rechtszaak aangespannen tegen Stability AI, makers van de AI art tool Stable Diffusion, vanwege vermeende schending van het auteursrecht.
Data spelen een cruciale rol bij het trainen van AI-modellen en worden vaak uit een groot aantal bronnen geschraapt, waaronder websites. Dit kan vragen oproepen over intellectuele eigendomsrechten, gegevensbescherming en contractbreuk. Professor Ben Zhao, een van de bedenkers van Nightshade, wil het AI-bedrijven lastiger maken om auteursrechtelijk beschermde gegevens te gebruiken om daarmee hun modellen te trainen.
Een juridisch kader in ontwikkeling
Hoewel de juridische status van het trainen van AI-modellen op auteursrechtelijk beschermd materiaal nog niet is getoetst, beginnen wetgevers er wel aandacht aan te besteden. Het Europees Parlement heeft bijvoorbeeld de EU AI Act voorgesteld – ‘s werelds eerste allesomvattende wet gericht op het reguleren van AI. De wet moet zorgen voor transparantie en traceerbaarheid van AI-systemen die in de EU worden gebruikt en schetst ook verplichtingen voor aanbieders en gebruikers van AI-systemen op basis van het risiconiveau.
Aan de andere kant van het Kanaal is het voorstel van het UKIPO (UK Intellectual Property Office) om de uitzondering op het auteursrecht voor tekst- en datamining uit te breiden op de lange baan geschoven en blijft het beperkt tot niet-commercieel onderzoek of met toestemming van de rechthebbenden. Bovendien stelt de ontwerp-AI-wet van de EU voor om bedrijven die generatieve AI-tools gebruiken te verplichten het gebruikte auteursrechtelijk beschermde materiaal openbaar te maken, wat mogelijk kan leiden tot auteursrechtclaims.
Kunstenbond
In Nederland is de Kunstenbond, de vakbond voor kunstenaars en werkenden in de creatieve en culturele sector, is een onderzoek gestart naar de impact van AI op die beroepsgroep (doe hier mee aan de enquête). Met dit onderzoek hoopt de bond in kaart te brengen wat deze beroepsgroep verwacht van de impact van AI op hun toekomstige werk. “Met de resultaten kunnen we vervolgstappen in kaart brengen zodat wij als vakbond kunstenaars het beste van dienst kunnen zijn, ook in de toekomst”, zegt Evelien Stoffels namens de bond.
Binnen de achterban bestaan er verschillende verwachtingen rondom AI, aldus Stoffels. “Angsten leven bijvoorbeeld op dit moment het meest bij stemacteurs, die al te maken hebben met opdrachtgevers die in nieuwe contracten toestemming vragen om hun stem door middel van AI-toepassingen in de toekomst te gebruiken (zonder dat daar dus nieuwe opdrachten en daarmee nieuwe inkomsten tegenover staan). Een andere angst is dat kunst van beeldende kunstenaars als datapunten gebruikt wordt voor AI-tools om nieuwe art te ontwikkelen, zonder dat daarvoor toestemming is gegeven. Ook wordt er muziek ontwikkeld met AI die voorheen door artiesten gemaakt zou worden. Zo is er voor iedere subsector wel een angst op te noemen.” Tegelijkertijd zijn er ook positieve ontwikkelingen te noemen, benadrukt ze. “Denk bijvoorbeeld aan animatoren of mensen die werken in visual effects die tussenliggende beelden kunnen genereren, wat veel tijd scheelt. Ook zijn er veel kunstenaars, vooral in de multimedia en performance kant, die zich laten inspireren door AI of AI gebruiken om nieuwe kunst te maken.”
Met de uitkomsten van het onderzoek wil de bond de eigen rol beter definiëren. “Denk daarbij bijvoorbeeld aan inventariseren welke beroepsgroepen onder druk kunnen komen te staan en welke nieuwe beroepen of verdienmodellen kunnen ontstaan, wat de toepassing van AI betekent voor arbeidsvoorwaarden, wat omscholing kan betekenen, hoe rechten van kunstenaars beschermd kunnen worden alsmede de waarde van hun werk.” Onder aan de streep gaat het de bond om een transitie die op een menselijke manier kan verlopen. “Wij zijn er niet op tegen dat zaken zullen veranderen, dat zullen ze ongetwijfeld, maar ons doel is dat dit gebeurt op een manier waarbij werkenden in de sector hierbij ondersteund worden, indien nodig en mogelijk.”
De toekomst van AI en auteursrecht
Hoewel Nightshade een belangrijke stap voorwaarts is in de bescherming van de rechten van artiesten in het tijdperk van AI, is het nog vroeg dag. Professor Ben Zhao erkent dat de mogelijkheid bestaat dat mensen de data poisoning tool misbruiken voor kwaadaardige doeleinden. Desondanks blijft het team achter Nightshade hopen dat hun tool AI-trainingsbedrijven zal aanmoedigen om crawlerbeperkingen en opt-out verzoeken te respecteren.
Het juridische landschap rondom het gebruik van auteursrechtelijk beschermd materiaal in AI-trainingsgegevens is complex en in ontwikkeling. Terwijl het debat voortduurt, bieden tools als Nightshade een innovatieve aanpak om deze problemen aan te pakken. Hun uiteindelijke impact zal echter afhangen van hoe het juridische kader rond AI en auteursrecht zich ontwikkelt.