Künstliche Intelligenz sammelt Daten
Author profile picture

De recente beslissing van het Bundeskartellamt met betrekking tot het verzamelen van gegevens door Facebook maakt ons opnieuw bewust van onze nogal losse omgang met onze privégegevens. En niet alleen via sociale media zoals Facebook. Want alleen al het gebruik van internet, smartphones en smart home functies maakt ons zichtbaar voor meer instanties dan we misschien denken. Bijna niemand denkt erover na als ze Siri om een antwoord vragen, misschien zelfs terwijl er een andere applicatie draait. Wanneer Netflix ons heel slimme suggesties doet. Of wanneer je onderweg naar huis alvast met een app de thermostaat in je woonkamer aanzet. Om nog maar te zwijgen van de vele andere toepassingen thuis. In de gezondheidszorg wordt de AI vandaag de dag gebruikt om tumoren op CT-scans op te sporen. In sommige landen kan de virtuele verpleegkundige Molly worden geraadpleegd. En in de financiële sector gebruiken creditcardbedrijven deze voor het uitvoeren van fraudecontroles. Banken gebruiken algoritmes om te bepalen of iemand kredietwaardig is en nog veel meer. Kortom, Artificial Intelligence (AI) is overal. En: AI heeft altijd honger naar meer data.

Hier meer over AI en Facebook

Maar wat gebeurt er met al deze informatie? Wie zou het wanneer en hoe kunnen gebruiken? Welke andere toezichthoudende instanties bestaan er naast het kartelbureau dat nu optreedt tegen Facebook?

De Europese Unie

In december 2018 pleitte Brad Smit, voorzitter van Microsoft en hoofd van de juridische afdeling, voor regels en wetten voor gezichtsherkenningstechnologie in een blogpost. Omdat deze technologie volgens hem allerlei gevaren met zich meebrengt. Dit omvat heel veel, van de zichtbare vooroordelen door algoritmen tot de schending van de privacy. Om nog maar te zwijgen van dictaturen die elke burger in de gaten kunnen houden. Volgens Smit is het tijd voor overheden om grip te krijgen op de nieuwe technologieën. Nu worden de eerste stappen gezet.

In de Europese Unie is er een groep 52 experts – mensen met verschillende achtergronden – die aanbevelingen doen voor regelgeving inzake kunstmatige intelligentie. Toeval of niet: Sinds december 2018 werken EU-deskundigen aan richtsnoeren. In een onlangs gepresenteerde eerste versie (een definitieve versie zal in maart worden gepubliceerd), behandelen ze al verschillende onderwerpen. Zo beschrijven ze het dilemma dat de AI aan de ene kant veel voordelen biedt, maar tegelijkertijd talloze gevaren met zich meebrengt. Daarom bevelen zij een mensgerichte aanpak aan om de AI te reguleren. Hun bottom line: AI biedt mensen alleen voordelen als ze de technologie volledig kunnen vertrouwen. Het kader voor een betrouwbare AI wordt in eerste instantie bepaald vanuit een ethisch doel. Hieruit moeten de voorschriften voor het realiseren van een betrouwbare AI worden afgeleid. Daarnaast moeten de eisen gebaseerd zijn op een operationele basis met voorbeelden. De EU-richtsnoeren moeten niet statisch zijn, maar veeleer een uitgangspunt voor de discussie over “betrouwbare AI made in Europe“. Met de ethische richtsnoeren, die tegelijkertijd het concurrentievermogen moeten garanderen, wil Europa zich positioneren als pionier van een zeer moderne, veilige en ethische AI en tegelijkertijd de discussie wereldwijd stimuleren.

ISO-standaard voor KI

Er is nog een andere aanpak via International Standardisation Organisation (ISO): “Het is heel belangrijk dat we allemaal dezelfde taal spreken”, zegt Jana Lingenfelder, Technical Relations Executive bij IBM. Naast haar werk voor IBM werkt ze aan een AI-norm voor ISO. Dit zal bedrijven en ontwerpers voorzien van definities en basisregels die als basis zullen dienen voor hun werk. Simpelweg omdat AI de nationale grenzen overschrijdt.

De Duitse advocaat Jan Schallaböck ondersteunt de ISO bij het ontwikkelen van een standaard voor technologiebedrijven. In zijn werk concentreert hij zich vooral op gegevensbescherming. Hij doet bijvoorbeeld aanbevelingen voor een product of dienst die bedrijven zo snel mogelijk moeten aanpassen aan de privacy van de gebruikers. Schallaböck is het eens met Lingenfelder. Tegelijkertijd ziet hij echter ook problemen bij het naleven van de regels: “Het nauwlettend in de gaten houden van kunstmatige intelligentie kost tijd, veel overheden of andere regelgevers hebben die optie niet.” Schallaböck ziet ook veel onbeantwoorde vragen, bijvoorbeeld: “….in hoeverre zijn de autoriteiten überhaupt in staat om te beoordelen hoe een algoritme een beslissing neemt? Dit is een grote taak voor veel deskundigen. En dan heb ik het nog niet eens over verantwoordelijkheid en aansprakelijkheid. Is dit de verantwoordelijkheid van de gebruikers? Vanaf de platforms? Of de mensen die AI ontwikkelen? En hoe zorg je ervoor dat een algoritme een ethische beslissing neemt?” Er zijn dus nog veel punten te begrijpen en in overweging te nemen voordat de regelgeving met betrekking tot AI van kracht kan worden.

AI: Ethisch of aantal

Waymo
Hoe moet een zelfrijdend voertuig beslissen volgens ethische principes? @Waymo Steve Mahan

 

Maar er zijn nog andere criteria om in overweging te nemen. Bijvoorbeeld: (Hoe) moet een zelfrijdend voertuig beslissen of het een fietser of een voetganger raakt bij een aanrijding? Dergelijke dingen moeten in systemen worden ingebouwd. Volgens Christian Wagner, assistent-professor informatica aan de Universiteit van Nottingham, is er hier vaak sprake van een misverstand. Kunstmatige intelligentie kan geen ethische beslissingen nemen. Wagner is ook directeur van LUCID (Lab for uncertainty in data and decision making). Bij het Computer Science Institute van de Universiteit van Nottingham wordt onderzoek gedaan naar een beter begrip, de verzameling en achtergrond van onzekere gegevens. Volgens Wagner wordt er vaak gesproken over een “sterke” AI wanneer technologie, zoals mensen, goed en fout kan beoordelen. “Maar daar zijn we nog lang niet. Allereerst moeten we ervoor zorgen dat de systemen stabiel zijn. Een auto met eigen aandrijving mag niet plotseling onverwachte dingen doen. Zo werkt het met getallen en waarschijnlijkheidsberekeningen.”

Wagner vindt het goed om normen en richtlijnen vast te stellen, maar betwijfelt tegelijkertijd of een dergelijk model kan worden gehandhaafd. Omdat de technologie zich snel ontwikkelt. Het ontwerpen van een nieuw model lijkt elke keer weer veel te omslachtig. Schallaböck ziet dit ook als een moeilijk onderwerp: “Normen zoals de ISO-merken zijn altijd goed, maar moet je dan voor elke toepassing van AI een nieuwe norm creëren? Deze procedures zijn tijdrovend en zeer kostbaar.”

En natuurlijk rijst de vraag wie wanneer toezicht houdt. En wie is er verantwoordelijk? Zoals Lingenfelder al aangaf, gaat AI verder dan de lokale grenzen. Het heeft internationale effecten op alle niveaus van de samenleving. De drie deskundigen kunnen nog geen duidelijk antwoord geven op deze vragen. Misschien moet er een EU-orgaan worden opgericht om toezicht te houden op de naleving? Schallaböck: “We hebben nu de GDPR [algemene verordening gegevensbescherming, AVG], maar dat is verre van genoeg. We hebben nog steeds geen antwoord op de gevaren van AI. Het is niet alleen een gevaar voor de democratie, maar ook voor de rechten van het individu.”

foto hierboven: Gegevensverzameling door AI @Pixabay