Filosofe Katleen Gabriëls publiceerde onlangs haar boek ‘Regels voor Robots‘ in het kader van haar leerstoel aan de Vrije Universiteit Brussel. Vorige week publiceerde Innovation Origins het eerste deel van dit interview. Vandaag het tweede deel, waarin Gabriëls zich uitspreekt over de verantwoordelijkheid van de ontwerper van AI die robots aanstuurt.
Wat is de belangrijkste conclusie van waar we nu staan voor wat betreft regels voor robots?
„Als je een boek schrijft, denk je vooral: wat wil ik meegeven? Ik wilde de stand van zaken van het AI-debat beschrijven. Je kunt geen krant openslaan of het gaat over iets dat gelinkt is aan een AI-systeem zoals over Facebook of Google. Dat debat wilde ik diepgaand duiden. Verder vond ik het belangrijk om aan te tonen dat een aantal zaken in het huidige debat niet nieuw is. Om verwarring te reduceren, maak ik ook de opdeling tussen wat AI-systemen al kunnen, wat ze nog niet kunnen en wat ze mogelijk nooit kunnen. Zo wordt het debat ook genuanceerder. En, natuurlijk, gaat het erover dat die systemen niet neutraal zijn.”
Ik lees in je boek dat zaken niet in orde zijn en dat er soms een bias bij het ontwerp meespeelt zoals dat van een sensor van een zeepmachine op een openbaar toilet die donker pigment niet herkende waardoor er bij donkere mensen die hun hand er onder hielden geen zeep uitkwam.
„Een oplossing daarvoor is dat we vakken zoals techniekethiek verplicht maken zodat toekomstige ingenieurs handvaten krijgen om daarover na te denken.”
Maar is dit een kwestie van ethiek of gewoon stompzinnigheid? De ontwerpers hebben die zeepsensor waarschijnlijk niet expres zo ontworpen.
„Is dat ethiek? Ja. Want een ontwerper maakt niet alleen functionele keuzes, maar ook morele keuzes. Door een ontwerp alleen te maken voor een bepaald type eindgebruiker en het niet vooraf te testen op een gevarieerde groep van eindgebruikers zit je in het domein van de ethiek.”
If you have ever had a problem grasping the importance of diversity in tech and its impact on society, watch this video pic.twitter.com/ZJ1Je1C4NW
— Chukwuemeka Afigbo (@nke_ise) August 16, 2017
Maar als het niet expres gedaan is.
„Het ís niet met opzet gedaan.”
Of vind je dat de ontwerper die verantwoordelijkheid heeft en dat het geen rol speelt of hij of zij het product wel of niet expres niet op die gevarieerde groep eindgebruikers getest heeft.
„Ik vind dat in dit geval een beetje een zwak argument dat hij of zij het niet met opzet deed. Het ontwerp heeft immers desalniettemin ethische impact. Door te zeggen: ‘het is niet expres’, ontdoe je je van je morele verantwoordelijkheid om met verschillende gebruikers rekening te houden. In een openbaar toilet passeert iedereen.”
Laat ik het zo zeggen: het is erger als de ontwerper de kenmerken van de gebruikersgroep expres niet onderzocht heeft.
„Dat je maar één bepaald type eindgebruiker voor ogen hebt en je eigen leven als norm neemt voor de rest van de wereld, is een keuze met ethische gevolgen. Om even de analogie met crashtestdummy’s van auto’s te maken: de eerste crashtestdummy die naar de ‘gemiddelde’ vrouw in Europa werd gemodelleerd, dateert van 2014. Dan kan je ook zeggen: dat was niet met opzet. Maar vrouwen vormen wel de helft van de wereldbevolking. Vrouwen hebben bijvoorbeeld minder spieren in hun nek en bovenlichaam, wat hen gevoeliger maakt voor een whiplash. Vandaar dat het zo belangrijk is om een crashtestdummy naar vrouwen te modelleren.”
Maar dit is ook in de geneeskunde zo, al sinds heel lang. Dat heeft niets met AI te maken. Het lichaam van de man dient vaak als uitgangspunt bij de behandeling van ziektes. Terwijl het lichaam van de vrouw in veel gevallen anders functioneert.
„Ja. Ik verwijs daarvoor vaak naar het boek van Caroline Criado Perez die dat uitvoerig beschrijft.”
Ambtenaren van de Europese Commissie hebben afgelopen najaar wel kenbaar gemaakt tijdens de Research & Innovation Days in Brussel dat ze dit willen veranderen. Het bleek dat bij bepaalde toepassingen van AI kenmerken van vrouwen ontbraken die daardoor onterecht buiten de scope vielen.
„Zeggen dat dit niet met opzet was, zou ook in dit geval een te zwak argument zijn.”
Lees ook: ‘Dat AI mensen onfeilbare AI kunnen maken, is een utopie‘
Ik vraag door op die ‘schuldvraag’ omdat er een hard debat gaande is over racisme, waaronder Jodenhaat. Het valt me op dat er wel degelijk een groep is die wel expres raciale haat uit. Dat is agressief gedrag dat verschilt van het gedrag van een groep mensen die onbewust geen rekening houdt met verschillende kenmerken van verschillende bevolkingsgroepen.
„Natuurlijk. Ik erken dat onderscheid. Maar dat ontslaat de ontwerpers van AI niet van de verantwoordelijkheid om er rekening mee te houden. Dat is mijn punt. Bij het ontwerp [van die sensor in dat zeepapparaat bijvoorbeeld, red.] is er ook sprake van gebrek aan diversiteit en interdisciplinariteit binnen het ontwerpteam. Al wil ik tegelijkertijd benadrukken dat de meeste ontwerpers vol passie en toewijding werken. Ik wil hen zeker niet allemaal met het vingertje wijzen. Het gaat – ultiem – om samenwerking en dialoog. Waarbij filosofen en ontwerpers, elk vanuit hun eigen expertise, over een ontwerp nadenken. En waarbij ze nadenken over de vraag hoe bepaalde problemen, zoals met betrekking tot privacy bijvoorbeeld, op voorhand aangepakt kunnen worden.”
Wat is je nu belangrijkste conclusie na het schrijven van ‘Regels voor Robots’?
„Misschien is het deze: dat een ontwerp niet neutraal is. En dat je daar als ingenieur of opdrachtgever een verantwoordelijkheid voor hebt. Niemand ontkent dat de gebruiker ook verantwoordelijkheid draagt. Maar die heeft niet dezelfde macht als de ontwerper. De ontwerper kan mensen sturen. Veel technologie die afhankelijk is van reclame-inkomsten, zoals Facebook, is ingericht volgens ‘distraction by design’. Dat beïnvloedt natuurlijk hoe mensen zich gaan gedragen. Want er wordt doelgericht ingespeeld op hun mentale zwaktes. Ze gebruiken het platform gratis. Maar ze betalen met hun data, tijd én aandacht.”