Author profile picture

Steeds meer overheden en bedrijven leunen op artificiële intelligentie en algoritmes om beslissingen te maken. Daarbij moet onzorgvuldigheid en de inbreuk op privacy wel voorkomen worden. Onlangs kende de Nederlandse Organisatie voor Wetenschappelijk Onderzoek (NWO) 21.3 miljoen euro toe aan het project ‘De algoritmische samenleving’ waaraan verschillende Nederlandse universiteiten deelnemen. Geautomatiseerde beslissingen in onder meer het rechtssysteem en ziekenhuizen worden onder de loep genomen.

De meesten kennen het schandaal inmiddels wel: De toeslagenaffaire, waarbij de Belastingdienst een inbreuk deed op mensenrechten door algoritmes in te zetten die leidden tot etnisch profileren. Het voorbeeld geeft duidelijk aan dat het in acht nemen van ethische overwegingen bij het toepassen van algoritmes en artificiële intelligentie onmisbaar is voor een gezonde werking van professionele organisaties. Er kunnen immers schrijnende situaties ontstaan wanneer er te veel gekoerst wordt op enkel en alleen computeruitslagen en bureaucratie binnen een organisatie. 

“Mensen vertrouwen al snel op systemen en dat ze doen wat ze zouden moeten doen. Maar weten zij ook op basis waarvan de data tot hun beschikking komt? Vaak is dat niet het geval”, zegt José van Dijck, universiteitshoogleraar media en digitale samenleving aan de Universiteit Utrecht (UU). Ze is vanuit de UU betrokken bij het nieuwe project. “We willen onderzoeken hoe we belangrijke waarden zoals privacy, gelijkwaardigheid en veiligheid kunnen waarborgen.” 

Krachten bundelen


Het project duurt tien jaar en wordt geleid door UvA-universiteitshoogleraren Natali Helberger en Claes de Vreese. Andere deelnemers zijn, naast de Universiteit Utrecht, de Erasmus Universiteit Rotterdam, Tilburg University en Technische Universiteit Delft. Van Dijck hoopt dat het onderzoek onder meer een bijdrage kan leveren in het bewust maken van professionals die dagelijks te maken krijgen met geautomatiseerde processen. “Hoe kunnen we ervoor zorgen dat zij constant alert zijn op het waarborgen van publieke waarden? Door de vinger erachter te krijgen over hoe de uitrol van algoritmes in verschillende sectoren van de samenleving verloopt, kunnen we dit uiteindelijk scherp krijgen.” 

Mensenrechten

De Universiteit Utrecht ontvangt ongeveer 3.5 miljoen euro van het totaalbudget. Het geld kan onder meer besteed worden aan onderzoeksprojecten binnen bestuursorganen. Eerder werd er al een dergelijk onderzoek uitgevoerd door de Universiteit Utrecht, namelijk de Impact Assessment Mensenrechten en Algoritmes (IAMA), ontwikkeld door Janneke Gerards, hoogleraar fundamentele rechten aan de Universiteit Utrecht. Samen met collega’s die werkzaam zijn bij de Utrecht Data School maakte ze een instrument, een soort handleiding die organisaties ondersteunt bij de besluitvorming rondom de ontwikkeling en inzet van algoritmes. Stap voor stap worden discussiepunten omschreven die voor de implementatie van het algoritme aan bod dienen te komen. 

Bij het volgen van de IAMA is een van de eerste vragen die beleidsmakers zichzelf moeten stellen wat de concrete doelstelling is van de inzet van algoritmes. Ook staat omschreven dat mensen altijd de vrijheid moeten hebben om de beslissingen van de algoritmes te verwerpen. Door op deze manier licht te schijnen op het verloop van een zorgvuldig besluitvormingsproces van algoritmes, kan de handleiding problematische situaties, zoals dus de toeslagenaffaire, helpen voorkomen.

Onderzoek naar algoritmes binnen bestuursorganen is slechts een van de focusgebieden binnen De algoritmische samenleving. Van Dijck is enthousiast over de verschillende expertisegebieden die vanuit de universiteiten in het project worden samengebracht. “In Utrecht richten we ons op governance vraagstukken, maar in Amsterdam ligt de focus op effect-onderzoek van algoritmetoepssingen, terwijl er in Rotterdam met name aandacht wordt besteed aan toepassingen in de gezondheidszorg. Het onderzoek concentreert zich op drie sectoren (media, rechtspraak en gezondheid) maar is breed toepasbaar.”

Een moving target

Een van de uitdagingen waar wetenschappers in het onderzoek mee te maken krijgen is de alsmaar verdere ontwikkeling van de technologie in de samenleving. Dat maakt het lastig voorspellen hoe algoritmes in de toekomst ingezet gaan worden. “Neem bijvoorbeeld voice assistants. Die worden steeds vaker ingezet op scholen en in ziekenhuizen. Wie weet wat voor effect dat gaat hebben op de manier waarop we in de praktijk met algoritmes omgaan.”

“We bestuderen een moving target. Daarom moeten we voortdurend onze ogen open houden voor veranderingen.”