Iedere week blikken we op deze plek terug op het meest gelezen artikel van de week. Soms wijken we daar een beetje van af, zo gingen we vorige week in gesprek met een trouwe lezer. En ook deze week doen we het een klein beetje anders. Niet het meest gelezen stuk, maar een verhaal dat op Twitter de nodige reacties opriep.
Peter de Kock schreef vorige week in zijn column dat algoritmes niet discrimineren, althans niet in de maatschappelijke context van het woord. (Hier gaat het vaak gaat over onterecht onderscheid maken op basis van geslacht, gender, religie etc.) Algoritmes zijn amoreel en kunnen daarom per definitie geen onrechtmatig onderscheid maken, zo schreef De Kock vorige week. Aan het einde van zijn verhaal legde hij de volgende stelling voor:
Algoritmes discrimineren niet. Mits door mensen gecontroleerd, kunnen ze bijdragen aan een samenleving waarin iedereen in gelijke gevallen, gelijk wordt behandeld.
Daar was blijkbaar niet iedereen het mee eens en het zorgde voor wat discussie op Twitter:
* zucht * Zolang algoritmes door mensen gemaakt worden, zolang AI leert van wat mensen opdragen, reproduceren algoritmen de vooroordelen van mensen. Ze bestaan niet buiten ons, dat is een schadelijk idee https://t.co/aYIOOOsmUN
— Linda Duits (@lalalalinder) 14 juli 2019
Twitter zou Twitter niet zijn als de discussie onder de reactie van Duits niet ‘vrolijk’ verder ging. Megan Bloemsma is data scientist bij Microsoft en houdt zich bezig met Artificial Intelligence. Bloemsma kan zich de ophef wel voorstellen. “Algoritmes worden gebouwd door mensen en of je nu wilt of niet, je bouwt hiermee ook vooroordelen in. Natuurlijk zijn machines sneller dan mensen en in sommige gevallen beter, zo’n machine is in feite 1000 mensen tegelijk. Maar wel gemaakt door een mens, dus niet objectief. Op zijn best is zo’n machine een gemiddelde van alle subjectieve vooroordelen.”
Man vs vrouw
Stel, een tech-bedrijf maakt een algoritme om de beste kandidaat voor een vacature te vinden, leert het op basis van historische data wie in de toekomst het best voor de baan geschikt zou zijn. “Hier zit ook al een bias in. Er werken veel meer mannen dan vrouwen in de techsector en omdat de data laat zien dat mannen vaker de baan kregen, ‘leert’ het algoritme dat mannen betere kandidaten zijn. Terwijl dit helemaal niet zo hoeft te zijn”, legt Bloemsma uit.
Volgens haar zou er veel meer diversiteit op de werkvloer moeten komen. “Nu is het zo dat er vooral witte mannen van rond de 28 werken aan het ontwikkelen van algoritmes, dan is het niet heel gek dat ook de vooroordelen die zij hebben – ongewild – in een algoritme terecht komen.” Maar het gaat verder, want zo’n algoritme moet ook weer getraind worden en ook hier zijn de groepen niet heel divers te noemen: “Wat je vaak ziet – door geld of tijdgebrek – is dat dezelfde mensen die het algoritme hebben gebouwd, het op zichzelf testen. Algoritmes zouden ook in veel diversere groepen moeten worden getraind.”
Diverse groep
Zo herkent AI vrouwenstemmen minder goed (de best scorende stemherkenningssoftware scoorde 13 procent slechter op vrouwen.). Heeft gezichtsherkenningssoftware meer moeite met het identificeren van een donkere huidskleur en vrouwelijke gezichten. Bloemsma: “We gaan steeds meer op zulke systemen vertrouwen. Bij veel automerken wordt steeds vaker standaard zo’n systeem ingebouwd. Maar je zou maar een ongeluk krijgen als vrouw en het lukt je niet om de hulpdiensten te bereiken omdat je stem niet wordt herkend.”
Met alléén meer vrouwen in de tech, is het probleem allerminst opgelost: “Algoritmes zijn zo goed als wat we erin stoppen, dat wordt gedaan door mensen. Daarom is het zo lastig om neutrale, biasvrije algoritmes te ontwikkelen, want mensen zijn per definitie niet zonder vooroordelen. Maar het gaat zeker helpen als developers en trainingsgroepen diverser worden in de toekomst. Ook moeten er ethische commissies komen die dit in de gaten houden.”
Hier legt Megan Bloemsma haar standpunt uitgebreider uit.