Afgelopen week publiceerde de NOS het artikel ‘Rekenkamer: meer aandacht nodig voor risico’s overheidsalgoritmes’. De NOS schrijft hierin over de kans dat algoritmes “onbedoeld discrimineren”. Dit is niet alleen een onzinnige stelling, het is feitelijk gezien ook onjuist. Maar belangrijker nog, het is een stelling waarmee we onszelf ontslaan van de plicht te kijken naar ons eigen discriminerend proces.

Onzinnig

De letterlijke betekenis van het woord discriminatie is ‘het maken van onderscheid’. En dat is precies wat een algoritme doet. Het classificeert data op basis van verwantschap in kenmerken. En het doet dat veel beter en sneller dan dat mensen dat kunnen. Maar als je uitgaat van de letterlijke betekenis van het woord discriminatie, is de stelling dat het gebruik van voorspellende algoritmes “onbedoeld discrimineren”, onzinnig. Je zou dan moeten stellen: “Algoritmes discrimineren, daar zijn ze voor gemaakt”.

Onjuist

Maar in maatschappelijke context staat discriminatie voor iets heel anders. Daar gaat het over onrechtmatig onderscheid maken (op basis van zaken als geslacht, religie, overtuiging, geaardheid etc.). En dat is nou precies wat een algoritme nìet doet. Een algoritme produceert bij dezelfde input steeds dezelfde output. Het is amoreel en kan dus per definitie geen onrechtmatig onderscheid maken. Populair gezegd, een algoritme is niet onderhevig aan een nacht weinig slaap of aan een vervelende ervaring met de benedenbuurman. Mensen zijn dat wel.

Meld je aan voor IO op Telegram!

Elke dag om 20 uur exact één innovatief verhaal op je smartphone? Dat kan! Meld je aan voor onze Telegram-service en blijf op de hoogte van de laatste innovaties!

Meld je aan!

Makkelijk

Het is gemakkelijk om algoritmes af te wijzen op grond van vermeende discriminatie. Daardoor hoeven we namelijk niet naar onze eigen discriminerende processen te kijken. Maar de vinger zou naar onszelf moeten wijzen. Een algoritme wordt gemaakt door mensen en leert -in sommige gevallen- aan de hand van data. En dat is waar het probleem ligt.

Zowel mensen als data kunnen op veel manieren ‘biased’ zijn. Discriminatie wordt dus ofwel ingeprogrammeerd door mensen, ofwel overgenomen uit onzuivere data. Met de stelling dat algoritmes onbedoeld discrimineren, bewegen we weg van de pijn. De pijn dat wij zélf nog steeds onderscheid maken op basis van huidskleur, etniciteit, geslacht, religie, overtuiging, geaardheid en op basis van nog veel meer.

Discriminatie in het menselijk proces is erg moeilijk te ontdekken en te corrigeren, zo leert ons de geschiedenis. Discriminatie in data daarentegen blijkt relatief eenvoudig te ontdekken en bovendien een heel stuk makkelijker te corrigeren. Uitgaande van de maatschappelijke betekenis van het woord discriminatie is de stelling verdedigbaar dat algoritmes een wezenlijke bijdragen kunnen leveren aan een samenleving waarin iedereen in gelijke gevallen, gelijk wordt behandeld.

Steun ons!

Innovation Origins is een onafhankelijk nieuwsplatform, dat een onconventioneel verdienmodel heeft. Wij worden gesponsord door bedrijven die onze missie steunen: het verhaal van innovatie verspreiden. Lees hier meer.

Op Innovation Origins kan je altijd gratis artikelen lezen. Dat willen we ook zo houden. Heb je nou zo erg genoten van de artikelen dat je ons een bedankje wil geven? Gebruik dan de donatie-knop hieronder:

Doneer

Persoonlijke informatie

Over de auteur

Author profile picture Peter de Kock is vanaf najaar 2019 Professor of Practice in data science op het gebied van criminaliteit en veiligheid aan Tilburg University. De Kock leidt de afdeling Data science in Crime and Safety van de Jheronimus Academy of Data Science (JADS). De Kock is oprichter en ‘Chief Imagination Officer’ van Pandora Intelligence.