Afgelopen week publiceerde de NOS het artikel ‘Rekenkamer: meer aandacht nodig voor risico’s overheidsalgoritmes’. De NOS schrijft hierin over de kans dat algoritmes “onbedoeld discrimineren”. Dit is niet alleen een onzinnige stelling, het is feitelijk gezien ook onjuist. Maar belangrijker nog, het is een stelling waarmee we onszelf ontslaan van de plicht te kijken naar ons eigen discriminerend proces.
Onzinnig
De letterlijke betekenis van het woord discriminatie is ‘het maken van onderscheid’. En dat is precies wat een algoritme doet. Het classificeert data op basis van verwantschap in kenmerken. En het doet dat veel beter en sneller dan dat mensen dat kunnen. Maar als je uitgaat van de letterlijke betekenis van het woord discriminatie, is de stelling dat het gebruik van voorspellende algoritmes “onbedoeld discrimineren”, onzinnig. Je zou dan moeten stellen: “Algoritmes discrimineren, daar zijn ze voor gemaakt”.
Onjuist
Maar in maatschappelijke context staat discriminatie voor iets heel anders. Daar gaat het over onrechtmatig onderscheid maken (op basis van zaken als geslacht, religie, overtuiging, geaardheid etc.). En dat is nou precies wat een algoritme nìet doet. Een algoritme produceert bij dezelfde input steeds dezelfde output. Het is amoreel en kan dus per definitie geen onrechtmatig onderscheid maken. Populair gezegd, een algoritme is niet onderhevig aan een nacht weinig slaap of aan een vervelende ervaring met de benedenbuurman. Mensen zijn dat wel.
Makkelijk
Het is gemakkelijk om algoritmes af te wijzen op grond van vermeende discriminatie. Daardoor hoeven we namelijk niet naar onze eigen discriminerende processen te kijken. Maar de vinger zou naar onszelf moeten wijzen. Een algoritme wordt gemaakt door mensen en leert -in sommige gevallen- aan de hand van data. En dat is waar het probleem ligt.
Zowel mensen als data kunnen op veel manieren ‘biased’ zijn. Discriminatie wordt dus ofwel ingeprogrammeerd door mensen, ofwel overgenomen uit onzuivere data. Met de stelling dat algoritmes onbedoeld discrimineren, bewegen we weg van de pijn. De pijn dat wij zélf nog steeds onderscheid maken op basis van huidskleur, etniciteit, geslacht, religie, overtuiging, geaardheid en op basis van nog veel meer.
Discriminatie in het menselijk proces is erg moeilijk te ontdekken en te corrigeren, zo leert ons de geschiedenis. Discriminatie in data daarentegen blijkt relatief eenvoudig te ontdekken en bovendien een heel stuk makkelijker te corrigeren. Uitgaande van de maatschappelijke betekenis van het woord discriminatie is de stelling verdedigbaar dat algoritmes een wezenlijke bijdragen kunnen leveren aan een samenleving waarin iedereen in gelijke gevallen, gelijk wordt behandeld.