Afgelopen juni riep een aantal Amerikaanse wiskundigen in een open brief op om niet samen te werken met de politie. Ze uitten onder meer kritiek op predictive policing en gezichtsherkenning, omdat de data waarmee de AI-systemen getraind worden vaak vooringenomen zijn. Dit kan discriminerende gevolgen hebben voor minderheidsgroepen, zoals zwarten. De initiatiefnemers benadrukken dat zij als wiskundigen een ‘wetenschappelijk’ cachet aan deze politiepraktijken kunnen geven waar in feite wetenschappelijke onderbouwing ontbreekt. “It is simply too easy to create a “scientific” veneer for racism”, schrijven ze. De brief leest als een pleidooi voor AI-ethiek en maakt duidelijk dat AI-technologieën, hoewel gestoeld op wiskundige modellen, niet zomaar ‘neutraal’ zijn.
In de jaren ’40, na de Tweede Wereldoorlog, wees de Amerikaanse wiskundige Norbert Wiener ingenieurs en academici al op hun morele verantwoordelijkheid, met name inzake samenwerkingen voor militaire doeleinden. Het Manhattanproject maakte voor Wiener duidelijk hoe drastisch de gevolgen daarvan kunnen zijn. Om die reden weigerde hij om zulke samenwerkingsverbanden aan te gaan.
Het intrigeert me dat we juridische vragen (is het legaal?) nog steeds zo gemakkelijk vooropstellen op morele (is het ethisch?). Bij Google brak Project Maven, een samenwerking met het Pentagon voor militaire toepassingen van machine learning, bijvoorbeeld pas af nadat werknemers in opstand kwamen.
Morele verantwoordelijkheid is grilliger
Juridische verantwoordelijkheid is natuurlijk duidelijker: je kan de wetgeving doorzoeken en kijken of die overtreden wordt. Morele verantwoordelijkheid is veel grilliger en ook makkelijker te ontlopen. Althans, tot je geweten je parten speelt. Maar ook op dat vlak zijn we creatief: we stellen allerhande mechanismen in werking om afstand te nemen van onze morele verantwoordelijkheid. Dit heet moral disengagement. Een gekend voorbeeld is taalgebruik: een CEO die een groot deel werknemers moet ontslaan kan zich verantwoorden door te stellen dat hij/zij zo ‘het bedrijf redt’. En zo wordt de focus van het menselijke leed afgewend.
Veel filosofen bogen zich al over de relatie tussen ethiek en verantwoordelijkheid. Filosofe Hannah Arendt definieerde moraliteit als de innerlijke dialoog die je met jezelf voert. Bij haar valt moraliteit als het ware samen met het nemen van je individuele verantwoordelijkheid. Ze onderstreept het belang van in gesprek blijven met jezelf, en van zélf denken en zélf oordelen. Enkel zo kan je iemand, een moreel individu, worden. Voor Arendt zijn gedachteloosheid en de ander slaafs volgen de bron van het kwaad. Denken en oordelen houden ook in dat je jezelf aan kritische zelfanalyse onderwerpt en dat je afdaalt in de diepste en donkerste krochten van jezelf.
In plaats van wetgeving te herzien of uit te breiden, hebben we misschien meer baat bij innerlijke dialogen. En bij voorkeur ook een alarm dat in werking treedt als we ons bij de kritische zelfanalyse beroepen op drogredeneringen en moral disengagement. Zou daar al een algoritme of app voor bestaan?
Over deze column
In een wekelijkse column, afwisselend geschreven door Hans Helsloot, Mary Fiers, Buster Franken, Bert Overlack, Eveline van Zeeland, Tessie Hartjes, Jan Wouters, Katleen Gabriels en Auke Hoekstra, probeert Innovation Origins uit te vinden hoe de toekomst eruit zal zien. Deze columnisten, af en toe aangevuld met gastbloggers, zijn allemaal op hun eigen manier bezig met oplossingen voor de problemen van onze tijd. Zodat Morgen Beter wordt. Hier alle eerdere afleveringen.