Dr. Katleen Gabriels is universitair docent aan de Technische Universiteit Eindhoven. Zij is gespecialiseerd in computerethiek. In 2016 verscheen haar boek “Onlife”, waarin ze het potentieel en de valkuilen van het internet of things, digitalisering en big data analyseert. Gabriels is stuurgroeplid van Ethicomp, de internationale organisatie rond ethisch computergebruik. Jaxenter interviewde haar vanwege de keynote die ze volgende maand op de Machine Learning Conference in Berlijn zal geven.
Door Melanie Feldman, Jaxenter
Onze eerste ML-conferentie is in december in Berlijn. Vandaag alvast een voorproefje. Met Dr. Katleen Gabriels, universitair docent aan de Technische Universiteit Eindhoven, spreken we over hoe algoritmen ons dagelijks leven beïnvloeden en waarom ethiek essentieel is voor de ontwikkeling van machinaal leren.
JAXenter: In uw ML Conference keynote gaat u in op de invloed van algoritmen op ons dagelijks leven. Denkt u dat de invloed van algoritmen onderschat of overschat wordt?
Katleen Gabriels: “Deze invloed is zeker onderschat. We leven al in het tijdperk van het internet of things (IoT), waar algoritmen steeds vaker dagelijks beslissingen voor en over ons nemen. Algoritmen beslissen al over ons liefdesleven op dating apps en dating websites, onze potentiële banen (omdat bedrijven ze kunnen gebruiken om onze cv’s te scannen) en zelfs in rechtszaken.
Of denk bijvoorbeeld aan ‘recommender engines‘ zoals de zoekmachine van Google: vele mensen informeren zich dagelijks over de wereld op een platform waar algoritmen bepalen welke informatie je wel of niet te zien krijgt. En het bedrijf houdt de algoritmen zelf geheim. Helaas denken nog te veel mensen dat de rangschikking van de resultaten gebaseerd is op ‘betrouwbaarheid’. We moeten hier bewuster over worden gemaakt, niet alleen over algoritmen maar ook over ‘search engine optimization’, vooral in een ioT-tijdperk met overtuigende en voorspellende technologieën die onze autonomie gemakkelijk op ongewenste manieren kunnen schenden.”
JAXenter: U zegt dat algoritmen nooit volledig neutraal kunnen zijn omdat hun makers (ontwikkelaars) nooit neutraal zijn. Welk advies kunt u ontwikkelaars geven om te voorkomen dat ze in de val van ongewenste beïnvloeding terechtkomen?
Katleen Gabriels: “Het jezelf bewust zijn dat deze algoritmen neutraal noch waardevrij zijn, is een essentieel uitgangspunt. Aan de Technische Universiteit Eindhoven, waar ik werk, moeten alle studenten (toekomstige ingenieurs) cursussen ethiek volgen, zoals ingenieurswetenschappen. De niet-neutraliteit van technologie is een belangrijk onderdeel van deze cursussen. De manier waarop je als ingenieur een technologie ontwerpt, beïnvloedt hoe gebruikers er gebruik van kunnen maken: dit is slechts een eenvoudig voorbeeld om te illustreren dat dit geen neutraal proces is. Wat de algoritmen betreft, is er een overvloed aan voorbeelden die laten zien hoe menselijke vooroordelen erin glippen, zoals racistische profilering in ‘precrime methodiek‘. Ook hier is het belangrijk om het bewustzijn te vergroten.”
JAXenter: Een voorbeeld van ML is chatbot Tay, dat al snel ongepaste dingen begon te zeggen op het internet. Denkt u dat kunstmatige intelligentie in de eerste plaats een soort morele richtlijn nodig heeft?
Katleen Gabriels: “Zeker! En Microsoft had dit in overweging moeten nemen voordat het Tay op twitter losliet. Er zijn ook positieve ontwikkelingen: Google heeft bijvoorbeeld een ethiekraad voor AI. Deze morele richtlijn, of ethische code, zou echter deel moeten uitmaken van een uitgebreid openbaar debat, en niet slechts één in het bedrijf, of alleen in academische of vakkringen: wij als samenleving moeten samen nadenken over wenselijke en ongewenste ontwikkelingen.”
JAXenter: Waar ziet u het grootste potentieel voor het positieve gebruik van kunstmatige intelligentie?
Katleen Gabriels: “Ik juich technologische ontwikkeling en innovatie toe, maar deze ontwikkelingen moeten hand in hand gaan met ethische vooruitgang en dat gebeurt niet vanzelf: we moeten echt hard werken om dat te bereiken. Kunstmatige Intelligentie (AI) kan mensen op zoveel positieve manieren helpen dat het moeilijk is om maar één voorbeeld te kiezen. Zo biedt AI enorme mogelijkheden voor de gezondheidszorg, bijvoorbeeld in de analyse van complexe gegevens.”
De toespraak die dr. Katleen Gabriels houdt op de ML Conference richt zich op de reden waarom algoritmen en datasets niet neutraal zijn en op de manier waarop we kunnen anticiperen op ongewenste gevolgen en valkuilen.