Recent werd het gelanceerd als onderdeel van de nationale AI-cursus: een leerprogramma over ‘AI en ethiek’. Net als de al eerder verschenen versies over onder andere AI voor de zorg en voor de agrarische sector is het doel om iedere Nederlander de kans te geven meer te leren over de impact van AI. Deze technologie gaat namelijk impact hebben op ons allemaal en daarom kun je er maar beter iets van begrijpen lijkt mij.
AI zie je vaak niet aan de ‘voorkant’, maar is onderdeel van een product of dienst. Spotify gebruikt het bijvoorbeeld om jou de liedjes voor te stellen waarvan ze verwachten dat jij ze ook leuk gaat vinden en Meta toont ons advertenties op basis van dit soort modellen. We weten vaak niet hoe dit soort modellen werken en waarom we juist die advertentie krijgen voorgeschoteld. De vraag is, hoe belangrijk is het om te weten wat voor modellen er achter de verschillende diensten zitten?
Modellen zijn niet nieuw
De vraag over die modellen en of we ze volledig willen en moeten begrijpen is overigens niet nieuw. Om zo zuinig mogelijk te stoken is er eind vorige eeuw door Hoogendoorn de Econaut CTI regeling ontwikkeld voor de glastuinbouw. Door gebruik te maken van het feit dat een plant een zogenaamde ‘temperatuurintegratiebuffer’ heeft kan er gewerkt worden met een gemiddelde etmaaltemperatuur waarbij op sommige momenten van de dag een lagere en op andere momenten een hogere stooktemperatuur kan worden aangehouden. Het voordeel is dat je daarmee kunt stoken op moment dat de energie met het grootste rendement kan worden gebruikt. Bijvoorbeeld in de nacht, als er een dubbel energiescherm gesloten is en er daardoor minder energieverlies is. Kijkend naar de huidige omstandigheden en de energiecrisis zou dat kunnen zijn op momenten waar de prijs van gas het laagste is.
Assimilatielampen
De integratiebuffer werkt afhankelijk van het gewas en met inachtneming van een bepaalde minimum- en maximumbandbreedte over een aantal dagen. Wat de regeling deed ,was een aantal keer per dag voor ieder uur doorrekenen hoe de besparing zou zijn bij het aanhouden van verschillende temperaturen binnen de minimum en maximumbandbreedte die de tuinder had ingesteld.
Hierbij werd de meerdaagse weersverwachting gebruikt om straling en temperatuur buiten te voorspellen. Verder werd er voor ieder moment meegenomen of bijvoorbeeld de schermdoeken dicht waren, de assimilatielampen aan waren, of snel aan zouden gaan en wanneer er een temperatuur overgang aankwam doordat de tuinder bijvoorbeeld een hogere dag- dan nachttemperatuur wilde aanhouden. De toen gebruikte assimilatielampen gaven heel veel warmte af en die kon je aftrekken van de hoeveelheid warmte die je de kas in zou moeten brengen.
Al met al was het een voor de tuinder best ingewikkeld model om volledig te kunnen begrijpen of de regeling wel de juiste. Zomaar het stuur loslaten en de computer laten beslissen, was in het begin vaak best moeilijk!
Uitlegbaar maken
Het was dus belangrijk om zo goed mogelijk uit te kunnen leggen op basis waarvan bepaalde besluiten werden genomen, zodat de tuinders het konden afstemmen met hun eigen redenering. Als ze begrepen hoe het werkte en het kwam overeen met hun gevoel dan was de stap om de regeling van handmatig met eigen controle op ‘automatisch’ te zetten vaak snel gemaakt.
Maar wat als het nou nog veel ingewikkelder is en het ‘beste’ resultaat ook nog eens niet terug te redeneren is naar je eigen gevoel?
Vision technologie versus groene vingers
Neem als voorbeeld het gevoel van een tomatentuinder over wanneer en hoe hij zijn instellingen van zijn klimaatcomputer moet aanpassen. De tuinder ‘ziet’ afwijkingen en handelt daarnaar. Neem bijvoorbeeld bij de tomatenteelt het kijken naar de ‘paarsheid’ van de kop. Een paarse kop zegt iets over de groeikracht van het gewas. Bij een teelt van tomaat is het belangrijk om een juiste balans te vinden tussen de het aantal vruchten en de hoeveelheid blad. Alleen de tomaten worden verkocht, maar om goede tomaten te krijgen moet er wel voldoende gewas zijn. De waarnemingen van een ervaren teler zijn nodig om te zorgen dat deze balans juist is. Tot nu toe was dit ‘gevoel’ van de tuinder nog niet om te zetten in een objectieve meting.
Recent zijn twee techleveranciers samen met een tuinder begonnen om met behulp van een multispectrale camera de paarsheid van het gewas te meten. Het idee is dat daarmee de kennis van de tuinder in een model kan worden vastgelegd om te bepalen hoe de klimaatstrategie aan te passen op basis van objectieve metingen.
Correlatie
Maar wat als er nu eens blijkt dat er helemaal geen duidelijke correlatie is tussen de paarsheid van de kop en de groeikracht? Heeft de tuinder het dan altijd fout gehad en klopt het ‘model’ niet? Is hij biased en denkt hij dat als hij een paarse kleur ziet hij zijn klimaatinstelling op een bepaalde manier moet aanpassen? Het zou kunnen maar mogelijk is ook dat hij naast die paarse kop nog andere zaken ‘opmerkt’ door zijn lange ervaring. Naast dat zien van de kleur is er dan bijvoorbeeld het voelen en zien van de beharing op de plant en de net wat dikkere of dunnere stengels.
Maar ja, het kan ook zijn dat een model op basis van heel veel andere parameters een veel betere teeltstrategie en opbrengst kan bepalen. Wat doe je dan? Je snapt het niet en de terugkoppeling over of het echt goed gaat of niet is ook niet zo makkelijk en direct. Een ‘fout’ aan het begin van de teelt kan lang doorwerken in productie en kwaliteit.
Vertrouwen in modellen
Hoe belangrijk is het om het achterliggende model volledig te begrijpen voordat je het accepteert? Dat hangt natuurlijk af van wat de gevolgen zijn. Als Netflix eens een verkeerde suggestie voor een film geeft of als je door een oude kaart in je navigatie een stuk moet omrijden is dat meestal niet zo erg. Als het echter gaat om bijvoorbeeld rechtspraak of een beslissing in de zorg dan zijn de gevolgen heel anders!
Hierdoor is het, vooral bij AI-modellen voor zaken als zorg en rechtspraak erg belangrijk dat er zo goed mogelijk rekening wordt gehouden met het voorkomen van bias. Stel dat er keuzen moeten gemaakt wie welke zorg krijgt en dat het model dat daarbij wordt gebruikt is gemaakt op basis van input van alleen data over mannen. Op het moment dat de uitkomsten bij vrouwen heel anders zijn kunnen de keuzen zeer slecht voor hen uitvallen.
Voorkomen van bias
Natuurlijk is het zo dat dit soort situaties nu ook al voorkomen. Bij veel medisch onderzoek zijn bijvoorbeeld geen vrouwen betrokken geweest en zullen ze nu ook al te maken hebben met ‘foute modellen’. AI maakt het echter mogelijk om de gevolgen snel te ‘schalen’. Waar eerst één werkgever bijvoorbeeld bevooroordeeld was ten opzichte van vrouwen in technische beroepen, kan een AI-systeem dat automatisch cv’s selecteert dat zomaar uitvergroten! Aan de andere kant kan er met AI-modellen ook worden gewerkt aan het voorkomen van bias waarvan men zich soms niet bewust was.
Waar het dus 25 jaar geleden bij ‘simpele’ modellen al ingewikkeld was om te bepalen of je het model kon vertrouwen is het er de laatste jaren niet makkelijker op geworden. AI en machine learning hebben er voor gezorgd dat de modellen alleen maar ingewikkelder worden en vaak niet of moeilijk uit te leggen zijn, zelfs voor en door wetenschappers.
Ethische dilemma’s
We hebben allemaal met deze modellen te maken. Of het nou gaat om de belastingdienst, de zorg of de muziek die Spotify jou voorschotelt.
Door het volgen van de module over AI en ethiek van de nationale AI cursus leer je alvast beter te begrijpen wat de impact van AI op ons dagelijkse leven is. De cursus AI en ethiek kun je hier vinden. In deze cursus leer je ook wat technologie bedrijven kunnen doen om de kans op bias te verkleinen.
En wil je zelf direct aan de slag met ethische dilemma’s rond zelfrijdende auto’s? Kijk dan eens op de website ‘moralmachine’.