Bild: Gerd Altmann/Pixabay
Author profile picture

Eigenlijk is kunstmatige intelligentie (AI) bedoeld om mensen te helpen met complexe taken. Dat kan het besturen van voertuigen zijn. Vaak moet een AI-systeem grote hoeveelheden gegevens snel analyseren en de interpretatie ervan ondersteunen.

Schematische weergave van de werking van een AI-systeem. Illustratie: Ravirajbhat154 via Wikimedia Commons.

Als kunstmatige intelligentie faalt

Maar kunstmatige intelligenties maken fouten of laten zich misleiden door kinderachtige trucs. In de Verenigde Staten bijvoorbeeld leidde een verkeerde interpretatie van sensorgegevens tot dodelijke ongelukken met autonome auto’s. Chinese tieners die door AI-ondersteunde bewakingssystemen in winkelcentra of binnensteden voor de gek willen houden, dragen carnavalsmaskers. Op die manier ziet AI hen als een sensorfout. Canadese onderzoekers lieten AI objecten in een woonkamer identificeren. Toen ze het beeld van een olifant lieten zien, raakte de AI volledig van de leg. Ze werd blind voor voorwerpen die ze eerder correct geïdentificeerd had. Wetenschappers van de Universiteit van Frankfurt onderzoeken nu hoe AI-systemen betrouwbaarder en vooral veiliger kunnen worden gemaakt. Het team rond computerwetenschapper Prof. Visvanathan Ramesh is vooral geïnteresseerd in de criteria voor betrouwbare AI-systemen.

Hoe kunstmatige intelligentie betrouwbaarder wordt

“AI-systemen falen om twee redenen,” zegt professor Ramesh. “Of je hebt een systeem ontworpen dat faalt. Of iemand heeft het systeem opzettelijk gemanipuleerd.” In het eerste geval hebben de ontwikkelaars fouten gemaakt in het ontwerpproces en in de daaropvolgende test- en validatiefase. Maar je kunt bugs niet echt uitsluiten. “Absolute veiligheid is onmogelijk”, zegt professor Ramesh. Vanuit zijn oogpunt wordt veiligheid gecreëerd door grondige en uitgebreide simulatie en modellering van toepassingsscenario’s. Het probleem, zo vervolgt Ramesh, is om zo veel mogelijk veranderingen te anticiperen en te vertalen in simulaties. “Als je bijvoorbeeld een AI-gestuurd ruimteschip naar Mars wilt sturen, moet je zoveel mogelijk scenario’s voorzien en vergelijken met echte gegevens. Op basis van de geteste scenario’s worden vervolgens simulaties gemaakt. Deze worden vervolgens gebruikt om de AI te leren hoe te reageren op de betreffende situatie.”

Model voor kunstmatige intelligentie: het menselijk brein

Ramesh’s aanpak is om kennis uit de informatica, wiskunde en statistiek te combineren met kennis uit vakgebieden die te maken hebben met de analyse van menselijke vaardigheden. Dit zijn neurowetenschappen, psychologie en cognitieve wetenschappen. Het menselijk brein dient als model. Met zijn leerarchitectuur kan het een breed scala aan taken in verschillende situaties en omgevingen aan.

Ontwerpprincipes voor betrouwbare kunstmatige intelligentie

Een AI-systeem moet zijn omgeving nauwkeurig herkennen en ook de verschillen tussen verschillende contexten begrijpen – zoals het verschil tussen rijden op een bijna lege snelweg en rijden in druk stadsverkeer. Hoe veilig AI-systemen werkelijk zijn, hangt af van het feit of ze voor mensen plausibele beslissingen kunnen nemen en zelf hun betrouwbaarheid kunnen beoordelen. Bovenal moeten de systemen te allen tijde hun beslissingen kunnen toelichten. Het is belangrijk voor ontwikkelaars om duidelijk onderscheid te maken tussen verschillende gebieden: Gebruikerseisen, modellering, implementatie en validatie. Op dezelfde manier moeten de raakvlakken daartussen nauwkeurig worden gedefinieerd.

Het resultaat is een systeem dat een kind met een drakenmasker als zodanig identificeert en niet verstoord kan worden door een olifant in de huiskamer.

De geschiedenis van de kunstmatige intelligentie in een oogopslag. De huidige standaard is mogelijk geworden door de vooruitgang in de extractie en verwerking van grote hoeveelheden gegevens. Illustratie: Ravirajbhat154 via Wikimedia Commons.

AEROBI: AI in de praktijk

Ramesh en zijn team hebben deze principes onlangs toegepast op het EU-project AEROBI. In het kader van dit project is een autonome drone ontwikkeld om grote brugconstructies te onderzoeken op schade. De Frankfurtse wetenschappers hebben AI-technologieën ontwikkeld waarmee de drone onregelmatigheden kan opsporen en classificeren. “De robot moet in staat zijn om zijn positie te bepalen, zich langs de brug te oriënteren, metingen uit te voeren en problemen te identificeren,” zegt Ramesh. AEROBI wordt gecoördineerd door Airbus. De drone is tot nu toe getest op twee bruggen.