©Amber
Author profile picture

Nederlandse en Spaanse computerdeskundigen hebben ontdekt hoe systemen met artificiële intelligent (AI) eigenlijk leren. Bij veel systemen gebaseerd op het zogenoemde ‘deep learning’ was niet duidelijk hoe dat leerproces zich voltrok. De onderzoekers hebben nu weten vast te stellen hoe een systeem voor beeldherkenning de omgeving leert kennen. Vervolgens hebben ze dat leersysteem vereenvoudigd, door het te dwingen zich ook te richten op minder belangrijke informatie. AI-systemen voor beeldherkenning zijn van groot belang voor bijvoorbeeld autonoom rijdende auto’s.

Het gaat, aldus de Rijksuniversiteit Groningen (RUG) in een persbericht, om Convolutional Neural Networks (CNNs). Dat is een op de biologie geïnspireerde vorm van deep learning binnen de AI. Dit systeem leert beelden herkennen dankzij de interactie van duizenden ‘neuronen’. Deze bootsen de werking van de hersenen na. Hoe deze CNNs werken, was tot dusver niet duidelijk, zo vertelt Estefania Talavera Martinez. Zij is docent-onderzoeker aan het Bernoulli Instituut voor Wiskunde, Computerwetenschap en Kunstmatige Intelligent van de RUG.

Voedsel

Zij gebruikt zelf CNNs in onderzoek naar menselijk gedrag. Daarmee analyseert zij beelden die gemaakt zijn met een draagbare camera. Op die manier bestudeert ze hoe mensen op voedsel reageren. Ze wilde daarom dat het systeem verschillende situaties kon herkennen waarin mensen voedsel tegen komen. “Het viel mij daarbij op dat het systeem fouten maakte bij het goed identificeren van de omgeving op bepaalde foto’s, en ik wilde weten waarom dat gebeurde.”

Aan de hand van ‘heat maps’ analyseerde zij welke delen van de beelden door de CNNs gebruikt zijn om de situatie te herkennen. “Dat leidde tot de hypothese dat het systeem niet voldoende details uit het beeld gebruikte”, legt zij uit. Wanneer een KI systeem bijvoorbeeld geleerd heeft om een mok te associëren met de keuken, zal het een woonkamer of kantoor, waar mokken ook worden gebruikt, verkeerd classificeren. De oplossing die Talavera Martinez hiervoor bedacht, samen met haar Spaanse collega’s David Morales (Universiteit van Granada) en Beatriz Remeseiro (Universiteit van Oviedo), was om het systeem af te leiden van de primaire doelen.

Vervaagde beelden

Zij trainden CNNs met standaardbeelden van vliegtuigen of auto’s. Via heat maps achterhaalden ze welke delen waren gebruikt voor de classificatie. Vervolgens hebben ze deze delen van het beeld vervaagd, waarna een tweede trainingsronde volgde. “Dit dwingt het systeem om andere delen van het beeld te gebruiken voor identificatie. En door deze extra informatie mee te nemen, ontstaat een betere classificatie.” Deze nieuwe manier van trainen is volgens de onderzoekers veel eenvoudiger en kost ook minder rekentijd.

Bij de foto: voor autonoom rijdende auto’s is een perfect werkend beeldherkenningssysteem onontbeerlijk.

Het onderzoek is gepubliceerd in het wetenschappelijk tijdschrift Neural Computing and Applications.

Ook interessant: AI ontdekt waar de unieke klank van een Stradivarius vandaan komt

Lees ook ons dossier over artificiële intelligentie