Om ons heen zien we toepassingen van kunstmatige intelligentie (AI) steeds gewoner worden. Aanbevelingen voor Spotify en Netflix, virtuele assistenten die van alles voor je regelen of horloges die je wakker maken wanneer je helemaal bent uitgerust. Ook in de zorg neemt het gebruik van AI de laatste jaren toe. Afgelopen week schreven we nog over een algoritme dat Covid-19 kan herkennen op basis van longscans.

Maar toch gebruikt maar 16 procent van de Europese zorginstellingen een vorm van AI. IO gaat daarom in gesprek met drie AI-experts in de zorg om erachter te komen waarom de zorg achterblijft op andere sectoren en wat is er nodig om dit te veranderen?

Esmee Stoop is data-scientist bij Leids Universitair Medisch Centrum (LUMC) waar ze AI -modellen maakt en implementeert en als techneut artsen en verpleegkundigen AI-kennis bijbrengt. Marieke van Buchem is promovenda bij het LUMC en onderzoekt verschillende AI-toepassingen, Beiden zijn verbonden aan het CAIRELab, waar ze met een team AI- en klinische kennis bundelen. Ook spreken we met Cristina González-Gonzalo. Zij is bezig met haar laatste jaar promotie-onderzoek bij A-eye Research en het Radboudumc. Ze ontwikkelde onder andere een algoritme dat artsen laat zien hoe een AI-systeem tot een diagnose komt.

Algoritmes gaan dokters niet vervangen

Allereerst: algoritmes gaan het werk van artsen niet overnemen. Daar zijn alle drie de wetenschappers het over eens. González-Gonzalo moet lachen: “Dat is vaak een angst van artsen, maar dat zie ik niet snel gebeuren. Bovendien wil niemand van een robot horen dat hij kanker heeft. De relatie tussen patiënt en arts blijft belangrijk. AI gaat het werk van artsen wel makkelijker maken. Zo krijgen ze meer tijd voor complexe gevallen.”

Ook Van Buchem sluit zich hierbij aan: “AI is goed in het beantwoorden van heel afgebakende vragen, maar kijkt niet naar het hele plaatje. Een arts wel. AI kan hier goed in ondersteunen, maar het is geen magie. Ja, het zijn complexe sommetjes die patronen herkennen die wij niet zien. Je kunt de de informatie uit een geneeskundeboek in een neuraal netwerk stoppen, maar ze missen de nuance om dit naar individuele patiënten te ‘vertalen’. Die menselijke interpretatie blijft onmisbaar.”

Stoop geeft meteen een voorbeeld hoe die ondersteuning voor jonge artsen er uit ziet: “Beginnende radiologen die twijfelen over een diagnose kunnen scans door een database halen. Vervolgens krijgen ze vergelijkbare afbeeldingen te zien om te toetsen aan de scan waarover ze twijfelen. Hier leren ze van zonder dat expertise bij hen wordt weggehaald. Het algoritme is een buddy en geen supervisor die alles overneemt.”

AI kan repetitieve taken overnemen

Door AI in verschillende gebieden van de zorg te gebruiken, kan er in Europa zo’n 1.8 miljard uur per jaar worden bespaard. Dat zijn zo’n 500 duizend fulltime banen. Een enorme hoeveelheid voor een sector die structureel met een tekort kampt. Volgens van Buchem zijn zorgmedewerkers veel tijd bezig met administratieve zaken. “Het schrijven van een patiëntverslag is iets dat steeds terugkomt. Dat zijn taken waar AI ondersteuning zou kunnen bieden. We ontwikkelen nu een model dat een soort voorzet geeft voor een verslag. Hiervoor nemen we gesprekken op en trainen het model met spraakherkenning. Dat kost nu veel tijd omdat je alles handmatig moet aanstippen, maar uiteindelijk gaat het tijd opleveren. In de VS, waar ze het al gebruiken, scheelt dit per arts een paar uur in de week”, legt Van Buchem uit.

En er zitten nog meer voordelen aan deze automatisering: ““Het huidige systeem dwingt artsen om in hokjes te denken. Veel moet aan de hand van een checklist vastgelegd worden, maar de zorg is erg complex. Een diagnose stellen of behandelplan maken houdt meer in dan hokjes invullen. Het haalt de nuance weg. Maar als je dat structureren aan een AI overlaat, kan de arts weer focussen op een patiënt en breng je die nuance weer terug.”

Wat is er nog nodig voor AI-systemen in de zorg?

Aan onderzoek en projecten geen gebrek. Maar wat missen AI-systemen om echt door te breken in ziekenhuizen? Alle drie de data-experts weten zeker dat dit begint bij goede datasets. Van Buchem: “Datasets zijn niet altijd objectief. Als een arts bepaalde waardes in het bloed van een patiënt test, doet hij dat met een diagnose in zijn achterhoofd. De waardes die de arts kiest, wijzen dus al richting een diagnose en zijn niet objectief. Als je een AI systeem op deze data traint moet je daar rekening mee houden. Daarom is het goed om altijd kritisch te zijn en je vooraf goed af te vragen waarom bepaalde gegevens zijn verzameld.”

Scans geven al een objectiever beeld, zegt Stoop. “Zo’n scan is een directe weergave van bijvoorbeeld een orgaan. Hier kun je AI-modellen van alles mee laten doen. Maar er is geen gouden standaard. Als je tien radiologen vraagt wat ze zien, zullen ze niet allemaal hetzelfde zeggen.”

AI pushen door te zoeken

Ook die verschillende bevindingen van artsen moeten uit een AI-model kunnen komen. Maar nu stopt een algoritme met zoeken als het net voldoende informatie heeft opgespoord om tot een diagnose te komen. Terwijl je eigenlijk wilt dat het systeem verder zoekt, net als een radioloog doet om een completer beeld te krijgen.

Hier heeft González-Gonzalo iets op gevonden: “Nu zit de taak van een Al er op als het systeem een ziekte herkent. Terwijl het vaak niet zo zwart-wit ligt. Maar door het systeem te pushen om verder te kijken, worden meerdere gebieden aangestipt. Hierdoor krijg je meer inzicht”, legt ze uit. Bij de verschillende aangestipte gebieden kan het systeem aangeven – met een percentage bijvoorbeeld – hoe zeker de AI van de diagnose is. “Artsen zien zo meteen of er nog extra onderzoek nodig is of dat ze iets moeten dubbelchecken”, aldus González-Gonzalo

Transparante en uitlegbare modellen

AI neemt pas echt een vlucht als modellen kunnen uitleggen hoe ze tot een beslissing komen. Bij simpelere algoritmes is deze zogenaamde black box al geopend. Van Buchem: “Veel mensen denken dat het niet mogelijk is om AI zichzelf te laten uitleggen. Maar er zijn algoritmes die dit prima kunnen. Op de IC bijvoorbeeld geeft AI aan welke waardes het gebruikt om de kans op heropname te voorspellen.”

Ook het model dat González-Gonzalo ontwikkelde om oogziektes te herkennen op scans, neemt artsen mee in het beslissingsproces. “Vanuit de output, gaat het systeem via verschillende plaatjes terug naar de input. Op deze plaatjes zien artsen waar het algoritme op heeft gelet om tot een conclusie te komen.”

Maar complexere AI kan dit proces minder goed inzichtelijk maken, geeft Stoop aan. “Een ingewikkeld algoritme legt zo ontzettend veel verschillende verbanden. Veel relaties die wij als mensen niet eens kunnen zien.”

Een voorbeeld van zo’n complex algoritme probeert erfelijke oogziektes te diagnosticeren door genetische data aan oogscans te koppelen. González-Gonzalo: “Op verschillende manieren trainen we een dataset om een link te leggen tussen het gen voor een erfelijke ziekte en de oogscan. Hoe een systeem zo’n link legt, is voor mensen bijna onmogelijk te begrijpen.

Toch proberen we een manier te bedenken hoe AI-systemen zoiets inzichtelijk kunnen maken. Hierdoor krijgen zorgmedewerkers meer vertrouwen in de werking van AI. Ook dat gaat helpen bij bredere toepassing van AI in de zorg.”

Word lid!

Op Innovation Origins lees je elke dag het laatste nieuws over de wereld van innovatie. Dat willen we ook zo houden, maar dat kunnen wij niet alleen! Geniet je van onze artikelen en wil je onafhankelijke journalistiek steunen? Word dan lid en lees onze verhalen gegarandeerd reclamevrij.

Over de auteur

Author profile picture Milan Lenters is schrijver en redacteur. Heeft door IO zijn geboortestad Eindhoven op een andere manier leren kennen en kijkt soms met verbazing naar de vele verhalen die hier voor het oprapen liggen.