Author profile picture

Zelflerende machines die auto’s besturen, symfonieën componeren, schilderijen maken of mensen verslaan met schaken. Kunstmatige intelligentie (KI) biedt fascinerende mogelijkheden.

Wie weet wat er in de toekomst allemaal mogelijk is. Zijn machines misschien wel eerder in staat kanker of dementie te genezen dan mensen? En moeten we daar wel zo blij mee zijn? In sciencefictionfilms loopt immers vaak verkeerd af en blijken de machines booswichten te zijn. Denk bijvoorbeeld aan Skynet in Terminator, HAL in 2001: Space Odyssey of Mother in Alien.

Skynet

Overdreven angst? Veel wetenschappers breken zich hier in ieder geval al jaren het hoofd over. Dat geldt ook voor het Duitse Max-Planck instituut dat samen met een groep internationale onderzoekers heeft onderzocht of het mogelijk is superintelligente machines te bewaken met algoritmes. De conclusie is negatief.

“Een superintelligente machine die de wereld bestuurt, klinkt als sciencefiction. Maar er zijn nu al machines die bepaalde belangrijke taken helemaal alleen uitvoeren, zonder dat de mensen die ze geprogrammeerd hebben, volledig begrijpen hoe ze dat doen. Daarom was het voor ons een belangrijke vraag of dit op een bepaald moment oncontroleerbaar en gevaarlijk kan worden voor de mensheid”, zegt Manuel Cebrian, een van de auteurs van de studie die is gepubliceerd in de Journal of Artificial Intelligence Research.

Twee controlemogelijkheden

Onderzoekers over de hele wereld hebben twee ideeën ontwikkeld over hoe je controle kan houden over KI:

  • Enerzijds zou je de slimme machine kunnen beperken door deze af te sluiten van bepaalde middelen zoals het internet en andere technische apparaten, zodat contact met de buitenwereld onmogelijk wordt. Het nadeel daarvan is alleen dat KI dan een heleboel problemen niet kan oplossen door een gebrek aan data.
  • Een tweede optie is om de KI van meet af aan te instrueren dat deze alleen doelen nastreeft die in het belang van de mensheid zijn, bijvoorbeeld door er ethische regels in te programmeren, zoals de drie wetten voor robotica uit het werk van de Russische SF-schrijver Isaac Asimov (o.a. I Robot).

Wat waren ze ook alweer:
1. Een robot mag een mens geen letsel toebrengen of door niet te handelen toestaan dat een mens letsel oploopt.
2. Een robot moet de bevelen uitvoeren die hem door mensen gegeven worden, behalve als die opdrachten in strijd zijn met de Eerste Wet.
3. Een robot moet zijn eigen bestaan beschermen, voor zover die bescherming niet in strijd is met de Eerste of Tweede Wet.

Beeld Max-Planck instituut

Wetten werken niet

Maar volgens de onderzoekers bieden dit soort wetten onvoldoende garantie voor het beheersen van KI. In hun studie ontwierpen ze een theoretisch algoritme om ervoor te zorgen dat superintelligente KI de mensheid onder geen enkele omstandigheid schaadt. Dit algoritme simuleert eerst het gedrag van de KI en schakelt de machine uit als het riskant wordt.

Uit een nadere analyse blijkt echter dat een dergelijk algoritme volgens de huidige stand van de computerwetenschap niet kan worden geprogrammeerd. De onderzoekers concluderen:

“Op basis van onze berekeningen is het niet mogelijk om een algoritme te programmeren dat zou detecteren of een KI de wereld zou schaden of niet. Bovendien kunnen we misschien niet eens zien of een machine wel superintelligent is. Want volgens de huidige kennis is het ook onmogelijk te berekenen of een machine een intelligentie heeft die superieur is aan die van de mens.”

Met andere woorden, nader onderzoek is nodig, en vertrouw machines in ieder geval nooit blind. To be continued…

Lees ook onze andere artikelen over artificial intelligence.