© EAISI
Author profile picture

Meteen al met het welkomstwoord van de gastheer en voorzitter van Brainport AI Hub Carlo van de Weijer was het voor de aanwezigen duidelijk dat AI de mens niet komt vervangen. Maar wat wél gebeurt, zo zei hij, is dat “mensen die met AI kunnen werken mensen vervangen die dat niet kunnen.”

  • De AI Summit Brainport richtte zich dit jaar op AI waarbij de mens centraal staat.
  • Nu er regelgeving komt, kan AI worden afgestemd op menselijke waarden.
  • Menselijke AI co-creatie kan een nieuw begrip van de wereld opleveren.

De 2023 AI Summit Brainport vond plaats op 2 november in de iconische – maar niet door AI gegenereerde – locatie van het Evoluon in Eindhoven. De summit was georganiseerd door de Technische Universiteit Eindhoven (TU/e) EAISI – een acroniem voor Eindhoven AI Systems Institute -, de provincie Noord-Brabant en de AI-hub Brainport. Mensgerichte AI was de focus van het evenement, een onderwerp dat de hele dag door werd besproken in verschillende presentaties, workshops en panels.

AI-toepassingen nemen een hoge vlucht, terwijl er bezorgdheid heerst over de rol die de technologie zou moeten spelen. Daarom ook kwamen de G7-landen bij de eerste wereldwijde top over AI in het Verenigd Koninkrijk deze week overeen om een AI-gedragscode op te stellen. Daarnaast vaardigde de Amerikaanse president Joe Biden ook een executive order uit om de beloften van AI te reguleren en de risico’s ervan te beheersen. De Europese Unie publiceerde eerder haar eigen AI-wet, die een op risico’s gebaseerde aanpak introduceerde om de technologie te reguleren.

Taal is belangrijk

In een tot nadenken stemmende keynote van Wijnand IJsselstein, hoogleraar Cognition and Affect in Human-Technology Interaction, werden vraagtekens gezet bij de metaforen die vaak worden gebruikt om AI te beschrijven. Machinaal leren – een techniek om AI te laten leren door ervaring – heeft bijvoorbeeld niets te maken met menselijk leren. “Een machine neemt geen initiatief om te leren; hij contextualiseert niet, heeft geen subjectiviteit en is niet nieuwsgierig,” zei hij.

Een soortgelijke ontkrachting werd gedaan met deep learning, een uitdrukking om een subset van machine learning te definiëren die het menselijk brein simuleert met meerdere neurale netwerklagen. “Het impliceert diepte van denken, wijsheid, een diep begrip van dingen, waarvoor echter betekenisvolle verbindingen nodig zijn.” Over het algemeen levert het gebruik van menselijke eigenschappen epistemische verwarring op, volgens de professor. “Taal vormt ons begrip van AI”, benadrukt de onderzoeker. Op zijn beurt gelooft IJsselstein dat AI ons begrip van de wereld kan verbeteren en deze op verschillende manieren beter kan leren begrijpen.

Een ander voorbeeld van IJsselstein is Gardner theorie van meervoudige intelligenties. Volgens deze theorie hebben mensen acht verschillende soorten intelligentie, zoals intrapersoonlijke, visueel-ruimtelijke of muzikale intelligentie. Individuen hebben er vaak één meer ontwikkeld dan de andere. Terwijl AI de logisch-mathematische soorten intelligentie tot op zekere hoogte kan reproduceren, lukt dat (nog) niet voor ruimtelijke intelligentie.

Wijnand IJsselsteijn -© EAISI

Controle afdwingen

Het reguleren van AI stelt grenzen en bevordert de ontwikkeling van mensgerichte technologie. Na een inleiding over de AI-wet door Susan Hommerson van de TU/e, discussieerde een panel over de regeling. Wat als we het helemaal niet reguleren? “Het kan fout gaan; we moeten AI normaliseren net zoals we dat doen met speelgoed of medische apparaten,” zei Koen Holtman, een systeemarchitect en AI-veiligheidsexpert.

NXP Semiconductors Global Privacy Officer Wouter van der Loop onderstreepte ook de noodzaak om enige controle te krijgen over de technologie, het definiëren van verantwoordelijkheid en aansprakelijkheid, evenals manieren om het te gebruiken. Jelle Donders, oprichter van het Eindhoven AI Safety Team, is van mening dat de EU-wetgeving een goede aanpak biedt voor het reguleren van individuele en collectieve risico’s, maar tekortschiet in het aanpakken van maatschappelijke risico’s. “Het is niet vanzelfsprekend dat we de controle zullen hebben,” zei hij.

Het panel over de AI-Act van de EU – © EAISI

Hybride computer

Het menselijk brein heeft ongeëvenaarde capaciteiten. AI kan onvermoeibaar informatie verwerken, maar doet dat ten koste van duizenden megawatts aan vermogen per dag in een poging na te bootsen wat ons brein doet met niet meer dan twintig watt. Is het mogelijk om de twee te combineren tot het perfecte brein?

Het BayesBrain-project van de TU/e werd gepresenteerd in een ronde van AI-onderzoekspresentaties. BayesBrain probeert ‘s werelds eerste brein-op-chip AI-computer te maken. Het doel is om een hybride computer te maken, zo hoog programmeerbaar als een chip kan zijn en tegelijkertijd zo energiezuinig als onze neuronen zijn. TU/e-wetenschappers willen geavanceerde chips combineren met gekweekte cellen die zijn verkregen via stamceltechnologie.

Hybride bestuur is de onderzoeksfocus van professor Frauke Behrendt. Ze heeft specifiek onderzoek gedaan naar het gebruik van AI om duurzame mobiliteit mogelijk te maken, met name in mobility as a service (MAAS), door zich te verdiepen in de onderliggende dynamiek achter besluitvormingsprocessen. Wat als AI deel gaat uitmaken van het bestuursproces? De professor is van mening dat hybride bestuur kan worden bereikt als beleidsmakers zich bewust zijn van de mogelijkheden van AI en er gebruik van maken om bijvoorbeeld duurzaamheid te implementeren.

Krachten bundelen

Als menselijke waarden de hoeksteen van onze toekomst moeten blijven, hoe moeten we de ontwikkeling dan zo sturen dat AI-systemen geven om wat wij belangrijk vinden? Volgens Diego Morales is metacognitie de sleutel. Metacognitie wordt gedefinieerd als de praktijk van het zich bewust zijn van het eigen denken en dit gebruiken om het leren of oplossen van problemen te plannen, te controleren en te evalueren. Het risico dat we hier niet goed mee omgaan, kan resulteren in een AI die dingen selecteert en prioriteert waar we om geven.

De risico’s van AI zijn voor iedereen duidelijk. Hoewel het stoppen van de ontwikkeling ervan niet aan de orde is, moet er regelgeving komen om grenzen te stellen en bescherming te bieden tegen de gevaarlijke driften die AI kan genereren. Co-creatie zou wel eens de manier kunnen zijn.

Samenwerking

Dit artikel is gemaakt in een samenwerking tussen Technische Universiteit Eindhoven en onze redactie. Innovation Origins is een onafhankelijk journalistiek platform dat zijn partners zorgvuldig uitkiest en uitsluitend samenwerkt met bedrijven en instellingen die achter onze missie staan: het verhaal van innovatie verspreiden. Op die manier kunnen wij onze lezers waardevolle verhalen aanbieden die volgens journalistieke richtlijnen tot stand zijn gekomen. Wil je meer weten over hoe Innovation Origins samenwerkt met andere bedrijven? Klik dan hier