Hoe hoort een mens? Hoe maakt hij onderscheid tussen geluiden en gesproken woorden? In de taal zijn er twee onderscheidende kenmerken: de stem van de spreker en de taalkundige inhoud zelf, inclusief de spraakklanken. Onderzoekers van Universiteit van Genève (UNIGE) en Universiteit van Maastricht hebben nu aangetoond dat de hersenen, meer specifiek de auditieve cortex, zich aanpassen aan wat iemand wil horen. Het richt zich ofwel op de stem van een spreker of op de gesproken spraakgeluiden.

Om te weten te komen hoe deze cerebrale mechanismen van de spraakverwerking functioneren, ontwikkelden de onderzoekers pseudowoorden, dat wil zeggen woorden zonder betekenis, die door drie stemmen met verschillende toonhoogten werden uitgesproken. Ze wilden zien hoe de hersenen deze informatie verwerken als ze zich concentreerden op de stem of het spraakgeluid. Ze ontdekten dat de auditieve cortex verschillende aspecten van de geluiden versterkt, afhankelijk van het doel. Voor de differentiatie van stemmen ligt de nadruk op de verwerking van stemspecifieke informatie, terwijl klankspecifieke informatie belangrijk is voor de differentiatie van spraakgeluiden.

© Pixabay

Pseudowords

“We hebben 120 pseudowoorden gecreëerd die overeenkomen met de fonologie van de Franse taal, maar geen betekenis hebben, zodat de semantische verwerking niet interfereert met de zuivere perceptie van de klanken”, legt Narly Golestani, professor aan de afdeling Psychologie van de Faculteit Psychologie en Onderwijs (FPSE) van UNIGE uit. Deze pseudowoorden bevatten klanken zoals in preperibion, gabratade en ecalimacre.

De pseudowoorden werden uitgesproken door een foneticus. De wetenschappers hebben de stem vervolgens omgezet in andere, diepere en hogere stemmen. “Om de differentiatie van stemmen net zo moeilijk te maken als de differentiatie van spraakgeluiden, hebben we de opgenomen stemmen zo veranderd dat ze klinken als drie verschillende stemmen in plaats van ze van drie verschillende mensen op te nemen”, legt Sanne Rutten uit, een onderzoeker op de afdeling Psychologie van de UNIGE PSI en voorheen verbonden aan Universiteit Maastricht.

“Spectrale modulaties”

Tijdens de studie hebben de onderzoekers de hersenactiviteit van de proefpersonen geregistreerd met behulp van functionele magnetische resonantie beeldvorming (fMRI) bij een hoog magnetisch veld (7 Tesla). Met deze methode kan de hersenactiviteit worden waargenomen door de zuurstoftoevoer naar het bloed in de hersenen te meten: hoe meer zuurstof er nodig is, hoe meer dit specifieke deel van de hersenen wordt gebruikt.

Bovenste plaatjes: Analyse van de belangrijkste akoestische parameters die ten grondslag liggen aan de verschillen tussen de stemmen (speakers) en de spraakklanken (fonemen) in de pseudo-woorden zelf: Hoge spectrale modulaties onderscheiden de stemmen het best (blauw spectraal profiel) en snelle temporele modulaties (rood spectraal profiel) en lage spectrale modulaties (rood spectraal profiel) onderscheiden de spraakklanken het best. Onderste plaatjes: Analyse van neuronale, fMRI-gegevens: Bij het uitvoeren van de spraakopdracht versterkt de auditieve cortex hogere spectrale modulaties (blauw spectraal profiel). Tijdens de klanktaak versterkt het snelle temporele modulaties (rood tijdsprofiel) en lage spectrale modulaties (rood spectraal profiel). © UNIGE

Tijdens het scannen hoorden de deelnemers de pseudowoorden in een sessie en werd hen gevraagd de klanken te identificeren. In een andere sessie moeten ze zeggen of de pseudowoorden door stem 1, 2 of 3 zijn voorgelezen. Tijdens de evaluatie hebben de wetenschappers eerst de pseudowoorden geanalyseerd. Ze onderzochten verschillen in frequentie (hoog/laag), tijdsmodulatie (hoe snel geluiden veranderen in de tijd) en spectrale modulatie (hoe energie wordt verdeeld over verschillende frequenties). Zij vonden dat hoge spectrale modulaties de stemmen het best onderscheidden. Snelle temporele modulaties in combinatie met lage spectrale modulaties onderscheidden de klanken het beste.

Verschillende hersenreacties

In de volgende stap gebruikten de onderzoekers computermodellen om de fMRI-reacties te analyseren, d.w.z. hersenactiviteit in de auditieve cortex terwijl de hersenen de geluiden verwerkten tijdens de twee taken. “De resultaten tonen grote overeenkomsten tussen de taakinformatie in de geluiden zelf en de neuronale fMRI-gegevens”, zegt Golestani. Om precies te zijn betekent dit dat de auditieve cortex de hogere spectrale modulaties versterkt wanneer de deelnemers zich op de stemmen moesten concentreren. In de klanken reageerde de cortex echter meer op de snelle temporele modulaties en op de lage spectrale modulaties.

“Dit is de eerste keer dat menselijke niet-invasieve methoden hebben aangetoond dat de hersenen zich aanpassen aan de taak in kwestie op een manier die overeenkomt met de akoestische informatie die wordt verwerkt in spraakgeluiden,” zegt Sanne Rutten erop. “Dit is van belang voor ons toekomstig onderzoek, vooral in de verwerking van andere taalniveaus – waaronder semantiek, syntaxis en prosodie – onderwerpen die we willen onderzoeken in een Nationaal Competentiecentrum voor Onderzoek naar de Oorsprong en Toekomst van Taal”.

De resultaten van het onderzoek zijn gepubliceerd in het tijdschrift Nature Human Behaviour.