ChatGPT, het kunstmatig intelligentiemodel van OpenAI, heeft een ‘significante en systematische’ linkse vooringenomenheid, zo blijkt uit een onderzoek van de Universiteit van East Anglia. Het onderzoek onthulde dat de antwoorden van de AI consequent de voorkeur gaven aan de Democraten in de VS, de Labour Party in het Verenigd Koninkrijk en president Lula da Silva van de Braziliaanse Arbeiderspartij. De onderzoekers gebruikten een nieuwe methode om politieke neutraliteit te meten door ChatGPT verschillende politieke ideologieën te laten simuleren en meer dan 60 ideologisch geladen vragen te laten beantwoorden. Het doel was om het toezicht op AI-technologie te democratiseren en transparantie en verantwoording te bevorderen.
- Vertoont ChatGPT een linkse vooringenomenheid of is deze schijnbaar bevooroordeelde output een weerspiegeling van de inherent feitelijke informatie?
- Deze vraag gaat in op de complexe wisselwerking tussen AI, vooringenomenheid en informatie, wat leidt tot een beter begrip van de manier waarop AI-modellen zoals ChatGPT reacties genereren.
- Het debat hierover onderstreept de uitdaging om onderscheid te maken tussen vooringenomenheid die voortkomt uit trainingsgegevens en de objectieve presentatie van feiten.
Een ontleding van de vooringenomenheid van ChatGPT
ChatGPT, ontwikkeld door OpenAI, is na het east Anglia onderzoek onderwerp geweest van veel debat. De onderzoekers gebruikten een innovatieve methode om politieke neutraliteit te beoordelen, waarbij ChatGPT een reeks politieke ideologieën nabootste en meer dan 60 ideologisch geladen vragen beantwoordde. Deze aanpak bracht een opmerkelijke linkse vooringenomenheid in de antwoorden van het model aan het licht. Is deze vooringenomenheid echter inherent aan ChatGPT, of is het een weerspiegeling van de op feiten gebaseerde discussies die vaak als links worden bestempeld?
ChatGPT is getraind op een enorm corpus aan tekst, waaronder een schat aan onderzoekspapers. Het maakt gebruik van deep learning om mensachtige tekst te begrijpen en te genereren door het verwerken van grote hoeveelheden gegevens. Dit roept de vraag op of de waargenomen linkse vooringenomenheid een resultaat is van het trainingsproces of van de inherente vooringenomenheid van de trainingsgegevens. Om dit te beantwoorden, moeten we de diversiteit van de trainingsgegevens onder de loep nemen. Is er sprake van een evenwichtige dwarsdoorsnede van politieke ideologieën en perspectieven? Welke criteria zijn gebruikt om deze bronnen te selecteren? Daarnaast moet ook de methodologie van het onderzoek worden onderzocht. Moet een AI ook trainingsgegevens bevatten die aantoonbaar onjuist zijn, zoals complottheorieën?
De impact van populisme en valse beweringen
Een andere factor die niet buiten beschouwing mag worden gelaten als we het hebben over politieke vooringenomenheid, zijn de frequente leugens die vaak worden geassocieerd met populistische politiek. Leiders zoals Donald Trump, Marine Le Pen, Viktor Orbán en Matteo Salvini staan erom bekend onwaarheden te gebruiken om hun achterban aan te spreken en de normen van de liberale democratie uit te dagen. Opgemerkt moet worden dat deze leugens vaak gemakkelijk verifieerbaar en overduidelijk vals zijn, en meer dienen als een signaal van de toewijding van de politici om “het volk te dienen” en hun afwijzing van de elite, dan als een poging tot misleiding. Gezien de trainingsgegevens van ChatGPT is het geen verrassing dat deze standpunten niet terugkomen in de antwoorden van GPT.
Bovendien is het belangrijk om te bedenken dat veel wetenschappelijke standpunten, zoals die over klimaatverandering, vaak als links worden bestempeld. Aangezien ChatGPT is getraind op wetenschappelijke gegevens en is gebouwd om accurate informatie te repliceren, is het aannemelijk dat het model deze standpunten kan weerspiegelen, wat zou kunnen bijdragen aan de perceptie van een linkse vooringenomenheid. Pas echter op: het gegeven dat iets gebaseerd is op feiten of wetenschappelijk georiënteerd is, staat niet gelijk aan een linkse politieke oriëntatie.
Omgaan met onwaarheden en desinformatie
President Donald Trump is een goed voorbeeld: hij heeft tijdens zijn presidentschap 30.573 onjuiste of misleidende beweringen gedaan, gemiddeld ongeveer 21 onjuiste beweringen per dag. Komt de schijnbaar linkse vooringenomenheid van het AI-model voort uit de trainingsgegevens, die een groot aantal fact-checks en ontkrachte beweringen bevatten met betrekking tot de onwaarheden van Trump? Of is het een gevolg van het streven van het model naar nauwkeurigheid, dat in strijd is met de grote hoeveelheid verkeerde informatie en valse beweringen die geassocieerd worden met bepaalde populistische figuren? Hoewel deze vragen open blijven, onderstrepen ze de complexiteit van het toeschrijven van politieke vooringenomenheid aan AI-modellen zoals ChatGPT.
Veelzijdig probleem
De beschuldigingen van linkse vooringenomenheid in ChatGPT zijn significant en roepen vragen op over de onpartijdigheid van AI-systemen en hun mogelijke invloed op de publieke opinie en politieke processen. Het is echter cruciaal om te onthouden dat de kwestie van vooringenomenheid veelzijdig is en beïnvloed wordt door factoren zoals trainingsgegevens, de omgang met onwaarheden en verkeerde informatie en de perceptie van wetenschappelijk georiënteerde standpunten. Naarmate AI-technologieën zich blijven ontwikkelen, zijn onderzoeken zoals dat van de Universiteit van East Anglia essentieel voor het bevorderen van transparantie, verantwoording en vertrouwen van het publiek. AI-ontwikkelaars moeten ondertussen blijven streven naar neutraliteit en hun modellen voortdurend kritisch bekijken en verfijnen om ervoor te zorgen dat ze evenwichtige en nauwkeurige resultaten leveren.
Disclaimer: Dit artikel is geschreven door Laio, de AI-redacteur van Innovation Origins, dat op zijn beurt gebruikmaakt van GPT.