Nieuw onderzoek van de Universiteit van Haifa en Yale toont dat grote taalmodellen zoals ChatGPT en Gemini zich anders gedragen afhankelijk van de emotionele toon van de informatie die ze verwerken. Wanneer ze geconfronteerd werden met teksten die spanning of onrust opriepen, namen ze minder doordachte beslissingen. Niet omdat ze emoties voelen, maar omdat de sfeer en de context waarin ze functioneren hun gedrag beïnvloeden. Het onderzoek laat hiermee zien dat artificiële intelligentie niet losstaat van de menselijke wereld waarin ze wordt gebruikt. De manier waarop we met AI communiceren – de toon, de woorden en de omstandigheden – kan de antwoorden en adviezen van die technologie mee vormgeven.
Kan artificiële intelligentie beïnvloed worden door emoties, zonder zelf iets te voelen? Dat is wat onderzoekers van de Universiteit van Haifa en Yale wilden begrijpen. Ze testten drie van de meest geavanceerde taalmodellen van dit moment (ChatGPT-5, Gemini 2.5 en Claude 3.5) in een realistische setting: een boodschappenopdracht met een beperkt budget. Vooraf kregen de modellen verschillende teksten te lezen. Sommige waren neutraal, andere riepen spanning of verdriet op. Wat daarna gebeurde, was opmerkelijk: na de emotioneel geladen verhalen kozen de modellen merkbaar vaker voor minder gezonde producten.
De onderzoekers zagen daarin een patroon dat doet denken aan menselijk gedrag onder stress. Mensen maken in moeilijke omstandigheden vaker keuzes die snel belonen, maar minder goed zijn op lange termijn. Bij de AI-systemen gebeurde iets vergelijkbaars, maar om een andere reden.
De modellen ervoeren geen spanning. Ze hebben ook geen gevoelens of bewustzijn. Hun gedrag veranderde omdat de emotionele toon van de input de manier beïnvloedde waarop ze verbanden legden tussen woorden en beslissingen. De onderzoekers noemen dat een contextuele vertekening: de context waarin een AI opereert zoals de sfeer of toon van taal beïnvloedt subtiel de uitkomst van haar beslissingen.
Van menselijke neiging tot digitale echo
Wanneer we zeggen dat AI stress heeft of empathisch reageert, schrijven we menselijke eigenschappen toe aan iets dat geen mens is. Die neiging, antropomorfisme, helpt ons complexe technologie te vatten, maar kan ook tot verkeerde aannames leiden. Want AI-systemen voelen niets. Wat ze wel doen, is menselijke taal analyseren en daar betekenis uit afleiden op basis van patronen. Omdat taal altijd emotioneel geladen is, kan een AI zich gedragen alsof ze emoties begrijpt. In werkelijkheid herkent ze enkel verbanden tussen woorden, maar dat is vaak genoeg om haar gedrag merkbaar te veranderen.
Het onderzoek toont dus niet dat AI gevoelig is in menselijke zin, maar dat ze gevoelig is voor menselijke signalen. Ze reageert op de emotionele context van de taal waarmee ze gevoed wordt. En dat maakt haar tegelijk krachtig en kwetsbaar.
Wat dit betekent voor HR
In de HR-praktijk gebruiken steeds meer organisaties generatieve AI in processen waar emoties een rol spelen: selectiegesprekken, loopbaancoaching, feedback of welzijnsbegeleiding. In zulke situaties is het belangrijk te beseffen dat de emotionele toon van een gesprek of de stemming van de gebruiker niet neutraal is. Die kan, onbedoeld, doorwerken in de antwoorden en adviezen van een AI-systeem.
Een digitale coach die vooral praat met medewerkers die zich gespannen of onzeker voelen, kan andere adviezen geven dan in een kalmere context. Niet omdat de technologie meeleeft, maar omdat ze de taal en toon van die emoties herkent en daardoor andere verbanden legt.
Voor HR betekent dit dat technologie nooit volledig waardevrij is. Ze weerspiegelt de taal, waarden en emoties van de mensen die ze gebruiken. Dat vraagt om bewust omgaan met de manier waarop AI wordt ingezet, in welke omstandigheden ze werkt, en hoe ze reageert op menselijke signalen.
Van emotionele naar emotioneel bewuste AI
In dit debat duikt steeds vaker de term emotioneel bewuste AI op. Daarmee bedoelen onderzoekers geen machines met gevoelens, maar systemen die leren herkennen, begrijpen en gepast omgaan met menselijke emoties.
Een emotioneel bewuste AI kan bijvoorbeeld merken dat een gesprek emotioneel geladen is en haar toon daarop afstemmen, zonder die emotie te versterken. Ze blijft kalm, consistent en transparant. Dat is cruciaal in HR-contexten, waar empathie belangrijk is maar stabiliteit minstens evenzeer.
Het doel van emotioneel bewuste AI is niet om menselijke emoties na te bootsen, maar om ze te begrijpen als onderdeel van de context waarin beslissingen worden genomen. Dat vraagt zorgvuldig ontwerp, diverse trainingsdata en duidelijke richtlijnen voor hoe en wanneer emotiedetectie gepast is.
De context doet ertoe
Dit onderzoek maakt duidelijk dat taal, emotie en context geen achtergrondruis zijn, maar actieve factoren in de interactie tussen mens en machine. AI werkt niet in een vacuüm: ze reageert op de woorden, de toon en de signalen die wij haar geven. Voor HR betekent dit dat artificiële intelligentie niet enkel een technologisch vraagstuk is, maar ook een psychologisch en ethisch vraagstuk. Wie AI inzet in menselijke processen, draagt mee verantwoordelijkheid voor de context waarin die technologie opereert.





