Onderzoek toont aan: AI scoort hoger op empathie en toch lager op geloofwaardigheid
Onderzoekers van de Universiteit van Texas, Harvard, Toronto en Jeruzalem brachten recent de snelgroeiende literatuur rond AI-empathie samen. Hun overzichtsartikel analyseert studies uit 2023–2025 waarin empathische reacties van mensen (zoals artsen, getrainde hulplijnmedewerkers of vrijwilligers) worden vergeleken met die van AI-systemen (zoals ChatGPT of Claude). De centrale vraag: hoe ervaren mensen empathie wanneer ze weten of denken dat de bron een AI is? In die literatuur komen twee consistente effecten naar voren: het AI Advantage (AI-reacties scoren in blindtests vaak hoger op empathie dan menselijke reacties) en de AI Penalty (dezelfde tekst wordt lager gewaardeerd zodra bekend is dat die van AI komt). Sámen maken die twee effecten de empathieparadox zichtbaar—AI klinkt vaak warmer, maar wordt tóch minder gewaardeerd wanneer de bron duidelijk is.
Het AI-voordeel
Eén van de twee robuuste effecten is het AI Advantage. In blindtests beoordelen proefpersonen AI-reacties gemiddeld als empathischer, zorgzamer en validerender dan menselijke reacties. Kunstmatige empathie blijkt consistent, snel en verrassend effectief in het geven van het gevoel “gehoord te worden”.
De AI-straf
Het spiegelbeeldige effect is de AI Penalty: zodra deelnemers weten of vermoeden dat de woorden uit een computer komen, daalt de waardering merkbaar. Identieke teksten krijgen lagere empathiescores puur door het label “AI”. De geloofwaardigheid en waarde van empathie blijken dus sterk afhankelijk van wie we dénken dat de afzender is.
De empathieparadox
Samen vormen deze effecten de empathieparadox: AI lijkt beter in het formuleren van empathische taal, maar wordt tegelijk lager gewaardeerd omdat het niet menselijk is. Mensen ervaren warmte in de woorden, maar verlangen toch naar een bron van vlees en bloed. Zelfs als AI sneller, consistenter en soms vriendelijker is, kiezen de meesten nog steeds voor menselijke steun.
Grenzen en risico’s
De onderzoekers wijzen erop dat de meeste studies korte, eenmalige interacties bekijken. Wat er gebeurt bij langdurig gebruik – weken of maanden praten met een AI – is nog onduidelijk. Wordt de band sterker, of dooft de magie uit? Bovendien spelen er ethische en psychologische risico’s: AI kan te meegaand worden, verkeerde overtuigingen bevestigen of mensen juist ontmoedigen om echte relaties aan te gaan.
Daar komt bij dat er nog nauwelijks kennis is over hoe AI-empathie verschilt per context (bijvoorbeeld in coaching, conflictmanagement of mentale gezondheid) of per cultuur. Wat in de ene samenleving wordt gezien als steunend, kan elders kil of ongepast overkomen. Ook weten we nog weinig over de langetermijneffecten: vermindert langdurige AI-steun gevoelens van eenzaamheid en verhoogt het welzijn, of vervaagt de impact en dreigt juist een diepere disconnectie? Het antwoord ligt waarschijnlijk ergens tussenin.
Wat dit betekent voor HR
Steeds meer HR-tools en welzijnsapps maken gebruik van AI om medewerkers te ondersteunen – van chatbots voor mentale gezondheid tot digitale coaches voor leiderschap. Dit onderzoek laat zien dat AI zulke gesprekken vaak overtuigend en empathisch kan voeren, maar dat medewerkers de waarde lager inschatten zodra ze weten dat er geen mens achter zit.
De uitdaging voor HR is daarom niet óf AI empathisch mag zijn, maar hoe organisaties die paradox vormgeven. Transparantie over het gebruik van AI is belangrijk, maar roept ook scepsis op. Mensen blijven AI in veel gevallen lager waarderen, ook als de ervaring hen feitelijk goed doet. Dat vraagt om een nieuw narratief: AI niet zien als vervanger van menselijke zorg, maar als een extra laag in het ondersteuningsnetwerk.





