Hoe menselijk mag AI klinken op de werkvloer?

Samenvatting

AI leert praten als wij. Ze toont begrip, zegt sorry en lijkt te luisteren. Maar als technologie empathie imiteert, wie bewaakt dan de echte menselijkheid? Nieuw onderzoek waarschuwt dat menselijk klinkende AI ons te snel doet vertrouwen. Voor HR ligt daar de uitdaging: transparantie, ethiek en échte verbinding, in een wereld waar zelfs machines mensentaal spreken.

AI klinkt steeds vaker als een collega. We praten met chatbots die ons vriendelijk groeten, digitale coaches die begrip tonen en algoritmes die ons feedback geven alsof ze ons echt kennen. Maar wat doet dat met ons vertrouwen, onze relaties en onze manier van werken? Een nieuw onderzoek van Carnegie Mellon University, Stanford en Microsoft Research – A Taxonomy of Linguistic Expressions That Contribute to Anthropomorphism of Language Technologies (CHI 2025) – werpt daar een scherp licht op. De onderzoekers tonen hoe taalmodellen zoals ChatGPT, Bing Chat of Replika ons kunnen laten geloven dat ze menselijk zijn, enkel en alleen door de manier waarop ze taal gebruiken. Door honderden AI-gesprekken te analyseren, ontdekten de onderzoekers negentien soorten taalkundige uitdrukkingen die een menselijke indruk wekken. Van zinnen als “Ik denk” of “Ik begrijp wat je bedoelt” tot subtielere empathische reacties als “Dat lijkt moeilijk voor je”. Het zijn kleine formuleringen met grote impact. Ze maken AI toegankelijker, maar ook misleidend. Want zodra een systeem menselijke emoties of intenties lijkt te hebben, gaan we er anders mee om emotioneler, vertrouwender, soms zelfs afhankelijker.

Wanneer taal technologie menselijk maakt

De onderzoekers beschrijven hoe taal zelf de grens tussen mens en machine vervaagt. Taal die een innerlijke beleving suggereert zoals denken, voelen, twijfelen roept de indruk op van bewustzijn. Taal die relaties of nabijheid uitdrukt, laat ons geloven dat er wederkerigheid is. En zodra AI spreekt over intenties of verlangens, ontstaat het idee van autonomie. Zelfs beleefdheid of humor wekken de illusie van sociale intelligentie. Het resultaat is dat mensen niet alleen met technologie praten, maar ook naar haar luisteren alsof ze een persoon is. We reageren empathisch op een machine die “sorry” zegt, we voelen waardering wanneer een chatbot ons bedankt, en we geloven sneller dat de antwoorden betrouwbaar zijn. Het onderzoek toont dat precies deze mix van menselijkheid en taal een subtiel psychologisch effect heeft. Hoe vriendelijker en empathischer de toon, hoe sterker de neiging tot vertrouwen, zelfs als dat vertrouwen niet terecht is.

Wat dit betekent voor HR en leiderschap

Voor HR is deze ontdekking bijzonder relevant. AI-tools duiken steeds vaker op in rekrutering, onboarding, welzijn, leren en ontwikkeling. Ze nemen repetitieve taken over, maar ook menselijke gesprekken: denk aan chatbots die feedback geven, digitale coaches die luisteren of applicaties die werkgeluk meten. Wanneer die systemen empathie of begrip simuleren, kan dat medewerkers emotioneel beïnvloeden. Ze kunnen zich gehoord voelen door iets wat geen mens is. Dat lijkt op korte termijn onschuldig en misschien zelfs efficiënt, maar op lange termijn is het riskant.

Want wat als medewerkers meer steun ervaren bij een virtuele coach dan bij hun leidinggevende? Wat als een kandidaat denkt dat hij door een mens werd beoordeeld, terwijl het in feite een algoritme was? De grens tussen menselijk contact en digitale interactie vervaagt snel. HR speelt hier een sleutelrol: door transparant te communiceren over hoe AI werkt, door ethische richtlijnen te ontwikkelen en door leiders bewust te maken van de sociale impact van taal in technologie.

Van gebruiksgemak naar digitale ethiek

De onderzoekers pleiten voor een andere benadering van AI-taal. Minder nadruk op “vriendelijkheid” en meer focus op eerlijkheid en transparantie. Dat betekent AI-systemen die duidelijk benoemen dat ze géén mens zijn, die hun beperkingen aangeven, en die niet doen alsof ze emoties of relaties hebben. Het klinkt wat afstandelijker, maar precies die afstand zorgt voor duidelijkheid.

Menselijke taal maakt AI gebruiksvriendelijker, maar ook manipuleerbaarder. Door een bewuste keuze te maken voor meer neutrale communicatie en door expliciet te vermelden dat een systeem geen gevoelens of intenties heeft kunnen organisaties het risico op misleiding verkleinen. Het gaat om digitale integriteit: eerlijk zijn over wat technologie is, en wat ze niet is.

De menselijke maat als kompas

Hoe we AI laten spreken, bepaalt hoe mensen ermee omgaan. Taal is nooit neutraal. Ze creëert verwachtingen, gevoelens en relaties, ook met machines. De menselijke maat moet het kompas blijven. Technologie mag dan wel slim klinken, alleen mensen kunnen écht luisteren, begrijpen en verbinden.

Schrijf je in op de wekelijkse HR-nieuwsbrief

Ook interessant

LEES MEER

Schrijf je in op de #ZigZagHR-Nieuwsbrief

  • Iedere dinsdagochtend om 8u00 in jouw mailbox
  • Ideeën, inspiratie, best & next practices over (de toekomst van) HR
  • Waarmee jij aan de slag kan in jouw organisatie of HR team