AI-tools zoals ChatGPT zijn razendsnel ingeburgerd. Ze schrijven mee aan teksten, geven adviezen en structureren informatie op een manier die voorheen uren denkwerk vroeg. Het voelt efficiënt, en vaak ook slim. Maar wat gebeurt er als we dit soort taken systematisch uitbesteden? Onderzoekers van het MIT Media Lab en enkele partnerinstellingen stelden precies die vraag. Hun antwoord is ontnuchterend: AI kan ons inderdaad sneller laten werken, maar tegelijk zorgt ze voor een sluimerende verzwakking van onze eigen denkcapaciteit. De onderzoekers spreken in dit verband van cognitieve schuld: een mentale kostprijs die we pas later betalen.
Het onderzoek: AI als denkmachine of denkprothese?
Om dat effect te onderzoeken, werden 54 studenten verdeeld over drie groepen. Een eerste groep schreef essays volledig zelf, een tweede groep mocht enkel klassieke zoekmachines gebruiken, en een derde groep moest werken met ChatGPT. Tijdens het schrijven droegen de deelnemers een EEG-headset, een apparaat dat hersenactiviteit meet via kleine elektroden op de schedel. Zo konden de onderzoekers zien welke netwerken in de hersenen actief waren, en hoeveel cognitieve inspanning geleverd werd. De geschreven essays werden daarna ook taalkundig geanalyseerd en beoordeeld door leerkrachten en een speciaal getrainde AI-jury. Na drie sessies draaide men de rollen om: studenten die altijd met ChatGPT hadden gewerkt, moesten plots zonder hulpmiddelen schrijven, en omgekeerd. Die vierde sessie was cruciaal om te begrijpen wat langdurig AI-gebruik doet met het brein.
De resultaten spraken boekdelen! Studenten die zonder hulpmiddelen schreven, vertoonden de sterkste en breedste hersenactiviteit. Hun brein was vol aan het werk: ideeën ordenen, argumenten structureren, details onthouden. De zoekmachinegroep zat daar tussenin: nog steeds actief, maar met een deel van de last verplaatst naar het zoeken en scannen van informatie. De ChatGPT-groep liet de laagste mate van neurale betrokkenheid zien. Zij produceerden teksten die er op papier goed uitzagen, maar die opvallend homogeen waren en waarvan ze achteraf nauwelijks iets konden citeren. Toen deze studenten in de vierde sessie plots zonder ChatGPT moesten werken, viel hun eigen denkspier terug: de hersenactiviteit zakte verder en de teksten waren magerder.
Omgekeerd gebeurde iets opvallends bij de studenten die eerst zonder hulpmiddelen hadden gewerkt. Wanneer zij daarna ChatGPT mochten gebruiken, bleven hun hersenen volop actief. Ze zetten de AI in als aanvulling op hun eigen denkproces, niet als vervanging. Voor hen werkte AI als een versneller, terwijl het bij anderen meer de rol van een denkprothese kreeg, vergelijkbaar met een kunstmatig hulpmiddel dat een lichaamsdeel vervangt: efficiënt en functioneel, maar op termijn met het risico dat de eigen spierkracht afneemt omdat ze minder wordt gebruikt.
Wat leren we uit deze cognitieve schuld?
Het concept cognitieve schuld wordt hier tastbaar. Net zoals financiële schuld betekent dit dat je op korte termijn leent (in dit geval denkvermogen van de AI) en dat je later de prijs betaalt in de vorm van verzwakt geheugen, minder creativiteit en een lager vermogen om zelfstandig kritisch te denken. De winst in efficiëntie is dus reëel, maar ze gaat ten koste van de opbouw van blijvende kennis en vaardigheden.
Voor onderzoekers is dit een sterk signaal dat de impact van AI-gebruik verder reikt dan productiviteit: het gaat over hoe mensen informatie verwerken en verankeren in hun brein. Het biedt ook een waardevolle lens om kritisch te kijken naar het dagelijks gebruik van AI in cognitief veeleisende taken.
Wat als we dit doortrekken naar HR…
Stel dat een recruiter ChatGPT standaard vacatureteksten laat genereren. Korte termijn: snel, professioneel, consistent. Lange termijn: minder gevoel voor nuance in toon en inhoud, en minder vaardigheid om creatief de eigenheid van de organisatie te vangen. De denkoefening die normaal bij schrijven hoort, verdwijnt, en daarmee ook een deel van de expertise.
Of denk aan performance management. Wanneer AI evaluatierapporten produceert, is de tijdswinst groot. Maar tegelijk kan het gevoel van eigenaarschap verminderen: de rapporten voelen minder eigen en in gesprekken met leidinggevenden of medewerkers wordt het moeilijker om de onderliggende redenering te verdedigen.
Ook bij strategische HR-analyses speelt hetzelfde risico. AI kan dashboards genereren die verloop of engagement in mooie grafieken gieten. Maar wie zich systematisch verlaat op die output, traint minder in het zelf zoeken naar patronen, oorzaken en alternatieve verklaringen. De denkspier lijkt in vorm, maar werkt eigenlijk op krediet.
Balans tussen versneller en prothese
De les die uit dit onderzoek naar voren komt? Dat AI een versneller kan zijn wanneer ze ons eigen denkwerk aanvult. Maar dat ze een prothese wordt wanneer ze het denkwerk vervangt. In het eerste geval blijft de hersenactiviteit hoog en worden geheugen en eigenaarschap verankerd. In het tweede geval stapelt de cognitieve schuld zich op: de output ziet er goed uit, maar de onderliggende denkcapaciteit brokkelt af.
Voor professionals, en zeker voor HR, betekent dit dat de vraag niet is óf AI gebruikt moet worden, maar hóe. Tools zoals ChatGPT kunnen enorm nuttig zijn wanneer ze routinetaken verlichten, op voorwaarde dat er ruimte blijft om zelf te analyseren, te interpreteren en te formuleren. Net zoals de studenten die eerst zonder AI leerden schrijven en daarna pas AI inzetten sterker bleven presteren, zo geldt dat ook in HR en andere werkvelden: kritisch blijven oefenen is de enige manier om te voorkomen dat AI de denkspier verzwakt in plaats van versterkt.
Belangrijke kanttekening
Het is belangrijk om te benadrukken dat dit onderzoek uitgevoerd werd bij een specifieke populatie: studenten van 18 tot 39 jaar, verbonden aan universiteiten in de Boston-regio. Het was bovendien een relatief kleine steekproef (54 deelnemers). De resultaten zijn dus interessant als signaal, maar niet representatief voor de hele bevolking, en al zeker niet rechtstreeks overdraagbaar naar werkvelden zoals HR. Wel bieden ze een belangrijk theoretisch kader om vragen te stellen en kritisch te kijken naar AI-gebruik in cognitief veeleisende taken.
Volgende stappen?
De studie roept bij mij vooral heel veel (nieuwe) vragen op die relevant zijn voor zowel wetenschap als praktijk. Hoe kunnen we cognitieve schuld meten bij professionals die dagelijks met AI werken? Welke taken lenen zich wel voor cognitieve uitbesteding, en welke niet? Hoe kunnen we opleidings- en ontwikkelprogramma’s in HR zo inrichten dat AI een aanvulling blijft en geen vervanging wordt? En misschien de meest urgente: welke signalen wijzen erop dat een team of een professional al te afhankelijk is geworden van AI, met verlies van kritisch vermogen tot gevolg? Het zijn vragen die volgens mij wel dringend gesteld moeten worden. Want als we niet alleen sneller, maar ook sterker willen denken, moeten we goed opletten hoeveel krediet we onze denkspier eigenlijk toestaan.





