Is het toepassen van AI in HR wel een goed idee?

Steeds vaker worden selectieprocedures, retentie-analyses en zelfs stressmonitoring geautomatiseerd. Blijkbaar heeft HR artificiële intelligentie (AI) nu volop ontdekt. Maar gaat HR daar ook verstandig mee om? We vroegen het aan dé expert ter zake: Mieke De Ketelaere, programmadirecteur AI bij onderzoekscentrum imec.

Het inzetten van artificiële intelligentie (AI) om werkzoekenden sneller aan een gepast jobaanbod te koppelen, gaf onlangs nog aanleiding tot een parlementaire vraag aan Vlaams minister van Werk Hilde Crevits. Sihame El Kaouakibi (Open VLD) opperde plenair haar bezorgdheid: “Als artificiële intelligentie mensen kan helpen om gezondheidsproblemen sneller op te lossen, of als dat mensen sneller aan een geschikte job kan helpen, dan is dat wenselijk. Als AI daarentegen verschillen uitvergroot, ongelijkheid bestendigt of zelfs mensen uitsluit, dan is dat allesbehalve menselijk. Volgens mij is dat zowat het thema van 2020, als het gaat over de digitale evolutie: ethiek.”

Laten we haar ongerustheid veralgemenen: is het toepassen van AI in HR een barslecht idee? “Je mag AI niet inzetten in gebieden waarvoor het nog niet klaar is”, poneert Mieke De Ketelaere. Afkomstig van een absolute ‘believer’ in AI is zo’n waarschuwing op zijn zachtst gezegd opmerkelijk. De verantwoordelijke voor AI-ontwikkeling bij imec zet dan ook eerst uiteen wat AI momenteel wel kan én wat (nog) niet, zodat we een duidelijk beeld krijgen hoe het vandaag in HR al kan meedraaien – of niet.

Noodzaak 1: fouten vermijden

“Vandaag is AI al bijzonder waardevol om snel zaken te herkennen”, legt De Ketelaere uit. “Een dokter doet ervaring op door veel patiënten te zien, maar dat vergt uiteraard tijd. AI kan meteen duizenden en zelfs miljoenen gevallen zien wanneer de data voorradig zijn. Daardoor kan het onmiddellijk een ziektebeeld herkennen. Het is dus veel accurater en sneller in het vaststellen van een bepaalde ziekte. Dat is sterk, maar eigenlijk is dat gewoon iets capteren en herkennen. Redeneervermogen heeft AI echter nog niet. AI kan wel leren, maar niet redeneren. Het zit dus nog maar op het niveau van een tweejarig kind. Om AI nu al te kunnen inzetten op zowat alle zaken, zouden we als het ware de hele complexe wereld in die algoritmes moeten plaatsen, wat onbegonnen werk is. Een AI-systeem past zich immers nog niet aan: als de context verandert, moet je het systeem nog zelf aanpassen.”
Die tekortkomingen kunnen zware gevolgen hebben, zeker in het HR-domein. “Sommige bedrijven hebben hun selectieproces al grotendeels geautomatiseerd, maar daarmee begeven ze zich op hachelijk terrein”, aldus De Ketelaere. “Die systemen baseren zich doorgaans op het cv, maar dan kan er veel verkeerd gaan. Een voorbeeld: een Belgisch bedrijf liet in Polen een selectiesysteem bouwen dat zich onder andere baseerde op IP-adressen van vroegere sollicitanten. Kandidaten uit Brasschaat bleken veel vaker geselecteerd te worden dan mensen uit Schaarbeek, wat mee opgenomen werd in het systeem. De Poolse data scientists gingen er immers mee aan de slag zonder de Belgische vooroordelen te kennen tegenover die woonplaatsen.”
Dergelijke gebreken kunnen op tal van vlakken ontstaan. Denk maar aan gender, huidskleur, leeftijd,… “Je denkt ‘bias’ juist uit te sluiten omdat je automatiseert en er dus geen menselijke scheeftrekking kan gebeuren, maar je houdt er geen rekening mee dat bepaalde vooroordelen wel al in je materiaal zitten, soms heel subtiel. Je kan vooroordelen zelfs versterken omdat ze vastgebeiteld worden in het algoritme. Er is een pijnlijke case in een zeer grote onderneming die een selectiesysteem geïnstalleerd had waardoor er maandenlang geen enkele vrouw aangeworven werd voor bepaalde functies en promoties. Als zo’n fout zich voordoet in een productieproces, gaat er al vrij vroeg een alarm af omdat je producten afwijken van de gewenste norm. Dat kan je rechtzetten door de foute waren eruit te halen en de machine beter te programmeren. Als het over mensen gaat, kan je dat echter niet rechtzetten. Die kandidaten hebben de job of promotie niet gekregen en niemand denkt eraan de abusievelijk afgewezen kandidaten te contacteren.”

Noodzaak 2: voldoende experts inschakelen

We mogen de schuld niet zomaar in de schoenen van de data scientist schuiven. “Vaak weet de data scientist wel dat zijn systeem nog niet klaar is voor gebruik, maar de business vindt een relatief kleine foutenmarge meestal geen probleem”, constateert De Ketelaere.

Als het systeem vervaardigd is in het buitenland, zijn de risico’s nog groter. “De business denkt aan een gemakkelijke kostenbesparing, kiest de goedkoopste oplossing en wil het zonder verder overleg implementeren, maar dat kan averechts uitdraaien. Nu ja, dat ‘importprobleem’ kan opgelost worden door een beroep te doen op een AI-vertaler. Dat wordt een veelgevraagde job in de nabije toekomst. Hij of zij zal overigens niet alleen die contextperikelen moeten oplossen, het is in de eerste plaats de persoon die de vraag van de business ‘vertaalt’ naar AI. Hij of zij zoekt uit hoe AI een bepaald probleem, proces of propositie kan aanpakken.”

Wie AI wil inzetten, zal sowieso meer profielen nodig hebben dan alleen een data scientist.

De Ketelaere vergelijkt het met een restaurant: “Je beslist welk type restaurant je wil, koopt de ingrediënten en werft een kok aan. Dat is je data scientist die aan de slag gaat met je data. Maar wie doet het voorbereidende werk? Je vraagt Sergio Herman toch ook niet om de wortelen te snijden? Je hebt dus ook een data engineer nodig. Dan is er nog het zaalpersoneel, dat niet alleen opdient, maar ook de opmerkingen krijgt van de klanten. Dat is je deployment manager, die ook de feedback zal doorgeven. Een AI-systeem kan je niet aan één persoon toevertrouwen.”

Noodzaak 3: transparantie

De fouten zijn niet het enige pijnpunt dat het wantrouwen tegenover AI aanwakkert, ook de gesloten sfeer errond kan de acceptatie belemmeren. “Zonder ‘user acceptance’ kan technologie ernstige schade toebrengen aan je merk”, stipt De Ketelaere aan.

“Kortom, je hebt communicatie en transparantie eromheen nodig. Maak duidelijk hoe een beslissing genomen werd, anders krijg je het ‘computer says no’-effect, de indruk dat de computer over jou beslist en jij buitenspel gezet wordt.”

Transparantie is ook nodig om misverstanden te voorkomen over jobs die voor de AI-hakbijl dreigen te gaan. “Vroegere industriële revoluties hebben handwerk verlicht, verbeterd of overgenomen. De AI-revolutie neemt een deel van het denkwerk over of verbetert het. Dat is nieuw in de geschiedenis en zorgt voor angst”, beseft De Ketelaere. “We werken dus aan ‘augmented intelligence’, maar daar is openheid over nodig.

AI zal zeker tal van DDD-jobs (‘Dull, Dirty and Dangerous’) overbodig maken.

Zodra redeneervermogen, creativiteit en empathie vereist zijn, hoef je evenwel geen schrik te hebben van AI. Integendeel, AI zal je ondersteunen en jij zal meer tijd krijgen voor de creatieve aspecten van de job.”

Dat neemt de angst voor een ‘fout’ gebruik niet noodzakelijk weg. “Elke technologie kan destructief worden in verkeerde handen, maar dat is niet de reden waarom het ontworpen wordt. Denk maar aan xenobots, biologische robots, gekweekt uit stamcellen van de Afrikaanse klauwkikker, niet eens een millimeter groot, die in een menselijk lichaam ingebracht kunnen worden om ziekten te bestrijden. Je mag er niet aan denken dat zo’n ontwerp verkeerd ingezet wordt”, reageert De Ketelaere.

Wij huldigen alvast het FATE-principe: Fair, Accountable, Transparant en Explainable.

Alweer gaat het om transparantie en uitleg. Jammer genoeg ontbreekt de bijsluiter nog wel eens en zonder die duidelijkheid zaai je wantrouwen…”

Noodzaak 4: menselijke interventie

Na al die toelichtingen willen we concluderen dat het nog te vroeg is om AI in te zetten in HR, het risico op onherstelbare fouten is gewoon te groot. “Neen, je kan AI wel al gebruiken in HR, maar dan als hulpmiddel of in gebieden waar er geen grove fouten gemaakt kunnen worden, zoals stressmonitoring”, weerlegt De Ketelaere.

Laat AI niet los op selectie en promotie, wel op preventie en welzijn. Via stressmonitoring kan je absenteïsme en burn-out voorkomen. Daar is iedereen bij gebaat, zowel het bedrijf als de medewerker en de samenleving.

Als ondersteuning van HR-beslissingen kan het ook aangewend worden, maar dan alleen als hulp: “De beslissing moet door de mens gemaakt worden. Vooraleer je een systeem implementeert, maak je best een simulatie en heb je beslist een test nodig. Daarbij zet je best een multidisciplinair team in dat de resultaten zeer kritisch onder de loep schuift. Je hebt trouwens altijd meer aan multidisciplinair overleg, zeker voor selectie en promotie. Het kan ook niet de bedoeling zijn je achter AI te verschuilen bij het nemen van beslissingen.”

Selecteren op basis van AI vindt Mieke De Ketelaere sowieso al een slecht idee: “Als je klaar wil zijn voor de toekomst, baseer je je selectie toch niet op profielen en patronen uit het verleden? Als je medewerkers zoekt die change kunnen brengen, moet je al helemaal niet selecteren met AI.”

Voor het besluit keren we terug naar de parlementaire vraag, waarbij we deze keer citeren uit het antwoord van minister Hilde Crevits: “Als je gebruikmaakt van artificiële intelligentie, dan vraagt dat een heel zorgzame ethische reflex, niet alleen als het gaat over jobsuggesties, maar ook over zelfrijdende auto’s enzovoort. Je kunt duizend-en-één situaties bedenken waar dit echt een issue is. Dat is de reden waarom we een paar maanden geleden het Kenniscentrum Ethiek en Artificiële Intelligentie geopend hebben. Ik ben daar heel blij mee. Alle kennisinstellingen werken daar ook aan mee.”

Schrijf je in op de wekelijkse HR-nieuwsbrief

Ook interessant

LEES MEER