AI in Recruitment: 44% denkt dat AI vooroordelen kan hebben

Gepubliceerd op 20-2-2020 door Quirine Storm van Leeuwen

AI in recruitment

Eind 2019 stond het aantal openstaande vacatures in ons land op 316 duizend en werden er 312 duizend banen vervuld (cijfers van CBS). Een gemiddelde vacature trekt rond de 36 sollicitanten daarmee hebben Nederlandse recruiters dus meer dan 11 miljoen cv’s ontvangen.

Het handmatig doornemen van al die cv’s, het organiseren van interviews en het selecteren van de juiste kandidaten, is een tijdrovend proces. HR-professionals maken daarom steeds vaker gebruik van kunstmatige intelligentie (AI) om repetitieve taken te automatiseren, de beste kandidaten te vinden en het aantal ‘bad hires’ te reduceren. 88% van de grote bedrijven wereldwijd heeft AI al op de een of andere manier gebruikt voor HR.

AI in recruitment

AI-systemen kunnen voorspellen wie er op zoek gaat naar een baan voordat iemand officieel begonnen is met zoeken. AI kan automatisch cv’s en motivatiebrieven scannen op zoekwoorden of taalgebruik en zo de meest geschikte kandidaten voorselecteren. AI-robots kunnen sollicitatiegesprekken voeren en beoordelen of kandidaten niet alleen over de juiste vaardigheden beschikken, maar ook over de juiste persoonlijkheid.

Nu AI steeds vaker de behoeftes van recruiters bedient, is het goed om stil te staan bij de maatschappelijke acceptatie van AI bij recruitment. Wat vinden Nederlanders eigenlijk van de algoritmisering van de recruitmentwereld? Vinden zij het eerlijk om door een machine beoordeeld te worden? Wat wordt wel en niet geaccepteerd? Capterra deed hier onderzoek naar. De resultaten van het onderzoek bieden bedrijven en HR-professionals die van plan zijn om AI toe te gaan passen inzicht in de houding en de verwachtingen van de maatschappij hierover. Dit zijn de belangrijkste resultaten van het onderzoek:

  • Slechts 21% van de respondenten weet echt wat AI is.
  • 49% denkt dat de inzet van AI bij recruitment het selectieproces (iets) eerlijker maakt omdat het minder beïnvloed is door onbewuste vooroordelen van een recruiter.
  • 44% denkt dat AI bevooroordeeld kan zijn.
  • 81% wil na afwijzing voor een sollicitatie de mogelijkheid hebben de conclusies van het algoritme te verifiëren.

Gebrek aan kennis over AI

Ongeveer een op de drie Nederlanders weet niets of niet veel van AI af. 43% van de mensen weet een beetje hoe AI werkt en dat het iets te maken heeft met ingewikkelde algoritmes, maar hoe AI-technologie precies werkt is voor de meesten nog een raadsel.

Wat is AI?

Een uitleg is dus op zijn plaats. Er zijn twee soorten AI-technologie die bij werving en selectie gebruikt worden:

  • Rule-based AI
  • Machine learning AI

Een computersysteem dat kunstmatige intelligentie (AI) bereikt met geprogrammeerde regels wordt een rule-based systeem genoemd. Een computersysteem dat AI bereikt met machine learning heet een zelflerend systeem.

Rule-based AI

Het rule-based systeem is de simpelste vorm van kunstmatige intelligentie. Het is gebaseerd op geprogrammeerde ‘als dit, dan dat’-basisregels en mathematische formules. Het systeem voert alleen de regels uit die door een mens zijn geprogrammeerd en leert dus niet zelf: het gaat om simulatie van intelligentie. Het systeem is beperkt tot de kennis die in de code staat.

Bij recruitment wordt rule-based AI toegepast in de preselectiefase. Een voorbeeld van een regel kan zijn: als een kandidaat ervaring met CAD-software heeft, dan gaat deze door. Een voorbeeld van een mathematisch model kan zijn: succesvolle kandidaat = x kenmerk + x vaardigheid + x kennis. Op deze manier kunnen duizenden cv’s en motivatiebrieven door het systeem worden gehaald en rolt er automatisch een resultaat uit met de meest geschikte kandidaten om te interviewen. Voor recruiters is deze software met slimme regels een uitkomst. Het bespaart hen tijd en automatiseert repetitieve taken.

Wat vinden sollicitanten ervan om op deze manier voorgeselecteerd te worden?

preselectie met AI tools

Bijna een derde van de respondenten denkt dat AI het preselectieproces eerlijker maakt. Als de preselectie met een rule-based systeem wordt gedaan en dus gebaseerd is op geprogrammeerde regels, is het systeem zo objectief en eerlijk als de regels die de programmeur heeft ingevoerd. Die regels zijn bovendien zichtbaar in de programmeercode en dus redelijk transparant, controleerbaar en aanpasbaar. Je kunt er dan van uitgaan dat het AI-systeem in dit geval geen voorkeur geeft of discrimineert tenzij de recruiter regels heeft geïntroduceerd die betrekking hebben op leeftijd, afkomst, handicap, geslacht, godsdienst, nationaliteit of seksuele voorkeur.

Er bestaan ook machine learning cv-screeningtools. In dat geval worden de geprogrammeerde regels gecombineerd met zelflerende regels met betrekking tot kenmerken van eerdere succevolle kandidaten.

Bijna de helft (43%) van de respondenten is bezorgd over de eerlijkheid van het gebruik van AI in de preselectiefase. Daarom zegt 68% ook dat ze het wel goed vinden als de voorselectie met AI wordt gedaan zolang de resultaten maar worden herzien door een recruiter ter controle van de conclusies en om eerlijkheid te garanderen.

Machine Learning AI

Het zelflerende systeem ofwel Machine Learning (ML) in het Engels is de andere AI-technologie die veel binnen recruitment wordt ingezet. In tegenstelling tot een rule-based systeem, worden de regels en formules die het machine learning systeem toepast niet door een mens ingevoerd of aangepast. Dit systeem leert zelf patronen en verwantschappen ontdekken voor succesvolle kandidaten. Een mens voert hier alleen data in en geeft aan welke data uit het verleden succesvol en onsuccesvol is. Er worden geen regels opgesteld of geprogrammeerd, dat doet de ‘machine’ zelf.

Machine learning wordt bijvoorbeeld ingezet bij chatbots die online vragen van sollicitanten beantwoorden, robots die sollicitatiegesprekken afnemen en het analyseren van video sollicitatiegesprekken.

chatbot cv's screenen

Chatbots worden door de meeste mensen al geaccepteerd en zelfs positief gewaardeerd (27%). Voorbeelden van AI aangedreven chatbots voor recruitment zijn de open source tool Olivia of Whaii. Deze chatbots kunnen bijvoorbeeld sollicitatiegesprekken inplannen, simpele vragen beantwoorden over de cultuur binnen een bedrijf, salaris of werkomgeving.

Een sollicitatierobot werkt weer anders. Het Zweedse wervingsbureau TNG maakt bijvoorbeeld gebruik van de Tengai unbiased-robot om sollicitatiegesprekken af te nemen en gebruikt daarvoor een robot in plaats van een menselijke recruiter. De robot werkt een vragenlijst af en analyseert de kandidaat zonder te letten op achtergrond, etniciteit of persoonlijke voorkeur.

Wat vinden potentiële sollicitanten van een robotrecruiter? 46% van de respondenten zou het niet leuk vinden als een robot het gesprek voert, maar een derde vindt het best, zolang er daarna een gesprek met een recruiter volgt.

AI in voorselectie van sollicitanten

AI voor het analyseren van social media, lichaamstaal en taalgebruik

Een andere vorm van AI in recruitment is analyse van online activiteiten van kandidaten op social media. Tech bedrijven zoals Deepsense bijvoorbeeld bieden de mogelijkheid een rapport op te stellen over “role fit” gebaseerd op analyse van online-activiteiten. Hierbij kijken ze naar leervermogen, stabiliteit, houding, autonomie, teamwerk, enzovoort. De software kent vervolgens een persoonlijkheidsscore toe gebaseerd op DISC-profielen en de Big Five (OCEAN) persoonlijkheidsanalyse. Deze scores worden vervolgens gemeten door deze te vergelijken met kenmerken van succesvolle kandidaten uit het verleden om zo tot best-fit aanbevelingen te komen.

Ook AI-analyse van lichaamstaal, gezichtsuitdrukking en taalgebruik worden al toegepast. Zo gebruikt Unilever bijvoorbeeld de software van HireVue om interviews af te nemen. De technologie analyseert naast lichaamstaal ook intonatie en gezichtsuitdrukkingen. Voor de analyse van taalgebruik gebruiken bedrijven als L’Oréal en Coca Cola bijvoorbeeld de software van Seedlink. Hun systeem analyseert onbewuste patronen in het taalgebruik van kandidaten voor snellere, nauwkeurigere HR-beslissingen.

analyseren door AI van gezichtsuitdrukking en taalgebruik

Ook al worden bovenstaande recruitmenttechnieken al toegepast, het publiek blijft huiverig. Uit het onderzoek blijkt dat de meeste mensen dit soort analyses ongepast vinden of met moeite accepteren. Het is begrijpelijk dat er bij deze vergaande vormen van AI-analyse zorgen ontstaan over bijvoorbeeld privacy van verkregen gegevens, over vrijheid van meningsuiting en discriminatie.

Ethiek van AI

Om mensenrechten concreet te beschermen bestaan er verschillende wetten zoals de AVG voor bescherming van persoonsgegevens, de Algemene Wet Gelijke Behandeling (AWGB) en de Wet Gelijke Behandeling van Mannen en Vrouwen. Ook AI-oplossingen moeten aan deze wetgeving voldoen, maar door het gebrek aan transparantie in de gebruikte algoritmes is naleving moeilijk te controleren. Zo kan het verbod op discriminatie bijvoorbeeld geschonden worden door bias in de onderliggende data of bias in het algoritme, zonder dat recruiters zich daar bewust van zijn. Hierdoor kan er bijvoorbeeld ongerechtvaardigd onderscheid worden gemaakt tussen mannen en vrouwen.

Bias in AI

Een veelgestelde vraag is daarom of een zelflerend systeem eerlijker is dan een menselijke recruiter. In het geval van machine learning is deze vraag moeilijk te beantwoorden omdat er veel minder zichtbaarheid is op de formules die het systeem toepast dan bij een rule-based systeem. Wat denken sollicitanten hierover? Is een zelflerend systeem eerlijker dan een menselijke recruiter?

Bias in AI werving en selectie

Het feit dat veel mensen niet precies weten hoe AI werkt en omdat zelflerende AI-systemen ook weinig transparant zijn, verklaart hoogstwaarschijnlijk waarom 41% van de respondenten niet weet of het gebruik van AI in wervings- en selectieprocessen eerlijker is dan traditionele werving. Mislukte testen met AI in recruitment van ‘early adopters’ zoals Amazon hebben ook niet bijgedragen aan het vertrouwen in de technologie. Van fouten is er echter wel geleerd. Nu weten we namelijk dat data niet vrij is van menselijke invloed en op veel manieren ‘biased’ kan zijn. Als deze ‘biased’ data als trainingsdata voor een Machine Learning systeem wordt gebruik, kan dit wel degelijk leiden tot discriminatie.

Bijna de helft van de respondenten denkt dan ook dat AI bevooroordeeld kan zijn. 32% denkt dat niet.

Transparantie van algoritmes

Om bias te voorkomen wordt er nu wel steeds beter gekeken naar de werking van AI en komen er langzaam oplossingen op de markt die bias in AI proberen te voorkomen. Voorbeelden daarvan zijn Explainable AI en Interpretable Machine Learning, tools die nagaan in hoeverre de machinebeslissingen bepaald zijn door vooroordelen en systemen die de redenering van de computer inzichtelijk maken en aangeven welke factoren de beslissing positief of negatief hebben beïnvloed.

Dankzij deze tools wordt de werking van AI een stuk transparanter zodat het proces ook voor kandidaten inzichtelijker gemaakt kan worden. En dat is belangrijk voor het vertrouwen in AI en de naleving van regelgeving. Transparantie is de basis van vertrouwen. Uit de resultaten van het onderzoek blijkt dat ook heel duidelijk: 81% van de respondenten wil de mogelijkheid hebben om achteraf inzicht te krijgen in de conclusies die door een AI-systeem zijn getrokken. Hoe transparanter het proces, hoe eerlijker de selectieprocedure wordt ervaren.

Als de ethische kant van de inzet van AI bij recruitment in orde is, kunnen dit soort toepassingen een enorme aanvulling en wellicht besparing van het recruitmentproces betekenen.

Heb jij ervaring met een AI-recruitmentproces als kandidaat of als recruiter? Laat het ons weten in de opmerkingen!

Ben je op zoek naar sollicitatietest software, gamification software, ATS-systeem, Chatbot software of AI-software voor je HR-afdeling? Kijk dan op Capterra. Je vindt er een uitgebreid aanbod aan softwareoplossingen om de geschiktheid en het karakter van een kandidaat te meten voordat je gesprekken gaat voeren of de kandidaat in dienst neemt. 

Methodologie van het onderzoek:

Capterra voerde deze online-enquête uit in de maand februari 2020 onder 412 full-time of part-time werkzame Nederlanders tussen de 18 en 65 jaar met op z’n minst enige kennis van AI. De resultaten zijn representatief voor het onderzoek, maar niet noodzakelijkerwijs voor de Nederlandse bevolking als geheel.

In dit artikel wordt er mogelijk naar producten, programma’s of diensten verwezen die niet in uw land beschikbaar zijn, of die misschien niet voldoen aan de wet- of regelgeving van uw land. Wij raden u aan om de softwareleverancier rechtstreeks te benaderen voor informatie over de beschikbaarheid van de producten en overeenstemming met lokale wetgeving.