AI in recruitment: vriend of vijand voor diversiteit?

AI in recruitment: vriend of vijand voor diversiteit?

In de recruitment wordt kunstmatige intelligentie (AI) steeds vaker gebruikt bij het werven en
selecteren van (executive) kandidaten. Uit de jaarlijkse enquête van LinkedIn blijkt dat 37% van
de organisaties AI heeft geïntegreerd of ermee experimenteert, een stijging ten opzichte van
27% van vorig jaar. De markwaarde van AI-wervingstechnologie werd vorig jaar geschat op
$662 miljoen en groeit naar verwachting door naar $1,1 miljard in 2030.

AI is de wereld van de recruitment duidelijk aan het veranderen. Maar is AI een gamechanger
als het gaat om eerlijke recruitment en het realiseren van een betere balans van vrouwen aan
de top? Of brengt het genderdiversiteit juist in gevaar en staat het een persoonlijke benadering
in de weg?

AI als vriend: de belofte van diversiteit

De droom van iedere recruiter: AI scant binnen enkele seconden duizenden Cv’s. Het is niet moeilijk voor te stellen dat vele uren werk worden bespaard, met name bij het eerste selectieproces. Behalve voor het scannen van Cv’s, zien we dat AI ook wordt ingezet ter screening, om kandidaten op vaardigheden te beoordelen. Daarbij worden AI-chatbots en automatische planningssystemen toegepast om het proces van sollicitatie te versnellen en kosten te besparen.

AI heeft de belofte om bij te dragen aan een eerlijker wervingsproces. Mensen hebben onbewuste voorkeuren als het gaat om persoonlijke kenmerken zoals naam, leeftijd, achtergrond of gender. Ja, een onbewuste bias hebben we allemaal! Als deze bias niet wordt meegenomen, dan blijft een objectieve beoordeling over waarbij kwaliteiten en skills de doorslaggevende factor zijn. Op deze manier zou ieders potentieel beter worden benut en zou AI de diversiteit binnen organisaties kunnen vergroten. Toch blijkt het behalen van deze gewenste objectiviteit de praktijk weerbarstiger en brengt het gebruik ervan ook risico’s met zich mee.

AI als vijand: voorbeelden in de praktijk

Hoewel de verwachting bestaat dat AI neutraal is, voor 31% van de HR-professionals is neutraliteit de belangrijkste reden voor het gebruik van AI, moeten we niet vergeten dat AI gebaseerd is op bestaande data. En net als mensen die de input hebben gecreëerd, kunnen deze algoritmes biased oftewel bevooroordeeld, zijn. Zo bestaat het gevaar dat (verborgen) vooroordelen in algoritmes terechtkomen, en door het zelflerend vermogen van AI zelfs worden versterkt.

In de praktijk zijn hier reeds meerdere voorbeelden van te vinden:

  1. Onderzoek toont aan dat Google-advertenties voor goed betaalde executive functies vaker aan mannen dan aan vrouwen werden laten zien.
  2. Amazon stopte met het gebruik van de AI-recruitmenttool nadat bleek dat vrouwen werden gediscrimineerd. Het systeem was getraind op tien jaar aan data, waarvan het merendeel van mannen afkomstig was, en leerde daardoor mannelijke kandidaten te bevoordelen. Het systeem strafte vervolgens cv’s af waarin het woord ´vrouw´ voorkwam.
  3. Het Engelse iTutor Group Inc., werd aangeklaagd voor het gebruik van AI-software die systematisch oudere sollicitanten afwees. Vrouwen boven de 55 en mannen boven de 60 werden uitgesloten, ongeacht hun kwalificaties.
  4. In 2020 werd een make-up artist voor MAC Cosmetics gevraagd opnieuw te solliciteren voor haar rol, nadat ze tijdens de pandemie op verlof was gestuurd. Ze werd beoordeeld via een AI-screeningsprogramma op basis van haar eerdere prestaties. Hoewel ze goed scoorde op haar vaardigheden, verloor ze haar baan doordat de AI-tool haar lichaamstaal slecht beoordeelde.

De risico´s van AI

Als bedrijven niet beseffen dat er een bias in het systeem kan kruipen, kan dit juist problemen geven als het gaat om gendergelijkheid op de arbeidsmarkt. Zo werken AI-systemen vaak op basis van keyword matching. Dat zou betekenen dat kandidaten die niet exact de ‘juiste’ woorden in hun cv gebruiken, buiten de selectie vallen, zelfs als ze wél geschikt zijn voor de functie. Daarbij rijst de vraag: wie bepaalt wat ‘de juiste’ woorden zijn?

Een bijkomend probleem is dat dergelijke AI-beslissingen van organisaties vaak niet transparant zijn. Hoe weet een kandidaat waarom hij of zij is afgewezen? Wat als alleen de eigenschappen van de huidige managers worden gemeten? Niet alleen zijn de processen van AI moeilijk te doorgronden bij automated learning (het zelflerend vermogen van AI), ook bedrijven willen hun algoritmes niet altijd openbaar maken.

Zo spreekt hoogleraar informatica Felienne Hermans zich uit tegen de masculiene technische cultuur, die zich verschuilt achter de complexiteit van AI. Algoritmes en programmeertalen zijn ingewikkeld, zodat niet altijd kan worden doorgrond wat er aan de achterkant gebeurt, terwijl dit wel grootschalige gevolgen kan hebben als niet alleen bedrijven, maar ook overheden of zorginstanties hier grootschalig mee aan de slag gaan.

Het gebrek aan menselijke interactie bij het gebruik van AI roept vragen op over de gevolgen. Hoe goed is AI in het lezen van soft skills, leiderschapsstijl, motivatie en persoonlijke waarden die al dan niet passen bij een bepaalde bedrijfscultuur? Vooral op een later punt in het selectieproces kunnen deze eigenschappen van een kandidaat de doorslag geven. Recruitment is, in onze ervaring, meer dan het afvinken van een checklist. Sterker nog, deze eigenschappen zijn vaak bepalend als het gaat om een succesvolle plaatsing voor de lange termijn.

Werving en selectie met gelijke kansen: met of zonder AI

Om discriminatie te voorkomen is het belangrijk dat organisaties bewust zijn van een mogelijke bias binnen de algoritmes. Voor een inclusieve inzet van AI geven experts in een onderzoek van Woman Inc. aan dat het van belang is dat er ook diversiteit is binnen het team dat algoritmes ontwikkelt (ja, ook hier blijken diverse team sterker!). Daarnaast is transparantie in AI-beslissingen cruciaal om eerlijke kansen voor alle kandidaten te waarborgen.

Indien AI de belofte van een gelijkwaardige selectie en werving, zonder (versterkte) bias, kan waarmaken is dit een waardevolle stap voor de toekomst van de recruitment. AI zou al dan niet als hulpmiddel ingezet kunnen worden, bij Femme Works staan we hier zeker voor open, mits het de persoonlijke aanpak niet in de weg staat om kandidaten op de juiste plek te krijgen.

Ons streven blijft een wervings- en selectieproces waarbij iedereen gelijke kansen krijgt, wat uiteindelijk leidt tot een meer evenwichtige (gender)diversiteit in de top van bedrijven. Met of zonder AI.


Meer weten? Lees hier meer over onze Femme Network scan. Neem contact met ons op voor een vrijblijvend gesprek.

Klik hier om Femme Works te volgen op LinkedIn.