Nieuws


11 januari 2022

Werkgever kan zich niet verschuilen achter algoritme bij discriminatie in sollicitaties


Het College voor de Rechten van de Mens waarschuwt voor de gevaren van zelflerende algoritmes bij werving en selectie. Recruitmentexpert Bas van de Haterd: “Als dit nieuws voor je is, vraag dan hulp van een expert.”

Categorie: Assessments & Matching, HRTech selecteren
Geschreven door: HRTech Redactie

Werkgever kan zich niet verschuilen achter algoritme bij discriminatie in sollicitaties

Wervings- en selectieprocedures met algoritmes moeten inzichtelijk, controleerbaar en systematisch zijn. Zelflerende algoritmes kunnen namelijk ook discrimineren. En als ze dat doen, overtreden werkgevers de wet. Ze kunnen de verantwoordelijkheid dus niet afschuiven op het algoritme of de softwareleverancier, blijkt uit een publicatie van het College voor de Rechten van de Mens.

In deze publicatie staan aandachtspunten voor werkgevers om discriminatie door algoritmes bij werving en selectie te voorkomen. In het gelijkebehandelingsrecht telt het discriminerende effect. Dat betekent dat het niet uitmaakt of de werkgever opzettelijk discrimineert of niet. Bovendien maakt het niet uit of een hr-medewerker discrimineert of een computer: de werkgever is altijd verantwoordelijk.

Als je hier bewust mee omgaat, en de juiste tools kiest, kan de software juist helpen om discriminatie tegen te gaan. De blik van de computer naar kandidaten is veel breder - in de organisatie en daarbuiten - dan die van een mens ooit zal kunnen zijn. Die brede blik kan nieuwe verbanden leggen op basis van inhoud, los van leeftijd, geslacht, huidskleur enzovoort. Lees daarover het artikel DEI, over tooling en Diversiteit, Gelijkheid en Inclusiviteit.

Weet hoe het werkt

Daarom moeten werkgevers zorgen dat het systeem inzichtelijk en controleerbaar is, zodat ze het altijd kunnen verantwoorden. Ze moeten sollicitanten vooraf kunnen vertellen hoe de procedure verloopt, wat de selectiecriteria zijn en waarom sommige mensen worden afgewezen.

Een logische aanbeveling, vindt recruitmentexpert Bas van de Haterd. “Wie een algoritme gebruikt voor werving en selectie, moet weten hoe het werkt”, zegt hij.

‘Zoek hulp als je wilt dat het klopt’

Dat kan best ingewikkeld zijn voor een werkgever. Ten eerste moet hij iets afweten van het systeem, ten tweede van de wet- en regelgeving. Niet al het onderscheid is namelijk verboden. Direct onderscheid door leeftijd is bijvoorbeeld toegestaan als er een goede reden voor is. Maar om die reden te kunnen aanvoeren, is het noodzakelijk dat de werkgever weet hoe het algoritme precies werkt.

“Als dit rapport nieuws voor je is, zoek dan hulp”, zegt Van de Haterd. “Voor juridisch advies ga je naar je advocaat, voor fiscale zaken naar je boekhouder. Ook HRTech is een vak apart. Als je wilt dat je werkwijze klopt, huur dan een onafhankelijk expert in.”

Domme versus zelflerende algoritmes

Hij benadrukt dat het gevaar schuilt in zelflerende systemen, niet in alle algoritmes. De meeste systemen zijn namelijk ‘dom’: ze worden één keer geprogrammeerd door een mens en voeren de instructies vervolgens altijd uit zoals ze is opgedragen. Omdat de regels door een mens zijn ingevoerd, zijn ze in principe altijd uitlegbaar. Of ze ook verdedigbaar zijn is een tweede, maar ook dit is rechtstreeks het gevolg van invoer van de mens.

Het wordt ingewikkeld bij algoritmes die zijn gebouwd met machine learning en zelflerende systemen, legt Van de Haterd uit. “In het eerste geval is het algoritme ontworpen door een systeem. Je moet dus weten wat de machine het systeem geleerd heeft. In het tweede geval verandert het algoritme in de loop der tijd, het leert zelf. De oplossing bij zulke zelflerende systemen is explainable AI.”

Uitlegbare AI versus black box

‘Explainable AI’ wordt in het Nederlands ‘verklaarbare AI’ of ‘uitlegbare kunstmatige intelligentie’ genoemd. Het betekent dat de beslissingen van algoritmes transparant worden gemaakt voor menselijke experts. Dit in tegenstelling tot ‘black box’- systemen, waarvan het onduidelijk is hoe het algoritme bij een bepaalde uitkomst komt.

Recruitmentsoftware mag nooit een black box zijn, vindt ook Van de Haterd. “Gelukkig zijn veruit de meeste recruitmentsystemen inzichtelijk. Bijna alle aanbieders streven ernaar dat hun systemen eerlijk en uitlegbaar zijn. Het blijft voor de opdrachtgever wel belangrijk om die aanbieders goed te bevragen: wat is de uitleg en is die verdedigbaar?” (ik voeg zelf altijd toe met dit soort dingen “en laat maar zien hoe het werkt”)

Auteur: Claartje Vogel

Deel dit artikel
Dit artikel is 683 keer gelezen.

Reacties

 Laat een een reactie op dit artikel achter