Nieuws


28 juli 2022

Afgewezen door algoritme in recruitmentsoftware? College voor Rechten van de Mens verzamelt klachten sollicitanten


Sollicitanten hebben het recht te weten of organisaties gebruik maken van recruitmentsoftware en hoe de daarin actieven algoritmes werken. Dat vindt het College voor de Rechten van de Mens. Als een organisatie dat niet kan uitleggen, kan een (afgewezen) sollicitant een klacht indienen bij het College.
 

Categorie: Recruitment flex, Recruitment, Assessments & Matching, Techniek algemeen, Talent Marketplace
Geschreven door: HRTech Redactie

christina-wocintechchat-com-LQ1t-8Ms5PY-unsplash

“Algoritmes kunnen op allerlei manieren worden ingezet om HR-professionals te ondersteunen: bijvoorbeeld door CV's automatisch te scannen, door te bepalen waar en aan wie een vacature het beste vertoond kan worden of door te analyseren hoe iemand een online game heeft gespeeld die een bepaalde competentie meet. Deze zogenaamde recruitmentsoftware kan een nuttig instrument zijn om efficiënter personeel te werven en selecteren. Dat is aantrekkelijk, zeker in geval van een krappe arbeidsmarkt.” Dat zegt voorzitter Jacobine Geel op de website van het College voor de Rechten van de Mens.

Risico’s van algoritmes

Maar er kleven ook risico’s aan het gebruik van algoritmes, zo waarschuwt het College: “de data kan bijvoorbeeld vervuild zijn, waardoor de bouwer het algoritme onvoldoende kan laten trainen met data van bepaalde groepen. Zo zijn er algoritmes die zwarte vrouwen niet goed kunnen herkennen op een video.”


“Softwareontwikkelaars doen er goed aan te zorgen voor diversiteit in hun ontwikkelteams, zodat mannen, vrouwen, homo's, hetero's, mensen van kleur en mensen met een beperking, allemaal een plek kunnen krijgen in hun teams.”


“Ook kan het zijn dat er foutjes in het algoritme zelf zitten. Softwareontwikkelaars kunnen onbewust hun eigen vooroordelen verwerken in een algoritme. Bijvoorbeeld door aannames te maken dat bepaalde functies beter geschikt zouden zijn voor mannen of vrouwen of jonge of oudere mensen, en dit mee te wegen bij de berekening van de beoordelingsscores.”

Wat kunnen afgewezen sollicitanten doen?

Sollicitanten kunnen vooraf vragen stellen bij een organisatie: gebruikt de organisatie sollicitatie-algoritmes? En zo ja; hoe werken die? Maar het College vermoedt dat de drempel hiervoor hoog is, omdat sollicitanten niet te kritisch willen overkomen.

Daarom richt het College zich vooral op afgewezen sollicitanten. Geel: “Als je al bent afgewezen heb je niet veel meer te verliezen, en wel nog te winnen, namelijk inzicht in hoe je bent beoordeeld en een kans om je recht te halen als je denkt dat je gediscrimineerd bent.” 

Klacht indienen bij vermoeden discriminatie

Het College kan beoordelen of een organisatie heeft gediscrimineerd, ook bij online sollicitaties. Om dit te laten onderzoeken kan een afgewezen sollicitant die vermoedt gediscrimineerd te zijn bij het College een klacht indienen.   

Geel: “Het is belangrijk dat de klager met feiten komt waardoor er een vermoeden van discriminatie ontstaat. Een feit kan zijn dat de organisatie niet kan uitleggen hoe algoritmes kandidaten beoordelen. Sollicitatieprocedures moeten namelijk altijd inzichtelijk, controleerbaar en systematisch zijn. Ook wanneer een organisatie selectie-algoritmes inzet.” Een organisatie kan ook zelf vragen aan het College om het beleid op het gebied van digitale sollicitaties te bekijken. 

Ervaringen met algoritmes verzamelen

Daarnaast kan het College meldingen verzamelen en zo inzicht krijgen in de problemen die sollicitanten ervaren en wat organisaties of de overheid zou kunnen veranderen om die te voorkomen. “Iedere melding is een extra argument waarmee het College de problemen met algoritmes kan aankaarten”, onderstreept Jacobine Geel, “dus meld je ervaring met algoritmes bij het College.” 

Als toezichthouder kan het College een onderzoek instellen, kan het de overheid adviseren om beleid te veranderen en organisaties adviseren hoe zij hun sollicitatie-algoritmes kunnen verbeteren, zodat ze niet discrimineren en in lijn zijn met mensenrechten. 

Wat kunnen organisaties en HRTech ontwikkelaars doen?

Organisaties en Recruitment en Assessment softwareontwikkelaars moeten hun eigen verantwoordelijkheid nemen, vindt het College. Organisaties moeten kritische vragen stellen voordat ze algoritmes laten bouwen of inkopen: met welke data worden de algoritmes getraind? Hoe pakken de algoritmeselecties uit voor verschillende groepen mensen? Bij twijfel kunnen ze het College benaderen.

Eerder legde het College al uit dat werkgevers zelf verantwoordelijk zijn voor de inzet van recruitmentsoftware die (onbedoeld) zou leiden tot discriminatie. Momenteel werkt het College aan instrumenten die werkgevers kunnen helpen bij het voorkomen hiervan. Ook kunnen bedrijven tools gebruiken die al bestaan, zoals de Impact Assessment Mensenrechten en Algoritmes.

Deel dit artikel
Dit artikel is 42 keer gelezen.

Reacties

 Laat een een reactie op dit artikel achter