Robots tegen discriminatie bij sollicitatie

advertisement
Robots tegen discriminatie bij sollicitatie
Door kunstmatige intelligentie – robots – in te zetten om discriminatie te weren,
kunnen bedrijven niet alleen méér vrouwen en kandidaten uit etnische minderheden
werven, maar ze ook langer binnenhouden.
Dat meldt de site Motherboard. De sector ziet een veel kleinere instroom van vrouwen
dan van mannen. De vrouwen die er zijn, houden het bovendien al snel weer voor gezien.
Drempel
Verschillende bedrijven verbeteren nu hun eigen technologie om die situatie te
veranderen. Het bedrijf Textio heeft bijvoorbeeld software ontwikkeld dat
vacatureteksten scant op frases die vooral mannelijke kandidaten aantrekken. Dat zijn
zinsneden die op zich helemaal niet seksistisch lijken, zoals ‘werkt goed onder druk’
of ‘bewezen succesvol’, maar die voor vrouwen vaak toch een onnodige drempel voor een
sollicitatie op blijken te werpen.
Onbewuste discriminatie
De software van Unitive gaat nog een stuk verder. Op basis van voorspellende analytics
helpt het programma HRM’ers en managers op zoek naar nieuw personeel hun hele
procedure onder de loep te nemen. Het programma doet suggesties voor vacatureteksten
en vragen voor tijdens de sollicitatiegesprekken. Zo hopen bedrijven onbewuste
discriminatie jegens vrouwen of minderheden uit het selectieproces te filteren.
Blind
“Werkgevers zijn eigenlijk niet zo goed in het aannemen van mensen”, zegt
wetenschapper Colin Lee daarover in de Volkskrant. Een voordeel van computersoftware
is dat het blind is voor geslacht of ras. Een bedrijf kan zo irrelevante gegevens uit
de computersoftware weglaten. “Zo weet je zeker dat leeftijd, ras, of geslacht niet
wordt meegenomen”, zegt Lee. Maar de werving van personeel dan maar helemaal overlaten
aan een robot, vinden veel mensen volgens hem nog een enge gedachte.
Beperkingen
Kunstmatige intelligentie heeft echter zijn beperkingen, erkent Unitive tegenover
Motherboard. Algoritmes die door gebruik moeten evolueren, nemen de voorkeuren van
mensen over. Een zeer recent voorbeeld daarvan is de robot Tay, die moest leren
communiceren van tweets. Binnen een dag begon Tay de meest vreselijke neonazistische
teksten te spuien.
Mensenwerk
Daarnaast blijft programmeren nog altijd mensenwerk. Daardoor lopen programmeurs het
risico hun eigen onbewuste vooroordelen te programmeren in een programma dat juist is
bedoeld om dat te voorkomen. Voortdurende actieve monitoring en eventueel aanpassing
van de programma’s is dus belangrijk. Ook moeten de algoritmes vaak worden gebruikt in
simulaties, om te checken of zij nog discriminatie tegengaan.
> Volg de sessie over e-recruitment van Gerard Mulder op het
congres Robotisering & werk – De match tussen mens en machine, op
donderdag 16 juni 2016 in SuperNova, Jaarbeurs Utrecht. Lees meer
over zijn sessie Slimme technologie en e-recruitment.
Download