Robots tegen discriminatie bij sollicitatie Door kunstmatige intelligentie – robots – in te zetten om discriminatie te weren, kunnen bedrijven niet alleen méér vrouwen en kandidaten uit etnische minderheden werven, maar ze ook langer binnenhouden. Dat meldt de site Motherboard. De sector ziet een veel kleinere instroom van vrouwen dan van mannen. De vrouwen die er zijn, houden het bovendien al snel weer voor gezien. Drempel Verschillende bedrijven verbeteren nu hun eigen technologie om die situatie te veranderen. Het bedrijf Textio heeft bijvoorbeeld software ontwikkeld dat vacatureteksten scant op frases die vooral mannelijke kandidaten aantrekken. Dat zijn zinsneden die op zich helemaal niet seksistisch lijken, zoals ‘werkt goed onder druk’ of ‘bewezen succesvol’, maar die voor vrouwen vaak toch een onnodige drempel voor een sollicitatie op blijken te werpen. Onbewuste discriminatie De software van Unitive gaat nog een stuk verder. Op basis van voorspellende analytics helpt het programma HRM’ers en managers op zoek naar nieuw personeel hun hele procedure onder de loep te nemen. Het programma doet suggesties voor vacatureteksten en vragen voor tijdens de sollicitatiegesprekken. Zo hopen bedrijven onbewuste discriminatie jegens vrouwen of minderheden uit het selectieproces te filteren. Blind “Werkgevers zijn eigenlijk niet zo goed in het aannemen van mensen”, zegt wetenschapper Colin Lee daarover in de Volkskrant. Een voordeel van computersoftware is dat het blind is voor geslacht of ras. Een bedrijf kan zo irrelevante gegevens uit de computersoftware weglaten. “Zo weet je zeker dat leeftijd, ras, of geslacht niet wordt meegenomen”, zegt Lee. Maar de werving van personeel dan maar helemaal overlaten aan een robot, vinden veel mensen volgens hem nog een enge gedachte. Beperkingen Kunstmatige intelligentie heeft echter zijn beperkingen, erkent Unitive tegenover Motherboard. Algoritmes die door gebruik moeten evolueren, nemen de voorkeuren van mensen over. Een zeer recent voorbeeld daarvan is de robot Tay, die moest leren communiceren van tweets. Binnen een dag begon Tay de meest vreselijke neonazistische teksten te spuien. Mensenwerk Daarnaast blijft programmeren nog altijd mensenwerk. Daardoor lopen programmeurs het risico hun eigen onbewuste vooroordelen te programmeren in een programma dat juist is bedoeld om dat te voorkomen. Voortdurende actieve monitoring en eventueel aanpassing van de programma’s is dus belangrijk. Ook moeten de algoritmes vaak worden gebruikt in simulaties, om te checken of zij nog discriminatie tegengaan. > Volg de sessie over e-recruitment van Gerard Mulder op het congres Robotisering & werk – De match tussen mens en machine, op donderdag 16 juni 2016 in SuperNova, Jaarbeurs Utrecht. Lees meer over zijn sessie Slimme technologie en e-recruitment.