Laten we deze vooroordelen eens bespreken en kijken naar de onderzoeksresultaten van Pera Labs in samenwerking met bedrijven:
Algoritmen zijn meningen die zijn ingebed in code.
Ja, dit geldt zeker ook voor algoritmen die op de arbeidsmarkt worden gebruikt. Maar meningen zijn niet per definitie slecht. De mening van een manager en collega's over hoe iemand zijn werk doet, is heel waardevol. Vooral als je meerdere mensen (raters) vraagt om gedrag van collega's op het werk te vergelijken en dat gedrag te relateren aan een objectief resultaat, bijvoorbeeld het aantal uitgebrachte innovaties of omzetbijdrage. Maar meningen gebaseerd op vooroordelen, eerste indrukken of ongestructureerde interviews zijn natuurlijk van weinig waarde en moeten niet worden gebruikt als input om algoritmes te trainen.
Het idee dat je discriminatie en ongelijkheid van bovenaf kunt oplossen met inclusieve algoritmen klopt niet.
Inclusieve algoritmen kunnen oplossingen bieden om discriminatie en ongelijkheid tegen te gaan. Diversiteit kan verloren gaan in elke stap van het wervingsproces, van de woorden die gebruikt worden in een vacaturetekst tot de uiteindelijke beslissing om iemand wel of niet aan te nemen. In sommige stappen kunnen algoritmes inderdaad bijdragen aan het bestrijden van discriminatie en ongelijkheid.
Sommige bedrijven (pre)selecteren kandidaten bijvoorbeeld vooral op basis van topuniversiteiten en studierichtingen. Een algoritme dat ook rekening houdt met andere factoren zoals competenties en informatie na aanwerving kan (1) een betere voorselectie maken en (2) een voorselectie maken met meer diversiteit qua universiteiten/studierichtingen. Een inclusief algoritme kan naar veel meer factoren tegelijk kijken dan een mens dat kan en denkt daarom veel minder in "hokjes".
Dit onderzoek van Pera Labs met een bedrijf laat zien dat menselijke bias niet kan worden opgelost met goede bedoelingen. Vrouwelijke kandidaten zonder een universitair topdiploma hebben 6,5x minder kans om aangenomen te worden dan mannelijke kandidaten met een universitair topdiploma, zelfs als beide groepen vergelijkbaar scoren op de competentiebeoordeling (matchratio 60 en 59).
In tegenstelling tot machines hebben mensen wel het vermogen om hun vooroordelen voortdurend flexibel aan te passen in contact met elkaar.
Deze perceptie is onjuist. Machines zijn veel flexibeler dan mensen en kunnen gemakkelijk worden bijgeschoold met miljoenen datapunten. Het aantal zinvolle interacties dat een mens heeft buiten zijn eigen bubbel is meestal erg klein, waardoor vooroordelen blijven bestaan.
Dit onderzoek van Pera Labs toont aan dat mannelijke en vrouwelijke kandidaten en universitaire graden geen invloed hebben op de rangschikking op basis van de competenties van kandidaten: