Ansiktsgjenkjenningsteknologi er ikke lenger en gimmick. Det brukes i økende grad på flere fotgjengermåter og viser ingen tegn til å bremse ned. I dag, bortsett fra å bli brukt til å låse opp smarttelefonene dine, har ansiktsgjenkjenning gjort det til alle kroker og kroker. Faktisk blir teknologien brukt av kinesiske politibetjenter for å identifisere mistenkte.
I følge ny forskning fra MITs Media Lab ser det imidlertid ut som om ansiktsgjenkjenningsteknologi er utsatt for skjevheter basert på kjønn og rase. Joy Buolamwini, forsker ved MIT Media Lab, bygde et datasett på 1270 ansikter. Hun testet deretter nøyaktigheten av tre ansiktsgjenkjenningssystemer fra Microsoft, IBM og Megvii (et kinesisk firma). Overraskende nok viste resultatet unøyaktigheter i kjønnsidentifikasjon.
Da systemene ble vist bildene av lysere menn, klarte det å identifisere dem ganske enkelt. Imidlertid identifiserte systemet feil opp til 12 prosent av mørkhudede menn; og opptil 35 prosent av mørkhudede kvinner.
"Samlet sett ble mannlige forsøkspersoner mer nøyaktig klassifisert enn kvinnelige personer som replikerte tidligere funn (Ngan et al., 2015), og lettere individer ble mer nøyaktig klassifisert enn mørkere individer." - Joy Buolamwini
Til dette sa IBM at de jevnlig hadde forbedret ansiktsanalyseprogramvaren og var "dypt forpliktet" til "upartiske" og "gjennomsiktige" tjenester. Microsoft sa derimot: “Vi har allerede tatt skritt for å forbedre nøyaktigheten av vår ansiktsgjenkjenningsteknologi ”og at den investerte i forskning” for å gjenkjenne, forstå og fjerne skjevheter.”Og til slutt svarte Megvii ikke.
Når det er sagt, er dette ikke første gang at ansiktsgjenkjenningsteknologi har vist seg å være unøyaktig. Tilbake i 2015 ble Google kalt ut av en programvareingeniør da Photos-appen identifiserte den svarte vennen hans som "gorillaer."