Algoritmos de reconhecimento facial falham muito mais em identificar rostos negros. Por que isso é um problema (e muito grave)?
Thread traduzida:
#algoritmos #racismo
No tweet acima, @colinmadland explica que um dos seus colegas pesquisadores estava pedindo ajuda porque o Zoom ficava cortando o rosto dele quando usava um background virtual. Sugeriram pra ele trocar o fundo, a iluminação, mas não funcionou. Veja porque:
Acontece que o @zoom_us tem um algoritmo ruim de detecção facial que não consegue entender que um rosto negro é um rosto. Ele "preferiria", por exemplo, achar que o globo atrás do professor seria seu rosto do que a resposta óbvia.
Mas o buraco é muito, muito mais embaixo. Nessa reportagem, testes do governo dos EUA mostram que mesmo os softwares de reconhecimento facial mais avançados ainda erram (identificam incorretamente) de 5 a 10 vezes mais com rostos pretos do que com brancos.
Se até aqui você ainda estiver pensando "e daí?" ou "não entendi a gravidade", acontece que pessoas inocentes já foram pra cadeia por causa de reconhecimento facial incorreto. Pessoas brancas? Não né.
Basicamente, esses algoritmos funcionam através de aprendizado com bancos de dados. Você mostra um conjunto de imagens de rostos para o programa, ele aprende que aquilo é um rosto, e cria a sua própria definição de rosto humano a partir do que você ensinou pra ele.
Então, algoritmos computacionais não são "neutros", só por envolverem máquinas. Eles podem sim refletir as estruturas socialmente definidas de racismo, machismo, LGBTQ+fobia, xenofobia, etc, porque aprendem através de pessoas e bancos de dados, que estão dentro dessas estruturas.
Share this Scrolly Tale with your friends.
A Scrolly Tale is a new way to read Twitter threads with a more visually immersive experience.
Discover more beautiful Scrolly Tales like this.
