Racismo em Inteligência Artificial faz universidade da Califórnia não usar mais reconhecimento facial em seu campus

APOIE O NOTÍCIA PRETA

A Universidade da Califórnia em Los Angeles (UCLA) não utilizar mais a o reconhecimento facial em seu campus. Ao comparar as faces de 400 integrantes da comunidade universitária (alunos, professores e funcionários) aos rostos de criminosos e contraventores fichados, a analise retornou com 58 falsos positivos. A maior parte dos erros ocorreu na avaliação de rostos de pessoas não-brancas. A tecnologia de reconhecimento facial vinha sendo avaliada como ferramenta e segurança, para identificar os frequentadores da Universidade. O teste foi realizado pela ONG Fight for the Future.

Para a realização deste teste a ONG Fight for the Future usou um software da Amazon chamado Rekognition. Em um dos casos, a ferramenta afirmou que havia 100% de chance de os rostos comparados serem da mesma pessoa, no entanto, eram somente 2 (dois) homens negros de barba, bem diferentes um do outro.

Ao decidir não mais utilizar esta tecnologia a UCLA se une a um grupo de mais de 50 (cinquenta) universidades nos EUA que se comprometeram em não ter mais o reconhecimento facial, incluindo MIT, Harvard, Brown e Columbia.

Ao mesmo tempo que estas tecnologias são muito imprecisas e mal construídas, estão sendo aplicadas por inúmeras prefeituras e governos em torno do mundo para hiper-vigiar e perseguir minorias”

Tarcízio Silva, pesquisador

Diversos experimentos realizados por projetos de renome, como o Gender Shades, conduzido desde 2018 pelo MIT Media Lab, demontrou que reconceitos raciais são um problema recorrente nos programas de reconhecimento facial e nas inteligências artificiais que se propõem a reconhecer pessoas. O reconhecimento de homens de pele clara é muito mais preciso do que os de outros grupos.

Segundo o pesquisador de doutorado da Universidade Federal do ABC (UFABC) Tarcízio Silva, o reconhecimento facial é muito impreciso em pessoas negras: “Ao mesmo tempo que estas tecnologias são muito imprecisas e mal construídas, estão sendo aplicadas por inúmeras prefeituras e governos em torno do mundo para hiper-vigiar e perseguir minorias” disse o professor em entrevista ao portal EOnline.

Um levantamento feito pelo The Intercept Brasil no fim de novembro de 2019 revela que 90,5% dos presos por monitoramento facial no Brasil são negros. Em julho do ano passado, uma mulher foi detida por engano em Copacabana e levada à delegacia do bairro, após as câmeras de reconhecimento facial darem positivo.

O metrô de São Paulo decidiu instalar um sistema de câmeras com reconhecimento facial para, segundo a empresa, facilitar a identificação de suspeitos de crimes, fugitivos ou pessoas desaparecidas. Esta tecnologia será custará R$ 58,6 milhões e será vendida pelo consórcio Engie Ineo Johnson, formado por empresas da França e Irlanda.

Não é apenas no setor de transportes que o governo de São Paulo investe em técnologia de reconhecimento facial. No carnaval deste ano o Estado utilizou 50 drones para monitorar a folia.  Segundo o secretário da Segurança Pública (SSP) do estado, o João Camilo Pires de Campos,  as imagens foram analisadas em tempo real. O objetivo é identificar suspeitos de crimes em 644 blocos que desfilaram na capital paulista.

APOIO-SITE-PICPAY

Thais Bernardes

Formada em jornalismo pelo Institut français de Presse-Université Panthéon-Assas, em Paris e pelo Institut Pratique de Journalisme (IPJ), também na França, Thais Bernardes é jornalista, fundadora e CEO do portal Notícia Preta e podcaster do Canal Futura. Antes de concluir seus estudos na Europa, Thais cursou Relações Públicas na Universidade do Estado do Rio de Janeiro (UERJ), onde ingressou através do sistema de cotas. Após atuar como produtora no canal de TV France 2, em Paris, foi repórter no Jornal Extra, na rádio BandNewsFM e coordenadora de Comunicação da Secretaria de Estado de Direitos Humanos do Rio. Em novembro de 2018 a jornalista decidiu criar o portal Notícia Preta como forma de combater, através do jornalismo, o racismo e as desigualdades sociais.

Deixe uma resposta

Esse site utiliza o Akismet para reduzir spam. Aprenda como seus dados de comentários são processados.