“Existe um grande risco de que a inteligência artificial reforce o preconceito”, alertam especialistas da ONU

inteligencia-artificial-racista.jpg

Fonte: AFP

Os países devem fazer mais para combater o racismo, especialmente nos algoritmos de inteligência artificial para reconhecimento facial ou os controles policiais podem reforçar essas práticas, alertaram nesta quinta-feira (26) especialistas da ONU.

Existe um grande risco de que (a inteligência artificial) reforce o preconceito e, portanto, agrave ou possibilite práticas discriminatórias”, alertou em entrevista à AFP Verene Shepherd, especialista em direitos humanos.

O jamaicano é membro do Comitê da ONU para a eliminação da discriminação racial, composto por 18 especialistas que nesta quinta-feira (26) publicaram um relatório sobre como as autoridades devem combater esse problema.

Este comitê está particularmente preocupado com os algoritmos usados ​​entre as ferramentas de “prevenção” ou “avaliação de risco” da polícia, bem como os mecanismos de busca ou mídias sociais preferidos das pessoas, que podem bombardeá-las com publicidade ultrassensiva.

Esses sistemas de vigilância, que supostamente apoiam a prevenção do crime, foram implantados pela primeira vez nos Estados Unidos em meados da década de 2000, também são criticados por reforçar o preconceito em relação a algumas comunidades.

Círculo vicioso

Dados históricos sobre prisões em um determinado bairro (que alimentam inteligência artificial) podem muito bem refletir práticas de policiamento tendenciosas e, conseqüentemente, replicá-las“, enfatiza Shepherd.

“Esses dados aumentam o risco de uma presença policial excessiva, que pode levar a mais prisões e, assim, criar um círculo vicioso”, alerta. “Dados incorretos causam resultados ruins”, ele resume.

Entre suas recomendações, o comitê também está preocupado com o uso cada vez mais difundido do reconhecimento facial ou outras tecnologias de monitoramento utilizadas em missões de segurança.

Mais uma vez, neste sentido, o discernimento da inteligência artificial está intimamente ligado aos dados usados ​​para “educar” esses sistemas, explica.

Além disso, os estudos mostraram que eles têm dificuldade em reconhecer rostos de pele escura ou femininos.

Um preconceito bem ilustrado, por exemplo, foi a prisão este ano em Detroit de um afro-americano, Robert Williams, com base em “descobertas” de um algoritmo mal desenvolvido, que o identificou como suspeito de roubo.

Recebemos reclamações sobre essa forma de identificação incorreta em decorrência dessas tecnologias, de quem as desenvolve ou das amostras utilizadas por esses sistemas”, diz Shepherd. Acrescentando: “esta é uma preocupação real.”

A comissão apela aos países em particular para regulamentar as empresas que trabalham neste setor para garantir que tais sistemas respeitem as leis internacionais de direitos humanos, e insiste na necessidade de transparência na concepção e aplicação destas para o público em geral. .

As recomendações deste comitê não se limitam a essas novas tecnologias. “O desenvolvimento do perfil racial não começou com isso”, lembra Shepherd.

Ele espera que “a intensificação e internacionalização do movimento Black Lives Matter (…) e outras campanhas que denunciam a discriminação contra grupos vulneráveis ​​ajudem (para destacar) a importância dessas recomendações”, ele espera.

Deixe uma resposta

scroll to top