Segundo um estudo realizado por pesquisadores de tecnologia e linguística de um instituto norte-americano, chatbots de Inteligência Artificial (IA) podem ser racistas, a depender da linguagem usada. A pesquisa revela que a IA têm mais chance de recomendar pena de morte quando uma pessoa escreve em “inglês afro-americano” (conhecido pela sigla AAE, em inglês).
Foi encaminhado para chatbots julgarem réus que cometeram homicídio em primeiro grau, e eles decidiram pela pena de morte com mais frequência, quando os julgados prestavam declarações em AAE. O estudo também aponta que a IA, a partir da linguagem usada, possuem uma tendência a associar falantes de AAE a empregos com menos prestígio.
“Sabemos que essas tecnologias são comumente usadas pelas empresas para realizar tarefas como a triagem de candidatos a empregos”, declarou o co-autor do estudo e pesquisador do Allen Institute for AI, o Dr. Valentin Hoffman. O estudo também mostra que grandes modelos como o estereótipo racial ChatGPT da Open AI, são considerados na linguagem.
Os pesquisadores pediram aos modelos que fizessem uma análise dos níveis de empregabilidade e inteligência daqueles que falam em AAE, em comparação com aqueles que falam o que eles chamaram de “inglês americano padrão”. Em simulações de julgamentos, ao optarem pela pena de morte de falantes de AAE,
Foi revelado que esses modelos eram mais propensos a descrever o falante de AAE como “estúpido” e “preguiçoso”. Valentin disse que pesquisas anteriores avaliaram quais preconceitos raciais evidentes a IA poderia conter, mas nunca analisaram como esses sistemas reagem a marcadores raciais ocultos, como diferenças de dialeto.
“Concentrando-nos nas áreas do emprego e da criminalidade, descobrimos que o potencial de danos é enorme“, declara ele.
O artigo ainda será revisado por pares é publicado no arXiv um arquivo de pesquisa de acesso aberto da Universidade Cornell nos Estados Unidos.
Leia também:“Vini Jr. não está sozinho”: governo brasileiro diz que vai cobrar Uefa sobre caso racismo contra jogador