Twitter se explica após ser acusado de ter ‘algorítimo racista’

dimexphotography-nappy-.jpg

Desde 2018, o Twitter disponibiliza uma ferramenta que faz cortes automáticos em imagens, para destacar o que seriam os objetos, ou pessoas, mais importantes da composição. O problema é que tal algoritmo utilizado para para otimizar a visualização de imagens no feed da rede social não reconhece os rostos de pretos e pardos como sendo de ‘pessoas’.

O algoritmo foi projetado para quando for publicado uma foto grande demais e/ou fora das proporções aceitas pela plataforma, ela automaticamente escolher uma porção do retrato para exibir, priorizando rostos humanos que porventura sejam identificados. Em diferentes testes realizados por usuários, independentemente da quantidade de pessoas negras e brancas em uma imagem, a inteligência artificial da plataforma insiste em criar a miniatura da foto apenas dos rostos brancos. Não reconhecendo assim, rostos de pessoas pretas ou pardas como de ‘pessoas’.

A polêmica começou quando o programador Tony Arcieri fez uma série de testes em seu perfil, compartilhando montagens que juntavam os rostos do senador Mitch McConnel e do ex-presidente Barack Obama. O sistema sempre priorizava o rosto de Mitch.

A assessoria de imprensa do Twitter informou: “Fizemos uma série de testes antes de lançar o modelo e não encontramos evidências de preconceito racial ou de gênero. Está claro que temos mais análises a fazer. Continuaremos compartilhando nossos aprendizados e medidas, abriremos o código para que outros possam revisá-lo”, disse a empresa em seu posicionamento oficial.

0 Replies to “Twitter se explica após ser acusado de ter ‘algorítimo racista’”

Deixe uma resposta

scroll to top