



Bem vindo (a)...
Que bom que chegou para uma jornada de comunicação diversa.
Reconhecimento facial e racismo na segurança pública do país
Por: Mônica Lima
Cada vez mais utilizado nos setores de segurança, as ferramentas de reconhecimento facial ainda apresentam falhas e requerem mais treinamentos e regulamentações para evitar aprofundar o racismo no Brasil, afirma Bianca Kremer, autora do livro “Racismo Algorítmico” e professora da pós-graduação de Direito Digital no Instituto Brasileiro de Ensino, Desenvolvimento e Pesquisa-Brasília.
Segundo Kremer, “as pessoas incorporam sua visão de mundo e, não raras vezes, os preconceitos às tecnologias – o que pode ou não culminar em discriminação racial, quando se atribui tratamento diferenciado a membros de grupos racialmente identificados. Para ela, o implemento de tecnologias de reconhecimento facial com fins de vigilância e segurança pública no Brasil é questionável, se considerado o histórico seletivo penal brasileiro velado sobre a população negra no país. Ela alerta ainda para o dramático aumento na adoção de tecnologias de reconhecimento pelos órgãos de segurança pública em todo o Brasil.
Para Silvana Bahia, mestre em Cultura e Territorialidades pela UFF, coordenadora da Preta Lab e editora do livro “Pode um robô ser racista?”, pensadores da coletânea apontam que a tecnologia, como produto da sociedade, traz as marcas, os vieses e os preconceitos de quem a produz.
“Precisamos aceitar que a tecnologia não é neutra e que os algoritmos trazem vieses sociais que nos impactam diariamente. Além de democratizar o acesso à tecnologia, é fundamental democratizar o desenvolvimento da tecnologia para não reproduzirmos desigualdades do passado e do presente no futuro que está despontando”, afirma a editora.
São muitos os casos de prisões efetuadas por erro da tecnologia digital. Em 13 de abril deste ano, o personal trainer João Antônio Trindade, de 23 anos, estava num estádio de futebol para assistir a final do Campeonato Sergipano, entre Sergipe e Confiança, quando foi abordado, revistado e levado para sala da PM, sob a acusação de ser um foragido da justiça. O jovem falou seu nome e tentou se identificar sem sucesso, quando ouviu dos policiais que fora descoberto por meio do sistema de reconhecimento facial da Secretaria Estadual de Segurança Pública do estado. Depois de muita insistência, João conseguiu mostrar seus documentos e ser liberado.
Nos Estados Unidos, homens negros foram presos depois de softwares os apontarem como responsáveis por crimes. No final de 2022, Randal Reid, de 29 anos, estava a caminho da comemoração do Dia de Ação de Graças, quando foi preso por furto de duas bolsas de grifes pela polícia de Louisiana. No entanto, Reid nem estava no estado na época do crime.
No mesmo ano, a empresa de lojas Macy´s, nos Estados Unidos, foi processada por Harvey Murphy, de 61 anos, que pediu U$10 milhões por ter sido preso por roubo armado. A empresa apresentou imagens de reconhecimento facial em conjunto com outros métodos de segurança de suas lojas, mas o acusado estava cumprindo pena, em Sacramento, a 24h de distância. Murphy foi espancado e estuprado durante o tempo em que esteve preso indevidamente.
Relatórios publicados em 2020 e 2021, pelo Colégio Nacional de Defensores Públicos Gerais (Condege), em parceria com a Defensoria Pública do Rio de Janeiro (DP-RJ), corroboram com a análise da autora. Casos recentes documentados apontam falhas da ferramenta no reconhecimento de pessoas pretas, resultando em discriminação, violência policial e prisões após reconhecimento fotográfico.
Ao todo, 83% dos presos de forma injusta no Brasil são pretos. Os documentos apontam ainda que, de 2012 a 2020, foram realizadas cerca de 90 prisões incorretas com o uso do reconhecimento fotográfico. Ao todo, 79 foram realizadas com informações conclusivas sobre a raça dos acusados, sendo 81% de pessoas negras, incluindo pretos e pardos.
Já um estudo realizado nos Estados Unidos em 2019 revelou que asiáticos e afro-americanos apresentavam taxas de “falso positivo” em sistemas de reconhecimento facial até 100 vezes superiores às de pessoas brancas. O mesmo levantamento constatou que os algoritmos identificavam incorretamente o gênero de mulheres negras em quase 35% dos casos.
Três programas de análise facial lançados comercialmente por grandes empresas de tecnologia demonstram preconceitos tanto de tipo de pele quanto de gênero, de acordo com um novo artigo que pesquisadores do MIT e da Universidade Stanford apresentam na Conferência sobre Justiça, Responsabilidade e Transparência.
Nos experimentos dos pesquisadores, as taxas de erro dos três programas na determinação do gênero de homens de pele clara nunca foram piores do que 0,8%. Para mulheres de pele mais escura, no entanto, as taxas de erro dispararam — para mais de 20% em um caso e mais de 34% nos outros dois. As descobertas levantam questões sobre como as redes neurais de hoje aprendem, são treinadas e avaliadas para executar tarefas computacionais procurando padrões em enormes conjuntos de dados.
De acordo com o artigo, pesquisadores de uma grande empresa de tecnologia dos EUA alegaram uma taxa de precisão de mais de 97% para um sistema de reconhecimento facial. Muito embora tenham projetado o conjunto de dados usado para avaliar seu desempenho era mais de 77% masculino e mais de 83% branco.
Fontes:
Racismo Algorítmico - Kremer, 2023
Pode um robô ser racista? – coletânea do Museu do Amanhã
Colégio Nacional de Defensores Públicos Gerais
Massachusetts e da Universidade Stanford
83% dos presos de forma injusta no Brasil são de pessoas pretas
Para refletir...




