A vida digital é governada por algoritmos. O termo define o conjunto de etapas que os programas de computador precisam executar para chegar a um resultado. Há algoritmos em toda parte, das redes sociais a softwares de reconhecimento facial.
Em tese, devem ser neutros, mas estudos têm demonstrado que podem refletir e multiplicar preconceitos, como o chamado "racismo algorítmico", debatido tanto no ambiente acadêmico quanto no mercado de sistemas e aplicativos.
Se há consciência do problema, também começam a surgir soluções. A startup carioca CyberLabs, braço focado em Inteligência Artificial (IA) do Grupo CyberLabs, desenvolveu tecnologia que apresenta resultados mais precisos na identificação de pessoas negras em relação a outras alternativas de mercado.
O KeyApp é o sistema desenvolvido com tecnologia da Nvidia Enterprise, fabricante americana de equipamentos para computação gráfica. À coluna, Tiago Pereira, líder do time de Visão Computacional da CyberLabs, explicou o processo de "educação" do algoritmo:
— Essencialmente, o algoritmo é neutro. Não tem viés, mas nos preocupamos com o treinamento. É necessário grande número de exemplos das etnias.
Além disso, Pereira cita que é necessário validar o algoritmo, ou seja, utilizar outra base de dados desconhecida que confirme o desempenho de identificação com base em diversidade. Os softwares de reconhecimento facial costumam usar bases de dados com origem nos Estados Unidos, na Europa ou na Ásia e, por isso, refletem a composição étnica dessas regiões. Assim, o sistema "aprende" a categorizar novas imagens com base nas contidas nas bases usadas para "treinar" o sistema.
Para ser mais fiel à população do Brasil, onde 56% da população se declara preta ou parda, o KeyApp usa fotos e vídeos de pessoas reais, brasileiras e estrangeiras. A tecnologia foi condicionada para detectar e diferenciar um conjunto abrangente de cor de pele, traços, formato dos olhos e outras características que permitem diferenciar pessoas brancas, pretas, indígenas e asiáticas.
Dados obtidos em teste sobre banco de imagens de faces multiracial indicam que o KeyApp apresenta nível de precisão de 99,84% para faces de pessoas negras. Na média, as tecnologias de reconhecimento facial apresentam índices de 75,8% a 87,5%.
O KeyApp funciona como ferramenta de controle de acesso, que monitora a circulação de pessoas sem contato físico. Para utilizá-lo, o usuário precisa baixar um aplicativo gratuito nas lojas do sistema iOS ou Android e preencher seus dados.
A startup oferece o sistema de forma gratuita a entidades públicas, com intenção de democratizar o acesso à inteligência artificial por todas as camadas da população. A tecnologia já foi implementada no Centro de Operações Rio (COR), Rio de Janeiro, e na Santa Casa de Itajubá, em Minas Gerais.
Segundo a empresa, a tecnologia segue a legislação de proteção de dados do Brasil, a LGPD, que entrou em vigor em setembro. Ao fazer o cadastro, o usuário saberá com quem vai compartilhar suas informações, com qual finalidade e quando os dados serão apagados.
Em setembro de 2020, episódios de "racismo algorítmico" viralizaram nas redes sociais e ampliaram o debate sobre o assunto. Em seu perfil no Twitter, o programador e engenheiro de criptografia e infraestrutura Tony Arcieri publicou diversas versões de fotos do senador norte-americano Mitch McConnell (branco) e do ex-presidente Barack Obama.
O sistema da rede social, que "escolhe" parte da imagem para destacar, selecionou McConnell em todas as tentativas. Em outro teste, a produtora de conteúdo Sá Ollebar, mulher negra, viu seu engajamento aumentar em 6.000% após publicar fotos de pessoas brancas em seu perfil no Instagram. Segundo Pereira, embora seja complexo avaliar a efetividade desses testes, mostram que existe uma falha no sistema:
— Situações acontecem, a gente (os desenvolvedores) avalia e faz adequações. É por isso que é preciso continuar aprimorando a tecnologia, até que funcione em todos os casos.
Em nota, Marcelo Sales, fundador e presidente da CyberLabs, afirma que a funcionalidade é capaz de combater o racismo algorítmico.
— Nossa missão é oferecer tecnologia compatível com a diversidade e miscigenação
da população brasileira — destacou Salles.
*Colaborou Camila Silva
Leia mais na coluna de Marta Sfredo