Analisar milhares de currículos pode ser uma tarefa complexa para recrutadores, que precisam filtrar os melhores candidatos para vagas de trabalho. Para lidar com os altos volumes de informação, a startup Gupy desenvolveu a Gaia, sistema de inteligência artificial (IA) que pretende facilitar processos seletivos nas empresas - entre os clientes, há nomes como Ambev, Grupo Pão de Açúcar e Santander.
Não é uma função simples: o trabalho da Gaia consiste não só em analisar os currículos, mas também ordená-los conforme a afinidade dos candidatos com a vaga. A IA elabora um ranqueamento dos indivíduos e coloca no topo aqueles que têm maior compatibilidade com o que buscam as empresas. A startup garante que, na seleção, todos os documentos são lidos, algo que não aconteceria se a triagem fosse feita por recrutadores humanos.
— A IA precisa ajudar em atividades em que o ser humano não é bom, como tarefas de automação — explica Bianca Ximenes, diretora de inteligência artificial na Gupy - desde 2019, ela chefia uma equipe de 16 pessoas, responsáveis por treinar a Gaia para realizar tarefas cada vez mais complexas.
— A ideia é que a IA seja um alívio dessa carga que exige muito da nossa atenção — diz.
Entre outras tarefas, a Gaia também lê e interpreta currículos de forma automática, o que permite preencher campos na plataforma da empresa. Além disso, a IA faz validação e autenticação de documentos enviados pelos candidatos, "traduzindo" a fotografia para texto legível no computador.
A arquitetura de ordenação da Gaia nasceu em 2019, quando a ferramenta elaborava uma "pontuação" de cada pessoa candidata a partir de afinidades predefinidas. Hoje, graças ao banco de 6 bilhões de frases e palavras utilizado para treinar a IA, o processo é todo semântico, diz Bianca. Na prática, isso significa que a triagem se torna mais subjetiva e capta mais nuances das descrições - motivo pelo qual a Gupy incentiva que candidatos e empresas não poupem palavras ao utilizar a plataforma.
A dica da companhia para "hackear" seu sistema é bem-vinda. Recentemente, porém, a companhia virou alvo de críticas nas redes sociais por seus processos serem supostamente muito automatizados e pouco eficientes no encaixe de vagas, com muitos testes a serem realizados pelos candidatos.
Ética
O crescimento de plataformas automatizadas para vagas de emprego vem levantando não apenas questões de eficiência, mas também de ética e viés. Embora tenha como função automatizar tarefas, a IA pode repetir padrões comportamentais prejudiciais da sociedade - o aprendizado de máquina reproduz o que foi ensinado pelos humanos.
Erros no treinamento da tecnologia podem resultar em ranqueamentos nos quais estereótipos de gênero, raça ou região são reproduzidos - tudo isso pode ocorrer sem a ciência dos recrutadores. Por exemplo, se a IA entende que homens tendem a ser mais escolhidos para vagas de engenharia, a máquina pode subir esses candidatos no levantamento, ainda que não sejam a melhor opção.
Impedir isso é uma das principais tarefas da equipe comandada por Bianca Ximenes. Segundo ela, a Gaia foi treinada para evitar reproduzir essas tendências. Exemplo disso é que a IA da Gupy não entende terminações de gênero nas palavras, compreendendo apenas o radical - ou seja, "engenheir", "advogad" e "médic".
Segundo Bianca, esse trabalho só é possível porque a Gaia é uma ferramenta desenvolvida "em casa" — ou seja, não usa algoritmos e bancos de dados produzidos por outras empresas.
— Ao eliminar modelos de linguagem de terceiros da nossa plataforma, conseguimos poupar alguns milhares de reais por ano. Mas também conseguimos auditar eticamente nossos próprios modelos internos — afirma ela.
O caminho é importante. Recentemente, pesquisadores da Universidade de Cambridge concluíram que ferramentas de recrutamento que utilizam IA não conseguem excluir vieses do processo seletivo.
— Essas ferramentas não podem ser treinadas para identificar características relativas somente a trabalho, tirando gênero e raça do processo. Esses atributos considerados essenciais para ser um bom empregado estão inerentemente conectados a gênero e raça — disse em entrevista à BBC a pesquisadora Kerry Mackereth, responsável pelo estudo.
Em 2018, por exemplo, a Amazon abandonou uma IA utilizada para contratar funcionários por acreditar que a máquina poderia discriminar candidatas mulheres.
Para Robson Ventura, diretor de tecnologia da Gupy e cofundador da startup ao lado de Mariana Dias, Bruna Guimarães e Guilherme Dias, ainda que a startup crie uma ferramenta que fuja de vieses, o processo deve sempre ser concluído por humanos.
— No final, não é a IA que toma a decisão da contratação, mas, sim, os humanos — diz.
As informações são do jornal O Estado de S. Paulo.