Um relatório da Organização das Nações Unidas para a Educação, a Ciência e a Cultura (Unesco) acusou a programação de assistentes virtuais, como Siri, da Apple, e Alexa, da Amazon, de reforçarem comportamentos sexistas e misóginos.
Conforme e entidade, as ajudantes virtuais são projetadas para serem percebidas como femininas, "em nome, voz e personalidade". O estudo aponta que essas plataformas foram programadas para serem submissas e servis, inclusive respondendo educadamente a insultos e, assim, reafirmando vieses de gênero e normalizando o assédio.
A coluna conversou com Nelice Heck, gerente-geral da Thoughtworks em Porto Alegre, consultoria global de desenvolvimento de software. Leia os principais trechos:
Siri e Alexa reforçam estereótipos de gênero?
As plataformas são o sintoma de algo mais sistêmico. Não é de hoje que o mercado de tecnologia é mais homogêneo. A gente precisa ser muito intencional para criar espaços de real inclusão e um olhar de inovação inclusivo, que entenda diferenças e que consiga trabalhar para que esses vieses deixem de existir. Sim, a questão da Siri e da Alexa são um problema real, mas parte de um problema muito maior.
O estudo da Unesco aponta que mulheres representam apenas 12% dos pesquisadores de inteligência artificial. Isso acaba dando um olhar enviesado à programação e a seus produtos?
É uma realidade. O nosso setor reforça relações de poder existentes na sociedade. Os comportamentos do que a gente escreve no código vai ser criado a partir dessa realidade na qual estamos inseridos. Não acredito que seja necessariamente por maldade, mas é falta de consciência crítica. Se estou inserida em uma sociedade que, em geral, desvaloriza e violenta uma pessoa dependendo de gênero, raça ou minoria, e como desenvolvedora não olhar de maneira crítica essa questão, não vou entender quais são as dores dessas pessoas. Vou construir isso a partir da minha perspectiva enviesada. A tecnologia tem um impacto muito grande para construção de um futuro tecnológico.
Você percebe essa desigualdade de gênero em outras plataformas tecnológicas?
A gente tinha percebido situações diversas, tanto em algoritmos de outras redes sociais e quando em redes de vídeo. Há, nos Estados Unidos, um sistema de algoritmos racista para a área jurídica. Houve um estudo muito aprofundado que mostrou que esse algoritmo aplicava penas mais severas para pessoas negras, comparado a pessoas brancas, por crimes mais simples.
Há dispenser de sabonetes que não reconhece uma mão negra. Há reconhecimento facial que não consegue reconhecer rostos asiáticos.
NELICE HECK
Que outros exemplos de desigualdades você encontra?
Há dispenser de sabonete líquido que não reconhece uma mão negra. Há reconhecimento facial que não consegue reconhecer rostos asiáticos. Todos esses produtos são embasados nesses estereótipos. Não acho que seja por maldade, mas por falta de um olhar mais amplo. A gente precisa estar atento para tomar ações que mudem essa realidade intencionalmente. O próprio YouTube, os algoritmos de recomendação a partir de escolhas tuas. Quanto isso gera uma pré-seleção de olhares e comportamento? É muito importante que se se entenda como se constroem esses algoritmos.
A próxima batalha por igualdade se dará no campo dos robôs?
Robôs e inteligência artificial trazem inúmeros questionamentos. Até mesmo o futuro do trabalho, quando as pessoas vão ser substituídas? Como será? Daqui a pouco, a gente teria de ter legislações para robôs? Uma vez que robôs se parecem cada vez mais com humanos, teriam de ter direitos ou não? Há várias questões éticas e filosóficas. Mas sobre essa questão específica dos assistentes virtuais, a gente já está nessa luta. Vejo como uma questão sistêmica. Essa luta só vai se intensificar a partir de agora, porque há cada vez mais novos produtos. À medida que eles têm esses vieses, mais essa problemática vai ser levantada e afetará a vida de todos.
Você já havia pensado que esses assistentes virtuais como Siri e Alexa poderiam reforçar esses estereótipos ou esse documento da Unesco a surpreendeu?
Nunca tinha parado para pensar sobre xingamentos. Nunca xinguei a Siri (risos). Mas não me surpreendeu. Achei muito bom que organizações como a Unesco falem sobre isso, porque embasa mais a necessidade de a gente ter equipes diversas para que se construa um futuro tecnológico mais justo.
Como mudar essa realidade?
A gente precisa buscar ações para criar espaços de inclusão, talentos referentes a gêneros, a raças e a vivências. Tudo isso é essencial para que a gente comece a diminuir esse tipo de viés. Sem isso, a gente não conseguirá evoluir na área de inovação para olhares diversos, para aplicar esses olhares na tecnologia. Quando a gente chegou aqui (em Porto Alegre), percebemos uma realidade que a gente já observava globalmente. Acho que a gente consegue mudar isso fazendo investimentos na área, para contratar pessoas diversas. Olhando para pesquisa, para a busca de talentos. Uma reportagem do The New York Times sobre o documento da Unesco afirma que uitas mulheres deixam o mercado de trabalho depois de certo tempo de carreira. Em nossa empresa, há exemplos que ajudaram muito a combater isso, como programas de desenvolvimento de liderança, como Wild (Women in Leadership team), como Enegrecer a Tecnologia, Todas as Mulheres na Tecnologia, também com foco grande em pessoas trans, como o Transpondo Barreiras, e outras ações internas. A gente consegue ver aumento significativo nos últimos nove anos. Hoje, nossa população (na empresa) é composta por 42% de mulheres e 30% de diversidade racial. Não chega à equiparação da demografia no Brasil, mas traz diferentes olhares para os produtos que estamos criando. Vejo que há uma movimentação da indústria para buscar esses olhares, mas ainda é incipiente. A gente precisa ser cada vez mais intencional nisso.