A revolução da inteligência artificial (IA) generativa promete ao mundo benefícios como maior eficiência em tarefas e ganhos de produtividade na economia. Mas são avanços científicos que, ao mesmo tempo em que fascinam, trazem preocupações crescentes. As inquietações se referem, principalmente, à ampliação de possibilidades de produção de conteúdos fraudulentos por meio de ferramentas de IA. São vídeos, fotos e áudios falsos, mas ultrarrealistas, o que dificulta a sua identificação.
Faz-se necessária uma regulação capaz de inibir e punir o uso criminoso da inteligência artificial
Chamou especial atenção nas últimas semanas a Sora, nova ferramenta da OpenAI, criadora do ChatGPT, capaz de produzir vídeos e outros tipos de imagens que impressionam por parecerem bastante com peças reais. Embora ainda não possa ser utilizada pelo público em geral, é uma amostra da velocidade de evolução dessa tecnologia. Além disso, outras plataformas semelhantes já estão acessíveis a qualquer interessado na criação de audiovisuais por meio da IA.
A disseminação de ferramentas análogas preocupa no país e no Exterior por uma série de razões. Uma delas é simplificar a produção e o compartilhamento massivo de deepfakes, como se chamam essas manipulações convincentes de vídeos e áudios com o objetivo de atingir adversários políticos. Em diversas nações, especialistas alertam para o risco à higidez da própria democracia, pelo potencial de influenciar e macular o resultado de pleitos. Criar vídeos falsos em que pessoas aparecem falando ou fazendo algo que nunca disseram ou fizeram já foi um recurso empregado na eleição argentina, no ano passado. Outro caso ocorreu na disputa pela prefeitura de Chicago, nos EUA. Também ao final de 2023, o prefeito de Manaus (AM) foi vítima da falsificação de um áudio imitando a sua voz, no qual pretensamente chamava professores municipais de “vagabundos”.
O uso criminoso de ferramentas semelhantes é ainda mais diversificado. Vem sendo empregado por estelionatários para aplicar golpes, por exemplo. Há ainda os casos de vídeos pornográficos falsos produzidos a partir de fotos e áudios das vítimas. Os tipos de danos são variados e graves.
São apreensões que elevam a pressão para que o Congresso regulamente a utilização da IA no país, inclusive prevendo punições em situações que se mostrem delituosas. O presidente da Câmara, Arthur Lira, é favorável e se comprometeu a dar prioridade ao tema neste ano. O presidente do Senado, Rodrigo Pacheco, apresentou em 2023 um projeto de lei com esta finalidade. O texto, que contou com a colaboração de uma comissão de juristas, está em tramitação, e o relator da matéria na Casa, o senador Eduardo Gomes (PL-TO), afirma que entregará o parecer para votação em abril. Não há garantias, porém, de que possa valer a tempo do pleito municipal de 2024.
Idealmente, em especial no uso eleitoral de deepfakes geradas por IA, a disseminação de desinformação com o objetivo de difamar e caluniar adversários políticos poderia ser freada por um processo educativo de criação de consciência crítica por parte dos eleitores. Ocorre que o freio à propagação das fake news tradicionais já tem se mostrado, na prática, bastante dificultoso. Em parte, pela omissão das plataformas de redes sociais quanto à moderação de conteúdo. Mas também, infelizmente, pela propensão de parcela de cidadãos a compartilhar conteúdos sem nenhuma checagem, desde que atinjam a corrente política contrária ou confirmem o seu viés ideológico.
O Congresso, portanto, não pode se omitir. Mas deve ser cuidadoso diante de um tema complexo, em constante evolução e que se constitui em uma nova fronteira tecnológica. Há risco até de o regramento ter uma obsolescência prematura. É preciso ter garantias, por exemplo, de não ser posto nenhum obstáculo à inovação e às infinitas contribuições que a IA pode trazer à humanidade, da educação à medicina. Por outro lado, faz-se necessária uma regulação capaz de inibir e punir o uso criminoso da inteligência artificial.