Uma ideia, algumas palavras digitadas e, como resultado, um vídeo ultrarrealista, similar ao trabalho feito por profissionais do audiovisual. Essa é a proposta do Sora, a nova inteligência artificial (IA) da OpenAI, criadora do ChatGPT, lançada em 15 de fevereiro.
O modelo é visto como um aperfeiçoamento da tecnologia, mas que pode estimular a circulação de informações falsas e influenciar o processo eleitoral brasileiro em 2024, dizem especialistas consultados por GZH. A chegada da plataforma reforça a necessidade de uma regulamentação da IA no Brasil – algo tratado como prioridade no Legislativo federal –, acrescentam os estudiosos.
No momento, o Sora está disponível apenas a especialistas escolhidos para análise da ferramenta. Não há uma data de liberação para o restante dos interessados. A plataforma é um sistema de IA generativa, ou seja, cria conteúdos a partir de comandos do usuário, que não precisa ter conhecimentos avançados para usá-la.
Ferramenta pode estimular informações falsas
Ricardo Matsumura de Araujo, professor na Universidade Federal de Pelotas (UFPel) e coordenador do Hub de Inovação em Inteligência Artificial (H2IA) da instituição, diz que a ideia do projeto não é nova. Transformar texto em vídeo é algo já feito por outras plataformas: PikaLabs, Runway e InVideo são exemplos.
— As primeiras tentativas foram gerar quadros estáticos sequenciais para dar a ideia de um filme, mas essa consistência durava apenas alguns segundos e apresentava problemas. Os vídeos divulgados (do Sora) têm essa consistência entre si, além de permitir conteúdo de até um minuto. O diferencial é, portanto, um salto na qualidade na comparação ao que existe — explica Araujo.
Além de texto, o Sora também permitirá aos usuários a criação de animações a partir de comandos de imagens estáticas, como uma fotografia. Esse conjunto de facilidades preocupa o especialista porque será possível a criação de deepfakes – termo empregado quando uma inteligência artificial é utilizada para criar vídeos falsos, mas realistas.
— Não tenho dúvida de que isso vai aumentar o problema de disseminação de informação falsa. Já não podemos confiar em textos e imagens, que sabemos que podem ser geradas por inteligência artificial: a partir de agora, também não vamos poder confiar em vídeos — acrescenta o professor.
Não tenho dúvida de que isso (Sora) vai aumentar o problema de disseminação de informação falsa.
RICARDO MATSUMURA DE ARAUJO
Coordenador do Hub de Inovação em Inteligência Artificial (H2IA) da UFPel
Para Araujo, detectar um conteúdo gerado por inteligência artificial é um tarefa complexa, porque as plataformas existentes para checagem da autoria falham ao assinalar o que é produzido por robôs. O mesmo empecilho ocorrerá nas plataformas de criação de vídeos a partir de textos.
— É complicado a aplicação dessas ferramentas (identificação de conteúdo criado por IA) se elas não forem absolutamente corretas, o que, na minha visão, é impossível que sejam. A solução para esse problema não virá na forma de tecnologia, mas com a adoção de um maior ceticismo em relação aos conteúdos. Isso, por um lado, pode ser saudável, pois vai estimular que as pessoas tenham de verificar se aquilo é real ou não — pontua.
IA não é o problema
Para Nythamar Fernandes de Oliveira, professor da Pontifícia Universidade Católica do Rio Grande do Sul (PUCRS) e coordenador da Rede de Inteligência Artificial Ética e Segura (Raies) da instituição, a possibilidade de impulsionar notícias falsas não invalida a ferramenta. Como analogia, ele cita a energia nuclear, que pode ser utilizada como fonte de energia renovável ou dar origem a uma bomba atômica.
— O que estamos vendo não é diferente de pessoas manipuladas por grandes religiões, em países teocráticos e ditaduras. A ideia em uma democracia liberal é que cada indivíduo tenha capacidade crítica de avaliar o que é bom e o que é ruim. A inteligência artificial não pode ser culpada como se fosse a fonte das manipulações e das fake news — diz.
A inteligência artificial não pode ser culpada como se fosse a fonte das manipulações e fake news.
NYTHAMAR FERNANDES DE OLIVEIRA
Coordenador da Rede de Inteligência Artificial Ética e Segura (Raies) da PUC
Por isso, para o pesquisador, o desafio não é barrar ou lutar contra o desenvolvimento científico, e sim criar uma sociedade educada para lidar com novas plataformas e dotada de “senso crítico” em diversas áreas do saber.
— A tendência é o desenvolvimento exponencial de novas tecnologias associadas à inteligência artificial, aprendizado de máquina, deep learning e a computação quântica. Nada disso deve nos levar a uma preocupação apocalíptica. O problema seria a falta de supervisão humana. Enquanto tivermos sistemas de inteligência artificial com interface entre seres humanos e máquinas, temos grandes possibilidades para todas as áreas da vida humana — acrescenta.
Regulação é prioridade em 2024
A inteligência artificial não é regulamentada no Brasil, mas o Legislativo federal tem se posicionado favorável à criação de uma lei. Arthur Lira (PP-AL), presidente da Câmara dos Deputados, disse que a pauta é uma das prioridades para 2024; Rodrigo Pacheco (PSD-MG), presidente do Senado, apresentou uma proposta de regulamentação da inteligência artificial (PL 2.338/2023).
Ter uma legislação em vigor antes das campanhas para as eleições marcadas para outubro no Brasil pode dar mais segurança ao processo, segundo Natália Borges, pós-doutoranda em Inteligência Artificial na Universidade Federal do Rio Grande do Sul (UFRGS) e cofundadora do NAVI, hub de IA vinculado ao Tecnopuc.
— A inteligência artificial pode ser mal utilizada para gerar desinformação, o que desafia a integridade dos processos democráticos. No Brasil, onde sabidamente a dinâmica política é intensificada pelas redes sociais, essas novas funcionalidades de criação de vídeos recentemente lançadas dão alerta a um problema da disseminação de materiais falsos com cada vez mais qualidade, o que certamente enfrentaremos em poucos meses — argumenta.
A inteligência artificial pode ser mal utilizada para gerar desinformação, o que desafia a integridade dos processos democráticos.
NATÁLIA BORGES
Pós-doutoranda em Inteligência Artificial na UFRGS
Para a pesquisadora, a legislação é um primeiro passo para combater a desinformação, mas o texto da norma deve ser preciso o suficiente para dar meios de punição aos propagadores de fake news:
— A lei não deve apenas definir claramente o que constitui material falso gerado por IA, mas também estabelecer penalidades para aqueles que criam e disseminam essas falsidades. Isso exigiria uma definição jurídica precisa de "material falso", adaptável às nuances da tecnologia de IA, bem como um entendimento claro das intenções por trás da sua criação e disseminação.
Natália também acrescenta que deve ocorrer colaboração entre governo, plataformas digitais e as organizações de tecnologia. Essas entidades precisam trabalhar juntas para desenvolver e implementar algoritmos e ferramentas que possam identificar conteúdo falso gerado por IA, antes que esse conteúdo alcance um público amplo.
— Isso pode ser alcançado por meio da implementação de etiquetas ou marcas d'água que indiquem claramente quando um conteúdo foi gerado por IA. Essa medida não só aumentaria a consciência dos usuários sobre a natureza do conteúdo que estão consumindo, mas também promoveria uma maior responsabilidade por parte dos criadores e distribuidores de conteúdo — exemplifica a pesquisadora.