
Em julho, Zero Hora publicou uma matéria mostrando como identificar vídeos criados por inteligência artificial com o Veo 3, ferramenta do Google capaz de gerar imagens ultrarrealistas a partir de texto. Naquele momento, o conteúdo ainda apresentava falhas, como sombras desalinhadas, áudio dessincronizado, expressões rígidas e mãos deformadas.
O lançamento do Sora 2, versão mais recente do gerador de vídeos da OpenAI, porém, elevou a experiência a outro patamar, com vídeos que, embora pareçam de "menor qualidade", estão mais difíceis de serem identificados, pelo menos à primeira vista, como algo feito por uma máquina.
Quem costuma rolar o feed do TikTok ou do Reels do Instagram encontra com facilidade uma enxurrada desses clipes curtos. A maioria tem imagem granulada, parece filmada com celular antigo, ou até por câmeras de segurança, e dura poucos segundos. Tudo isso é proposital.
— Se a gente olhar para os vídeos de hoje, vemos um salto enorme desde 2023. Os primeiros modelos eram muito limitados. Com o Veo 3, começou a ficar plausível simular algo que substituísse uma captação por câmera. Agora, é difícil discernir o que é verdade ou verossímil. Hoje está realmente complicado — afirma Roberto Tietzmann, professor da Escola de Comunicação, Artes e Design da PUCRS.
O que é o Sora 2?
O Sora 2 é o sistema de geração de vídeos mais recente da OpenAI, empresa responsável pelo ChatGPT. Ele transforma descrições por escrito em cenas completas, com pessoas, ambientes e movimentos naturais.
A ferramenta se destaca não somente pela qualidade, mas também pela facilidade de uso. Isso porque, ao contrário de versões anteriores, o Sora 2 foi lançado integrado a um aplicativo próprio, o que ampliou o acesso e multiplicou o número de vídeos gerados em poucos dias, embora ainda não esteja disponível no Brasil.
— A OpenAI transformou a ferramenta em um produto de massa. A lógica é a mesma das redes sociais: quanto mais as pessoas criam e consomem, mais dados são gerados, e o sistema acaba aprendendo com isso — observa Tietzmann.
O que é um "AI slop"
Enquanto o Veo 3 é mais pensado para criadores ou mesmo estúdios que desejam produzir conteúdos "mais controlados" e "cinematográficos", o Sora 2 aposta no viral, onde qualquer pessoa pode gerar um vídeo em poucos segundos. Foi isso que facilitou a alta viralização dos conteúdos em plataformas de vídeos.
— Vamos chamar informalmente de vídeos de "pegadinhas". Neles, um usuário comum pode pegar um rosto de alguém, um corpo de alguém e colocar num vídeo, numa situação cômica e assim por diante, com resultados bastante realistas, mais que isso, verossímeis. Então, já é algo pensado em manter o usuário produzindo e consumindo na plataforma — explica o professor.
O termo "pegadinha" é o que ajuda a entender a lógica por trás de uma nova categoria de conteúdo que se popularizou junto a essas ferramentas: o IA slop. Em inglês, slop significa algo como "mistura" ou "lixo", e passou a ser usado para definir esses vídeos curtos e sem uma lógica aparente, criados por inteligência artificial para gerar visualizações e engajamento.
São produções rápidas, muitas vezes repetitivas, que mostram situações banais, mas visualmente convincentes o suficiente para parecerem reais e, com frequência, engraçadas. Entre os exemplos que viralizaram estão vídeos de cães dançando e soltando jatos d’água pela boca, celebridades como Michael Jackson "roubando" objetos e outras cenas sem qualquer sentido, que se multiplicam nas redes.
— Eu não sei até que ponto a companhia previu esse uso selvagem pelos usuários. Era óbvio, olhando do ponto de vista brasileiro, que as pessoas iam usar para produzir memes. No material de divulgação do Sora, eles até colocam: "faça pegadinhas com seus amigos". E as pessoas começaram a apropriar-se de outras propriedades, inclusive da aparência de pessoas reais, e já há reclamações sobre isso — completa Tietzmann.
Exemplos de "IA Slop"
Do meme à "manipulação"
Grande parte desses conteúdos nasce do humor. Mas o mesmo recurso que gera memes também pode ser usado para manipular e espalhar desinformação, alerta o professor.
— As técnicas de manipulação já existiam, com montagens rudimentares, mas que ganhavam credibilidade pela circulação em grupos familiares e redes sociais — afirma.
Nos Estados Unidos, por exemplo, as campanhas eleitorais de Donald Trump e Kamala Harris, em 2024, já recorreram a cenas geradas por inteligência artificial, mesmo quando havia aviso de que o material era simulado. Naquela ocasião, a semelhança visual já foi o bastante para causar impacto.
— Como observar, num golpe de vista, se um vídeo é IA? É muito difícil. Esses contemporâneos estão realmente muito difíceis de identificar, quase impossível. Até porque o consumo é rápido, como batata frita: tu aprecia, mas nem pergunta como ele foi feito — frisa Tietzmann.
Como identificar vídeos feitos por inteligência artificial?
Ainda é possível reconhecer alguns sinais de que um vídeo foi criado por inteligência artificial. O primeiro deles é o tempo de duração: essas produções costumam ser curtas, entre seis e dez segundos. Quanto mais longo o clipe, maior a chance de falhas visuais ou cortes sutis aparentes.
Outras pistas estão na ausência de sons naturais (vale ressaltar que houve evolução no Sora 2 em relação ao Veo 3) e na falta de continuidade narrativa, ou seja, movimentos que não levam a "lugar algum" ou terminam abruptamente.
Em geral, os vídeos do Sora também trazem marcas-d’água, embora possam ser facilmente removidas com programas de edição. Segundo Tietzmann, no entanto, a principal ferramenta de verificação não está no vídeo, mas fora dele:
— Entender o contexto do vídeo é fundamental. Saber que o Michael Jackson faleceu há mais de 15 anos e não poderia estar numa lancheria hoje, por exemplo. Isso exige bagagem do espectador para entender que é uma pegadinha ou algo falso — explica.


