
Versões bebês de famosos falando, figuras bíblicas gravando vlogs e animações de gatinhos vivendo dramas. Esses são alguns exemplos de cenas absurdas geradas por inteligência artificial (IA) que já viralizaram nas redes sociais. Com o avanço acelerado dessas tecnologias, diferenciar o que é real do que foi criado por IA tem se tornado cada vez mais difícil.
Plataformas como Sora, Runway e Veo 3 já produzem vídeos com um nível de realismo capaz de enganar — mesmo que por poucos segundos — até os mais atentos. Casos como o do canguru tentando embarcar em um avião ou do programa da Marisa Maiô (apresentadora fictícia) mostram como a fronteira entre o real e o artificial se embaralhou — e, diante disso, é preciso cautela.
Qual vídeo foi feito por IA? Faça o teste
Você acredita que consegue afirmar qual vídeo é real e qual é feito por inteligência artificial apenas o assistindo, sem mais informações? Zero Hora preparou um quiz para testar suas habilidades de detecção de conteúdo gerado por IA. Caso tire uma nota baixa, não se preocupe: abaixo, veja dicas de como identificar a origem de um vídeo.
Como identificar
- Atenção ao contexto do vídeo
- Plausibilidade
- Fraquezas técnicas dos vídeos (falhas em movimentos e ausência de ruídos sonoros)
- Analisar a movimentação humana (quando o vídeo possui humanos)
- Elementos e detalhes da cena
Não existe uma maneira infalível de verificar se um conteúdo foi criado por IA. O que se pode fazer é uma análise cuidadosa de diferentes elementos que, juntos, ajudam a levantar suspeitas. Entre os principais pontos de atenção estão o contexto, a plausibilidade e fraquezas técnicas desses vídeos — como falhas em detalhes visuais ou movimentos (entenda abaixo).
Para facilitar a identificação, Zero Hora falou com especialistas e reuniu dicas com os principais sinais de que um vídeo pode ter sido gerado por inteligência artificial. Confira abaixo o que observar:
Falhas em detalhes humanos
Rodrigo Coelho Barros, professor e pesquisador de inteligência artificial da Pontifícia Universidade Católica do Rio Grande do Sul (PUCRS), explica que levantamentos apontam que as pessoas têm mais facilidade de identificar vídeos com humanos do que aqueles com animais, paisagens ou comida. Isso, porque a IA tem dificuldade de imitar com naturalidade o humano.
Um dos primeiros sinais de alerta costuma ser a textura da pele. Rostos gerados pela tecnologia geralmente parecem lisos demais, sem poros ou variações naturais. A aparência "perfeitinha" causa estranhamento ao cérebro humano — um efeito conhecido como "vale da estranheza" — pois não condiz com a pele humana, que sempre apresenta algum grau de imperfeição.
Outro fator é a fala. Em vídeos falsos, os lábios nem sempre se movimentam de forma sincronizada com o áudio. A entonação também tende a soar um pouco robótica, e as expressões faciais durante a fala podem parecer mecânicas ou repetitivas.
Mas as diferenças não são somente visuais. Podem ser linguísticas. De acordo com o professor Rodrigo, dados apontam que é mais fácil perceber que um vídeo é falso quando o áudio está na língua nativa do observador.
— Um vídeo gerado por IA em português é mais facilmente identificado por brasileiros como artificial, por conta de detalhes como sotaque e naturalidade da fala — diz Rodrigo.
Erros anatômicos também chamam atenção. Braços e pernas em posições impossíveis, mãos com seis dedos ou dedos colados são falhas recorrentes.
— Às vezes, os membros aparecem em proporções erradas ou dobrados de forma que não faz sentido. É o tipo de erro que ainda aparece com frequência — explica a pesquisadora Luciana Nedel, professora do Instituto de Informática da UFRGS.
Isso se agrava em cenas de contato físico, como abraços, onde é comum que um braço atravesse um corpo de outra pessoa, por exemplo. O que nos leva ao próximo ponto.
Quebrando regras da física
Ao contrário da realidade, os vídeos gerados por IA não são submetidos às leis da física. Movimentos que desafiam essas regras são comuns: corpos que aceleram ou desaceleram abruptamente, objetos que flutuam ou mudam de direção sem motivo. Isso pode acontecer tanto com pessoas quanto com objetos, mas pode ser mais facilmente detectado em cabelos, líquidos e tecidos em movimento.
Outro ponto fraco são a luz e seus efeitos. Ainda é comum encontrar sombras ausentes ou em direções erradas, reflexos mal construídos e iluminação incoerente entre objetos, fundo e pessoas. A chamada "flickering" — luz que pisca entre um frame e outro — também é um indicativo de que algo está errado.
Além disso, elementos da cena nem sempre parecem integrados. Às vezes, uma pessoa ou objeto parece flutuar, se destacar demais ou parecer colado no cenário, como se não fizesse parte da mesma gravação.
Detalhes esquecidos
De acordo com a professora Nedel, quanto mais elementos em cena, maior a chance de erro. Em vídeos gerados por inteligência artificial, cenas muito complexas — com multidões, florestas ou cidades cheias de objetos — costumam apresentar mais falhas. Isso porque os modelos priorizam os elementos centrais da imagem, geralmente os personagens ou objetos em destaque, e acabam dedicando menos atenção ao que está em segundo plano.
— Como a IA costuma concentrar o processamento nos elementos em foco, o segundo plano acaba ficando mal renderizado. É comum ver rostos deformados, objetos distorcidos ou elementos que parecem colados no fundo — explica Luciana, professora do Instituto de Informática da UFRGS.
Essas falhas podem aparecer de várias formas: rostos com traços borrados, árvores ou carros que se repetem de maneira artificial, sombras incompatíveis com o restante da imagem e até pessoas "fundidas" umas nas outras. São indícios de que o sistema, ao tentar dar conta de muita informação visual ao mesmo tempo, simplifica ou copia partes do cenário — quebrando a sensação de realismo.
Contexto e plausibilidade
Esses detalhes técnicos são indicativos, mas, com os vídeos gerados por IA cada vez mais realistas, analisar o contexto se tornou ainda mais essencial para identificar se o conteúdo é falso. O primeiro passo é analisar a publicação: de onde o vídeo surgiu, quem postou, quais conteúdos costumam ser publicados na conta e o que consta na legenda.
Depois de entender o contexto, é importante questionar a plausibilidade: isso faz sentido? Qual a chance dessa cena ter realmente acontecido?
Um bom exemplo de quando o contexto e a plausibilidade podem resolver a questão é o dos vídeos do programa da "Marisa Maiô", apresentadora fictícia criada por IA. Ela aparece em um programa de auditório, vestida com um maiô preto e salto alto, fazendo piadas curtas. A estética imita programas de TV dos anos 1990, mas o conteúdo é absurdo.
Ao ver o conteúdo, o interessante é questionar se um canal de TV colocaria um programa assim no ar, conferir se há alguma identificação de emissora ou marcas conhecidas, e buscar se há outros episódios. O formato curto e a produção cinematográfica sugerem uma esquete.
Segundo os pesquisadores, se um vídeo tem aparência profissional, mas não tem fonte confiável ou explicação plausível, o sinal de alerta deve acender. A dica é sempre perguntar: quem faria isso? E por quê? Sem respostas claras, a chance de ser uma encenação digital é alta.
Outro recurso útil é observar os comentários. Muitas vezes, outras pessoas já perceberam as falhas antes de você. É comum ver apontamentos, links de checagem ou dúvidas parecidas com as suas. Se você está desconfiando, alguém provavelmente já desconfiou e pode ter encontrado a resposta.
O que esperar do futuro?
Rodrigo lembra que, quando começaram a lidar com esse tipo de conteúdo, em 2022, os erros eram muito mais evidentes. Poucos anos depois, o salto tecnológico foi astronômico — e não há sinal de desaceleração.
Por isso, além da observação a olho nu, especialistas recomendam o uso de ferramentas complementares. Luciana aponta a busca reversa de imagem e vídeo no Google, por exemplo. Assim, é possível encontrar a origem do conteúdo e verificar se ele já foi desmentido.
Rodrigo destaca que, em alguns casos, é necessário o uso de IA para detectar indícios da própria tecnologia. Isso porque, enquanto alguns pesquisadores trabalham para tornar os vídeos gerados artificialmente mais realistas, outros desenvolvem sistemas para detectar esses conteúdos.
Uma das estratégias utilizadas por estas tecnologias de detecção envolve a análise quadro a quadro — chamada optical flow — que detecta variações bruscas de pixels entre os frames. Outra técnica foca em inconsistências geométricas, como perspectiva, profundidade e campo de visão.
Como estes sistemas ainda não são amplamente acessíveis ao público, outras soluções estão sendo buscadas para facilitar o processo e garantir a segurança das pessoas.
— Como os vídeos estão cada vez mais realistas, a solução a médio e longo prazo passa por algo mais técnico: a implementação de marcas d'água invisíveis, chamadas metadados — afirma Luciana.
Essas assinaturas digitais ficam embutidas no arquivo e não são visíveis para o público, mas permitem rastrear a origem do conteúdo. De acordo com Luciana, a ONU já coordena grupos de trabalho para criar diretrizes sobre o uso de IA na geração de vídeos, com foco em regulação, transparência e responsabilização.
Enquanto isso, vale ficar atento às dicas e usar a inteligência artificial de forma consciente, aproveitando seus benefícios sem cair em armadilhas.
*Produção: Camila Mendes


