
O Veo 3, novo modelo de inteligência artificial da Google, virou assunto nas redes sociais nos últimos dias. Os vídeos gerados chamam atenção pelo hiper-realismo — e geram preocupação em âmbitos legais e éticos. Segundo especialistas, os perigos vão do impacto à produções culturais a vídeos falsos sendo usados para golpes e campanhas políticas.
Lançada oficialmente em maio, a ferramenta combina diferentes redes neurais para criar vídeos complexos, com narrativa, movimentos de câmera e áudio integrado.
— Ela deixou todo mundo de queixo caído. Isso é uma constante nesses avanços de IA. Porém, nessa, realmente, foi dado um passo à frente — afirma Roberto Tietzmann, professor da Pontifícia Universidade Católica do Rio Grande do Sul (PUCRS) e pesquisador de tecnologias emergentes no meio audiovisual.
Como funciona o Veo 3?
O Veo 3 é um modelo de inteligência artificial generativa multimodal, projetado para transformar texto em vídeo com áudio, movimento e expressão facial.
— Ele entende o texto como intenção narrativa. Interpreta o comando e cria uma sequência coerente com iluminação, movimentos de câmera, vozes e efeitos. É como se tivesse um diretor, um sonoplasta e um editor atuando juntos — explica Rodrigo Rios, especialista em inteligência artificial e professor da CESAR School.
Por trás do sistema, o modelo usa "transformers temporais", redes de difusão e módulos semânticos que alinham imagem, som e linguagem.
Por que é mais avançado que outras IAs

Outras ferramentas de geração de vídeo, como o Sora, da OpenAI, e o próprio Veo 2, também geram conteúdo audiovisual. Mas o Veo 3 se diferencia por produzir vídeos com movimento natural, coerência semântica e sons integrados à imagem.
— O Veo 3 representa um salto de qualidade. Um de seus maiores diferenciais é que ele gera não apenas o vídeo, mas também o áudio completo da cena — com sonoplastia, efeitos sonoros e locução sincronizada, tudo integrado — diz Rios.
Segundo Tietzmann, o Veo 3 também é capaz de simular sotaques regionais e contextos locais com mais naturalidade que modelos anteriores.
De onde vêm os dados?
Para atingir esse nível de "sofisticação", o Veo 3 precisa ser treinado com bases de dados robustas. Isso inclui clipes de vídeo reais, trilhas sonoras, roteiros, descrições textuais, imagens e efeitos visuais.
— Provavelmente deve ter sido treinado com grandes volumes de dados. O grande desafio está na origem deles. Sem um controle rigoroso, pode trazer riscos como violação de direitos autorais, reprodução de vieses culturais e estereótipos, ou até mesmo fontes de baixa qualidade — afirma Rios.
Walter Capanema, advogado e professor especializado em direito digital, alerta que muitas ferramentas de IA podem ser alimentadas com conteúdos retirados da internet sem autorização.
Ele cita como exemplo uma declaração de Mina Murati, ex-diretora executiva da OpenAI, que admitiu o treinamento do Sora com dados de vídeos do YouTube.
— Muitas ferramentas estão copiando dados da internet, das redes sociais, sem o consentimento dos usuários. Outra questão também é o que nada é de graça. Mesmo em uma ferramenta gratuita, você está alimentando com seus dados, com informações pessoais — afirma Capanema.
Quais os riscos
Além da insegurança referente à origem das referências usadas pela IA, especialistas citam como riscos a produção de conteúdo enganoso, a simulação de pessoas reais, a violação de imagem e manipulação política, como os chamados deepfakes.
— Você já não sabe o que é verdade e o que não é, não consegue mais identificar facilmente se o vídeo é real ou não. É algo grave, que pode impactar a liberdade de expressão, a democracia, até o processo de tomada de decisão da pessoa — alerta Edson Prestes, professor do Instituto de Informática da Universidade Federal do Rio Grande do Sul (UFRGS) e coautor da primeira norma global sobre Ética em IA.
Segundo Prestes, a disseminação de conteúdos hiper-realistas pode ter efeitos negativos práticos:
— Pode ser um vídeo de um político, por exemplo, recebendo propina ou, de repente, em um cenário de violência doméstica. Isso já poderia influenciar na escolha de outros políticos no processo eleitoral, mas é um vídeo falso — afirma.
Para o professor, ainda há "ingenuidade" da população na hora de avaliar os conteúdos que estão disponíveis da internet. Em especial, ele chama atenção para a vulnerabilidade de certos grupos:
— Não apenas pessoas leigas, mas até pessoas letradas. Não há um letramento digital para saber ao que as pessoas estão expostas. Crianças e idosos são especialmente vulneráveis. Uma criança, por exemplo, pode se automutilar ao acreditar que os pais estão em perigo. Um idoso pode cair em golpes de sequestro por vídeo e por aí vai — ressalta.
Eleições ampliam risco de uso político da IA
Para o especialista em direito digital Walter Capanema, o padrão de uso da internet no Brasil é propício para a circulação de vídeos sintéticos com fins eleitorais, sobretudo nas redes sociais e aplicativos de mensagem.
— A chance de haver um uso político de vídeos falsos é real. O Brasil já tem histórico de desinformação em eleições, e agora a tecnologia permite criar cenas com altíssimo grau de realismo. É uma combinação explosiva — alerta o advogado.
Segundo ele, o uso de deepfakes pode prejudicar campanhas, manchar reputações e influenciar o resultado de votações. O principal risco está em conteúdos que exploram o imaginário do eleitor, como cenas que simulam agressões, fraudes ou declarações forjadas.
— Imagine um vídeo gerado por IA mostrando um candidato cometendo um crime, ou sendo hostil com uma criança, ou zombando da fé das pessoas. Mesmo que seja desmentido depois, o estrago já está feito — explica.
Existe lei sobre IA no Brasil?

A legislação brasileira atual ainda não está preparada para lidar com a complexidade desses casos, segundo Capanema.
— Nós não temos uma lei federal estabelecendo direitos, deveres e responsabilidades sobre o uso de inteligência artificial. O que nós temos são regulações muito tímidas, como a norma do TSE que proíbe o uso de deepfake em campanhas eleitorais — afirma.
A resolução 23.610 do Tribunal Superior Eleitoral, alterada em 2024, foi uma das poucas a tratar explicitamente do tema, indica o especialista. O texto proíbe, por exemplo, o uso de figuras simuladas — mesmo em mensagens positivas — durante campanhas.
— A norma impede, por exemplo, que um candidato use um deepfake do pai falecido dizendo "meu filho, que bom que você se candidatou". Mesmo que a mensagem seja afetuosa, isso já é considerado ilegal — explica o advogado.
Capanema destaca ainda que o Projeto de Lei 2338, que tramita no Congresso, é atualmente a principal proposta em discussão. O texto estabelece diretrizes para uso responsável de IA, incluindo gestão de risco e proibição da tecnologia em contextos sensíveis. Mas há entraves para sua aprovação.
— Existe um lobby muito forte das big techs para impedir o avanço da legislação. Se for aprovado, vai impor diversos deveres de conformidade, segurança, que implicam em gastos financeiros que elas não querem ter — critica.
Quem cria ou compartilha pode ser punido?
Além da necessidade de regulação, outro ponto levantado por Capanema diz respeito à responsabilização por vídeos gerados por IA. Segundo ele, o uso indevido da imagem ou voz de alguém pode configurar crime, mesmo que a simulação seja artificial.
— Você pode ter calúnia, se simular que alguém cometeu um crime; difamação, se atribuir uma conduta desonrosa; ou injúria, se o conteúdo for ofensivo. E quando a vítima é mulher, isso pode ser enquadrado no artigo 147-B do Código Penal, como violência psicológica, com pena agravada se houver uso de tecnologia — detalha.
Na esfera penal, o dolo — ou seja, a intenção de causar dano — é determinante para que haja punição. Por isso, quem apenas compartilha sem saber a origem ou o conteúdo pode não ser responsabilizado criminalmente. Mas, na esfera civil, a lógica é diferente.
— Quem compartilha com a intenção de espalhar uma ofensa pode ser responsabilizado junto com quem criou. Não é só quem gerou o vídeo que responde — afirma.
Ele ressalta que, embora algumas plataformas apliquem marcações visuais ou armazenem metadados que indicam a origem de um vídeo, esses traços podem ser facilmente apagados.
— Tirar um vídeo do ar é uma tarefa difícil. É uma briga de gato e rato. Você apaga de um lugar, ele reaparece em outro. Isso mostra como o problema é complexo e exige ação rápida e coordenada — conclui Capanema.
Como a IA afeta a produção audiovisual?

No campo da comunicação e das artes, o avanço de ferramentas como o Veo 3 também levanta discussões sobre autoria, linguagem e trabalho. O professor Roberto Tietzmann reconhece o impacto da IA no audiovisual, mas aponta para um risco: a perda da confiança na imagem como "evidência".
— A gente sempre associou o audiovisual à prova do real. Mas essas imagens podem ser forjadas de forma cada vez mais direitinha. A prova, possivelmente, não vai estar na imagem em si. Vai ter que estar nos metadados, nas informações que acompanham a gravação — sugere.
Ele destaca, porém, que ferramentas como o Veo 3 também podem ajudar a ampliar o acesso à criação audiovisual. Para ele, o baixo custo e a praticidade abrem também espaço para realizadores que antes não tinham condições de produzir vídeos com qualidade visual elevada.
— Um realizador com poucos recursos consegue fazer um rascunho, uma brincadeira, um vídeo com ficção científica, terror ou aventura. Isso abre caminho para muita gente testar ideias, desenvolver coisas que antes não eram possíveis — avalia.
O professor reconhece que esses modelos não substituem o olhar local e a vivência cultural. Por isso, ele acredita que, no fim das contas, a ferramenta não substituirá por inteiro as funções criativas.
— Talvez, se um personagem de um filme gaúcho diz que vai passar dois dias na Lua, o modelo ajude. Mas, se ele for ao Bonfim ou tomar um chimarrão na Redenção, isso já é muito mais simples, muito mais verdadeiro de filmar aqui mesmo. Esse tipo de representação local ainda está fora do alcance desses modelos — compara.
Outra crítica recai sobre a homogeneização estética que esses sistemas tendem a promover. Pela forma como são abastecidos e sem referências específicas ou comandos muito bem estruturados, os vídeos gerados podem entregar sempre as mesmas fórmulas visuais.
— Essas imagens devem servir como um ponto de partida, como rascunhos visuais. Se você apenas aperta o botão e sai a coisa pronta, essa coisa vai tender a ser bastante padronizada — explica.
O que pode ser feito?
Os especialistas afirmam que o caminho para reduzir os riscos do Veo 3 envolve múltiplas frentes. A primeira delas é a regulamentação legal. Projetos como o PL 2338, que já tramita no Congresso, precisam avançar.
— Não se trata de impedir o avanço da tecnologia. Estamos falando de regulação, de capacitação, de trazer esse público jurídico para essa nova realidade. Para entender o que está acontecendo e poder defender nossos direitos — conclui.
Outra medida seria exigir que todos os vídeos gerados por IA contenham marcadores automáticos — visíveis ou não — que permitam rastrear sua origem.
— Isso pode ser feito por meio de marcações digitais ou outros mecanismos, como está sendo implementado na China. É possível, por exemplo, classificar vídeos gerados por IA de forma automática, e isso ajudaria muito, principalmente para evitar a geração de conteúdo prejudicial — propõe Prestes.
A terceira frente é a responsabilidade das plataformas. Big techs como o Google, a Meta e a OpenAI devem adotar mecanismos mais transparentes e seguros para informar o usuário sobre o conteúdo que está consumindo. Por fim, o elemento mais "decisivo", segundo os entrevistados, envolve os usuários.
— Falta letramento digital. Se não há um campo digital adequado e as pessoas não sabem diferenciar o que é verdadeiro do que é falso, acreditam em tudo o que aparece na tela, temos um cenário extremamente perigoso — finaliza Prestes.
*Produção: Murilo Rodrigues