A Meta anunciou, nesta quarta-feira (8), que os anunciantes terão que declarar se usaram Inteligência Artificial (IA) ou outro software para criar ou alterar imagens e áudios em propaganda política. O requisito valerá globalmente no Facebook e Instagram a partir do início do próximo ano.
"Anunciantes que estão promovendo questões sociais, eleições e política na Meta terão que indicar se a imagem ou o som foram criados ou alterados digitalmente, inclusive com IA, para fazer com que pessoas reais digam coisas que não fizeram ou disseram", disse o presidente de assuntos globais da Meta, Nick Clegg, em uma postagem no Threads.
Os anunciantes também terão que revelar quando usam IA para criar pessoas ou eventos realistas falsos, acrescentou.
Além disso, os parceiros de verificação da Meta, incluindo a AFP, podem rotular conteúdo como "alterado" se determinarem que foi criado ou editado de forma enganosa.
Entre os temores em relação à IA, cada vez mais poderosa, está o potencial de fraude durante as eleições.
Outra gigante que está tomando medidas para controlar esse problema é a Microsoft, que planeja lançar no início de 2024 ferramentas que permitirão aos candidatos ou campanhas incluir "credenciais" em imagens ou vídeos que produzam.
A empresa também anunciou que criará uma equipe para ajudar as campanhas a combater ameaças baseadas em IA.