Com casos registrados no Rio de Janeiro, em Minas Gerais e em Pernambuco, o uso da inteligência artificial para criar fotos e vídeos falsos de alunas menores de idade se apresentou ao Rio Grande do Sul nesta semana. A situação foi identificada em uma escola particular da Zona Norte de Porto Alegre e está sendo investigada pela Polícia Civil.
O Estatuto da Criança e do Adolescente estabelece que é proibido “simular a participação de criança ou adolescente em cena de sexo explícito ou pornográfica, por meio de adulteração, montagem ou modificação de fotografia, vídeo ou qualquer outra forma de representação visual”. Mesmo assim, aplicativos que oferecem essa possibilidade estão amplamente disponíveis na internet, o que tem possibilitado que pessoas sem grandes recursos computacionais ou conhecimento na área criem “nudes” falsos de amigos e conhecidos.
No episódio ocorrido em Porto Alegre, nove adolescentes são suspeitos de envolvimento no caso de produção e compartilhamento de vídeos falsos de nudez feitos a partir de inteligência artificial. As imagens vitimaram 16 alunas, todas estudantes do 9º ano do Ensino Fundamental.
As imagens costumam ser feitas de duas formas: uma foto do rosto de uma pessoa pode ser misturada, por meio do aplicativo, com uma foto ou vídeo pornográfico, ou é feito o upload da imagem de alguém vestido e é dado o comando de despi-lo, algo executado artificialmente pelo sistema.
Segundo Daniela Amaral, professora do Curso de Ciência de Dados e Inteligência Artificial da Escola Politécnica da Pontifícia Universidade Católica do Rio Grande do Sul (PUCRS), esses processos acontecer a partir de modelos generativos gerados pela inteligência artificial, que criam novas informações a partir de um conjunto de dados preexistentes.
— É isso que um modelo de machine learning, ou aprendizado de máquina, faz. Nesses casos específicos, o uso da inteligência artificial impulsiona a divulgação de imagens, exploração e até mesmo abuso sexual pela internet. Um criminoso consegue utilizar uma imagem disponível na internet e transformá-la em um conteúdo, por exemplo, sexual, e isso se prolifera — descreve Daniela.
Os modelos utilizados por esses aplicativos são pré-treinados, ou seja, utilizam um conjunto de dados semelhante àquele gerado para criar novas informações. É o mesmo princípio do ChatGPT, por exemplo, ainda que ele aplique sua funcionalidade em textos, e não imagens.
Rafael Bordini, especialista em inteligência artificial, pontua que as empresas que têm esses grandes bancos de dados usados para a criação de modelos generativos têm alguns mecanismos de proteção, para evitar que os dados sejam usados para a geração de conteúdos sexuais ou de violência, por exemplo. Contudo, nem sempre esses mecanismos funcionam, e, muitas vezes, identifica-se uma forma de desviar dessas barreiras.
— A tendência é que esses sistemas se tornem o que a gente chama de “open source”, que significa que a gente pode, no nosso próprio computador, baixar um desses modelos de inteligência artificial e, como está rodando no nosso próprio computador, fugir desses mecanismos de proteção. No ChatGPT, por exemplo, se eu mando ele fazer algo sobre um conteúdo proibido, eles cortam antes. Mas, se está rodando no meu computador, eu consigo fazer qualquer coisa — explica Bordini.
Daniela observa que ninguém está livre que ser vítima de um crime como o cometido nessa escola de Porto Alegre, mas recomenda, para reduzir as possibilidades, que os pais estejam sempre “de olho” no uso que os filhos fazem dos meios digitais. Outra dica é configurar as redes sociais para restringir as postagens só para quem o usuário autoriza, a fim de evitar que as fotos circulem entre desconhecidos que podem fazer esse tipo de manipulação. A professora destaca, ainda, a importância de famílias e escolas conscientizarem as crianças e os adolescentes nesse sentido.
— É importante proporcionar que essas informações estejam mais presentes nessas escolas, por meio de palestras que tragam exemplos práticos e didáticos: mostra um perfil, explica quais questões de segurança podem ser assinaladas. É preciso estar sempre atento — diz a docente.
Projeto de lei
Tramita no Senado um projeto que criminaliza a criação ou divulgação de nudes através do uso de inteligência artificial. O texto, de autoria da deputada federal Erika Kokay (PT-DF) e com relatoria pela parlamentar Luisa Canziani (PSD-PR), estabelece pena de um a quatro anos prisão e multa para quem criar ou divulgar “montagens ou modificação que tenham como objetivo incluir pessoa em cena de nudez ou ato sexual, inclusive com uso de inteligência artificial em vídeo, áudio ou fotografia”.
A punição poderá ser ampliada até a metade, caso o crime seja praticado em razão de atividade comercial, funcional ou até mesmo profissional. Crimes como "registro não autorizado da intimidade sexual" e "divulgação de cenas de estupro e estupro de vulneráveis" e "manipulação de imagens, inclusive com uso de inteligência artificial" também estão incluídos no texto.