A disseminação de publicações com supostas ameaças de ataques a escolas em redes sociais integra um debate antigo: a falta de controle sobre o que é publicado nas plataformas digitais. O assunto voltou à pauta no Brasil após o atentado à escola infantil de Blumenau (SC), que resultou na morte de quatro crianças. Os dias seguintes ao crime têm sido de ações policiais para coibir outros ataques e monitorar suspeitas de planejamentos de novas ações.
Isso fez o governo federal pressionar gigantes da tecnologia - as big techs, como Meta (dona do Facebook), Twitter e Google - para ampliar a moderação dos conteúdos com temática criminosa. O Twitter, porém, demonstrou descaso ao permitir posts com apologia à violência após o atentado em Santa Catarina. O ministro da Justiça, Flávio Dino, anunciou, na quarta-feira (12), a publicação de uma portaria com medidas para que plataformas de redes sociais sofram sanções caso não adotem ações para impedir a divulgação de materiais ilícitos.
Especialistas dizem que as leis brasileiras são brandas com as empresas responsáveis pelas redes sociais: a remoção de ameaças e discursos de ódio é lenta e falha; isso permite que posicionamentos extremistas se disseminem em espaços acessados por crianças e adolescentes.
Punição financeira às empresas e integrar o país ao debate internacional sobre o tema da regulamentação das redes sociais são opções indicadas pelos estudiosos.
A disseminação de ameaças
Amaro Grassi, sociólogo, jornalista e coordenador de pesquisa na Diretoria de Análise de Políticas Públicas da Fundação Getúlio Vargas (DAPP/FGV), diz que a fragilidade das leis brasileiras contribui para a propagação de conteúdos extremistas. O Marco Civil da internet regula as redes sociais desde 2014, mas que, segundo Grassi, falha ao não responsabilizar, de forma efetiva, as plataformas por materiais criados por usuários.
— Não adianta só remover o conteúdo, isso é enxugar gelo. Tem que remover e contribuir para achar quem fez. E quem vai poder indicar é a plataforma, coibindo a anonimização e dando elementos para a Justiça agir e chegar aos responsáveis. Colaborar não é suficiente: as empresas precisam se responsabilizar por conteúdos que violam princípios democráticos — diz.
Para Rodrigo Azevedo, professor de Direito da Pontifícia Universidade Católica do Rio Grande do Sul (PUCRS) e especialista em Segurança Pública, o Brasil deve estar integrado ao debate do tema feito em outros países, em uma espécie de "coalização internacional". A União Europeia, no ano passado, criou um conjunto de regras para controlar a atuação das gigantes da tecnologia:
— Perdemos muito tempo com a discussão da chamada liberdade de expressão, que é absolutamente necessária e legítima, mas que não cobre as manifestações de estímulo à violência ou de cunho racista. A União Europeia tem avançado no debate para tornar essas redes sociais similares à imprensa, que é responsável pelo conteúdo que publica — comenta.
A Alemanha tem liderado a ofensiva europeia para combater discursos de ódio, com o Network Enforcement Act. Entre outras medidas, a legislação determina que redes sociais com mais de dois milhões de usuários no país sejam obrigadas a responder às denúncias sobre conteúdos proibidos e atuar para removê-los. E isso deve ser feito em até 24 horas em situações de materiais “claramente ilegais”.
Discurso de ódio, ameaças pessoais, difamação e antissemitismo são exemplos do que deve ser removido com rapidez pelas empresas. Segundo a Forbes, por supostamente descumprir essas determinações, o Ministério da Justiça alemão iniciou um processo contra o Twitter neste mês, relacionado à divulgação de materiais com discursos de ódio, ameaças, difamação e antissemitismo. A punição pode chegar a 50 milhões de euros (cerca de R$ 271 milhões na cotação atual).
— Esse é um caminho urgente para o Brasil. Passamos da hora de dar uma resposta e impor um novo regime regulatório que nos permita, como sociedade, como Estado e país, construir políticas adequadas para esse fenômeno. A digitalização da comunicação só vai se intensificar. O Brasil precisa reagir, ou veremos casos como esse (ataque à escola de Blumenau) a perder de vista — completa Amaro Grassi.
Já o professor de direito da PUC cita o trabalho desenvolvido nas eleições de 2022 como um exemplo de um método que poderia ser aplicado às redes sociais no país:
— A Justiça Eleitoral tentou se antecipar para agir, de forma mais rápida, para a contenção de fake news, com as assessorias jurídicas dos partidos políticos. É evidente a necessidade de responsabilização das big techs por esses conteúdos; caso contrário, vamos estar sempre atrasados e agindo depois que o estrago foi feito — acrescenta Rodrigo Azevedo.
O Projeto de Lei 2630, de 2020, também conhecido como Lei das Fake News, é a iniciativa que quer criar modos de combater a disseminação de conteúdo falso e discursos de ódio nas redes sociais, como Facebook e Twitter, e nos serviços de mensagens privadas, como WhatsApp e Telegram. O PL foi apresentado pelo senador Alessandro Vieira (PSDB-SE) e aprovado pelo Senado. No momento, aguarda a criação da comissão especial pela Mesa Diretora da Câmara dos Deputados.
“Estamos vivendo no Velho Oeste”
Rosângela Florczak, doutora em Comunicação e professora da PUCRS, ressalta que o uso da internet como plataforma de disseminação de discursos de ódios e notícias falsas não é novo. É algo que tem ocorrido desde o início da tecnologia, especialmente em ambientes da deep web, como é conhecida a parte da internet que não é acessada por navegadores comuns.
É por essa via que ocorrem compartilhamentos de conteúdos ilegais - venda de drogas, pedofilia e violência são exemplos - devido à dificuldade de identificação de sites e usuários. A “novidade”, segundo a professora da PUC, é a migração desses materiais e posicionamentos para as redes sociais como Twitter e TikTok, em um contexto de falta de regulamentação no país.
— O que era subterrâneo foi emergindo para a superfície, para a nossa vida regular. E as plataformas não estão fazendo nenhum esforço para evitar isso. Diferente de outros lugares, as big techs estão sofrendo pouca pressão no Brasil. Não existe uma regulamentação, supervisão. E isso encontra uma sociedade que não tem alfabetização midiática. Estamos vivendo no “Velho Oeste” aqui — pontua.
A professora cita o impacto do TikTok como uma das plataformas mais coniventes com conteúdos que circulam sem curadoria para crianças e adolescentes. Em março, a polícia da Itália anunciou uma investigação por a empresa supostamente permitir a divulgação de "conteúdos perigosos que incentivam o suicídio, a automutilação e o desenvolvimento de distúrbios alimentares".
Em outro episódio, a Global Witness, uma organização de direitos humanos, fez um experimento que tinha como objetivo testar se a Meta seria capaz de impedir a divulgação de conteúdos com promoção à invasão de prédios públicos após o ataque aos três poderes em Brasília, em janeiro.
A organização produziu 16 anúncios no Facebook com a “convocação” para um novo ataque, informação sobre fraudes e até mesmo com pedidos de morte a filhos de quem tivesse votado em Luiz Inácio Lula da Silva nas eleições presidenciais de 2022. O resultado, segundo a Global Witness, foi que 14 dos materiais foram aprovados pelo Facebook.
— Os movimentos fundamentalistas se institucionalizaram na sociedade, reivindicam espaço e direito à expressão. Eles não têm conseguido espaço na mídia tradicional, porque a mídia tradicional tem curadoria, valores, código de ética. Então, eles vão para essa terra de ninguém, para esse território livre, que é a mídia social. Ali o algoritmo não só não os pune, mas fomenta esse conteúdo (discurso de ódio, por exemplo), porque ele gera audiência, dá resultados, é bom para o negócio — comenta Rosângela.
Cuidado em casa
Jana Zappe, professora do Departamento de Psicologia da Universidade Federal de Santa Maria (UFSM) e pesquisadora de temas relacionados à violência, adolescência e comportamentos de risco, traz ao debate a necessidade de incluir os pais no monitoramento de ações dos filhos na internet, em especial no caso de jovens que estão conectados às redes sociais desde a infância.
— Com a melhor das intenções, muitos pais acabam se distanciando dos filhos, como uma forma de preservar a privacidade deles. Em casos extremos, isso se torna uma situação de abandono, o que não pode ocorrer, em hipótese alguma. Aqueles que acompanham crianças e adolescentes têm de saber dosar quando é hora de se afastar e quando é importante estar junto — diz.
Na segunda-feira (10), a delegada Caroline Bamberg, diretora da Divisão Especial da Criança e Adolescente da Polícia Civil, informou à Rádio Gaúcha que 90% das 27 ameaças de ataques a escolas no Estado foram feitas por adolescentes. Os dados compreendem situações monitoradas desde novembro. Nesta semana, ao menos sete adolescentes foram apreendidos por ameaças e planejamento de ataques às instituições de ensino no Estado. Nenhuma foi concretizada. Isso dá ainda mais peso à responsabilidade dos pais na vigilância virtual, diz a professora da UFSM:
— O adolescente fala muita coisa da boca para fora, que não é de fato o que ele sente ou pensa. Mas quando chega ao ponto de verbalizar uma ameaça, é muito difícil julgar o quanto aquilo é autêntico ou não. É um mito dizer que “quem avisa não faz”. Não podemos ignorar qualquer tipo de manifestação assim.