Após pressão de gigantes de tecnologia, academia e ONGs de direitos na internet, o Supremo Tribunal Federal (SFT) adiou para 2020 julgamento marcado inicialmente para esta quarta-feira (4) que pode alterar o Marco Civil da Internet, de 2014, e mudar as regras para retirar conteúdo da rede.
Baseada em dois recursos de vítimas que reivindicaram a remoção de conteúdos do Google e do Facebook, casos de 2010 e 2014, a corte vai definir se o artigo 19 do marco da internet é constitucional.
Mais debatido durante a elaboração da legislação - que durou sete anos -, o 19 determina que aplicações de internet, como blogs, sites jornalísticos e redes sociais, sejam responsabilizados caso não removam conteúdos após ordem judicial.
Uma mudança pode determinar que qualquer plataforma seja responsabilizada se não excluir uma foto, mensagem ou vídeo após simples notificação de usuários que se sintam ofendidos.
Na prática, um jornal poderia responder na Justiça se não excluísse um comentário de leitor (o artigo só versa sobre conteúdos gerados por terceiros) após um pedido de outro leitor ou de um político mencionado na mensagem, por exemplo.
Diante dessa possibilidade, organizações passaram a alertar para o risco de um cenário de censura privada, em que empresas deletam conteúdo de modo automático para evitar litígios.
Outro receio é que o assunto seja encarado na ótica de polarização vítimas versus Google e Facebook, quando o contexto leva em conta qualquer tipo de aplicação, como Reclame Aqui, TripAdvisor, Wikipédia e contas de influenciadores no Instagram.
— O equilíbrio de direitos, de quando termina meu limite e começa o do outro, cabe ao Judiciário. A grande preocupação é que agentes privados exerçam papéis que são da Justiça — diz Luiza Brandão, diretora do Instituto de Referência em Internet e Sociedade da Universidade Federal de Minas Gerais (UFMG).
A exceção do artigo 19 é a pornografia, cujo material deve ser retirado após simples notificação do usuário ofendido - por isso a decisão jurídica do Instagram em detectar previamente imagens que exibem mamilos.
Outros temas, como crime de racismo, falsidade ideológica e discurso de ódio, não são contemplados nominalmente no Marco Civil. Aparecem, entretanto, nos termos de uso de redes sociais.
— Às vezes não fica claro para as pessoas que, pelas políticas de uso, as empresas já abolem conteúdos. Elas não esperam e não precisam esperar por ordem da Justiça para retirá-los — afirma Celina Bottino, diretora no ITS-Rio.
Antes do Marco Civil, as decisões se baseavam em uma determinação de 2010 do Superior Tribunal de Justiça (STJ), que deixava dúvidas se a eliminação deveria ser feita mediante notificação extra ou judicial, até que o Marco Civil regulamentou o caso.
Para especialistas, o retorno dessa dinâmica levaria à hiperjudicialização. Eles dizem que o cenário de discussão foi contaminado por assuntos diferentes que, embora tenham conexão, não são regulados no mesmo balaio: fake news em eleições, difamação e discurso de ódio.
— Desde 2009 a lei eleitoral passou a adotar um sistema de responsabilidade das plataformas similar ao do Marco Civil, com retirada após avaliação judicial de propaganda irregular. Se no campo político funciona, é incongruente mudar isso na regra geral — diz André Giacchetta, do escritório Pinheiro Neto.
Entre envolvidos no debate, não está claro o que substituiria o artigo 19.
— O artigo optou pelo afastamento da responsabilidade primária da aplicação, salvo em questão de nudez de alguns casos de propriedade intelectual. Por que nudez dá responsabilidade direta às redes e outros assuntos, não? — questiona Renato Ópice Blum, coordenador de direito digital na Faap.
O presidente do STF, ministro Dias Toffoli, à frente da discussão, tem se mostrado favorável a uma maior responsabilização das plataformas em algumas aparições.
Em diferentes ocasiões, uma lei recente da Alemanha surgiu nas argumentações. Aprovada em 2017, a Netzdg define que em hipóteses já consideradas ilegais - por exemplo, disseminação de símbolos inconstitucionais (como a suástica) - as plataformas com determinado número de usuários devem retirar os conteúdos depois de notificação e análise num período de 24 horas.