O jornalista Vitor Netto colabora com o colunista Rodrigo Lopes, titular deste espaço.
O Plenário do Supremo Tribunal Federal (STF) deve começar a julgar nesta quarta-feira (27) um conjunto de três ações que que tratam de regulamentação das redes sociais e de trechos do Marco Civil da Internet.
A coluna conversou com o professor de Direito Digital, Raphael Chaia, sobre o que está em curso no julgamento.
O que está em jogo neste julgamento?
Esse julgamento tem três pautas. A primeira pauta é para verificar a questão da legalidade do bloqueio de plataformas no Brasil, como, por exemplo, o WhatsApp e como aconteceu recentemente com o X. As outras duas pautas são com relação ao Marco Civil da internet, sendo uma específica com relação ao artigo 19, que é o que trata da responsabilidade por conteúdo publicado por terceiros. A grande questão aqui é que o STF está querendo trazer para si uma competência que é do legislativo, que é com relação à regulação das redes sociais no Brasil. Querem definir regras para responsabilização das plataformas. O problema é que não está ocorrendo um debate muito profundo com relação a isso. A minha grande preocupação pelo que eu noto, por exemplo, é que eles estão tentando julgar um artigo que foi discutido ao longo de três anos, na época do projeto de lei do Marco Civil. Quando foi aprovado, teve longas discussões. Mexer no Marco demandaria discussões tão sérias e longas quantas que houve no passado.
Vamos detalhar as pautas:
A primeira é a do bloqueio das plataformas. Uma plataforma estrangeira para funcionar no Brasil precisa estar adequada à legislação brasileira. Isso é determinação do do Código Civil. E também, a legislação tem de ser observada para que os próprios termos de uso da plataforma, o contrato, estejam adequados à legislação nacional. Por exemplo, há uns três meses, mais ou menos, ANPD, que é a Autoridade Nacional de Proteção de Dados, iniciou uma investigação contra o TikTok aqui no Brasil em razão de uso não autorizado de dados de usuários e captura de dados sensíveis. Então, a ANPD fez algumas exigências para o TikTok. Existe agora uma possibilidade real de ele ser bloqueado no Brasil. O que basicamente o STF está discutindo é essa possibilidade de se bloquear plataformas sem que haja violação à liberdade de expressão. Eu acredito que seja um pouco delicado, porque, por um lado, realmente são empresas que precisam se adequar à lei brasileira para poder atuar em território nacional. Isso é básico. Por outro lado, não podemos ignorar que essas plataformas sociais, hoje, são os espaços de manifestação de pensamento das pessoas. Os espaços virtuais, eles são, hoje, espaços de engajamento, de manifestação da cidadania e tudo mais. É preciso pensar se não seria, de repente, o caso de se trabalhar com outras sanções, com uma abordagem diferente do que simplesmente o bloqueio.
Teria de haver um filtro?
Exato. Até porque temos de pensar que a responsabilidade é individual. Por exemplo, você pega uma comunidade dentro de uma rede social que tenha 200 mil usuários e você tem um grupo de 2 mil usuários fazendo postagens que violam a lei. Você vai punir os 2 mil que estão violando a lei? Ou você derruba toda a comunidade com 200 mil? O Direito, ele não admite esse tipo de sanção indiscriminada, esse tipo de sanção não individualizada. Por isso que eu acho problemático você derrubar a plataforma. Ela meio que vai contra a ideia de uma imputação objetiva. Você não vai estar imputando a responsabilidade objetivamente.
A segunda pauta é a da regulação das redes e o terceiro ponto é o que trata do Artigo 19 do Marco Civil da Internet?
A parte da regulação das redes não tem muito o que falar. E ele está intrinsecamente ligado à ideia do Artigo 19. O que diz o Artigo 19? A redação dele começa dizendo para garantir a liberdade de expressão e evitar a censura. Diz que quem é responsável pelo conteúdo que é publicado é o usuário. (A partir da discussão do STF) Essa responsabilidade do usuário pode recair sobre a plataforma de aplicações. A responsabilidade do usuário pode ser solidária da rede social. Se houver uma ordem judicial para a exclusão do conteúdo e a plataforma nada fizer para a exclusão, ao meu ver, esse é o posicionamento mais ideal. Por várias razões. Primeira razão, você cria um filtro obrigatório para que o judiciário analise cada demanda e não vou estar, por exemplo, excluindo conteúdos simplesmente porque eu não gosto. A rede social, ela não é obrigada a ceder à pressão popular. Só exclui um conteúdo se houver uma ordem judicial para isso. Por quê? Porque ela não pode fazer curadoria de conteúdo. A rede social não pode escolher o que vai ser publicado ou não. Isso é a garantia da liberdade de expressão. Agora, óbvio que a liberdade de expressão comporta responsabilidade. Se o sujeito estiver usando para discriminar, injuriar, caluniar, difamar, praticar qualquer crime que tenhamos previsto no Código Penal há décadas, cabe a responsabilidade do indivíduo que fez a postagem. E a rede social pode muito bem fazer a exclusão do conteúdo pela violação dos termos de uso. Simples assim. Segundo ponto: quando eu não trago essa responsabilidade para a rede social, eu não estou revestindo ela de poder de polícia. Se eu passo a dizer que a rede social, a partir de agora, ela é responsável, o Twitter é responsável pelo que é publicado, o YouTube será responsável pelo que é publicado. Eles deixam de ser um simples canal e eles passam a ser editorias. Passam a fazer curadoria de conteúdo. Se eu, Facebook, sou responsável por tudo que é publicado, então eu vou escolher o que vai ser publicado ou não. E aí eu estou fazendo o que? Eu estou revestindo uma empresa privada com poder de polícia. É o Judiciário abrindo mão do seu dever e dando para uma empresa privada uma função que caberia a ele. E aí você até pode argumentar, poxa, mas isso é bom, porque as empresas vão ter que ficar obrigadas agora a elevar o nível da moderação. O volume de informações é muito grande. Aí o que eu tenho de fazer? Vou apelar para moderação automatizada. Vou colocar um algoritmo para poder fazer a moderação. Só que o algoritmo é burro, ele não interpreta contexto. E o que vai acontecer? Vai ter uma pandemia de perfis sendo bloqueados indevidamente. Se você colocar uma palavra que o algoritmo já enquadra como sendo proibida, a conta é suspensa. E se eu começo a banir indevidamente as pessoas, eu estou atentando contra a sua liberdade de expressão.
De onde vem o embasamento do Código 19?
É fortemente baseado na sessão 230 da Communications License Act, que é a lei americana. A sessão 230 da lei americana fala a mesma coisa do nosso artigo 19: quem é responsável é o usuário. As plataformas gozam de um certo grau de imunidade, podendo ser responsabilizadas se vier uma ordem judicial e elas descumprirem. Os Estados Unidos debateram a sessão 230 esse ano e ano passado e decidiram que não iam mexer na lei. Eles não iam modificar as leis porque poderia gerar um dano à liberdade de expressão. Ou seja, outros países já se debruçaram sobre esse assunto. E aqui no Brasil a tendência que a gente está vendo é de um aumento de controle. Ninguém defende fake news, ninguém defende discurso de ódio. Ninguém em sã consciência vai defender o mau uso da liberdade de expressão. Só que o que me preocupa é essa ânsia de um controle muito grande com relação às redes, porque no final do dia a gente não sabe quem vai dizer o que é fake news ou não. Quem vai dizer o que é discurso de ódio ou não. Estaremos colocando isso na mão de uma empresa privada que muitas vezes vai atender a interesses que podem ser particulares de alguém que detém o poder. E aí o exercício da cidadania se dá exatamente por você como cidadão poder se levantar e ser contra esse tipo de situação.
Os ministros estão propensos a aprovar as medidas?
Sim eles querem aprovar. A propaganda que se faz é muito boa. Você chega e fala: olha tem muita notícia falsa e muito discurso de ódio em rede social e a rede tem de ser responsável por isso. Eu concordo que a rede social tem que ser responsável por isso, mas tem de ser responsável se vier uma ordem judicial para determinar a exclusão do conteúdo e não cumprir essa ordem. O judiciário precisa ser um filtro, porque se não daqui a pouco, por exemplo, eu faço uma postagem denunciando um esquema de corrupção e vem o prefeito que eu estou denunciando faz uma pressão e derruba a reportagem. Derruba a postagem dizendo que é falso. Mas e a prova de que é falso? Hoje só pode excluir o material se tiver ordem judicial. Se passar esse julgamento, se passar essa mudança bastará uma simples notificação. Basta eu mandar um e-mail para a plataforma mandando derrubar. E se a plataforma não derrubar ela passa a ser responsável. E isso pra mim é um problema. Porque o STF criou o conceito de desordem informacional. O que é o conceito de desordem informacional? Mesmo que a informação seja verdadeira, se causar tumulto ela pode ser excluída.
Qual o prazo para o julgamento finalizar?
Acho que eles não conseguem julgar antes do recesso. O recesso começa dia 6 de dezembro e eles têm três dias para fazer esse julgamento. Teria de ser muito a toque de caixa. E se for, vai ser de uma irresponsabilidade sem tamanho. Porque eles vão estar discutindo um artigo que foi debatido ao longo de três anos. Eu não consigo ver um debate de três dias ter a mesma profundidade que um debate de três anos. Eles estão discutindo o que vai ser feito, que é a moderação, e eu não estou vendo nenhum deles discutindo como vai ser feito. Se tiver que trazer as questões técnicas para o debate eles vão perceber que a proposta é inexequível.