
O Supremo Tribunal Federal (STF) pode decidir se plataformas digitais devem ser responsáveis por danos causados por publicações de seus usuários nesta quarta-feira (17). O tribunal também irá avaliar se os sites devem remover eventuais materiais criminosos sem a necessidade de intervenção judicial.
A votação está marcada, mas ainda é incerto se o tema será de fato analisado no plenário do STF nesta quarta. A previsão é de que sejam julgados dois recursos com repercussão geral que aguardam apreciação desde 2017, movidos por uma vítima de difamações publicadas por um perfil falso no Facebook e por uma professora chamada Aliandra, que foi alvo de zombarias no extinto Orkut – na antiga rede social, as "comunidades" funcionavam como fóruns temáticos de assuntos cotidianos, como "odeio acordar cedo" ou "abro a geladeira pra pensar". Neste caso, estudantes criaram uma comunidade chamada "Eu odeio a Aliandra", que solicitou à rede social, sem sucesso, a exclusão do grupo.
O debate de ambos os casos foi pautado pela presidente do tribunal, Rosa Weber, em meio a impasses na votação do “PL das Fake News” pela Câmara dos Deputados. A responsabilização das plataformas é um dos pontos centrais do projeto de lei, que prevê um “dever de cuidado” das redes na remoção de conteúdos críticos, como os que disseminam e estimulam golpes de Estado ou atos terroristas.
O primeiro caso chegou ao STF no âmbito de uma ação de uma dona de casa paulista contra o Facebook – em 2014, a mulher descobriu que um usuário havia criado um perfil falso seu na rede social. Além de processar o dono da conta, ela também exigiu que a rede social a indenizasse por danos morais. Hoje, o Marco Civil da Internet estabelece que plataformas só serão responsabilizadas civilmente pelo conteúdo de terceiros se, em caso de ordem judicial, não remover o material – o que é questionado pela dona de casa.
Já o segundo partiu de uma professora que foi alvo de uma comunidade do extinto Orkut e, por isso, processou o Google, ex-proprietário da rede social. O caso discute se princípios constitucionais, como o que veda o anonimato no resguardo à liberdade de expressão, impõe às plataformas digitais o dever de fiscalizar o conteúdo publicado por usuários e de retirá-lo do ar quando este for considerado ofensivo, sem que seja necessária intervenção judicial. A empresa alega que o papel de decidir se algo é ou não ofensivo é da Justiça, e não dela.
Entenda o que está em jogo no STF
O que é o Marco Civil da Internet?
Sancionado em 2014, o Marco Civil da Internet institui princípios, garantias, direitos e deveres para o uso da internet no Brasil. A legislação estabelece princípios como o da neutralidade da rede, que diz que todos os dados que trafegam nas redes devem ser tratados da mesma forma e com a mesma velocidade. Além disso, a lei impõe como fundamento da internet no país o respeito à liberdade de expressão.
O que diz o artigo 19 do Marco Civil, questionado pela dona de casa?
O artigo estabelece que, "com o intuito de assegurar a liberdade de expressão e impedir a censura", plataformas digitais só podem ser responsabilizadas por danos causados pelo conteúdo publicado por seus usuários se, após ordem judicial, elas não removerem o material. Ou seja: impõe isso como condição para a responsabilização de plataformas digitais pelo conteúdo de seus usuários.
O que diz a professora vítima de uma comunidade no Orkut e o que isso tem a ver com o artigo 19?
A vítima argumenta que existem princípios constitucionais que impõem às plataformas digitais o dever de remover conteúdos ofensivos sem a necessidade de intervenção judicial, como o discurso de ódio.
Quem considera o artigo 19 constitucional?
As próprias plataformas digitais (como Meta, TikTok e Google), entidades da sociedade civil ligadas à defesa da liberdade de expressão e direitos digitais, como o Instituto de Defesa do Consumidor (Idec), a Associação Brasileira de Jornalismo Investigativo (Abraji) e a Ordem dos Advogados do Brasil (OAB), e associações do setor privado de internet, por exemplo, a Associação Brasileira de Provedores de Internet e Telecomunicações (Abrint) e a Associação Brasileira de Internet (Abranet).
O que diz quem defende a constitucionalidade do artigo?
O principal argumento é que impor um dever de fiscalização pelo conteúdo às plataformas digitais traria riscos à liberdade de expressão. Isso porque a possibilidade de punição levaria as plataformas ao bloqueio excessivo de conteúdos pelo receio de serem responsabilizadas por ele. Algumas das entidades contrárias argumentam que uma decisão desfavorável ao artigo, inclusive, aumentaria o poder dessas redes sociais em moderar discursos.
Quem considera o artigo 19 inconstitucional?
Associações ligadas a jornais, emissoras e revistas, como a Associação Nacional dos Jornais (ANJ), a Associação Nacional dos Editores de Revistas (Aner) e a Associação Brasileira de Emissoras de Rádio e Televisão (Abert), além de instituições acadêmicas como o Instituto Brasileiro do Direito Civil (IBDCivil) e o Instituto Brasileiro de Política e Direito do Consumidor (Brasilcon).
O que diz quem defende a inconstitucionalidade do artigo?
O argumento é que a lei atual permite que plataformas digitais se omitam diante de eventuais conteúdos criminosos hospedados por elas, desde discurso de ódio até perfis falsos. Nessa avaliação, as provedoras deveriam ter responsabilidade pelo material que hospedam, sobretudo os conteúdos patrocinados, que são impulsionados por meio de algoritmos.
O que esses julgamentos têm a ver com o “PL das Fake News”?
Apelidado de “PL das Fake News”, o projeto institui a Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet. Ambos os casos a serem julgados pelo STF tratam de responsabilidades das plataformas que, entre outras regras novas, seriam reguladas pelo projeto de lei.