Atualmente, na maior parte do mundo, as redes sociais têm autonomia para decidir quais conteúdos conservar ou remover em suas páginas na internet, sem fiscalização de governos. Além disso, não podem ser responsabilizadas pela maior parte do conteúdo que seus usuários postam, com exceções de materiais pirateados ou pornográficos não consentidos.
Mas uma série de acontecimentos na última década levou instituições e governos a debaterem como revisar essa fórmula, que existe desde 1996. Na época, em meio a polêmicas sobre o aumento da disponibilidade de pornografia na internet, políticos norte-americanos isentaram plataformas digitais de se responsabilizarem pelos conteúdos postados por seus usuários, desde que elas mesmas moderassem e removessem “de boa fé” eventuais conteúdos ilegais.
A norma, conhecida como a seção 230 da Lei de Decência nas Comunicações, deu luz a um modelo de automoderação, sem interferência estatal, que vigora até hoje sob muitas críticas.
— Hoje o modelo que existe é da autorregulação, mas a partir da segunda metade dos anos 2010 há crises, como o da Cambridge Analytica, o Brexit, a infodemia com informações falsas sobre a covid-19 e a crise no Myanmar. Esses eventos foram se acumulando e mostraram que é preciso dar um passo adiante nos debates sobre a regulação de plataformas — explica o advogado Victor Durigan, coordenador de Relações Institucionais do Instituto Vero, que integra a Coalizão Direitos na Rede.
Por isso, na última semana, a Unesco, agência da ONU voltada à educação, ciência e cultura, debateu por três dias quais seriam as melhores diretrizes globais para uma regulamentação responsável de plataformas digitais. Já a Suprema Corte dos EUA pauta desde a terça-feira passada (21) caso que discute se redes sociais devem ser responsabilizadas por abrigar conteúdos terroristas postados por terceiros – o regramento analisado é justamente a seção 230, instituída para proteger a liberdade de expressão.
— Se houver um avanço ou decisão sobre essa isenção de intermediários nos EUA, vai ter repercussões na internet como um todo. Inclui o Brasil porque nossa lei tem um espelhamento nas responsabilidades que estão sendo discutidas lá — explica o empresário do ramo de informática Henrique Faulhaber, integrante do Comitê Gestor da Internet (CGI.br), que reúne sociedade civil e governo para estabelecer diretrizes sobre o uso e desenvolvimento da internet no Brasil.
Algoritmos mudaram modelo das plataformas
O “equivalente” brasileiro à seção 230 norte-americana é o art. 19 do Marco Civil da Internet, lei promulgada em 2014, que exime as plataformas digitais de serem responsabilizadas civilmente por conteúdos de terceiros, a menos que haja desrespeito a ordens judiciais de remoção de conteúdo. Hoje, há debates também por aqui em torno da ampliação dessa responsabilidade.
— Naquele momento não havia impulsionamento nem anúncio, e os algoritmos de recomendação eram diferentes, então a lei dava conta. Hoje o modelo de negócios das plataformas mudou profundamente e, à medida que você dá mais alcance e escala para um conteúdo pago, elas também são responsáveis pelo alcance e viralização. Será que nesses casos não há algum grau de responsabilidade pelo conteúdo? Essa é a discussão hoje — avalia a pesquisadora Renata Mielli, coordenadora do Centro de Estudos da Mídia Alternativa Barão de Itararé.
Como plataformas digitais podem ter tido papel na radicalização de usuários ao recomendar e reproduzir conteúdos extremistas, um dos focos é responsabilizar as empresas por abrigar eventuais conteúdos que atentem contra a democracia.
— Os algoritmos criam bolhas de autorreferenciamento e te exibem conteúdos que confirmem a sua visão de mundo, então o usuário vai se afundando naquele universo com aquela única visão de mundo — afirma Renata.
No Brasil, os atos antidemocráticos que levaram à depredação da capital federal em 8 de janeiro deste ano turbinaram o debate em torno do “PL das Fake News”, proposto pelo senador Alessandro Vieira (PSDB-SE) em 2020.
O projeto de lei (PL)prevê que as plataformas digitais publiquem relatórios de transparência, quais os direitos de usuários com relação à moderação de conteúdo realizada pelas redes sociais e novas regras sobre os perfis de políticos nessas plataformas, mas segue em debate na Câmara dos Deputados desde 2021. Hoje, o projeto é a aposta do governo federal para regular o tema.
— Até o momento, a grande arena de debates sobre a regulação de plataformas no país foi esse PL, que foi iniciado no Senado Federal durante a pandemia, em um momento turbulento e sem discussão. Mas após chegar na Câmara o projeto passou por audiências públicas, rodadas de discussão e negociações com bancadas, então virou uma proposta de regulação das plataformas com inúmeros pontos — diz Durigan.
Uma eventual revisão do art. 19 do Marco Civil é defendida pelo relator do PL das Fake News, o deputado federal Orlando Silva (PCdoB), para que plataformas possam ser punidas por deixarem circular eventuais conteúdos antidemocráticos.
Qual o debate na Suprema Corte dos EUA?
Duas famílias de vítimas mortas em atentados realizados pela organização terrorista Estado Islâmica acusam o YouTube e o Twitter de terem impulsionado conteúdos radicais em suas plataformas, de modo que contribuíram para a radicalização extremista que levou aos atos de terrorismo.
As ações questionam a salvaguarda dada às plataformas com relação à sua responsabilidade por conteúdos de terceiros na seção 230. A primeira audiência dos casos na Corte ocorreu na terça-feira passada, mas decisão deve sair apenas em julho deste ano.
— O julgamento avalia se o impulsionamento de algoritmos pode determinar fatos danosos à sociedade, como o discurso de ódio e o terrorismo. Isso afeta redes sociais e mecanismos de busca porque elas fazem recomendações de conteúdos na tentativa de entender o usuário e oferecê-lo a melhor resposta — explica Faulhaber.
O que diz o Marco Civil da Internet a respeito da responsabilidade das plataformas digitais?
O artigo 19 do Marco Civil parte “do intuito de assegurar a liberdade de expressão e impedir a censura” para estabelecer que provedores de aplicações de internet, como redes sociais, só podem ser responsabilizadas por danos decorrentes de conteúdos gerados por usuários se, após ordem judicial, não tornar indisponível o material.
— Revisar o artigo 19 não é um debate amadurecido, nem mesmo no CGI. O comitê foi um artífice ativo do Marco Civil da Internet em 2014, mas as situações mudaram e acredito que, em função do debate no Brasil, como a defesa do Estado Democrático de Direito, talvez seja necessário mexer nas exceções de responsabilidade às plataformas. O Executivo fala muito em um dever de cuidado das redes — diz Faulhaber, que afirma que o CGI deve fazer uma consulta pública para debater o assunto.
Como nos EUA, os limites dessa regra do Marco Civil também aguardam julgamento na Suprema Corte brasileira. Desde 2018, o STF analisa um recurso movido pelo Facebook, que acabou condenado a indenizar por danos morais uma mulher que teve um perfil falso criado na plataforma. A rede social argumenta que, pela lei, não poderia ser corresponsável pelo dano causado, já que o conteúdo foi gerado por um terceiro.
O que propõe o PL das Fake News?
O projeto de lei foi aprovado no Senado Federal, mas travou na Câmara dos Deputados, onde tem sido discutido desde o início de 2021. Oficialmente, o PL se chama “Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet”.
Além de regular redes sociais, o projeto também dispõe de normas para perfis de órgãos públicos e políticos. A proposta prevê imunidade parlamentar às opiniões publicadas nas redes sociais por políticos, obriga plataformas a terem representação no Brasil e amplia o poder fiscalizatório do CGI, além de obrigar redes sociais a sinalizarem conteúdos impulsionados e perfis automatizados, os “bots”, entre outras medidas.
Como o projeto está avançado, se tornou a aposta do governo Lula para regulamentar o discurso de ódio e crimes contra a democracia nas redes sociais.
— Primeiro o governo federal quis redigir uma medida provisória (MP) para combater os atos antidemocráticas planejados em redes sociais, mas isso não vingou porque as plataformas e a sociedade civil não quis esse debate via MP. Agora há a possibilidade de retomar isso em torno desse PL — avalia Durigan.