Pesquisadores e grupos da sociedade civil reivindicam maior participação no debate sobre proposta de lei que o governo Luiz Inácio Lula da Silva pretende enviar ao Congresso, criando obrigações para as gigantes de tecnologia, como Google, Meta (Facebook e Instagram) e Twitter, as chamadas big techs, reduzirem conteúdo de teor golpista em suas plataformas.
O projeto responsabiliza as companhias por conteúdos que defendem violação ao Estado democrático de direito e integra o chamado Pacote da Democracia, desenhado pelo Ministério da Justiça e Segurança Pública depois dos ataques antidemocráticos do dia 8 de janeiro, em Brasília. Segundo o texto, inspirado no Digital Services Act (DSA), da União Europeia, as plataformas terão o "dever de cuidado" de impedir que sejam disseminados conteúdos que ataquem a Constituição, como atos golpistas.
Organizações da sociedade civil encaram como positivo o governo usar a legislação europeia como modelo, mas criticam o fato de não haver maior discussão sobre o tema, que pode levar a violações à liberdade de expressão. Giuliano Galli, coordenador-executivo de Jornalismo e Liberdade de Expressão do Instituto Herzog, salienta que, embora o pacote proponha medidas concretas para reduzir a desinformação nas redes sociais, o tema foi pouco debatido, ao contrário do projeto de lei das fake news, em tramitação no Congresso.
— A proposta do Ministério da Justiça pegou de surpresa até as organizações que trabalham exclusivamente com esse tema, nacional e internacionalmente, como a Coalizão Direitos na Rede e o Conselho Gestor da Internet (CGI) — afirma Galli.
Segundo ele, sob o argumento da pressa de dar uma resposta aos ataques golpistas em Brasília, o pacote teria atropelado até áreas do próprio governo, como a Secretaria de Comunicação (Secom), que debatia a regulamentação das redes desde a transição.
— Da forma como as medidas são colocadas abre caminho para decisões monocráticas: por decisão de um juiz ou de um procurador. É complexo você determinar qual conteúdo tem dever de verdade ou não. Não pode ser feito por meio de uma medida provisória, é preciso debate público — pontua Galli.
Se uma quadrilha se reúna na minha casa, com meu consentimento, para a realização de um crime, ainda que eu não tenha participado desse crime, certamente vou ser investigado. O que ocorre com as plataformas é a mesma coisa.
GIULIANO GALLI
Coordenador-executivo de Jornalismo e Liberdade de Expressão do Instituto Herzog
O entendimento geral é de que as plataformas digitais, embora tenham implementado nos últimos anos medidas para evitar discursos de ódio e informações falsas, não agiram de forma eficiente. A prova é que os ataques do dia 8 de janeiro foram turbinados por informações falsas nas redes sociais. Questionadas, as plataformas costumam se eximir, dizendo que são meros veículos de socialização, não sendo, a seu ver, responsáveis pelos conteúdos que trafegam por suas vias. Pesquisadores discordam.
— Se uma quadrilha se reúna na minha casa, com meu consentimento, para a realização de um crime, ainda que eu não tenha participado desse crime, certamente vou ser investigado. O que ocorre com as plataformas é a mesma coisa. Elas sabem que o ambiente que elas controlam está sendo utilizado para atividades criminosas — explica Galli.
Flora Arduini, diretora de Campanhas da Ekõ, ONG internacional que luta por direitos humanos e ambientais pelas grandes empresas, elogia o fato de o governo brasileiro se inspirar no DSA, que deve entrar em vigor nos próximos dias na União Europeia, após um longo processo de discussão interna, entre especialistas, pesquisadores e governo. A legislação regulamenta, além de moderação de conteúdos, a propaganda direcionada e o gerenciamento de dados. Pela lei, as plataformas devem de apresentar planos de riscos de impacto dos serviços e de mitigação da desinformação. Um órgão regulador está sendo criado, com poder de multar companhias que desrespeitarem a lei.
— Na legislação europeia, haverá auditores independentes que vão ter acessos a esses relatórios, às práticas das redes sociais. Está sendo dado acesso à sociedade civil. No Brasil, ainda não se menciona isso no texto do Ministério da Justiça, não se fala de auditoria nem de acesso aos pesquisadores. Ter um órgão regulador é importante, mas também é necessário envolver os outros atores diretamente impactados: especialistas, auditoria independente, feita por pessoas que entendam do assunto, que vão poder dizer nos relatórios das plataformas o que é verdade e o que não é. Não é todo mundo que entende de algoritmo — afirma Flora.
A pasta não detalhou até o momento o projeto. Questionado, o ministério informou que "não irá se manifestar sobre propostas constantes no pacote da democracia até que as minutas sejam apreciadas pela Presidência".
Além da inspiração na legislação da União Europeia, sabe-se que são tomados exemplos do Reino Unido e da Alemanha. Flora, que mora em Londres, afirma que, no país, o Online Safety Bill (OSB) é criticado porque temas como a obrigatoriedade de as plataformas publicarem relatórios de impacto e de plano de mitigação saírem do corpo do texto. Focou-se em moderação de conteúdo, o que pode gerar distorções. Ela exemplifica:
— Se essa legislação for aprovada, se você postar um vídeo positivo de um barco atravessando o Canal da Mancha, esse conteúdo vai ser removido porque isso pode ser visto como uma ameaça às políticas de migração do Reino Unido. Vão enxergar como incentivo à imigração ilegal.
No caso alemão, a legislação se refere especificamente à proibição de propaganda nazista em redes sociais.
— O governo alemão tomou em mãos uma definição bem precisa do que é proibido de ser disseminado em redes sociais. Quando a gente olha para esse pacote pró-democracia no Brasil, é importante que seja bem definido o que se entende como proteção das instituições democráticas e do Estado democrático de direito — explica Flora.
"Não existem soluções fáceis", afirma titular da Secretaria de Políticas Digitais
O titular da Secretaria de Políticas Digitais do governo Lula, João Brant, avalia como desafio equilibrar a urgência que o tema da desinformação ganhou, a partir dos atos golpistas de 8 de janeiro, e a cautela necessária para um debate amplo sobre a regulamentação das plataformas digitais. Sob o guarda-chuva da Secretaria de Comunicação Social (Secom), chefiada pelo gaúcho Paulo Pimenta, o órgão que tem a missão foi criado logo nos primeiros dias de mandato para enfrentar o problema.
— Não existem soluções fáceis. Vários países discutem o problema e acho não há ainda benchmark internacional. Se queremos que o Brasil se torne essa referência, vamos precisar conseguir equilibrar de forma muito precisa diferentes direitos em jogo — afirma Brant, que é doutor em Ciência Política pela USP e mestre em Regulação e Políticas de Comunicação pela London School of Economics.
O secretário pontua que, durante as eleições, o nível de informações falsas nas redes sociais só foi reduzido a partir de ações do Tribunal Superior Eleitoral (TSE) a 10 dias do segundo turno. Uma resolução estabelecia prazo de duas horas após notificação para remoção de publicação, sob pena de multa de R$ 100 mil a R$ 150 mil por hora de descumprimento. Essas medidas, no entanto, funcionaram apenas em caráter emergencial.
— Não dá para dizermos que temos de fazer (a discussão sobre regulamentação) com muita calma se a realidade política do Brasil está sendo impactada dia após dia e no dia 8 de janeiro de maneira muito explícita e horrenda. Também não significa que você vai ter soluções que da noite para o dia resolverão o problema como um todo — explica Brant.
Não dá para dizermos que temos de fazer (a discussão sobre regulamentação) com muita calma se a realidade política do Brasil está sendo impactada dia após dia e no dia 8 de janeiro de maneira muito explícita e horrenda.
JOÃO BRANT
Secretário de Políticas Digitais
No entendimento de Brant, é possível mitigar alguns dos problemas a partir do pacote da democracia do Ministério da Justiça. O tema passou a ser tratado como prioridade do governo, mas ainda não há data para a entrega do projeto de lei que adota o "dever de cuidado" ao Congresso. Além da pasta e da Secom, as reuniões ocorrem com a Casa Civil. Há participação direta de Lula nas discussões.
Independentemente de calendário, há praticamente unanimidade entre especialistas que, com a rapidez que o tema da desinformação cresceu, o Projeto de Lei das Fake News (PL-2630), em tramitação no Congresso, ficou obsoleto.
— No formato que está, ele (o projeto) não responde às necessidades que a gente está vendo agora. Precisamos olhar com muito respeito e diálogo com o que foi feito ali, mas esse não pode ser nosso ponto de chegada. Pode ser um dos pontos de partida — diz Brant.
Além da desinformação, o PL, de relatoria do então deputado federal Orlando Silva (PC do B-SP), versava sobre proliferação de discursos de ódio e monetização de conteúdo jornalístico. Embora importantes, o tema, como se viu na pandemia de covid-19 e na eleição, cria novos desafios, que atropelam a legislação em debate.
— Agora, são as questões dos ataques às instituições democráticas, mas a gente precisa pensar um arcabouço jurídico que pense além disso. A gente precisa parar de tampar buraco para pensar dessa forma mais sistêmica — argumenta Flora Arduini.
O que está sendo discutido
O que diz a proposta de lei que o ministro da Justiça, Flávio Dino, entregou a Lula no âmbito do Pacote da Democracia, após os atos golpistas do dia 8
- As plataformas terão o "dever de cuidado" de impedir que conteúdos que violem a lei sejam disseminados. Entre esses conteúdos estão postagens que reivindiquem a abolição do Estado democrático de direito, convoquem atos em pró da deposição do governo ou incite animosidade entre as Forças Armadas e os poderes
- As empresas de tecnologia como Google, Facebook e Twitter terão de apresentar relatórios de transparência mensais, detalhando como removeram ou reduziram o alcance de conteúdo ilegal e adotar medidas de mitigação de risco de disseminação dessas publicações
- As companhias só serão multadas caso haja descumprimento generalizado do "dever de cuidado"
- Em caso de ordem judicial exigindo retirada de conteúdo que viole a Lei do Estado Democrático de Direito, a proposta prevê regras semelhantes à adotada pelo TSE no segundo turno da eleição: prazo de duas horas após notificação para remoção da publicação, sob pena de multa de R$ 100 mil a R$ 150 mil por hora de descumprimento.