Houve um tempo em que o Google era apenas uma ferramenta de buscas na internet, e o Facebook e o Instagram, lugares para se curtir e compartilhar fotos de parentes, amigos e animais de estimação. Em 2011, no auge das revoluções árabes do norte da África, as redes sociais foram celebradas como canais de liberdade de expressão, por meio dos quais manifestantes expunham ao planeta as arbitrariedades daquelas ditaduras. Em algum momento, algo mudou, e o que seriam ferramentas de um mundo novo revelaram uma face obscura, por vezes tóxica, invasiva e corrosiva dos sistemas democráticos.
Nos últimos anos, suspeitas de manipulação de algoritmos para influenciar votos em eleições, escândalos de vazamento de dados privados e falta de controle sobre informações falsas e discursos de ódio em redes sociais e aplicativos de trocas de mensagens preocupam usuários, pesquisadores, governos, autoridades regulatórias e organizações da sociedade civil. As grandes empresas digitais, as chamadas big techs, adquiriram tamanho poder que influenciam o consumo, o livre mercado, a publicidade, o jornalismo, a política e as nossas relações pessoais. A lógica de sua atuação, no entanto, é diferente de todos os negócios que conhecíamos até aqui: aquela busca despretensiosa no Google, a espiadinha no Instagram, o anúncio clicado no YouTube e a curtida em um perfil no Facebook geram informações que são automaticamente coletadas, processadas e, depois, vendidas para quem quiser comprar. É assim que as big techs ganham dinheiro. Afinal, como diz uma frase corrente no Vale do Silício: “Se o produto é de graça, você é o produto”.
Em 2018, o dono do Facebook (hoje Meta), Mark Zuckerberg, foi chamado a testemunhar no Congresso americano para responder sobre o escândalo da manipulação indevida de dados de 87 milhões de pessoas por uma empresa de consultoria que trabalhou para Donald Trump durante a eleição de 2016. Em 2020, grandes anunciantes, como Coca-Cola, Adidas, Unilever e Verizon, empreenderam uma fuga sem precedentes das redes sociais devido à falta de transparência e responsabilidade social das plataformas em relação a conteúdos de ódio e racistas, que acabaram aparecendo ao lado de suas marcas. No ano seguinte, a combinação de discursos antidemocráticos, informações falsas, movimentos extremistas e um presidente que se negava a reconhecer o resultado das eleições resultou no maior ataque da história da democracia americana, a invasão do prédio do Capitólio, em Washington. Nunca mais a foto de um gatinho foi vista apenas como uma foto de gatinho.
Quando confrontados com o uso indiscriminado de dados dos usuários de suas redes, os donos das gigantes vinham se saindo com evasivas do tipo “não sabemos”, “isso não é de nossa responsabilidade” ou “somos apenas canal, quem posta as informações são os usuários”. Contudo, governos, juristas, órgãos de concorrência e organizações da sociedade civil entenderam que era preciso regular a operação das redes sociais. Mas como garantir privacidade, transparência, concorrência justa e evitar a disseminação de conteúdos tóxicos sem ferir o direito à livre concorrência, à inovação, à circulação de ideias e à liberdade de expressão? União Europeia (UE), EUA e Austrália são pioneiros nesse debate que, há dois anos, também começou no Brasil.
De autoria do senador Alessandro Vieira (PSDB-SE), o projeto de lei 2.630/20 tem nome pomposo: Lei Brasileira de Liberdade, Responsabilidade e Transparência, mas, desde o início, ganhou o apelido de “Lei das fake news”. Embora utilizada informalmente por parlamentares e mídia, a alcunha é questionada por estudiosos do tema. Primeiro porque o próprio termo “fake news” é criticado por muitos acadêmicos da área da Comunicação e do Jornalismo, porque carrega em si uma contradição: se é falsa (fake) não é notícia (news). A palavra cada vez mais adotada para as mentiras que tanto circularam durante a pandemia de covid-19 ou em tempos de eleições é desinformação.
O projeto de lei 2.630/20, que nasceu com o propósito de combater informações falsas na internet, também pouco lembra sua origem. Análises do Internet Lab, centro independente de pesquisa interdisciplinar que promove o debate acadêmico e a produção de conhecimento nas áreas de direito e tecnologia, concluíram que poucos artigos do texto original permaneceram, no formato atual, tendo como objetivo combater a desinformação.
– Não gosto de chamar de projeto das fake news. O nome oficial é o melhor para defini-lo: é um projeto de lei para transparência, responsabilidade e liberdade na internet, especificamente com relação a grandes plataformas de mensageria (aplicativos para trocas de mensagens), redes sociais e motores de busca (como o Google). Ou seja, trata-se de um projeto de regulação de plataformas digitais – diz o advogado Francisco Brito Cruz, diretor executivo do Internet Lab.
Em 28 páginas, a última versão do projeto foi entregue pelo relator, deputado Orlando Silva (PCdoB-SP), ao presidente da Câmara, Arthur Lira (PP-AL) em 1º de abril, e deve ser votada nos próximos dias. Uma vez aprovada, irá ao Senado.
O projeto chega à votação nas duas Casas em momento decisivo para a política brasileira, às vésperas de uma das mais polarizadas eleições da história, quando, mais uma vez, campanhas políticas devem fazer uso de contas automatizadas para disseminar ideias e atacar adversários.
Se a gente compara (o projeto da 'Lei das fake news' no Brasil) com legislações que estão entrando em debate e serão aprovadas na Europa, elas tentam olhar de forma mais completa e sistêmica como as plataformas operam.
FLORA ARDUINI
Diretora de campanhas da ONG SunOfUs
A redação da proposta de legislação, que em dois anos passou por várias discussões e sofreu forte oposição das big techs, coloca o Brasil no centro do debate global de regulação das plataformas, uma tentativa de pôr um freio no poder econômico descomunal das empresas, que dominam mais de 90% da publicidade online.
– O Brasil não está fora da tendência global. A UE, neste momento, discute duas leis, uma que regula mercados digitais e outra sobre serviços digitais. Nos EUA, há uma série de projetos de lei que se conectam com o projeto brasileiro – acrescenta Brito Cruz.
Os impactos políticos da nova legislação são um dos pontos polêmicos do texto brasileiro, tanto que setores ligados ao Planalto comemoraram na semana passada a rejeição para que o projeto fosse votado em regime de urgência. O projeto prevê que a imunidade parlamentar em relação a opiniões de congressistas seja estendida às redes sociais. Atualmente, a garantia disposta no artigo 53 da Constituição diz que parlamentares “são invioláveis, civil e penalmente, por quaisquer de suas opiniões, palavras e votos”. Se for estendida a ambientes digitais, deputados e senadores terão, nas redes sociais, a mesma blindagem da vida “real”. A ideia é protegê-los do “efeito Trump”. O ex-presidente americano foi banido de Twitter, Facebook, Instagram e YouTube após a invasão do Capitólio e acusado de usar as redes para incitar a violência.
Defensores desse princípio afirmam que se trata de um modo de impedir as plataformas de disporem de poder excessivo. A blindagem será estendida a contas oficiais, ou seja, a órgãos ou agentes públicos. Assim, políticos, do presidente da República até vereadores, poderão contestar na Justiça as plataformas e pedir restabelecimento célere de contas ou posts que violem regras, como incitação à violência e ameaças ao sistema eleitoral. Caso as contas sejam bloqueadas, como ocorreu com Trump, podem ser recuperadas com ações judiciais, com rapidez.
– Acho demais, até porque os parlamentares muitas vezes são enormes disseminadores de desinformação – critica Brito Cruz.
Acho demais (a possibilidade de a ‘lei das fake news’ blindar deputados), até porque os parlamentares muitas vezes são enormes disseminadores de desinformação.
FRANCISCO BRITO CRUZ
Advogado, diretor executivo do Internet Lab
Por sua vez, o advogado Diogo Rais, cofundador do Instituto Liberdade Digital, avalia como louvável o intuito de fazer contas de interesse público cumprirem os preceitos da administração pública, mas pondera que a blindagem pode ferir a igualdade eleitoral.
– A maioria das pessoas com cargos políticos ou é candidato ou apoia candidatos. Elas irão concorrer com pessoas que não têm redes sociais blindadas. Isso afronta a igualdade nas eleições, o que já é perigoso – opina Rais.
Na busca por impor o rigor da lei a um ambiente onde a informação circula até agora com pouca ou nenhuma disciplina, o texto em debate equipara mídias sociais a meios de comunicação. Assim, qualquer partido, coligação, candidato ou Ministério Público Eleitoral poderá pedir investigação na Justiça Eleitoral para apurar o uso indevido das plataformas em benefício de candidato ou legenda. As empresas serão obrigadas a proibir o uso de contas automatizadas, sem que elas sejam identificadas como tal.
O projeto proposto cria ainda a obrigação de que redes sociais, ferramentas de buscas ou serviços de mensagens privadas tenham representantes no Brasil. Esse responsável deverá ter plenos poderes para responder perante as esferas administrativa e judicial, fornecer às autoridades competentes informações, cumprir as determinações judiciais e responder a eventuais penalizações. Recentemente, o aplicativo russo Telegram foi bloqueado no Brasil por ordem do Supremo Tribunal Federal (STF), por não atender às exigências sobre combate à desinformação. O fundador da empresa, Pavel Durov, pediu desculpas ao Judiciário brasileiro e informou uma nova lista de compromissos a ser adotada pelo serviço, como a checagem de informações e a sinalização de conteúdo falso. O Tribunal Superior Eleitoral (TSE) anunciou que o Telegram aderiu ao programa de enfrentamento à desinformação nas eleições. A empresa também nomeou um representante legal no país, o advogado Alan Elias Thomaz.
O chamado algoritmo, aquilo que define os conteúdos que vemos destacados em nosso feed nas redes sociais, é considerado a caixa-preta das big techs. Assim como ele se utiliza de nossos dados para “adivinhar” nossas preferências, também pode ser manipulado. Recentemente, o Facebook permitiu que uma onda de desinformação inundasse o feed de notícias da plataforma, durante vários meses. Segundo a Meta, a rede social foi afetada por um “bug no algoritmo”, resultando em uma falha no sistema de ranqueamento de credibilidade dos posts. Com isso, milhões de usuários de todo o mundo foram expostos a informações falsas.
Devido ao problema, em vez de ocultar as publicações com os conteúdos mentirosos identificados pelos sistemas da Meta e agência externas de checagem, o Facebook estava impulsionando esses posts, o que causou aumento de 30% nas visualizações das fake news em escala global, segundo as investigações internas. Além de impulsionar posts com desinformação, o Facebook falhou em remover conteúdos com nudez, violência e até publicações da mídia estatal da Rússia – que a Meta prometeu bloquear logo no início da guerra da Ucrânia. De acordo com os engenheiros, o problema persistiu até o dia 11 de março devido à “dificuldade de encontrar a causa” do bug.
Por falhas como essas, a palavra da vez no mundo digital é transparência. O texto do projeto de lei brasileiro obriga Facebook e Twitter a informar semestralmente ao público os usuários ativos, os detalhes das medidas de moderação, o cumprimento de decisões judiciais e a quantidade de conteúdos irregulares identificados. Exigências semelhantes passariam a valer também para ferramentas de busca, como Google. A moderação de conteúdo, uma das ações mais controversas das plataformas, porque exclui, limita o alcance e rotula as postagens de usuários que ferem os termos de uso das redes, passa a ser regulamentada. A proposta obriga as empresas a avisar o usuário quando uma postagem é moderada, a informar a regra infringida e a abrir um canal de apelação e revisão da medida. Outra obrigação é a transparência dos impulsionamentos – assim como a ampliação do alcance de uma postagem mediante pagamento, que deve ser informada. No caso eleitoral, os usuários poderão saber detalhes das estratégias dos candidatos, como valor gasto e perfil a que a propaganda foi dirigida.
Na perspectiva das redes, há o temor de que a obrigatoriedade de divulgar informações sobre os sistemas auxilie usuários que queiram burlar seu monitoramento automatizado. Em geral, as plataformas combinam tecnologias de inteligência artificial com equipes humanas de moderação de conteúdo para identificar publicações que violam as regras. No YouTube, 91% dos vídeos removidos entre outubro e dezembro de 2021 em todo o mundo por violação de regras foram detectados pela primeira vez de forma automatizada. O Brasil foi o quarto país com mais postagens removidas no período, com mais de 220 mil casos. No Twitter, mais de 50% do conteúdo que viola suas diretrizes também é identificado por sistemas automatizados.
Apesar do aparente rigor da nova legislação, uma análise do Grupo de Pesquisa em Moderação de Conteúdo Online do Centro de Tecnologia e Sociedade (CTS), da Fundação Getulio Vargas (FGV), publicada em dezembro, aponta lacunas, como a falta de metodologia ou modelo de apresentação para os relatórios, o que dificulta a fiscalização e o controle de falhas. Além disso, na visão de Yasmin Curzi de Mendonça, pesquisadora do CTS, o projeto falha ao não designar um órgão com poder para punir quem desrespeitar a legislação.
– O projeto obriga as plataformas a terem um código de conduta e relatórios de transparência. Mas ele vai ser controlado pelas próprias plataformas. Estabelecido e controlado pelas mesmas – critica.
O futuro das plataformas depende de informações corretas, associadas à credibilidade, e não a um submundo digital. Sem isso, as big techs ficam à mercê de autocracias, como vemos agora na Rússia.
MARCELO RECH
Jornalista, presidente da Associação Nacional de Jornais (ANJ)
Um ponto que sofreu mudanças, em parte graças à pressão das big techs, foi o artigo 7º do texto, que aborda o tratamento de dados pessoais em anúncios direcionados. Pela nova versão, o compartilhamento de dados pessoais poderá ocorrer de acordo com a Lei Geral de Proteção de Dados Pessoais (LGPD). A redação anterior, criticada pelas empresas, trazia uma vedação explícita à combinação do tratamento de dados entre os provedores e serviços de terceiros. As plataformas vinham afirmando que o texto traria impacto na publicidade digital, principalmente para pequenas e médias empresas. Isso porque, na avaliação delas, o texto impediria o uso de informações dos usuários coletadas pelas redes na publicidade personalizada – tipo de ação em que o anunciante utiliza dados do consumidor para sugerir produtos e serviços relacionados com o perfil dele. Trata-se do coração da operação das redes sociais.
Há vários meses, as gigantes de tecnologia intensificaram a pressão e publicaram, em veículos de comunicação, anúncios afirmando que o projeto traria consequências negativas às pequenas empresas que usam publicidade online em seus negócios. Os anúncios direcionam para uma carta aberta publicada no site da Meta. No documento, assinado por Facebook, Instagram, Google, Mercado Livre e Twitter, as empresas afirmam que o texto “passou a representar uma potencial ameaça para a internet livre, democrática e aberta que conhecemos hoje e que transforma a vida dos brasileiros todos os dias”.
Segundo o documento, pequenas e médias empresas não poderão mais anunciar com eficiência e a custo baixo na internet. “O PL das fake news deveria combater fake news, e não a lanchonete do seu bairro”, diz.
Para Flora Arduini, diretora de campanhas da SunOfUs, ONG internacional que luta por direitos humanos e ambientais pelas grandes empresas, a proposta de legislação brasileira tem méritos ao focar no conteúdo e na desinformação que ameaça à democracia, mas falha ao não regular o uso de dados pessoais para propaganda.
– No texto atual, a parte de algoritmo foi suprimida. Se a gente compara com legislações que estão entrando em debate e serão aprovadas em breve na Europa, elas tentam olhar de forma mais completa e sistêmica como as plataformas operam. O DSA (Digital Service Act, em debate na UE) demanda das plataformas transparência muito maior. Além disso, dá ao usuário maior controle e liberdade de definir quais dados ele quer ou não que sejam utilizados e coletados – explica a e estudiosa.
Flora considera que a legislação brasileira não garante ao usuário a oportunidade de escolha de quais informações pessoais deseja expor, um direito que ela considera fundamental para proteção pessoal:
– Perdeu-se a oportunidade de dar ao usuário brasileiros a oportunidade de definir quais dados ele quer dar em troca do serviço que ele quer utilizar, ponto crucial do como essas plataformas funcionam.
O projeto da lei obriga as plataformas a terem um código de conduta e relatórios de transparência. Mas ele vai ser controlado pelas próprias plataformas.
YASMIN CURZI DE MENDONÇA
Pesquisadora do Centro de Tecnologia e Sociedade (CTS), da Fundação Getulio Vargas (FGV)
Segundo Flora, o Digital Services Act é tão importante e robusto que pode ser exportado para outros países, ao tornar o ambiente de internet mais seguro para os usuários. Outra legislação, o Digital Market Act (DMA) foca em direito de concorrência e busca dar acesso ao mercado a pequenas e médias empresas que hoje são controladas pelas grandes plataformas.
– O nosso PL já era moderado em relação ao que se discute nos EUA e na Europa, sobretudo para a proteção de crianças no ambiente online. Lá e aqui (na Europa), as conversas estão indo no sentido de restringir, inclusive de banir, esse tipo de prática. O projeto brasileiro sequer fala sobre isso – avalia Flora, direto de Londres, onde mora.
Formada por 43 entidades nacionais e estaduais de comunicação, a Coalizão Liberdade com Responsabilidade defendeu em uma carta aberta divulgada em 28 de março prioridade na apreciação do projeto pela Câmara, ao avaliar que o texto atual reflete a maturidade da proposta. Entre as entidades que formam o grupo estão a Associação Nacional de Jornais (ANJ), a Associação Brasileira de Emissoras de Rádio e Televisão (Abert), Associação Brasileira de Rádio e Televisão (Abratel) e a Associação Brasileira de Agências de Publicidade (Abap). O projeto, na visão das entidades, criminaliza “a disseminação em massa” de mensagens com desinformação e traz novas regras para as redes sociais, aplicativos de mensagens e provedores de busca, além de tratar do comportamento de usuários, com o objetivo de combater o compartilhamento de fake news.
Na carta, a coalizão classificou como desinformação a avaliação propagada nas campanhas publicitárias de empresas como Facebook, Google e Twitter, de que o projeto vedaria a publicidade ou serviços digitais. “Diferentemente do propagado por gigantes digitais, o projeto não acabará com a publicidade digital. Pelo contrário, aumentará a transparência sobre anúncios e impulsionamentos, que muitas vezes financiam a desinformação e discursos de ódio”, declarou. O jornalista Marcelo Rech, presidente da ANJ, afirma que o projeto ataca pilares fundamentais da desinformação: grupos de mensagens, anonimato, envio de mensagens ilimitadas, publicidade, impulsionamento anônimo de conteúdos digitais e remuneração da atividade jornalística.
– Basicamente, o projeto diz que a publicidade dirigida ao público deve ser contratada sob as leis brasileiras. Com isso, reduz potencialmente os impulsionamentos feitos de forma anônima, que acabam amplificando o impacto da desinformação – diz.
Rech saúda a iniciativa do texto, que prevê remuneração de conteúdo jornalístico distribuído pelas redes sociais:
– O jornalismo é o melhor antídoto contra a desinformação. Mas é um serviço caro, sendo bem feito. Mesmo que não seja objetivo das plataformas, mesmo que não tenham isso como seu produto principal, a desinformação é o efeito colateral, é um produto que elas acabam produzindo de forma que pode ser comparada com a poluição social. E quem faz a limpeza dessa poluição social é o jornalismo. Isso tem um custo.
Ele destaca que, em vários países, as legislações já entendem que as big techs devem pagar por essa limpeza proporcionada pelo jornalismo na verificação dos fatos. Em outubro de 2020, atendendo a um pedido da Autoridade de Concorrência da França, o Tribunal de Apelação de Paris determinou que o Google deveria negociar com veículos de imprensa franceses pagamento para exibir notícias em sua plataforma. Na Austrália, uma lei força as gigantes do setor a pagar aos veículos de comunicação locais. Ela permite que empresas de notícias negociem em bloco pelo conteúdo que aparece no feed de notícias e em resultados de pesquisa. As plataformas criticam, afirmando que a medida favoreceria “só grandes e tradicionais veículos de mídia” – o que é rebatido pela coalizão.
– O futuro das plataformas depende de informações corretas, associadas à credibilidade, e não a um submundo digital. Por isso, a remuneração da atividade jornalística, independente e profissional, serve também à proposta de negócios das big techs e à sociedade. Sem informações verdadeiras, as big techs ficam à mercê de autocracias, como vemos agora na Rússia – explica Rech.
Na avaliação de especialistas, ainda que careça de discussões em pontos específicos, a legislação brasileira, se aprovada, será um marco no âmbito internacional.
– Há mudanças a serem feitas, como a imunidade parlamentar, mas de forma geral a gente está saindo daquele nicho de desinformação para olhar de forma mais sistêmica como essas plataformas operam – pondera Flora.
– No Brasil, é muito difícil um processo ser ideal, pelo governo e pelo Congresso que a gente tem hoje. Esse não é um projeto de lei ideal, mas não quer dizer que não exista. A pressão social está aí, e o Congresso está tentando dar uma resposta a essa tarefa de decidir quais são as obrigações que o Estado vai implementar em relação a esse bicho novo que são as enormes plataformas digitais, que mudaram o jeito como a gente se informa e faz política – diz Brito Cruz.
A empresa que descumprir a lei estará sujeita a uma multa de até 10% do faturamento no Brasil. Caso esse dado não esteja disponível, a multa será de R$ 10 até R$ 1 mil por usuário cadastrado na plataforma, com limite de até R$ 50 mil por infração. Em casos graves, a companhia pode ter seu serviço temporariamente suspenso ou ser proibida de exercer atividades no país.