Depois de muito evitarem a tomada de medidas para combater a disseminação de notícias falsas, argumentando que não são empresas de comunicação e que ações desse tipo não caberiam a elas, as maiores redes sociais do mundo se renderam ao fato de que seu grande alcance, conectando pessoas do mundo todo, vem há anos sendo usado para espalhar problemas — e que isso precisa ser combatido, sim, pelas próprias redes sociais. As estratégias utilizadas, porém, nem sempre têm garantido resultados satisfatórios.
Reportagens publicadas por veículos tradicionais de imprensa como The Guardian e The New York Times associaram a troca de mensagens entre usuários do Facebook — maior rede social do mundo, com mais de 2,2 bilhões de usuários — à eclosão de uma crise humanitária em Mianmar (com o discurso de ódio online contribuindo para a expulsão de mais de 650 mil refugiados do país), a dezenas de mortes na Índia (a partir de rumores acusando pessoas inocentes de promoverem sequestros de crianças) e a crises sanitárias (com informações falsas sobre vacinas levando à volta de doenças já quase erradicadas).
— Essas plataformas deveriam ser responsáveis por prevenir a disseminação de informações falsas e embustes por vários motivos. Porque quem promove esse tipo de ação geralmente o faz em grupos. Porque são essas redes sociais, com seus algoritmos, que podem prevenir bolhas de informação com potencial nocivo. Porque elas têm acesso total aos dados que podem contribuir para identificar fake news. E porque deveriam ter uma responsabilidade ética de gerenciar a circulação e qualidade das informações que armazenam — diz a indonésia Ika Karlina Idris, doutora em Comunicação pela Universidade de Ohio, nos Estados Unidos, e pesquisadora do impacto da internet na sociedade.
Em entrevista à CNN no ano passado, o CEO do Twitter, Jack Dorsey, afirmou que a plataforma não deveria ser "árbitra da verdade" sobre o que é divulgado por seus usuários. Mas outras redes sociais já atentaram para a importância de trabalharem no combate às notícias falsas.
Os esforços mais recentes do Facebook para evitar a propagação de notícias falsas foram consolidados no início deste ano. Foi quando a rede social anunciou mudanças nas regras para as páginas, passando a identificar publicações consideradas potencialmente incorretas e que, em razão disso, passaram a ter seu alcance reduzido. Outra medida anunciada foi a fiscalização mais rígida de autores de páginas removidas, além de um controle maior permitido aos administradores.
Medidas como essas sinalizam maior transparência na remoção de conteúdos, mas ainda são "tímidas" e podem "não fazer muita diferença", na avaliação do mestre em direito e pesquisador do Instituto Beta Paulo Rená.
— O Facebook não parece mais disposto a ouvir a comunidade. Com isso, devemos continuar vendo tanto problemas quanto falsos positivos, tanto conteúdos legítimos removidos quanto conteúdos ofensivos são mantidos online a despeito de protestos na própria rede — diz Rená.
Basta "remover, reduzir e informar"?
Há alguns anos, a maior rede social do mundo começou a implementar em toda sua "família de apps" — que inclui, além do Facebook, também Instagram e Messenger —, uma estratégia denominada "remover, reduzir e informar". Consiste em remover os posts que violam diretamente a política desses sites, reduzir a visibilidade de conteúdos que, mesmo dentro das normas, possuem pontos de atenção, e de informar melhor usuários sobre conteúdos sensíveis, para diminuir as chances de que sejam agentes e vítimas de notícias falsas.
Ao expor, em março, sua visão estratégica para transformar o Facebook nos próximos anos, seu CEO, Mark Zuckerberg, garantiu que a empresa está caminhando para se tornar uma plataforma "focada na privacidade" e concentrada na confidencialidade.
"Quando penso no futuro da internet, penso que uma plataforma de comunicações focada na privacidade será muito mais importante que as plataformas abertas atuais", considerou Zuckerberg, que, conforme o jornal The Washington Post, pode ser considerado responsável pelos casos de quebra de privacidade que envolveram a rede social nos últimos anos.
Mesmo essa intenção de garantir mais privacidade aos usuários, contudo, é alvo de críticas. A mudança rumo à troca de conteúdo com maior privacidade em uma plataforma com 2,2 bilhões de pessoas e longo histórico de problemas também causa preocupações.
— Essa mudança torna mais difícil para quem está por fora entender o que está acontecendo no Facebook. A desinformação é compartilhada entre usuários largamente através de serviços de mensagens privadas — argumenta Rasmus Nielsen, professor de Comunicação Política na Universidade Oxford.
O próprio Zuckerberg abordou essa preocupação, afirmando, em sua página, que encriptar as conversas é uma poderosa ferramenta de proteção online, mas que também pode ser usada por pessoas mal-intencionadas, e que a empresa precisaria adotar outras medidas para prevenir danos em potencial.
Arthur Igreja, especialista em tecnologia e inovação da Fundação Getúlio Vargas (FGV), atribui tamanhas idas e voltas, acertos e erros, a uma "crise de identidade" da rede social:
— É difícil identificar o que é o Facebook: se uma rede de relacionamento, um portal de notícias, um grande classificado de ofertas. A própria empresa não sabe qual seu papel. E as pessoas também ficam sem entender direito.
Os verificadores do Facebook
Em 2016, o Facebook deu início ao seu programa de checagem de informações. Foi um mês após a eleição de Donald Trump à presidência dos Estados Unidos, quando a disseminação de notícias falsas atraiu a atenção para a rede social e sua falta de atitudes a respeito. A iniciativa, que envolve 43 organizações ao redor do mundo, trabalhando em 24 línguas, consiste em utilizar ferramentas desenvolvidas pela empresa de Mark Zuckerberg para conferir conteúdo que foi marcado, por usuários ou pelos algoritmos da rede, como potencialmente falso.
Os verificadores conferem as informações, eventualmente produzindo até um "artigo explicativo". Usuários que tiverem compartilhado informações falsas recebem notificações, e a publicação perde força no feed do Facebook. Zero Hora conversou com um brasileiro que participa desse programa. Ele afirmou que a iniciativa é eficaz, mas tem alcance limitado — e o orçamento disponível para pagar os verificadores estaria diminuindo.
— Essa parceria é importante, mas seria preciso ir além. Nosso impacto, sem maior incentivo e visibilidade por parte do Facebook, é bem restrito — descreve um dos verificadores, que assinam contratos exigindo sigilo sobre sua identidade e funções.
Ainda assim, houve avanços: em fevereiro, o Facebook comemorou o resultado de um estudo conduzido por pesquisadores das universidades de Michigan, Princeton Exeter e Washington identificando que o consumo de notícias falsas na plataforma tem diminuído desde as eleições de 2016 nos Estados Unidos. Outras três pesquisas, de instituições diferentes e com outras metodologias, também apontaram redução no volume de notícias falsas circulando no Facebook.
"Apesar de nos sentirmos encorajados por esses estudos, sabemos que a desinformação é algo altamente contraditório e estamos comprometidos ao nosso papel no esforço de longo prazo que combater as notícias falsas vai exigir", afirmou a rede social, em nota.
Ofensivas contras as notícias falsas
- Com uma estratégia chamada "remover, reduzir e informar", o Facebook passou a tentar combater melhor as fake news após as eleições norte-americanas de 2016.
- Fazendo uso de seus algoritmos e de denúncias de usuários, além dos funcionários da própria rede social, o objetivo é tornar fake news menos virais.
- A empresa também trabalha com verificadores (fact checkers) em diversos países, que conferem posts altamente compartilhados e agem, caso verifiquem notícias falsas.
- O usuário responsável pela publicação de notícias falsas tem o alcance de seu post limitado. Casos recorrentes levam a notificações, e a conta pode até ser banida.
- Com medidas tímidas, a rede social, de propriedade do Facebook, concentrou-se em garantir mais informações sobre as contas com alto número de seguidores.
- A intenção é verificar a legitimidade dos usuários, incluindo dados como data de ingresso, país, nomes de usuário anteriores, entre outros.
- O Instagram também passou a verificar contas, como o Twitter já fazia, incluindo um símbolo de "verificado" ao lado de contas comprovadamente vinculadas a pessoas públicas.
- O aplicativo limitou o número de vezes que uma mensagem pode ser encaminhada por vez de 20 para cinco.
- A empresa, também parte do Facebook, garante banir milhões de robôs e contas dedicadas a enviar spam mensalmente.
- Outra medida anunciada foi a opção de permitir que só administradores enviem mensagens em grupos.