O que une as crises sanitária, política, econômica e social do mundo atual? A desinformação. Mas há uma solução – já comprovada – para resolvê-la, aponta Avi Tuschman, antropólogo evolucionista dedicado a pesquisar a inteligência artificial. Norte-americano de Stanford (Califórnia), ele defende que não podemos confiar nem em governos, nem em plataformas de tecnologia, e que por isso essa solução depende de projetos colaborativos e independentes promovidos pela sociedade civil – como a Wikipédia.
Tuschman, que recentemente falou sobre o tema no Ciclo de Palestras de Temas Atuais de Direito Internacional, promovido pela Universidade Federal do Pampa (Unipampa) e coordenado pela professora Carmela Cavalheiro, é autor, entre outros, do livro Our Political Nature: The Evolutionary Origins of What Divides Us (“Nossa natureza política: as origens evolutivas do que nos divide”, Prometheus Books). O texto a seguir foi veiculado originalmente em inglês no portal Fast Company e traduzido para o português especialmente para publicação no caderno DOC e em GZH.
Por Avi Tuschman
Pesquisador de inteligência artificial, empreendedor associado ao acelerador StarX, da Universidade de Stanford
O aspecto mais distópico de nossa época não é o fato de enfrentarmos grandes desafios, mas o de não termos crenças em comum suficientes que nos possibilitem encarar transições políticas incruentas, hesitação quanto a vacinas, tensões raciais e ainda mudanças climáticas, tudo ao mesmo tempo. Hoje em dia, nosso corpo político sofre com uma infecção informativa que afeta nossa capacidade de responder de modo adequado a todas essas graves e simultâneas ameaças.
Informações errôneas são injetadas a todo instante em nossos canais de mídia social para manter a sociedade dividida, desconfiada e paralisada. Recomendações guiadas por inteligência artificial quanto a conteúdos criados por usuários exacerbaram a polarização política. E até governos estrangeiros trabalham na manipulação de algoritmos para interferir nas eleições estrangeiras – foi o caso nos EUA, tanto no pleito de 2016 quanto no de 2020. Informações errôneas financiadas pela Rússia e catapultadas a partir do YouTube continuam a gerar bilhões de acessos após os anos de eleição, fomentando movimentos conspiratórios que o FBI considera uma ameaça terrorista doméstica.
As redes sociais também são o vetor primário da “infodemia” da covid-19, que contribui para um dado estarrecedor: o de que 60% das mortes estimadas seriam evitáveis. O próprio diretor da Organização Mundial da Saúde (OMS), Tedros Adhanom Ghebreyesus, reconheceu:
– Notícias falsas se alastram mais rapidamente e mais facilmente do que o vírus e são tão perigosas quanto ele.
O que deu errado? Google, YouTube e Facebook são os três maiores websites do mundo fora da China. O trio organiza as informações globais de acordo com algoritmos que se baseiam na popularidade. Apesar dos benefícios dessas plataformas, essa popularidade tem uma relação incômoda com a veracidade: conteúdos virais espalham rapidamente informações pouco confiáveis. Mais de 25% dos vídeos mais vistos no YouTube em inglês sobre o coronavírus contêm desinformação. No Twitter, pesquisadores do Massachusetts Institute of Technology (MIT) calcularam que notícias falsas se alastram seis vezes mais rápido do que as informações verídicas.
Como podemos aprimorar nossos sistemas de informação para mudar esse cenário e salvar vidas? Como apontou Steve Rosenbaum, do New York City Media Lab, não é possível confiar inteiramente nem nas plataformas de tecnologia, nem em governos para regular a internet, “então é como se quiséssemos uma entidade mágica, que no entanto não é o governo, nem o Facebook, nem o YouTube, nem o Twitter”.
Rosenbaum está coberto de razão: resolver essa crise de informações errôneas requer uma terceira entidade “mágica” que não tenha incentivos para manipular as informações por motivos econômicos ou políticos. Contudo, são as empresas de tecnologia que conseguiriam construir um sistema suficientemente veloz e expansível para distinguir fatos de inverdades. Uma solução como essa não é apenas teórica; seus componentes já estão desenvolvidos e são usados.
Entre os maiores websites do mundo, há um caso excepcional que não evoluiu para organizar conteúdos a partir da popularidade. O quinto maior website do planeta (sem contar a China) organiza as informações de acordo com fatos documentados de modo confiável. Está acima de Amazon, Netflix, e Instagram. Falo da Wikipédia.
Porém, o quão correta a Wikipédia é de fato? Em 2005, um estudo cego publicado na revista Nature concluiu que a Wikipédia não continha erros mais sérios do que a enciclopédia Britannica. Em 2007, um periódico alemão replicou esses resultados em relação à Bertelsmann Enzyklopädie e à Encarta. Em 2013, a Wikipédia já havia se tornado o recurso médico mais consultado do mundo, com 155 mil artigos escritos em mais de 255 idiomas e 4,88 bilhões de acessos a páginas naquele ano. Entre 50% e 70% dos clínicos e mais de 90% dos estudantes de Medicina hoje utilizam a Wikipédia como fonte de informações de saúde.
Embora qualquer um possa enviar uma edição, a Wikipédia tem uma hierarquia formal de administração. Os editores buscam um consenso, mas a plataforma também oferece mecanismos de resolução de conflitos. Aplica resultados sensíveis por meio de 11 métodos de proteção. A supervisão humana trabalha junto a robôs que revertem vandalismos por meio de inteligência artificial. E isso tudo ocorre em um ambiente com registros transparentes.
A Wikipédia está sendo citada em documentos de tribunais federais e serve de fonte para o Siri da Apple e para a Alexa da Amazon. O Google com frequência aproveita conteúdos da Wikipédia, fornecendo trechos para o popular Painel de Conhecimento de seu sistema de busca. A abordagem da Wikipédia quanto à covid-19 foi descrita pelo jornal Washington Post como “um raio de esperança em um mar de poluição”.
Como a Wikipédia tornou-se “a maior bibliografia da história humana” e “o local da averiguação pública de fatos”? A plataforma tem três políticas centrais simples de conteúdo: ponto de vista neutro, verificabilidade e “nada de pesquisa inédita”; além disso, é governada por centenas de páginas de políticas e diretrizes, que se tornaram um corpo de leis comuns.
Embora qualquer um possa enviar uma edição, a Wikipédia tem uma hierarquia formal de administração. Os editores buscam chegar a um consenso, mas a plataforma também oferece uma gama de mecanismos de resolução de conflitos. Aplica resultados sensíveis por meio de 11 métodos de proteção. A supervisão humana trabalha junto a robôs que revertem vandalismos por meio de inteligência artificial, os quais podem fazer milhares de edições por minuto. É importante notar que isso tudo ocorre em um ambiente com registros transparentes.
O resultado dessa tecnologia extraordinária de verificação de fatos é absolutamente esclarecedor. Leia os primeiros parágrafos do artigo da Wikipédia sobre a “Controvérsia do aquecimento global”. Mais do que isso: compare o artigo da Wikipédia sobre “Vacinas e autismo” com os cinco primeiros resultados para essas palavras (em inglês) no YouTube, onde 32% dos vídeos sobre vacinas se opõem à imunização.
Plataformas de mídias sociais podem aproveitar-se dos pontos fortes da Wikipédia para reduzir seus pontos fracos. Elas deveriam providenciar um espaço de verificação de fatos com códigos abertos (open-source) em seus sistemas de moderação de conteúdo. Fazer isso não é apenas uma responsabilidade ética; também é uma jogada esperta para escapar do martelo das regulações.
Eis como poderia funcionar: uma pequena porcentagem de conteúdos em redes sociais contém informações errôneas virais que fazem mal à saúde pública. Empresas de tecnologia deveriam começar a implementar políticas para habilitar a verificação de fatos open-source desse conteúdo. As plataformas poderiam utilizar vários mecanismos para direcionar conteúdos dúbios a um processo de revisão distribuído. Então, usuários verificadores de fatos utilizariam os mesmos mecanismos e um software código aberto como aquele usado com êxito na Wikipédia para arbitrar a verificabilidade. O “processo visível” de verificação de fatos ocorreria em uma MediaWiki, por exemplo, preferivelmente governada por uma organização com diversas partes interessadas. Os próprios fatos – a base da verdade – são os textos em inglês da Wikipédia em que um número mínimo de autores e editores tenha contribuído para a informação do artigo.
Uma grande força de trabalho (usuários de redes sociais) já se encontra disponível para energizar essa solução. A Wikipédia demonstra que milhões de voluntários verificam fatos sem compensação monetária. Inclusive, a pesquisa mostra que as pessoas são “programadas” para punir transgressões morais em troca apenas do estímulo de dopamina no cérebro. De fato, a punição altruísta já constitui boa parte da atividade nas redes sociais hoje em dia. As plataformas de tecnologia precisam apenas fazer uso desse instinto para clarificar desinformações nocivas.
Pesquisas mais aprofundadas quanto à verificação de fatos poderiam ajudar a deixar mais clara a escala necessária de um mecanismo de moderação de conteúdos efetuado por usuários. Editores da Wikipédia talvez não queiram trabalhar “em prol” de uma empresa com fins lucrativos. Porém, verificadores de fatos de redes sociais provavelmente virão de um conjunto maior de pessoas. Há precedentes quanto a trabalho colaborativo que contribui para grandes empresas de tecnologia. Por exemplo, o Local Guides enriquece o Google Maps com uma quantidade significativa de informações; esse ciclo de motivação funciona porque os envolvidos não têm motivações intrínsecas de trabalhar para o Google, mas simplesmente de ajudar amigos e familiares.
Ao recrutar verificadores de fatos, redes sociais deveriam deixar claros dois pontos importantes:
- A verificação de fatos traz benefícios à comunidade ao reduzir as desinformações
- Conteúdos nocivos devem ser rebaixados e desmonetizados, reduzindo o lucro obtido com conteúdos falsos tanto para seus criadores quanto para as plataformas que os veiculam.
É preciso adaptar a tecnologia de verificação de fatos às redes sociais, maximizando a popularidade e as ramificações dos conteúdos circulantes. Se mantivermos a situação sem essa adaptação, viveremos em uma era pós-factual cada vez mais perigosa. Caso atenuemos o problema trazido por Facebook, YouTube e Twitter, inspirando-nos por exemplo na Wikipédia, nossa era da informação será bem-sucedida em partilhar o conhecimento, a compreensão e o bem-estar com todos.
Tradução: Vicente Nogueira (Agência RBS)