Diretrizes internas do Facebook, rede social com 2 bilhões de usuários, vieram a público no domingo em reportagem do diário britânico The Guardian. O jornal teve acesso a mais de uma centena de documentos sigilosos, que revelam como o site lida com questões polêmicas, envolvendo violência, sexo, nudez e tentativas de suicídio.
A reportagem mostra que o Facebook desenvolveu uma série de manuais para orientar seus moderadores sobre que conteúdos podem manter na rede e que postagens devem excluir, quando uma denúncia for feita. Algumas das decisões são controversas. Uma das diretrizes permite que pessoas transmitam ao vivo automutilações e até planos de suicídio. De acordo com a empresa, essas transmissões poderiam colaborar para que tais usuários obtivessem ajuda.
Leia mais:
Facebook altera privacidade e impede o compartilhamento de posts "só para amigos"
Facebook lança ofensiva na realidade aumentada graças a smartphones
Página do Facebook é notificada por usar fotos de Temer sem crédito em memes
Essa abordagem é criticada por Rafael Moreno Ferro Araújo, coordenador do Comitê de Prevenção do Suicídio da Associação de Psiquiatria do Rio Grande do Sul (APRS):
– Há a orientação de não postar fotos ou vídeos de pessoas com cortes ou qualquer outra lesão, tampouco mostrar pessoas prestes a se machucar ou em situação de risco. Quando o Facebook se posiciona dessa forma, abre a possibilidade do internauta que publica tais conteúdos ser glamourizado, ainda mais entre adolescentes. Existe o famoso "efeito Werther", um aumento de novos casos de comportamentos autolesivos após a visualização ou publicação de algum exemplo.
Segundo o Guardian, os moderadores do Facebook, com frequência, têm apenas 10 segundos para decidir o que é mantido e o que é removido, em um ambiente de regras nem sempre cristalinas. Em resposta ao Guardian, Monika Bickert, responsável pela gestão de políticas globais da rede social, ressaltou que as pessoas "têm ideias muito diferentes sobre o que é aceitável compartilhar". Por isso, conclui, sempre existirão áreas cinzentas.
A pedido de ZH, a psicóloga Luciana Ruffo, do Núcleo de Pesquisas da Psicologia em Informática da PUC-SP, analisou o material disponibilizado pelo jornal. Para ela, não há nada de surpreendente nas regras, ainda que algumas delas possam chocar certos públicos – como a liberação de mostrar violência contra crianças e animais, a partir do entendimento de que isso conscientiza.
– Para mim, isso é absurdo. Desagrada. Mas é difícil saber até que ponto algo conscientiza ou é um abuso. A verdade é que o Facebook tem um pepino enorme na mão. Cuidar disso tudo é quase impossível. Eles dependem de uma denúncia, de alguém estar olhando, de ter uma equipe a postos, de ter recursos. As pessoas criticam quando é muito rígido e criticam quando se liberam demais. Dentro do que é possível, eles fazem um bom trabalho – acredita.
Thiago Tavares, presidente da ONG SaferNet, concorda que é delicado para qualquer empresa que está na internet arbitrar limites de um direito fundamental como a liberdade de expressão – ainda mais que os países têm culturas e ordenamentos jurídicos distintos. Ele ressalta que, no Brasil, de acordo com o Marco Civil da Internet, essa atribuição cabe ao Judiciário.
– É um juiz quem define quais os limites da liberdade de expressão. Isso não significa que as empresas não removam certos conteúdos. Elas removem, voluntariamente. Mas não podem ser responsabilizadas se não removerem – afirma.
AUTOMUTILAÇÃO E SUICÍDIO
As diretrizes internas do Facebook permitem manter no ar transmissões de pessoas infligindo ferimentos a si mesmas e exibindo comportamento suicida. Conforme documentos obtidos pelo Guardian, a empresa "não quer censurar ou punir pessoas em sofrimento que estão tentando suicídio". A regra é remover a transmissão "quando não houver mais chance de ajudar a pessoa", a menos que o caso tenha relevância noticiosa.
Os moderadores da rede social são orientados a ignorar ameaças de suicídio que sejam expressas apenas por hashtags e emoticons, quando o método informado é improvável e ou a data anunciada para a tentativa está a mais de cinco dias de distância.
De acordo com a apuração do Guardian, o Facebook teria estabelecido essa política a partir de consultas a peritos. "Especialistas nos disseram que o melhor para a segurança dessas pessoas é deixá-las fazer a transmissão ao vivo enquanto elas estiverem envolvidas com os espectadores. No entanto, por causa do risco de contágio, o melhor para a segurança de quem está assistindo é remover os vídeos quando não há mais como ajudar a pessoa".
O Facebook tem normas internas que orientam seus moderadores a encaminhar casos delicados – como conteúdos ao seriado 13 Reasons Why – a instâncias superiores. Em determinadas situações de risco, a empresa trataria de contatar autoridades.
Veja o que a reportagem do Guardian diz sobre os tópicos abaixo
CONTEÚDO SEXUAL
Conforme o material obtido pelo Guardian, em documentos internos o Facebook diz permitir "exibições moderadas de sexualidade, beijos com a boca aberta, sexo simulado com roupas e atividade sexual com pixels envolvendo adultos".
Os manuais também abordam o uso de linguagem sexual, informando que o nível de detalhamento é o critério para definir se uma frase deve ser mantida ou apagada. "Um documento do Facebook, intitulado Atividade Sexual, explica que é permitido a alguém dizer: 'Eu vou te foder'. Mas se o post adiciona qualquer detalhe extra – por exemplo, onde isso pode acontecer ou como – deve ser excluído", publica o Guardian.
Também seriam aceitáveis para a rede sociais afirmações como: "Eu vou comer essa buceta" e "Olá garotas, querem chupar meu pau?". Confrontado pelo Guardian, o Facebook afirmou que algumas das diretrizes pareciam estar desatualizadas, mas não informou quais e quando foram modificadas. "Nem todos os conteúdos desagradáveis ou perturbadores violam os padrões. "Por isso, oferecemos às pessoas que usam o Facebook a capacidade de personalizar e controlar o que veem, podendo deixar de seguir, bloquear ou ocultar postagens, pessoas, páginas e aplicativos. Permitimos expressões gerais de desejo, mas não permitimos detalhes sexualmente explícitos", informou a empresa.
Segundo apuração do Guardian, os moderadores da rede social consideram que as políticas sobre conteúdo sexual são das mais difíceis de seguir, por serem muito complexas.
VINGANÇA PORNÔ E EXTORSÃO
Conforme os documentos vazados, o Facebook lidou com 51,3 mil casos potenciais de revenge porn (vingança pornô) e 2,45 mil de extorsão sexual em apenas um mês. A primeira situação é definida como usar imagens sexuais para humilhar, envergonhar ou se vingar de outra pessoa. Extorsão sexual envolve tentar extorquir dinheiro ou outras imagens de uma vítima. Tais casos levaram à desativação de 14.130 contas. Trinta e três casos envolviam crianças.
De acordo com o Guardian, o Facebook depende em larga medida de denúncias dos usuários sobre a existência de conteúdo abusivo, razão pela qual a dimensão do problema poderia ser muito maior.
A rede social estabeleceu uma espécie de tutorial para ajudar seus moderadores a identificar os casos que de vingança pornô e extorsão.
NUDEZ
"Permitimos nudez quando ela é retratada na arte, como em pinturas, esculturas e desenhos. Não permitimos nudez criada digitalmente ou atividade sexual", afirma um documento do Facebook obtido pelo Guardian. A empresa prossegue: "Essa linha é difícil de aplicar, porque é complicado diferenciar entre arte feita manualmente e imagens digitais". O jornal inglês observa que, conforme slides do Facebook, é aceito o desenho de uma mulher em topless, montada em um pênis ereto gigante, enquanto pinturas clássicas de cenas da mitologia grega relacionadas com estupros foram proibidas – o jornal afirma que não ficou claro se, agora, algo mudou a esse respeito.
No ano passado, o Facebook gerou polêmica ao remover a famosa foto de uma menina nua correndo, depois de ser atingida por Napalm durante a Guerra do Vietnã. A imagem venceu o prêmio Pulitzer de jornalismo, mas o Facebook considerou-a obscena. Segundo os documentos vazados, a empresa quer evitar situações desse tipo e criou novas regras a respeito, liberando "fotografias de bebês nus tão jovens que claramente não possam ficar de pé, a menos que a foto foque nos genitais deles" e "imagens de nudez de adultos no contexto do Holocausto".
VIOLÊNCIA
Em um documento, o Facebook observa que as pessoas usam linguagem violenta para expressar frustração e se sentem seguras para fazê-lo no site. "Devemos dizer que a linguagem violenta não é, na maioria das vezes, credível, até que a especificidade da linguagem nos dê um fundamento razoável para acreditar que não se trata mais de uma expressão de emoção e, sim, de uma transição para um plano ou projeto". Os documentos trazem listas do que seriam afirmações de violência credíveis e não credíveis, na avaliação do Facebook.
Vídeos com mortes também não são necessariamente banidos do site, afirma um documento: "Vídeos de mortes violentas são perturbadores, mas podem ajudar a criar conscientização. Para vídeos, pensamos que os menores precisam de proteção, e os adultos precisam de uma escolha. Etiquetamos como 'perturbadores' vídeos das mortes violentas de seres humanos".
Confira algumas das regras que, segundo o Guardian, constam de documentos internos do Facebook:
– São aceitáveis afirmações como: "Para quebrar o pescoço de uma vagabunda, certifique-se de aplicar toda a pressão no meio da garganta dela" ou "Foda-se e morra". Para a rede social, essas são ameaças não credíveis. Mas dizer "Alguém atire no Trump" é vetado, porque chefes de Estado estão em uma categoria especial.
– Vídeos com mortes violentas, desde que haja aviso de que são perturbadores, não precisam ser deletados, porque podem chamar atenção para questões importantes.
– Fotos de abuso de animais podem ser partilhadas. Apenas as extremamente violentas devem ser marcadas como perturbadoras.
– Vídeos de abortos são permitidos, se não houver nudez.
ABUSO INFANTIL
Fotos de crianças sofrendo bullying ou abuso, desde que não sexual, não precisam ser apagadas, a menos que estejam acompanhadas por algum comentário sádico ou apareçam num contexto celebratório. Essa é uma das regras estabelecidas pelo Facebook, segundo a reportagem do Guardian.
Documentos revelados pelo jornal indicam que a rede social permite o compartilhamento de evidências do abuso infantil para permitir que a criança seja identificada e auxiliada.