Data: 03/07/2024 21:05

COMO O FACEBOOK DECIDE QUAIS PAÍSES PRECISAM DE PROTEÇÃO

No final de 2019, o grupo de colaboradores do Facebook encarregado de prevenir danos à rede se reuniu para discutir o ano que se inicia. Na Cúpula Cívica, como foi chamada, os líderes anunciaram onde investiriam recursos para fornecer proteção aprimorada em torno das próximas eleições globais – e também onde não o fariam. Em uma mudança que se tornou padrão na empresa, o Facebook classificou os países do mundo em camadas.

Brasil, Índia e Estados Unidos foram colocados na “camada zero”, a maior prioridade. O Facebook configurou “salas de guerra” para monitorar a rede continuamente. Eles criaram painéis para analisar a atividade da rede e alertaram os funcionários eleitorais locais sobre quaisquer problemas.

Alemanha, Indonésia, Irã, Israel e Itália foram colocados no primeiro nível. Eles receberiam recursos semelhantes, menos alguns recursos para a aplicação das regras do Facebook e para alertas fora do período imediatamente em torno da eleição.

No nível dois, 22 países foram adicionados. Eles teriam que ficar sem as salas de guerra, que o Facebook também chama de “centros de operações aprimorados”.

O resto do mundo foi colocado no nível três. O Facebook revisaria o material relacionado às eleições se fosse encaminhado a eles pelos moderadores de conteúdo. Caso contrário, não iria intervir.

OS DOCUMENTOS MOSTRAM UMA VARIAÇÃO SIGNIFICATIVA NOS RECURSOS DE MODERAÇÃO DE CONTEÚDO OFERECIDOS A DIFERENTES PAÍSES

O sistema é descrito em divulgações feitas à Securities and Exchange Commission e fornecidas ao Congresso de forma redigida pelo consultor jurídico de Frances Haugen. Um consórcio de organizações de notícias, incluindo Platformer e The Verge , obteve as versões editadas recebidas pelo Congresso. Alguns documentos serviram de base para reportagens anteriores no The Wall Street Journal .

Os arquivos contêm uma grande variedade de documentos que descrevem a pesquisa interna da empresa, seus esforços para promover a segurança e o bem-estar dos usuários e sua luta para permanecer relevante para um público mais jovem. Eles destacam o grau em que os funcionários do Facebook estão cientes das lacunas em seus conhecimentos sobre questões de interesse público e seus esforços para aprender mais.

Mas se um tema se destaca mais do que outros, é a variação significativa nos recursos de moderação de conteúdo oferecidos a diferentes países com base em critérios que não são públicos ou sujeitos a revisão externa. Para o país de origem do Facebook, os Estados Unidos, e outros países considerados de alto risco de violência política ou instabilidade social, o Facebook oferece um conjunto aprimorado de serviços projetados para proteger o discurso público: traduzir o serviço e os padrões da comunidade para os idiomas oficiais; construir classificadores de IA para detectar discurso de ódio e desinformação nessas línguas; e equipes de funcionários para analisar o conteúdo viral e responder rapidamente a boatos e incitação à violência 24 horas por dia, 7 dias por semana.

Outros países, como a Etiópia, podem nem mesmo ter os padrões comunitários da empresa traduzidos para todos os seus idiomas oficiais. Classificadores de aprendizado de máquina para detectar discurso de ódio e outros danos não estão disponíveis. Não existem parceiros de verificação de fatos. As salas de guerra nunca abrem.

Para uma empresa normal, dificilmente é controverso alocar recursos de forma diferente com base nas condições de mercado. Mas dado o papel fundamental do Facebook no discurso cívico – ele efetivamente substitui a internet em alguns países – as disparidades são motivo de preocupação.

Há anos, ativistas e legisladores de todo o mundo criticam a empresa pela desigualdade em sua abordagem à moderação de conteúdo. Mas os Facebook Papers oferecem uma visão detalhada de onde o Facebook oferece um padrão mais alto de atendimento – e onde não.

Entre as disparidades:

  • O Facebook não tinha classificadores de desinformação em Mianmar, Paquistão e Etiópia, países designados como de maior risco no ano passado.
  • Também faltou classificadores de discurso de ódio na Etiópia, que está no meio de um conflito civil sangrento.
  • Em dezembro de 2020, um esforço para colocar especialistas em idiomas em países teve sucesso apenas em seis dos dez países de “nível um” e em nenhum país de nível dois.

Miranda Sissons, diretora de política de direitos humanos do Facebook, me disse que a alocação de recursos dessa forma reflete as melhores práticas sugeridas pelas Nações Unidas em seus Princípios Orientadores sobre Negócios e Direitos Humanos . Esses princípios exigem que as empresas considerem o impacto de seu trabalho sobre os direitos humanos e trabalhem para mitigar quaisquer problemas com base em sua escala, gravidade e se a empresa pode projetar uma solução eficaz para eles.

Sissons, um ativista de direitos humanos e diplomata de carreira, ingressou no Facebook em 2019. Esse foi o ano em que a empresa começou a desenvolver sua abordagem para o que a empresa chama de “países em risco” – lugares onde a coesão social está em declínio e onde a rede e os poderes do Facebook amplificação do risco de incitação à violência.

O FACEBOOK PODE CONDUZIR OPERAÇÕES DE INTELIGÊNCIA SOFISTICADAS QUANDO DECIDIR

A ameaça é real: outros documentos nos Facebook Papers detalham como as novas contas criadas na Índia naquele ano seriam rapidamente expostas a uma onda de discurso de ódio e desinformação se seguissem as recomendações do Facebook. ( New York Times detalhou essa pesquisa no sábado .) E mesmo em casa nos Estados Unidos, onde o Facebook investe mais em moderação de conteúdo, os documentos refletem o grau em que os funcionários foram oprimidos pela enxurrada de desinformação na plataforma que levou a o ataque ao Capitólio de 6 de janeiro. ( The Washington Post e outros descreveram esses registros no fim de semana .)

Documentos mostram que o Facebook pode conduzir operações sofisticadas de inteligência quando quiser. Um estudo de caso não datado sobre “redes de dano adversário na Índia” examinou o Rashtriya Swayamsevak Sangh, ou RSS – uma organização paramilitar nacionalista e anti-muçulmana – e seu uso de grupos e páginas para espalhar conteúdo inflamatório e enganoso.

A investigação descobriu que um único usuário no RSS gerou mais de 30 milhões de visualizações. Mas a investigação observou que, em grande medida, o Facebook está voando às cegas: “Nossa falta de classificadores em hindi e bengali significa que muito desse conteúdo nunca é sinalizado ou acionado”.

Uma solução poderia ser penalizar as contas RSS. Mas os laços do grupo com o governo nacionalista da Índia tornavam essa proposta delicada. “Ainda temos que propor uma indicação para designar este grupo devido às sensibilidades políticas”, disseram os autores.

O Facebook provavelmente gasta mais em esforços de integridade do que qualquer um de seus pares, embora também seja a maior das redes sociais. Sissons me disse que, idealmente, os padrões da comunidade da empresa e os recursos de moderação de conteúdo de IA seriam traduzidos para os idiomas de todos os países onde o Facebook está operando. Mas mesmo as Nações Unidas suportam apenas seis idiomas oficiais ; O Facebook tem falantes nativos moderando postagens em mais de 70.

Mesmo em países onde as camadas do Facebook parecem limitar seus investimentos, disse Sissons, os sistemas da empresa regularmente examinam o mundo em busca de instabilidade política ou outros riscos de escalada de violência para que a empresa possa se adaptar. Alguns projetos, como o treinamento de novos classificadores de discurso de ódio, são caros e levam muitos meses. Mas outras intervenções podem ser implementadas mais rapidamente.

Ainda assim, os documentos analisados ​​pelo The Verge também mostram como as pressões de custo parecem afetar a abordagem da empresa para o policiamento da plataforma.

“ESSAS NÃO SÃO ESCOLHAS FÁCEIS DE FAZER.”

Em uma nota de maio de 2019 intitulada “Maximizing the Value of Human Review”, a empresa anunciou que criaria novos obstáculos para os usuários que relatassem discurso de ódio na esperança de reduzir a carga sobre seus moderadores de conteúdo. Ele também disse que fecharia automaticamente os relatórios sem resolvê-los nos casos em que poucas pessoas tivessem visto a postagem ou o problema relatado não fosse grave.

O autor da nota disse que 75 por cento do tempo, os revisores descobriram que as denúncias de discurso de ódio não violam os padrões da comunidade do Facebook e que o tempo dos revisores seria mais bem gasto de forma proativa procurando violações piores.

Mas também havia preocupações com as despesas. “Estamos claramente correndo à frente de nosso orçamento de revisão [de moderação de conteúdo de terceiros] devido ao trabalho de aplicação inicial e teremos que reduzir a capacidade (por meio de melhorias de eficiência e desgaste natural de representação) para cumprir o orçamento”, escreveu o autor. “Isso exigirá reduções reais na capacidade do visualizador até o final do ano, forçando compensações.”

Os funcionários também descobriram que seus recursos eram limitados nos países de alto risco identificados pelo sistema de níveis.

“Essas não são escolhas fáceis de fazer”, observa a introdução de uma nota intitulada “Gerenciando de forma sustentável o discurso hostil em países em risco”. (O Facebook abrevia esses países como “ARCs.”)

“Apoiar os ARCs também tem um alto custo para a equipe em termos de resposta a crises. Nos últimos meses, fomos chamados para um tiroteio para as eleições na Índia, confrontos violentos em Bangladesh e protestos no Paquistão ”.

A nota diz que depois que um país é designado como “prioridade”, normalmente leva um ano para construir classificadores para discurso de ódio e para melhorar a aplicação. Mas nem tudo passa a ser uma prioridade, e as compensações são realmente difíceis.

“Devemos priorizar a construção de classificadores para países com violência contínua … em vez de violência temporária”, diz a nota. “Para o último caso, devemos confiar em ferramentas de resposta rápida.”

UMA SENSAÇÃO GENERALIZADA DE QUE, EM ALGUM NÍVEL FUNDAMENTAL, NINGUÉM TEM CERTEZA DO QUE ESTÁ ACONTECENDO

Depois de revisar centenas de documentos e entrevistar funcionários atuais e ex-funcionários do Facebook sobre eles, fica claro que um grande contingente de trabalhadores dentro da empresa está tentando diligentemente controlar os piores abusos da plataforma, usando uma variedade de sistemas que são estonteantes em seu escopo, escala e sofisticação. Também está claro que eles estão enfrentando pressões externas sobre as quais não têm controle – o crescente autoritarismo de direita dos Estados Unidos e da Índia não começou na plataforma, e o poder de figuras individuais como Donald Trump e Narendra Modi para promover a violência e a instabilidade não deve ser subestimada.

E, no entanto, também é difícil não se maravilhar mais uma vez com o tamanho do Facebook; a incrível complexidade de entender como funciona, mesmo para as pessoas encarregadas de operá-lo; a natureza opaca de sistemas como o “fluxo de trabalho” de seus países em risco; e a falta de responsabilidade nos casos em que, como em Mianmar, tudo saiu violentamente do controle.

Alguns dos documentos mais fascinantes nos jornais do Facebook também são os mais mundanos: casos em que um funcionário ou outro se pergunta em voz alta o que poderia acontecer se o Facebook mudasse essa entrada para aquela ou reduzisse esse dano às custas dessa métrica de crescimento. Outras vezes, os documentos os encontram lutando para explicar por que o algoritmo mostra mais “conteúdo cívico” para homens do que mulheres ou por que um bug permitiu que algum grupo incitante à violência no Sri Lanka adicionasse automaticamente meio milhão de pessoas a um grupo – sem seu consentimento – durante um período de três dias.

Há uma sensação generalizada de que, em algum nível fundamental, ninguém tem certeza do que está acontecendo.

Nos documentos, os tópicos de comentários se acumulam enquanto todos coçam a cabeça. Os funcionários pedem demissão e os vazam para a imprensa. A equipe de comunicação analisa as descobertas e escreve uma postagem sombria no blog, afirmando que há mais trabalho a fazer.

O Congresso rosna. O Facebook muda de nome. Os países do mundo, organizados ordenadamente em camadas, prendem a respiração.

FONTE: THEVERGE

Veja também

Notícias Relacionadas

Categorias

Redes Sociais