Três razões pelas quais a Meta terá dificuldades com a verificação comunitária de fatos
Governança

Três razões pelas quais a Meta terá dificuldades com a verificação comunitária de fatos

A empresa de media social terá um caminho difícil se quiser que a verificação comunitária de fatos seja bem-sucedida.

Mark Zuckerberg anunciou que a Meta reduzirá os seus esforços de moderação de conteúdo e eliminará a verificação de fatos nos EUA. Para Zuckerberg, a medida assemelha-se a uma abordagem mais “democrática” adotada pela X (antigo Twitter), chamada Community Notes, e reverte proteções que, segundo ele, foram desenvolvidas apenas em resposta à pressão dos media e do governo.

O anúncio tem alarmado diversas pessoas, e com razão. A Meta deixou um rastro de controvérsias que incluem desde a moderação excessiva de imagens de mulheres a amamentar até a supervisão insuficiente de discursos de ódio em Mianmar, o que contribuiu para o genocídio dos muçulmanos rohingya. Enquanto isso, acabar com a verificação profissional de fatos cria o potencial para que desinformação e ódio se espalhem sem controlo.

Convocar voluntários foi a forma como a moderação começou na Internet, muito antes dos gigantes das redes sociais perceberem que esforços centralizados eram necessários. E a moderação por voluntários pode ser bem-sucedida, o que permite o desenvolvimento de regulamentações personalizadas alinhadas às necessidades de comunidades específicas. No entanto, sem um compromisso significativo e supervisão da Meta, um sistema assim não conseguirá lidar com a quantidade de conteúdo partilhado nas plataformas da empresa — nem com a rapidez com que isso ocorre. De facto, ainda não se sabe ao certo quão bem isso funciona na X, que é usada por 21% dos americanos (as plataformas da Meta são significativamente mais populares — o Facebook, sozinho, é usado por 70% dos americanos, segundo o Pew).

O Community Notes, que começou em 2021 como Birdwatch, é um sistema de moderação conduzido pela comunidade na X que permite que utilizadores inscritos no programa adicionem contexto às publicações. Ter utilizadores comuns a realizar verificação pública de fatos é relativamente novo, e os resultados até agora têm sido mistos. Por exemplo, investigadores descobriram que os participantes tendem a contestar conteúdos com os quais discordam politicamente e que sinalizar conteúdos como falsos não reduz o envolvimento, mas também constataram que as notas geralmente são precisas e podem ajudar a diminuir a propagação de publicações enganosas.

Eu sou um moderador comunitário que pesquisa a supervisão por comunidade. Aqui está o que aprendi sobre as limitações da dependência de voluntários para moderação — e o que a Meta precisa fazer para ter sucesso:

  • O sistema deixará passar falsidades e pode amplificar conteúdo de ódio

Há um risco real, neste estilo de moderação, de que apenas publicações sobre assuntos amplamente conhecidos sejam sinalizadas de forma oportuna — ou sequer sinalizadas. Considere como uma publicação com a imagem de um cogumelo amanita phalloides (chapéu-da-morte) e a legenda “Saboroso” poderia ser tratada numa moderação ao estilo Community Notes. Se um especialista em micologia não vir a publicação, ou a visualizar somente depois que ela já foi amplamente partilhada, pode não ser sinalizada como “Venenoso, não coma” — pelo menos não até que seja tarde demais. Temas mais esotéricos serão mal moderados. Isso pode ter impactos sérios tanto para indivíduos (que podem acabar por comer um cogumelo venenoso) quanto para a sociedade (caso uma notícia falsa se espalhe amplamente).

Um facto é que as Community Notes da X não são visíveis aos leitores quando adicionadas. Uma nota torna-se visível para a base de utilizadores mais ampla apenas quando um número suficiente de colaboradores concorda que ela é precisa por meio de votos. E nem todos os votos contam. Se uma nota for avaliada apenas por pessoas que tendem a concordar entre si, ela não aparecerá. A X não torna uma nota visível até que haja consenso entre pessoas que, em avaliações anteriores, discordaram. Essa é uma tentativa de reduzir o viés, mas não é infalível. Ainda depende das opiniões das pessoas sobre uma nota e não de informações concretas. Na maioria das vezes, o que é necessário é expertise.

Eu moderador uma comunidade no Reddit chamada r/AskHistorians. Trata-se de um site de história pública com mais de 2 milhões de membros e é moderado de forma muito rigorosa. Vemos pessoas a errar os factos o tempo todo. Às vezes, esses erros são simples. Mas, em outras ocasiões, há conteúdo de ódio que exige a intervenção de especialistas para ser reconhecido. Certa vez, uma pergunta contendo um sutil apelo à negação do Holocausto escapou da revisão por horas e acabou por acumular centenas de votos positivos antes de ser identificada por um especialista da nossa equipa. Centenas de pessoas — provavelmente com padrões de votação muito diferentes e opiniões bastante divergentes sobre muitos tópicos — não apenas não perceberam a natureza problemática do conteúdo, mas escolheram promovê-lo por meio de votos positivos. Isso também acontece com respostas a perguntas. Pessoas que não são especialistas em história podem votar positivamente em respostas desatualizadas, que soam plausíveis, mas que na verdade não estão corretas. Por outro lado, votarão negativamente em boas respostas se estas refletirem pontos de vista difíceis de aceitar.

A comunidade r/AskHistorians funciona porque a maioria dos seus moderadores são especialistas naquilo que opinam. Se a Meta deseja que o seu programa no estilo Community Notes funcione, deve garantir que as pessoas com o conhecimento necessário para fazer avaliações vejam as publicações e que essa expertise seja considerada na votação, especialmente quando há um desalinhamento entre o entendimento comum e o conhecimento especializado.

  • Não funcionará sem voluntários bem apoiados

Os moderadores de conteúdo pagos da Meta revisam o pior do pior — incluindo gore, abuso, exploração sexual, e outros tipos de violência. Como resultado, muitos deles sofreram traumas severos, levando a processos judiciais e esforços de sindicalização. Quando a Meta reduzir os recursos dos seus esforços centralizados de moderação, caberá cada vez mais aos voluntários não remunerados manter a plataforma segura.

Os moderadores comunitários não têm um trabalho fácil. Além de serem expostos a conteúdos horríveis, eles também frequentemente sofrem assédio e abuso por serem membros identificáveis das suas comunidades — algo que experienciamos diariamente no r/AskHistorians.

No entanto, os moderadores comunitários moderam apenas o que conseguem suportar. Por exemplo, embora eu gere rotineiramente discursos de ódio e linguagem violenta, como moderador de uma comunidade baseada em texto, raramente sou exposto a imagens violentas. Moderadores comunitários também trabalham em equipa. Se eu acabar por ser exposto a algo que considero perturbador ou se alguém estiver a ser abusivo, os meus colegas assumem e oferecem suporte emocional. Eu também me importo profundamente com a comunidade que moderador. Em suma, o cuidado com a comunidade, com os colegas de apoio e a autosseleção ajudam a manter o moral dos moderadores voluntários relativamente alto.

Não está claro como o novo sistema de supervisão da Meta será estruturado. Se os voluntários escolherem quais conteúdos sinalizar, isso replicará o problema da X, no qual o partidarismo afeta quais publicações são sinalizadas e como? Também não se sabe que tipo de suporte a plataforma oferecerá. Se os voluntários forem expostos a conteúdos que acham perturbadores, será que a Meta — a empresa que atualmente está a ser processada por prejudicar a saúde mental dos seus moderadores pagos — oferecerá auxílio social e psicológico? Para ter sucesso, a empresa precisará garantir que os voluntários tenham acesso a tais recursos e que possam escolher o tipo de conteúdo que moderam (ao mesmo tempo em que assegura que essa autosseleção não influencie indevidamente as notas).

  • Não pode funcionar sem proteções e salvaguardas

As comunidades online podem prosperar quando são geridas por pessoas que realmente se importam com elas. No entanto, os voluntários não podem fazer tudo sozinhos. A moderação não se resume apenas a tomar decisões sobre o que é “verdadeiro” ou “falso”. Trata-se também de identificar e responder a outros tipos de conteúdo prejudicial. A decisão de Zuckerberg vem acompanhada de outras mudanças nos seus padrões comunitários que enfraquecem, em particular, as regras sobre conteúdo de ódio. A moderação comunitária faz parte de um ecossistema mais amplo, e torna-se significativamente mais difícil de realizar quando esse ecossistema é contaminado por conteúdo tóxico.

Comecei a moderar o r/AskHistorians em 2020 como parte de um projeto de investigação para aprender mais sobre as experiências nos bastidores dos moderadores voluntários. Enquanto o Reddit havia começado a enfrentar alguns dos casos mais extremos de ódio na sua plataforma, banindo ocasionalmente comunidades inteiras, muitas comunidades que promoviam misoginia, racismo e todas as outras formas de intolerância foram permitidas a prosperar e crescer. Como resultado, as minhas primeiras anotações de campo estão repletas de exemplos de discursos de ódio extremos, bem como de assédio e abuso direcionados aos moderadores. Era difícil acompanhar.

Mas, em meados de 2020, algo aconteceu. Após uma declaração medíocre sobre racismo proferida pelo CEO Steve Huffman, os moderadores do site fecharam as suas comunidades em protesto. E, para seu crédito, a plataforma ouviu. O Reddit atualizou os seus padrões comunitários para proibir explicitamente o discurso de ódio e começou a aplicar essa política de forma mais ativa. Embora o ódio ainda seja um problema no Reddit, vejo muito menos agora do que via em 2020 e 2021. A moderação comunitária precisa de um apoio robusto, pois os voluntários não conseguem fazer tudo sozinhos. É apenas uma das ferramentas disponíveis.

Se a Meta deseja garantir que os seus utilizadores se previnam contra golpes, exploração e manipulação, além (é claro) do discurso de ódio, não pode depender exclusivamente da verificação de fatos pela comunidade.

No entanto, manter a base de utilizadores segura não é o que esta decisão pretende fazer. Trata-se de um movimento político para conquistar o favor da nova administração. A Meta poderia criar o programa perfeito de verificação de fatos comunitária, mas, como esta decisão vem acompanhada do enfraquecimento das suas práticas de moderação mais amplas, as coisas tendem a piorar para os seus utilizadores.

Nossos tópicos