No início de junho, o Facebook anunciou que suspenderá o ex-presidente Donald Trump da rede social por dois anos, pelo menos até 7 de janeiro de 2023, e disse que “só será reintegrado se as condições permitirem”.
O anúncio vem em resposta às recomendações feitas em maio pelo recentemente criado Conselho de Supervisão Independente do Facebook. A empresa esperava que o conselho decidisse como lidar com a conta de Trump, mas embora tenha mantido a decisão inicial do Facebook de banir Trump da plataforma por incitar a violência em 6 de janeiro, devolveu a decisão de longo prazo aos executivos em Palo Alto.
A notícia de que Trump seria banido do Facebook por mais 19 meses tinha o objetivo de fornecer algumas respostas sobre o relacionamento da plataforma com o ex-presidente — mas, em vez disso, deixou muitas perguntas em aberto.
A quem esta decisão deve agradar?
Embora o anúncio forneça algumas regras reais sobre como os políticos podem usar o Facebook — e algumas orientações sobre como essas regras serão aplicadas — a decisão de banir Trump por pelo menos dois anos não será a mais popular. Grupos de defesa como Ultraviolet e Media Matters, que há muito pressionam o Facebook para banir Trump, divulgaram declarações dizendo que qualquer punição mais leve do que uma banição permanente seria inadequada. Enquanto isso, as pessoas que acham que qualquer imposição de regras contra políticos conservadores é prova de que o Facebook penaliza o conteúdo conservador continuam a se sentir assim, apesar de muitas evidências de que, na verdade, o oposto é verdadeiro. E deixa em aberto a possibilidade de que Trump esteja de volta ao mundo online a tempo para o ciclo eleitoral de 2024.
O que “valor jornalístico” significa agora?
Muitas plataformas, incluindo o Facebook, usaram uma exceção de “valor jornalístico” para evitar a aplicação de suas próprias regras contra políticos e líderes mundiais. O anúncio do Facebook vem com algumas mudanças em como usará essa exceção no futuro. Primeiro, disse o Facebook, publicará um aviso sempre que aplicar a regra a uma conta. E, em segundo lugar, “não tratará o conteúdo publicado por políticos de forma diferente do conteúdo publicado por outra pessoa” ao aplicar tal regra, o que basicamente significa determinar se o interesse público num conteúdo que infringe as regras supera o dano potencial de mantê-lo online.
O Facebook introduziu formalmente essa política no final de 2016, após censurar uma foto icónica da Guerra do Vietnam por conter nudez. No entanto, a exceção de valor jornalístico evoluiu para uma exceção geral para políticos, incluindo Trump, que permitiu que conteúdos que violassem as regras permanecessem online por serem considerados automaticamente de interesse público. Mas, embora este anúncio pareça acabar com essa proteção geral, ele não a elimina completamente e não aborda em mais detalhes como o Facebook determinará se algo se enquadra na exceção.
Quem tomou essa decisão?
O anúncio foi de autoria de Nick Clegg, vice-presidente de assuntos globais da empresa, mas refere-se inteiramente a “nós”. No entanto, não especifica quem no Facebook estava envolvido no processo de tomada de decisão – o que é importante para a transparência e credibilidade, dada a natureza controversa da decisão.
“Sabemos que a decisão de hoje será criticada por muitas pessoas em lados políticos opostos – mas nosso trabalho é tomar uma decisão da forma mais proporcional, justa e transparente possível”, escreveu Clegg.
Quem aconselhará o Facebook?
O anúncio também diz que a empresa buscará “especialistas” para “avaliar se o risco para a segurança pública diminuiu”, sem especificar quais especialistas serão, que experiência trarão, ou como o Facebook (ou, novamente, quem no Facebook) terá autoridade para tomar decisões com base nos seus conhecimentos. O Conselho de Supervisão, idealizado em parte para ser uma forma de terceirizar decisões polémicas, já sinalizou que não deseja desempenhar essa função.
Isso significa que saber qual voz será importante para o Facebook, e quem terá autoridade para agir de acordo com o conselho, é particularmente importante, especialmente devido aos altos riscos. A avaliação de conflitos e a análise da violência são campos especializados nos quais as respostas anteriores do Facebook não inspiram muita confiança. Há três anos, por exemplo, as Nações Unidas acusaram a empresa de ser “lenta e ineficaz” na resposta à disseminação do ódio online que levou a ataques à minoria Rohingya em Myanmar. O Facebook encomendou um relatório independente à organização sem fins lucrativos Business for Social Responsibility, que confirmou as afirmações da ONU.
Esse relatório, publicado em 2018, assinalou a possibilidade de violência nas eleições de 2020 nos Estados Unidos e recomendou medidas que a empresa poderia tomar para se preparar para tais “múltiplas eventualidades”. Os executivos do Facebook na época reconheceram que “podemos e devemos fazer mais”. Mas durante o curso da campanha eleitoral de 2020, depois que Trump perdeu a presidência e nos dias que precederam o dia 6 de janeiro, a empresa fez poucas tentativas de agir de acordo com essas recomendações.
O que acontecerá em 2023?
Depois, há a natureza limitada da banição — e o facto de que pode simplesmente prolongar a mesma conversa até que seja possivelmente ainda mais inconveniente do que já é. A menos que o Facebook decida estender ainda mais a banição com base na sua definição de “se as condições permitirem”, Trump estará de volta bem a tempo para as primárias do próximo ciclo de eleições presidenciais. O que poderia dar errado?
Artigo de Abby Ohlheiser e Eileen Guo, Senior Editor – MIT Technology Review EUA