Em teste, ONG criou dez anúncios com desinformação flagrante sobre as eleições brasileiras para serem publicados Facebook. Todos foram aprovados, embora violassem as diretrizes da própria rede social. A Meta, empresa responsável pelo Facebook, não agiu para barrar a publicação de dez anúncios na rede que continham mensagens com mentiras sobre as eleições brasileiras de 2022.
Os anúncios foram criados pela organização internacional Global Witness, com o objetivo de testar os mecanismos da plataforma para barrar a disseminação de informações falsas durante o pleito. Mesmo violando as políticas da plataforma, os anúncios foram aprovados e veiculados normalmente.
A organização não governamental – que atua no campo da vigilância política, social e ecológica – descreveu como “alarmante” o fato de o Facebook não ter conseguido interceptar e bloquear o material.
Entre as peças que receberam aval do Facebook estavam mensagens que disseminavam a informação falsa que o voto se tornou voluntário para eleitores entre 18 e 70 anos, afirmações de que não há necessidade de levar documento de identificação no dia da votação ou que informavam incorretamente que eleitores paulistas deveriam votar no dia 3 de outubro, e não na véspera.
Sem bloqueio ao discruso de ódio no Facebook
Esta é a quarta vez que a Global Witness testou a capacidade da Meta – conglomerado americano de tecnologia e mídia social – de detectar violações flagrantes das regras de sua plataforma de mídia social mais popular. E, pela quarta vez, conteúdo deste tipo passou despercebido pelo Facebook.
Nos três casos anteriores, a organização não governamental com sede em Londres publicou anúncios que continham discursos de ódio agravantes para testar os mecanismos de controle – seja manual ou inteligência artificial – do Facebook. Em todos os casos, não houve qualquer bloqueio.
“O Facebook identificou o Brasil como um de seus países prioritários e onde está investindo recursos adicionais especificamente para combater a desinformação relacionada às eleições”, disse Jon Lloyd, consultor sênior da Global Witness. “Portanto, nós queríamos realmente testar seus sistemas e demos tempo suficiente para que agissem. E com as eleições de meio de mandato dos EUA se aproximando, a Meta precisa acertar isso… e para já.”
O primeiro turno das eleições no Brasil será realizado em 2 de outubro em meio a tensões políticas e desinformação que ameaçam desacreditar o processo eleitoral. O Facebook é plataforma de mídia social mais popular no Brasil. Em um comunicado, a Meta havia garantido que “preparou-se extensivamente para as eleições de 2022 no Brasil”.
“Lançamos ferramentas que promovem informações confiáveis e rotulam publicações relacionadas a eleições, estabelecemos um canal direto para o Tribunal Superior Eleitoral (TSE) nos enviar conteúdo potencialmente prejudicial para análise e continuamos colaborando estreitamente com as autoridades brasileiras e pesquisadores”, dizia o comunicado da Meta.
Dez anúncios do Quênia e Reino Unido
Em 2020, o Facebook começou a exigir que os anunciantes que desejassem veicular anúncios sobre eleições ou política concluíssem um processo de autorização e incluíssem avisos sobre quem estava financiando tais anúncios – algo semelhante ao que virou praxe nos EUA. O aumento de mecanismos de salvaguarda veio após a eleição presidencial americana de 2016, quando a Rússia usou rublos para pagar por anúncios políticos destinados a alimentar divisões e distúrbios entre os americanos.
A Global Witness alegou que a plataforma deixou de aplicar as próprias regras – os anúncios de teste da ONG londrina foram aprovados, mas não chegaram a ser publicados. A organização submeteu dez anúncios de fora do Brasil – de Nairóbi e Londres – que deveriam ter acendido alertas na sede da Meta. A Global Witness também não foi obrigada a colocar avisos sobre os patrocinadores dos anúncios e não usou um método de pagamento brasileiro – todas exigências que o Facebook disse ter colocado em prática para evitar o uso indevido de sua plataforma por agentes maliciosos que pudessem tentar intervir em eleições mundo afora.
“O que está bem claro a partir dos resultados desta investigação e de outras é que os recursos de moderação de conteúdo e os sistemas de integridade que eles [Facebook] implementaram para mitigar alguns dos riscos durante os períodos eleitorais simplesmente não está funcionando”, disse Lloyd.
A Global Witness utilizou anúncios nos testes – e não publicações regulares – porque a Meta tem afirmado manter os anúncios sob um padrão “ainda mais rigoroso” de controle do que postagens normais e não pagas. Mas a julgar pelas quatro verificações, o consultor sênior da Global Witness alegou que isso não está realmente muito claro.
“O Facebook sabe muito bem que sua plataforma é usada para espalhar desinformação eleitoral e solapar a democracia em todo o mundo”, disse o consultor sênior da Global Witness. “Apesar dos autoproclamados esforços do Facebook para combater a desinformação – particularmente em eleições de alto risco – ficamos chocados ao ver que eles aceitaram todos os anúncios com desinformação eleitoral que enviamos no Brasil.”
Melhor conhecimento das nuances políticas brasileiras
Em outro estudo realizado pela Universidade Federal do Rio de Janeiro, pesquisadores identificaram mais de duas dezenas de anúncios no Facebook e no Instagram – referentes ao mês de julho – que promoviam informações enganosas ou atacavam as urnas eletrônicas.
O departamento de internet e mídia social da universidade – que colaborou com o estudo da Global Witness – descobriu que muitos destes anúncios foram financiados por candidatos que estão concorrendo a um assento federal ou estadual.
“A desinformação teve grande destaque no pleito de 2018, e a eleição deste ano já está marcada por relatos de desinformação generalizada, disseminada desde o topo. O presidente Jair Bolsonaro já está semeando dúvidas sobre a legitimidade do resultado da eleição, levando a temores a uma tentativa de golpe eleitoral nos moldes do instigado no Capitólio dos EUA”, disse Lloyd.
A ONG londrina pede que a Meta aumente sua capacidade de moderação de conteúdo e consiga que os moderadores entendam melhor o contexto cultural e as nuances da política brasileira. E também pede que seja permitida uma auditoria independente para que a Meta tenha de prestar contas.
“Estamos constantemente tendo que acreditar na palavra do Facebook. E sem uma auditoria de terceiros independentes, simplesmente não podemos responsabilizar a Meta ou qualquer outra empresa de tecnologia pelo que eles dizem que estão fazendo”, disse Lloyd.
Em suas investigações anteriores, a Global Witness conseguiu burlar o mecanismo de controle do Facebook em Myanmar, Etiópia e Quênia – três países com ambientes políticos voláteis.
No país do sudeste asiático, não houve interferências para anúncios com insultos discriminatórios contra pessoas de origem indiana ou muçulmana e que pediam suas mortes. Na Etiópia, a ONG londrina apelou para anúncios com discurso de ódio desumanizante para pedir o assassinato de pessoas pertencentes a cada um dos três principais grupos étnicos do país. Já no Quênia, os anúncios citavam decapitações, estupros e derramamento de sangue.