Por Anaísa Catucci, g1


Organização criou anúncios para testar as medidas de segurança do Facebook — Foto: Dado Ruvic / REUTERS

A ONG internacional Global Witness publicou nesta segunda-feira (15) um relatório mostrando que a Meta, dona do Facebook, não agiu para impedir publicações falsas na rede social sobre as eleições brasileiras.

A organização criou dez anúncios com desinformação eleitoral para testar os sistemas de moderação de conteúdo diante das iniciativas da rede social para combater fake news.

Segundo a Global Witness, foram enviadas e aprovadas peças publicitárias com datas erradas e métodos de votação inexistentes no país, além de questionamentos sobre as urnas eletrônicas. Apenas uma das publicações foi inicialmente rejeitada, mas acabou sendo liberada após seis dias.

Procurada pelo g1, a Meta disse que está comprometida "em proteger a integridade das eleições no Brasil e no mundo" (veja mais detalhes).

Investigação

As postagens enviadas violam as políticas de anúncios eleitorais e diretrizes da comunidade. Em suas regras, o Facebook informa que proíbe e remove publicações que podem interferir na votação.

Para fazer os testes, os anúncios foram feitos no Reino Unido e no Quênia. Também não foi utilizado um meio de pagamento brasileiro e a organização não usou ferramentas para mascarar a localização da conta.

Logo da Meta, controladora do Facebook, em foto tirada em 28 de outubro de 2021 — Foto: Justin Sullivan / Getty Images North America / Getty Images via AFP

Entre os conteúdos que entraram no ar, consta uma publicação direcionada a grupos indígenas e com a data de votação errada. A ONG disse que inicialmente a mensagem foi rejeitada pela política de “anúncios sobre temas sociais, eleições ou política” do Facebook. No entanto, de acordo com o relatório, o anúncio foi aprovado, sem explicação, após seis dias.

A organização afirmou que resolveu enviar a desinformação eleitoral na forma de anúncios porque isso permite fazer a remoção antes de serem publicados. Também ressaltou que o Facebook faz elogios sobre o próprio sistema de avaliação de anúncios dizendo que aplica políticas “ainda mais severas” aos anunciantes.

A Global Witness também fez testes em Mianmar, Etiópia e Quênia, que demonstraram a dificuldade do Facebook em detectar discurso de ódio.

Leia mais:

Outro lado

A Meta já havia anunciado que irá monitorar o conteúdo publicado pelos usuários referente às eleições. Em nota, a empresa disse sobre os preparativos e esforços para as próximas eleições (confira a íntegra abaixo).

"Nos preparamos extensivamente para as eleições de 2022 no Brasil. Lançamos ferramentas que promovem informações confiáveis por meio de rótulos em posts sobre eleições, estabelecemos um canal direto para o Tribunal Superior Eleitoral [parceria firmada em fevereiro] nos enviar conteúdo potencialmente problemático para revisão e seguimos colaborando com autoridades e pesquisadores brasileiros".

"Nossos esforços na última eleição do Brasil resultaram na remoção de 140 mil conteúdos no Facebook e no Instagram por violarem nossas políticas de interferência eleitoral. Também rejeitamos 250 mil submissões de anúncios políticos não autorizados. Estamos comprometidos em proteger a integridade das eleições no Brasil e no mundo", informou.

Veja também:

Como usar o WhatsApp para tirar dúvidas sobre eleições e fake news

Como usar o WhatsApp para tirar dúvidas sobre eleições e fake news

Veja também

Mais lidas

Mais do G1
Deseja receber as notícias mais importantes em tempo real? Ative as notificações do G1!