PONTOS CHAVE

  • Os membros retidos da equipe de desinformação estão sendo transferidos para outras unidades semelhantes
  • O Conselho de Supervisão disse que os algoritmos do Meta amplificaram desinformação prejudicial à saúde
  • Um estudo recente sugeriu que os usuários do Facebook eram mais propensos a ler notícias falsas durante a eleição de 2020

A maioria da equipe que lida com desinformação no Facebook e Instagram foi afetada pelas demissões anunciadas pela Meta Wednesday.

Os cortes no departamento anti-desinformação da Meta ocorreram quando um Conselho de Supervisão chamou a gigante da mídia social de propriedade de Mark Zuckerberg por preocupações com informações relacionadas à saúde espalhadas na plataforma.

O porta-voz da Meta, Dave Arnold, disse ao The Verge na quinta-feira que membros retidos da equipe de desinformação, que supostamente tinha cerca de 50 membros antes dos cortes, estão sendo transferidos para outras equipes de confiança e segurança que estavam realizando trabalhos semelhantes.

"Continuamos focados no avanço de nossos esforços de integridade líderes do setor e continuamos a investir em equipes e tecnologias para proteger nossa comunidade", disse Arnold em um comunicado enviado por e-mail à agência.

As demissões na equipe de desinformação vieram como parte da segunda rodada de reduções anunciadas pela Meta para cortar cerca de 4.000 funcionários .

Em fevereiro, a Meta se recusou a comentar um relatório do The New York Times que afirmava que os "esforços das empresas para combater informações falsas e enganosas online" parecem ter "diminuído", mesmo que a desinformação "permaneça tão perniciosa como sempre".

Relatos de demissões da Meta afetando a equipe de desinformação surgiram quando o Conselho de Supervisão respondeu ao pedido de ajuda do gigante da mídia social em relação às suas políticas sobre desinformação do COVID-19. O Conselho recomendou que a Meta adotasse um escrutínio mais rigoroso ao lidar com desinformação relacionada à saúde.

"O Conselho recomenda fortemente que a Meta publique informações sobre solicitações do governo para remover o conteúdo do COVID-19, tome medidas para apoiar a pesquisa independente de suas plataformas, examine o vínculo entre a arquitetura de suas plataformas e a desinformação e promova a compreensão sobre a desinformação do COVID-19 globalmente, ", disse o Conselho em uma resposta consultiva pública .

Embora o Conselho tenha reconhecido os esforços da Meta para remover "cerca de 80 alegações distintas de desinformação sobre o COVID-19", ele também observou que a Meta "frustra os esforços do Conselho" em reconciliar as várias opiniões das partes interessadas e membros do conselho sobre o tratamento de informações falsas relacionadas à saúde ao "insistir " que uma abordagem localizada não era viável.

O Conselho também chamou o gigante da mídia social por não consultar as autoridades de saúde pública para uma reavaliação das alegações de desinformação que removeu das plataformas. O Conselho pediu à Meta que "reavaliasse" quais reivindicações ainda estavam qualificadas para remoção e quais deveriam ser mantidas, pois a pandemia "evoluiu" desde que as diretrizes foram estabelecidas.

Especialistas levantaram preocupações sobre "a arquitetura das plataformas da Meta" amplificando informações prejudiciais relacionadas à saúde, de acordo com o comunicado. O Conselho então recomendou que a Meta obtivesse uma avaliação de impacto sobre os direitos humanos sobre como seus algoritmos, feed de notícias e outros recursos amplificam a desinformação.

Por fim, o Conselho pediu à Meta que garanta que suas regras sobre a remoção de desinformação sobre a COVID-19 sejam claras, justas, consistentes e transparentes.

Enquanto a Organização Mundial da Saúde continuar declarando o COVID-19 como uma emergência internacional, a Meta deve manter suas políticas atuais de desinformação, disse o Conselho.

A Meta buscou o conselho do Conselho sobre suas políticas de desinformação sobre a COVID-19 em meados de 2022. Na época, a gigante da tecnologia disse que o objetivo era "manter nossos usuários seguros e, ao mesmo tempo, permitir que eles discutam e se expressem sobre esse importante tópico".

O Conselho foi criado para ajudar o Facebook a responder a perguntas relacionadas à liberdade de expressão na plataforma, principalmente "o que remover, o que deixar e por quê", de acordo com seu site .

No início deste mês, a Washington State University publicou um estudo que descobriu que os usuários do Facebook eram mais propensos a ler notícias falsas sobre as eleições de 2020 do que os usuários de outras plataformas de mídia social, informou a afiliada da NBC KGW8.

O estudo sugeriu que a leitura de notícias falsas e a persuasão política foram as duas principais forças que geraram dúvidas entre os cidadãos sobre o processo de contagem de votos durante as eleições de 2020.

Robert Crossler, professor associado da WSU e coautor do estudo, disse que os usuários de mídia social que dependiam do Facebook para obter notícias "muitas vezes obtinham desinformação de histórias não conectadas às principais fontes da mídia", o que então semeava dúvidas sobre os resultados das eleições.

Enquanto isso, o Facebook afirma que remove a desinformação "onde é provável que contribua diretamente para o risco de danos físicos iminentes". O Instagram, por outro lado, afirma que identifica informações falsas ou conteúdo alterado, tornando o referido conteúdo "mais difícil de encontrar" e reduz sua visibilidade em histórias e feeds.

Logotipo do grupo empresarial Meta Platforms é visto em Bruxelas
A Meta recebeu uma resposta do Conselho de Supervisão sobre como deve lidar com suas regras de desinformação sobre o coronavírus. IBTimes US