anuncie aqui
Lar um novo tempo

Como era o serviço de checagem da Meta e quais tipos de postagens eram barradas que agora podem aparecer

Meta encerrou o programa de verificação de fatos, permitindo que conteúdos considerados problemáticos sejam 'corrigidos' pelos próprios usuários. Especialistas alertam que postagens de 'menor gravidade' poderão permanecer no ar sem verificação, estimulando desinformação e discursos de ódio.

Por J1 em 08/01/2025 às 16:56:39

A Meta, dona do Instagram e do Facebook, decidiu encerrar seu programa de verificação de fatos para concentrar esforços apenas em conteúdos considerados de "alta gravidade".

A mudança, que começa pelos Estados Unidos, foi anunciada pelo "chefão" da empresa Mark Zuckerberg em um vídeo de 5 minutos publicado no Instagram na última terça-feira (7).

Na publicação, Zuckerberg disse ainda que suas plataformas passarão a recomendar mais conteúdo político e que a equipe de "confiança, segurança e moderação de conteúdo", que revisa posts de usuários dos EUA, deixará a Califórnia, um estado considerado progressista, e será realocada no Texas, governado por conservadores do Partido Republicano, o mesmo do presidente eleito Donald Trump.

Especialistas consultados pelo j1 alertam que a alteração na moderação de conteúdo permitirá que posts considerados problemáticos apareçam com mais frequência e permaneçam no ar sem a verificação da empresa, como desinformação sobre vacinas, Covid e eleições.

Como funcionava o sistema de checagem

A moderação de conteúdo da Meta começou em 2016, após a vitória de Donald Trump nas eleições dos EUA. Na época, o Facebook foi acusado de ajudar a eleger Trump ao permitir que uma empresa usasse dados da base de usuários da rede social para espalhar notícias falsas.

O caso ficou conhecido pelo nome da companhia, Cambridge Analytica e chegou a gerar prejuízos financeiros para a plataforma de Zuckerberg.

De acordo com especialistas, para combater o volume de desinformação na rede, a empresa criou a biblioteca de anúncios, estabeleceu um conselho com participação social e implementou o programa terceirizado de checagem de fatos, com organizações de fora da Meta, visando aumentar a transparência com seus usuários.

Quem eram os checadores - para fazer parte do programa da Meta, todos os checadores precisavam ser certificados e seguir os princípios da International Fact-Checking Network (IFCN), uma aliança global de checagem de fatos do Instituto Poynter, baseado nos EUA.

Desde 2016, mais de 80 organizações, atuando em mais de 60 idiomas, colaboravam com a empresa de Mark Zuckerberg. As agências de notícias Reuters, France Presse e Associated Press eram alguns desses parceiros.

No Brasil, a Meta conta com o apoio de cinco parceiros de checagem de fatos.

Esses parceiros podiam analisar materiais publicados no Instagram e no Facebook, abrangendo vídeos, imagens, links e textos.

Os parceiros de verificação tinham autonomia para identificar conteúdos suspeitos, mas, antes disso, equipes da própria Meta identificavam postagens virais com potencial de conter informações imprecisas.

Os checadores independentes avaliavam a precisão das publicações por meio de entrevistas com fontes primárias, análise de dados públicos e verificação de fotos e vídeos, segundo a própria Meta.

Após a apuração, os parceiros notificavam a Meta sobre o problema no conteúdo. A big tech, então, decidia entre reduzir o alcance da publicação — fazendo com que menos pessoas a vissem — ou exibir rótulos para alertar que havia algo errado naquele post.

Os checadores que atuavam em parceria com a Meta não tinham autoridade para remover conteúdos, segundo Yasmin Curzi, pesquisadora do Karsh Institute of Democracy da Universidade de Virgínia (EUA).

"Existe ainda outro grupo de parceiros chamado 'Trusted Flagger' (sinalizadores de confiança). No entanto, esses participantes também não têm autoridade para remover conteúdos. Eles possuem maior capacidade de diálogo com a Meta, permitindo acelerar o processo de verificação", explica Yasmin.

Também há um comitê de supervisão da Meta, chamado de Oversight Board, um órgão independente, que funciona como uma espécie de alta corte em que usuários podem apelar sobre a remoção ou recolocação de conteúdo no Facebook e no Instagram (não vale para o WhatsApp, pois as mensagens trocadas são criptografadas).


E como fica a partir de agora?

Exemplo de notas da comunidade do X — Foto: Reprodução/X

Exemplo de notas da comunidade do X — Foto: Reprodução/X

Com o fim das parcerias de verificação de fatos, em conteúdos de "menor gravidade" os próprios usuários poderão adicionar correções aos posts, como complemento ao conteúdo, de forma semelhante ao que é feito no X (veja exemplo acima).

Em vez de pegar qualquer violação à política do Instagram e do Facebook, os filtros de verificação passarão a focar em combater violações legais e de alta gravidade.

Para casos de menor gravidade, as plataformas dependerão de denúncias feitas por usuários, antes de qualquer ação ser tomada pela empresa.

Em casos de conteúdos considerados como de "menor gravidade", os próprios usuários poderão adicionar correções aos posts, como complemento ao conteúdo.

Zuckerberg também anunciou que os filtros de verificação serão ajustados e aprimorados para se tornarem mais eficientes e precisos na análise antes de decidir pela remoção de um conteúdo.

Postagens antes barradas agora podem aparecer

Para Yasmin Curzi, da Universidade de Virgínia (EUA), todos os conteúdos que não podem ser compreendidos como "explicitamente ilegais e violações de alta severidade" poderão aparecer, "compreendendo não só desinformação, mas também racismo e homotransfobia", diz.

"Pelo comunicado do Zuckerberg, apenas tipos muito específicos, como pornografia infantil, seguirão sendo objeto de ações de contenção de desinformação", diz Helena Martins, professora da Universidade Federal do Ceará (UFC) e integrante da Coalizão Direitos na Rede.

Yasmin afirma que desinformações sobre vacinas, Covid, eleições, ataques à democracia e instituições, além daqueles que atacam pessoas LGBTQIA+ e mulheres (teorias misóginas de inferiorização de gênero ou de medicalização desses grupos) também deverão ter espaço no Instagram, Facebook e Threads.

Ainda nesta terça, logo após o anúncio de Zuckerberg, a Meta alterou a política contra discurso de ódio de Instagram, Facebook e Threads, permitindo que orientação sexual e gênero sejam associados a doenças mentais.

Para Clara Iglesias Keller, líder de pesquisa em tecnologia, poder e dominação no Instituto Weizenbaum, "estamos testemunhando o fim de um avanço significativo".

"As notas da comunidade podem ser importantes em algum grau, mas, ao excluir os checadores de fato do processo, a pouca influência externa que havia também é eliminada, o que pode reduzir ainda mais a transparência", disse.

Fonte: Da redação

Comunicar erro
Radio Plenitude de Deus

Comentários

Banner governo