Opinião: Meta Eliminou Seu Programa de Verificação de Fatos—Estamos Caminhando para uma Anarquia da Liberdade de Expressão?
Compreender o raciocínio por trás da decisão da Meta de eliminar seu programa de verificação de fatos poderia oferecer insights valiosos sobre o futuro do Instagram, Threads e Facebook – especialmente ao considerar X como referência e a direção estratégica de Zuckerberg
Na semana passada, Mark Zuckerberg anunciou o fim do programa de verificação de fatos da Meta para o Facebook, Instagram e Threads. A notícia rapidamente se tornou viral, e as pessoas começaram a se perguntar sobre as razões e consequências desta decisão importante.
Este grande movimento levantou sérias preocupações sobre como os usuários devem reagir e como a desinformação poderia se espalhar globalmente.
Muitos usuários começaram a deletar suas contas de mídia social nas plataformas da Meta, fugindo para outras redes como a Bluesky—que em breve lançará sua versão do Instagram—ou Mastodon, e temendo que estamos caminhando para um ambiente digital caótico.
A Meta está espelhando muitas das estratégias de X—antes Twitter. Elon Musk dissolveu o Conselho de Confiança e Segurança da plataforma em dezembro de 2022, apenas alguns meses depois de adquirir a plataforma de mídia social. Em vez disso, ele desenvolveu o programa Community Notes para contar com os usuários como verificadores de fatos, e Zuckerberg fará o mesmo.
Mas, vamos dividir isso primeiro:
Por Que a Meta Está Fazendo Isso?
Bem, existem muitas teorias além da oficial: “liberdade de expressão”. A Meta afirmou que os sistemas para gerenciar conteúdo não estavam funcionando.
“Por mais bem-intencionados que muitos desses esforços tenham sido, eles se expandiram ao longo do tempo a ponto de estarmos cometendo muitos erros, frustrando nossos usuários e, com muita frequência, atrapalhando a livre expressão que nos propusemos a possibilitar”, afirma o anúncio oficial.
Sim, o Sistema de Moderação da Meta Já Estava Quebrado
Embora muitos de nós – especialmente jornalistas – estejamos ansiosos com a decisão de Zuckerberg sobre a “liberdade de expressão”, que poderia permitir que mais contas com intenções maliciosas espalhassem notícias falsas, deepfakes e conteúdo manipulador, o serviço de moderação do Meta já era um problema significativo.
O Meta tem lutado para proteger os usuários de conteúdo prejudicial, e muitos usuários e contas foram injustamente banidos nas plataformas de mídia social. Nós também vivenciamos esta situação irritante na Wizcase.
Os sistemas de segurança e moderação da empresa estavam longe de serem perfeitos. Mas, será que a solução era mesmo fazê-la desaparecer? Alguns de nós acreditam que essa não foi a melhor solução – ou mesmo uma solução.
No entanto, Zuckerberg ainda decidiu colocar a culpa em terceiros.
Os Verificadores de Fatos São o Problema?
Zuckerberg acusou serviços terceirizados como o principal problema para a má moderação de conteúdo e censura. Ele afirmou que “os verificadores de fatos têm sido muito politicamente tendenciosos” e que “destruíram mais confiança do que criaram”, mas moderadores e verificadores de fatos discordam.
Entre em contato com uma ex-moderadora de conteúdo que trabalhou por três anos para uma empresa terceirizada de moderação de conteúdo para o Twitter—agora X—, que preferiu manter o anonimato.
Minha fonte considerou que isso não fazia sentido, pois eles sempre seguiam as diretrizes fornecidas pelo cliente, neste caso, o Twitter. “Para mim, é difícil acreditar que os verificadores de fatos eram ‘politicamente tendenciosos'”, explicou ele, por e-mail, garantindo que os moderadores de conteúdo apenas seguem as regras. “Não tínhamos autoridade para tomar medidas em contas com muitos seguidores ou contas de pessoas políticas ou famosas.”
Neil Brown, presidente do Poynter Institute, um dos parceiros de verificação de fatos da Meta, disse ao New York Times que a alegação de Zuckerberg também era falsa. Segundo Brown, sua equipe usou as ferramentas da Meta para realizar verificações de fatos e foi a Meta quem decidiu como responder a isso.
Lori Robertson, editora-chefe do FactCheck.org – outro parceiro da Meta desde 2016 – disse que sua organização sempre manteve padrões transparentes e que eles verificam conteúdo de ambos os partidos, democratas e republicanos.
“Nosso trabalho não é sobre censura”, escreveu ela. “Fornecemos informações precisas para ajudar os usuários de mídias sociais enquanto eles navegam em seus feeds de notícias. Não removemos, e não poderíamos remover, conteúdo. Quaisquer decisões de fazer isso eram da Meta.”
Uma Decisão Empresarial
Muitos consideram a decisão de Zuckerberg profundamente pessoal. Uma oportunidade de se livrar da responsabilidade e das consequências de manter um ambiente seguro em suas plataformas de mídia social, agradar ao próximo presidente Donald Trump e evitar a prisão – Trump já havia ameaçado Zuckerberg com prisão perpétua -, enquanto, claro, mantém seu negócio à tona.
Há até teorias que dizem que a jogada de Zuckerberg foi uma maneira de garantir que o TikTok seja banido e os usuários favoreçam o Instagram Reels, dando à Meta mais poder na esfera das redes sociais.
“Acredito que as pessoas muitas vezes ignoram que as plataformas de mídia social são empresas e, como tal, tomam decisões para seu próprio benefício”, disse a ex-moderadora de conteúdo que entrevistei. E muitos veem dessa maneira também.
Após ver a jogada de Zuckerberg e o comportamento de Musk, o CEO do Mastodon, Eugen Rochko, anunciou que transferirá a propriedade e os ativos para uma organização sem fins lucrativos europeia, na tentativa de manter sua plataforma “livre do controle de um único indivíduo rico”.
Estamos Caminhando Para Uma Era de “Energia Masculina”, Trabalho Gratuito e Desinformação
Todos os sinais apontam que 2025 será ainda mais difícil quando se trata de distinguir a verdade, os fatos e as imagens reais do conteúdo gerado por IA. Para piorar, as maiores plataformas de mídia social do mundo não estão apenas se livrando de verificadores de fatos e moderadores de conteúdo, mas também compartilhando uma forte postura política que moldará diretamente a dinâmica de suas plataformas.
Conteúdo Mais Agressivo E Político
Nesse processo de alinhamento com os princípios de Trump, Zuckerberg rapidamente começou a compartilhar publicamente crenças semelhantes ao movimento MAGA de Trump.
No podcast de Joe Rogan, o CEO da Meta disse que a empresa poderia usar mais “energia masculina”. E acrescentou: “Acho que ter uma cultura que, tipo, celebra um pouco mais a agressividade tem seus próprios méritos que são realmente positivos”, disse ele.
As plataformas de Zuckerberg também estão mudando rapidamente. Adam Mosseri, chefe do Instagram e Threads, confirmou alguns dias atrás que veremos mais conteúdo político e anúncios no Threads.
“Iniciando nesta semana nos EUA e se expandindo ao longo da próxima semana para o resto do mundo, vamos adicionar conteúdo político às recomendações em Threads e ajustar o controle de conteúdo político para três opções: menos, padrão, o padrão, e mais.”
Preparem-se para debates políticos mais intensos nas redes sociais este ano!
Mais Responsabilidades Não Remuneradas Para os Usuários
O sistema de Notas da Comunidade parece ser uma solução para grandes empresas de mídia social diluírem a responsabilidade pelo absurdo que as pessoas publicam online. Usuários que participam do programa – quase qualquer um com mais de alguns meses na plataforma pode entrar – têm a oportunidade de adicionar contexto a postagens potencialmente enganosas para ajudar as pessoas a entenderem melhor a postagem e sua intenção.
No entanto, pelo menos o programa X parece ser um sistema de voluntariado e aqueles que participam e interagem não recebem qualquer compensação financeira por seus trabalhos. Meta não divulgou mais detalhes de seu programa, mas não parece que seria diferente nesse sentido.
As redes sociais são uma farsa? Usuários passam horas criando vídeos, histórias e comentários, mantendo algoritmos ativos e alimentando o treinamento de IA. Agora, eles também estão adicionando contexto e ajudando as plataformas a construir um ambiente mais saudável – de graça, pelo menos para a maioria que não se beneficia financeiramente de um modelo de negócios.
Esta solução também é apenas um paliativo cobrindo uma ferida profunda. No final, é “o algoritmo” quem toma as decisões, e organizações como o MediaWise do Instituto Poynter disseram que em muitos casos menos de 10% das notas são realmente postadas.
Uma Receita para Mais Desinformação
Eu pessoalmente testemunhei minha X feed mudar drasticamente ao longo dos últimos anos. Amigos e pessoas que eu costumava seguir deixaram a plataforma, dando lugar a absurdos debates de “homens contra mulheres” e vídeos virais encenados projetados para provocar raiva e gerar mais dessas compartilhadas furiosas.
Enquanto isso, o conteúdo político tem dominado cada vez mais, quase me puxando para cada controvérsia e ideia polarizadora.
Sem verificadores de fatos e moderadores de conteúdo, espera-se que opiniões polarizadas, deepfakes, fake news e conteúdo prejudicial nas plataformas da Meta atinjam seu auge.
A estratégia de Notas da Comunidade não será suficiente para acompanhar a moderação de conteúdo e, no final das contas, as decisões sobre o que acontece na plataforma sempre dependerão do “algoritmo”, ajustado de acordo com as preferências do proprietário da plataforma.
É incerto o que acontecerá no futuro – até mesmo os resultados de X ainda estão sob avaliação – mas como usuários de mídia social, faremos parte de um impactante experimento social global.
O futuro permanece incerto – até mesmo o desenrolar das mudanças de X ainda estão acontecendo – mas uma coisa é clara: como usuários de mídias sociais, somos todos participantes de um profundo e abrangente experimento global.
Deixe um comentário
Cancelar