Opinião: O Sistema de Regulação de Segurança da Meta está Quebrado?
Quase qualquer criador de conteúdo ou gerente de mídia social ativo enfrentou o mesmo problema ao postar no Facebook ou Instagram recentemente: uma postagem ou uma conta é banida, provavelmente por motivos errados.
Essa situação irritante é apenas uma parte do quebra-cabeça de um problema complexo com o sistema de regulação de conteúdo da Meta. Embora a Meta pareça ter muitas medidas de controle – às vezes absurdas – a raiz do problema não parece estar resolvida.
Nos últimos meses, a Meta introduziu diversas atualizações em suas diretrizes de conteúdo e implementou regras mais rigorosas visando a construção de um ambiente online mais saudável. Uma das consequências tem sido que muitas empresas, editoras e contas de usuários foram banidas, levando a centenas de reclamações em fóruns, plataformas de chat e canais de mídia social. Vários publicadores de notícias e marcas foram removidos das plataformas da Meta em certas regiões este ano, levantando preocupações entre proprietários de negócios, jornalistas e criadores de conteúdo.
Apesar das recentes atualizações da Meta, que dão a impressão de uma moderação mais rigorosa e uma análise mais detalhada do conteúdo compartilhado em suas plataformas, postagens relacionadas a drogas, suicídio, assédio sexual, bullying, discurso de ódio, abuso e notícias falsas continuam a passar pelos algoritmos, atingindo comunidades vulneráveis.
Não posso deixar de me perguntar: O que está acontecendo com o sistema de regulamentação de segurança do Meta?
Contas banidas pelos motivos errados
Tudo começa com uma mensagem semelhante: “Sua conta no Meta não segue nossas regras.” Muitos usuários do Facebook e Instagram foram banidos ou temporariamente expulsos de suas contas “por não cumprirem” as regras do Meta, mesmo quando acreditam que cumpriram.
É uma situação que já vivenciamos na Wizcase. O sistema da Meta sinalizou itens relevantes como inapropriados e fez com que o gerente da comunidade passasse por um processo de recurso e fornecesse identificações emitidas pelo governo.
Centenas de usuários, gerentes de comunidade e gerentes de contas reclamaram em plataformas como o Reddit e outros fóruns, chats e canais de mídia social sobre situações semelhantes. Em vários cenários infelizes, os usuários perdem suas contas e não há nada que possam fazer a respeito, e eles nem mesmo recebem uma explicação.
“A equipe de suporte do Facebook é péssima. Não importa quantas vezes contamos tudo ou explicamos tudo a eles, eles simplesmente não entendem”, disse um usuário no Reddit em uma discussão sobre contas banidas. “Uma coisa que posso dizer de imediato é que você não vai conseguir recuperar sua conta a menos que estivesse gastando centenas de milhares por dia”, acrescentou outro.
Esse problema, embora possa parecer que afeta apenas os criadores de conteúdo, é apenas uma pequena parte de um desafio maior.
Meta Contra Processos
Por anos, a Meta vem investindo em moderação de conteúdo e novas estratégias para trabalhar em uma plataforma mais segura para os usuários e para se proteger de mais processos – o mais recente é de moderadores de conteúdo quenianos, atualmente exigindo $1,6 bilhão em compensação por demissões em massa e para compensar pelo material angustiante ao qual foram expostos enquanto analisavam conteúdo para o Facebook.
A empresa de tecnologia conta com terceiros para ajudar com as regulamentações de conteúdo e desenvolve ferramentas para reconhecer quando o conteúdo viola as regras da plataforma. No entanto, essas medidas não foram suficientes e a situação saiu do controle, especialmente entre os usuários menores de idade.
Em 2021, a Meta introduziu novos recursos de proteção, mas isso não impediu o Senado de incluir Instagram e Facebook entre as plataformas consideradas prejudiciais para crianças no ano passado. A gigante da tecnologia enfrentou um processo conjunto movido por 33 estados nos Estados Unidos por seu algoritmo manipulador e prejudicial.
Desde janeiro, a Meta tem compartilhado atualizações sobre novas ferramentas de controle de segurança. Em junho, a empresa aperfeiçoou sua ferramenta anti-assédio para proteger adolescentes no Instagram com um “Close Friends” padrão e uma funcionalidade “Limits”, de modo que apenas amigos verdadeiros e familiares pudessem interagir com o conteúdo postado pelos jovens usuários.
Há apenas alguns dias, a empresa anunciou as novas Contas para Adolescentes para proteger os jovens e “tranquilizar os pais de que os adolescentes estão tendo experiências seguras”. Será suficiente para proteger as crianças? E os usuários mais velhos?
Um Ecossistema Inseguro
Facebook, Instagram e WhatsApp ainda estão repletos de conteúdo prejudicial que afeta usuários de todas as idades, profissões e grupos sociais, e dificilmente será resolvido em breve.
Um estudo realizado pelo Center for Countering Digital Hate (CCDH) analisou mais de 500 milhões de comentários no Instagram feitos nas contas de 10 mulheres políticas nos Estados Unidos e revelou que a Meta falhou em remover ou tomar uma atitude sobre 93% destes comentários.
Os múltiplos processos contra a Meta têm literalmente comprovado que a empresa está tendo dificuldades para proteger os usuários de conteúdo prejudicial, e também tem prejudicado criadores, editoras e marcas com filtros injustos e ferramentas de segurança mal implementadas.
Claro, essa é uma questão complexa e profunda que deve ser abordada com profundidade, mas talvez seja hora de aceitar que o Meta não conseguiu lidar com essa situação. Soluções paliativas não vão resolver um sistema que está fundamentalmente quebrado. Agora a verdadeira questão é: Quantos mais usuários precisam ser injustamente banidos, enganados ou manipulados antes que uma verdadeira mudança aconteça?
Deixe um comentário
Cancelar