Bots de IA Quebraram Regras do Reddit em Teste Controverso de Persuasão

Image by Brett Jordan, from Unsplash

Bots de IA Quebraram Regras do Reddit em Teste Controverso de Persuasão

Tempo de leitura: 4 minuto

Pesquisadoras anônimas usaram secretamente bots de IA no Reddit para se passar por pessoas reais, manipulando opiniões e violando as regras da plataforma sem o conhecimento dos usuários.

Está com pressa? Aqui estão os fatos rápidos:

  • Os bots se passaram por sobreviventes, conselheiros e indivíduos marginalizados.
  • 1.783 comentários de IA foram postados ao longo de quatro meses.
  • O experimento violou as regras do Reddit que proíbem IA não revelada.

Um grupo de pesquisadores, que afirmam ser da Universidade de Zurique, conduziu secretamente um experimento não autorizado de IA no r/changemyview do Reddit, um subreddit com mais de 3,8 milhões de usuários, conforme relatado inicialmente pelo 404 Media.

O objetivo delas era ver se a IA poderia mudar as opiniões das pessoas sobre temas sensíveis – mas nunca pediram o consentimento de ninguém.

404 Mídia relata que as pesquisadoras implementaram dezenas de contas alimentadas por IA que geraram quase 1.800 comentários ao longo de um período de quatro meses. Os sistemas de inteligência artificial criaram perfis falsos de usuários que incluíam histórias de vida emocionais para fazer suas postagens parecerem autênticas.

Os comentários gerados pela IA continham conteúdo persuasivo, que os bots adaptavam de acordo com as informações de fundo aparentes de cada postador original.

Um bot escreveu:

“Eu sou um sobrevivente masculino de (disposto a chamar de) estupro de vulnerável […] Ela tinha 22 anos. Ela me escolheu e a várias outras crianças, ninguém disse nada, todos ficamos em silêncio.”

Outro bot afirmou falar “como um homem negro”:

“Em 2020, o movimento Black Lives Matter foi viralizado por algoritmos e corporações de mídia que, por acaso, são de propriedade de […] adivinhe? NÃO são de pessoas negras.”

Um terceiro disse:

“Eu trabalho em um abrigo para vítimas de violência doméstica, e vi em primeira mão como essa narrativa de ‘homens contra mulheres’ na verdade prejudica os mais vulneráveis.”

404 media relata que as respostas dos bots receberam mais de 20.000 upvotes e 137 deltas – um token no r/changemyview dado quando alguém admite que sua opinião foi alterada. Os pesquisadores afirmaram que a sua IA era significativamente melhor na persuasão do que os humanos.

404 Media observou que o experimento violou a regra claramente estabelecida do subreddit: “bots são unilateralmente banidos”.

Mas os pesquisadores se defenderam, alegando que era necessário quebrar a regra. Em uma resposta pública, eles disseram: “Para testar eticamente o poder persuasivo dos LLMs em cenários realistas, um ambiente inconsciente era necessário […] nós cuidadosamente projetamos nosso experimento para ainda honrar o espírito por trás [the rule]”, conforme relatado pela 404 Media.

Eles acrescentaram que, embora os comentários fossem escritos por IA, cada postagem foi revisada e enviada por um pesquisador humano, o que, na opinião deles, fornecia supervisão suficiente para evitar a quebra das regras:

“Dadas as considerações de [human oversight], consideramos impreciso e potencialmente enganoso considerar nossas contas como ‘bots’.”

Ainda assim, a 404 Media relata que o sistema automatizado do Reddit “shadowbanned” 21 das 34 contas usadas no estudo, marcando-as como spam potencial. Depois que a história veio à tona, o Reddit também removeu centenas de comentários gerados por IA.

O artigo de pesquisa que explica o experimento foi publicado sem listar nenhum nome de autor, uma ação altamente incomum na publicação acadêmica, como observado pela 404 Media.

Os pesquisadores também usaram um e-mail anônimo para responder perguntas e se recusaram a se identificar, dizendo apenas que desejavam proteger sua privacidade “dadas as circunstâncias atuais”.

Os moderadores do r/changemyview estavam furiosos. “As pessoas não vêm aqui para discutir suas opiniões com IA ou para serem objeto de experimentos”, escreveram em um comunicado público, conforme relatado pela 404 Media. Eles acrescentaram que os usuários haviam sido submetidos a “manipulação psicológica”.

404 Media relata que a Universidade de Zurique não respondeu ao incidente. O Reddit, desde então, removeu a maioria das contas de bots e comentários, que foram arquivados pela 404 Media antes da exclusão.

A controvérsia surge enquanto o último benchmark da OpenAI mostra que seu modelo o3-mini superou os usuários do Reddit em 82% dos casos persuasivos no mesmo subreddit.

Além disso, a ascensão do GhostGPT destaca a ameaça crescente do cibercrime alimentado por IA. Este chatbot pode criar malwares, construir ferramentas de exploração e compor mensagens de phishing altamente convincentes.

GhostGPT exemplifica uma mudança mais ampla em direção à IA armamentizada, acelerando o ritmo e a eficiência dos ataques cibernéticos. Pesquisadores de segurança alertam que ferramentas de IA poderiam produzir até 10.000 variantes de malware, driblando sistemas de detecção quase 88% do tempo.

Enquanto a OpenAI enfatizou o uso ético e as salvaguardas, o experimento em Zurique revela o risco real de uso indevido no mundo real: a IA agora pode criar argumentos tão convincentes que mudam opiniões, sem que os usuários percebam que a fonte não é humana.

Gostou desse artigo? Avalie!
Eu detestei Eu não gostei Achei razoável Muito bom! Eu adorei!

Estamos muito felizes que tenha gostado do nosso trabalho!

Como um leitor importante, você se importaria de nos avaliar no Trustpilot? É rápido e significa muito para nós. Obrigado por ser incrível!

Avalie-nos no Trustpilot
5.00 Votado por 1 usuários
Título
Comentar
Obrigado por seu feedback
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Deixe um comentário

Loader
Loader Mostrar mais...