
Image by wayhomestudio, from Freepik
Os Modelos de IA da OpenAI Exibem Crescente Poder de Persuasão, Levantando Preocupações Sobre a Influência Global
A OpenAI revelou um novo parâmetro para seus modelos de IA, mostrando que suas habilidades persuasivas agora superam 82% dos usuários do Reddit, especificamente aqueles envolvidos em debates no subreddit r/ChangeMyView, conforme primeiramente relatado por ArsTechnica.
Com pressa? Aqui estão os fatos rápidos!
- As respostas de IA foram testadas contra argumentos humanos do subreddit r/ChangeMyView.
- O modelo o3-mini está entre os 80% melhores para escrita persuasiva.
- A OpenAI adverte que a persuasão por IA pode ser usada para manipulação política e desinformação.
Embora impressionante, a empresa continua a alertar que o potencial da IA para influenciar opiniões pode se tornar uma ferramenta perigosa, especialmente nas mãos de estados-nação.
A pesquisa, descrita em um recente cartão de sistema lançado ao lado do modelo de raciocínio o3-mini, compara argumentos gerados por IA com aqueles escritos por usuários do Reddit.
O fórum r/ChangeMyView serve como um campo de teste ideal, já que os usuários postam opiniões que estão dispostos a reconsiderar com a esperança de ganhar perspectivas alternativas. O fórum possui um vasto conjunto de dados de argumentos sobre vários tópicos, incluindo política, questões sociais e até mesmo a própria IA.
No estudo, a OpenAI solicitou a avaliadores humanos que classificassem as respostas de IA e humanas em uma escala de cinco pontos, avaliando sua persuasão. Os resultados revelaram que os modelos da OpenAI avançaram significativamente desde o lançamento do ChatGPT-3.5, que estava no percentil 38.
O novo modelo o3-mini supera os argumentos humanos em 82% dos casos, posicionando-o na faixa do percentil 80 para a escrita persuasiva, diz Ars Technica.
Apesar desse sucesso, a OpenAI enfatiza que os modelos ainda não alcançaram capacidades persuasivas “sobre-humanas” (acima do percentil 95), que permitiriam convencer indivíduos a tomar decisões contrárias aos seus melhores interesses.
No entanto, eles estão próximos o suficiente para suscitar preocupações significativas sobre seu uso potencial na influência de decisões políticas, manipulação da opinião pública ou habilitação de campanhas de desinformação em larga escala.
O modelo da OpenAI tem um bom desempenho na geração de argumentos persuasivos, mas a empresa reconhece que os testes atuais não medem com que frequência a IA realmente muda a opinião das pessoas sobre questões críticas.
A ArsTechnica relata que, mesmo nesta fase, a OpenAI está preocupada com o impacto que essa tecnologia poderia ter nas mãos de atores mal-intencionados.
Os modelos de IA, com sua capacidade de gerar argumentos persuasivos por uma fração do custo do trabalho humano, poderiam ser facilmente usados para astroturfing ou operações de influência online, potencialmente influenciando eleições ou políticas públicas.
Para mitigar esses riscos, a OpenAI instituiu medidas como o aumento da monitorização dos esforços persuasivos impulsionados pela IA e a proibição de tarefas de persuasão política em seus modelos, diz ArsTechnica.
No entanto, a empresa reconhece que a natureza custo-efetiva da persuasão gerada por IA pode levar a um futuro em que devemos questionar se nossas opiniões são realmente nossas – ou simplesmente o resultado da influência de uma IA.
Os riscos vão além da política – a persuasão gerada por IA também pode se tornar uma ferramenta poderosa para cibercriminosos envolvidos em ataques de phishing. Ao criar mensagens altamente convincentes, a IA poderia aumentar a taxa de sucesso de golpes, enganando indivíduos a revelar informações sensíveis ou clicar em links maliciosos
Por exemplo, a emergência do GhostGBT destaca os crescentes riscos das ameaças cibernéticas impulsionadas pela IA. Este chatbot pode gerar malware, criar ferramentas de exploração e escrever convincentes emails de phishing.
GhostGPT faz parte de uma tendência mais ampla de IA armamentizada remodelando a segurança cibernética. Ao tornar o cibercrime mais rápido e eficiente, tais ferramentas apresentam desafios significativos para os defensores. Pesquisas indicam que a IA poderia gerar até 10.000 variantes de malware, evitando a detecção 88% das vezes.
Deixe um comentário
Cancelar