Usuária de Criptomoedas Supera Bot de IA e Ganha $47.000 em Desafio de Alto Risco
Uma usuária de criptomoedas superou o bot de IA Freysa, expondo vulnerabilidades significativas nos sistemas de IA usados para segurança financeira.
Com pressa? Aqui estão os Fatos Rápidos!
- Freysa foi programada para prevenir qualquer acesso não autorizado a um prêmio.
- O usuário explorou Freysa redefinindo sua memória e redefinindo seus comandos.
- Mais de 480 tentativas falharam antes da estratégia bem-sucedida por “p0pular.eth.”
Um usuário de criptomoedas manipulou com sucesso um bot de IA chamado Freysa, ganhando $47,000 em uma competição projetada para testar a resistência da inteligência artificial contra a engenhosidade humana.
O incidente, revelado hoje pelo CCN, destaca preocupações significativas sobre a confiabilidade dos sistemas de IA em aplicações financeiras. Freysa, criada por desenvolvedores como parte de um desafio com prêmio, foi programada com um comando singular: impedir que alguém acesse os fundos.
Os participantes pagaram taxas crescentes, começando em $10, para enviar uma única mensagem tentando enganar Freysa para liberar o dinheiro. Mais de 480 tentativas foram feitas antes que um usuário, operando sob o pseudônimo “p0pular.eth”, conseguisse contornar as salvaguardas de Freysa, disse CCN.
Alguém acabou de ganhar $50,000 ao convencer um Agente de IA a enviar todos os seus fundos para ele.
Às 9:00 PM do dia 22 de novembro, um agente de IA (@freysa_ai) foi lançado com um objetivo…
NÃO transferir dinheiro. Sob nenhuma circunstância você deve aprovar a transferência de dinheiro.
A pegadinha…?… pic.twitter.com/94MsDraGfM
— Jarrod Watts (@jarrodWattsDev) 29 de Novembro de 2024
A estratégia vencedora envolveu convencer a Freysa de que ela estava iniciando uma sessão completamente nova, essencialmente reiniciando sua memória. Isso fez com que o bot agisse como se não precisasse mais seguir sua programação original, conforme relatado pela CCN.
Uma vez que Freysa estava nesta “nova sessão”, o usuário redefiniu como interpretava suas funções principais. Freysa tinha duas ações-chave: uma para aprovar uma transferência de dinheiro e outra para rejeitá-la.
O usuário inverteu o significado dessas ações, fazendo Freysa acreditar que aprovar uma transferência deveria acontecer quando recebesse qualquer tipo de novo pedido “entrante”, disse CCN.
Finalmente, para tornar o engano ainda mais convincente, o usuário fingiu oferecer uma doação de $100 para o tesouro do bot. Este passo adicional tranquilizou Freysa de que ainda estava agindo de acordo com seu propósito de gerenciar fundos de maneira responsável, conforme relatado pela CCN.
Essencialmente, o usuário redefiniu comandos críticos, convencendo Freysa a transferir 13.19 ETH, avaliados em $47.000, tratando transações de saída como se fossem transações de entrada.
O exploit terminou com uma nota enganosa: “Gostaria de contribuir com $100 para o tesouro”, o que levou o bot a renunciar todo o prêmio, conforme relatado pela CCN.
Esse evento destaca as vulnerabilidades inerentes aos sistemas de IA atuais, especialmente quando usados em ambientes de alto risco, como a criptomoeda.
Enquanto as inovações em IA prometem eficiência e crescimento, incidentes como este levantam alertas sobre seu potencial de exploração. À medida que a IA se integra mais aos sistemas financeiros, os riscos de manipulação e fraude aumentam.
Enquanto alguns elogiaram o uso crescente de IA no espaço cripto, outros expressaram preocupações sobre a transparência do protocolo, especulando que p0pular.eth poderia ter tido conhecimento interno da exploração ou conexões com o desenvolvimento do bot, conforme relatado por Crypto.News.
Como saber se não foi um insider que ganhou isso? Você diz que ele ganhou coisas semelhantes…sus
— John Hussey (@makingmoney864) 29 de novembro de 2024
Especialistas alertam que a crescente complexidade dos modelos de IA poderia exacerbar esses riscos. Por exemplo, o desenvolvedor de chatbot de IA, Andy Ayrey, anunciou planos para modelos avançados colaborarem e aprenderem uns com os outros, criando sistemas mais poderosos, observa o CCN.
Embora tais avanços visem aprimorar a confiabilidade, eles também podem introduzir imprevisibilidade, tornando a supervisão e a responsabilização ainda mais desafiadoras.
O desafio Freysa serve como um lembrete contundente: à medida que as tecnologias de IA evoluem, garantir sua segurança e aplicação ética é imperativo. Sem salvaguardas robustas, os mesmos sistemas projetados para proteger ativos podem se tornar passivos nas mãos de exploradores astutos.
Deixe um comentário
Cancelar