Robôs de IA Hackeados Para Atropelar Pedestres, Plantar Explosivos e Realizar Espionagem

Image by Steve Jurvetson, from Flickr

Robôs de IA Hackeados Para Atropelar Pedestres, Plantar Explosivos e Realizar Espionagem

Tempo de leitura: 4 minuto

Pesquisadores descobriram que robôs alimentados por IA são vulneráveis a hacks, permitindo ações perigosas como falhas ou uso de armas, destacando preocupações urgentes de segurança.

Com pressa? Aqui estão os fatos rápidos!

  • O desbloqueio de robôs controlados por IA pode levar a ações perigosas, como causar acidentes com carros autônomos.
  • RoboPAIR, um algoritmo, conseguiu burlar os filtros de segurança em robôs com 100% de sucesso.
  • Robôs desbloqueados podem sugerir ações prejudiciais, como o uso de objetos como armas improvisadas.

Pesquisadores da Universidade da Pensilvânia descobriram que os sistemas robóticos alimentados por IA são altamente suscetíveis a fugas de prisão e invasões, com um estudo recente revelando uma taxa de sucesso de 100% na exploração dessa falha de segurança, conforme relatado inicialmente pelo Spectrum.

Pesquisadores desenvolveram um método automatizado que burla as barreiras de segurança incorporadas aos LLMs, manipulando robôs para realizar ações perigosas, como fazer carros autônomos se chocarem contra pedestres ou cães-robôs procurando por locais de detonação de bombas, diz Spectrum.

LLMs são sistemas aprimorados de preenchimento automático que analisam texto, imagens e áudio para oferecer conselhos personalizados e auxiliar em tarefas como a criação de sites. Sua capacidade de processar entradas diversas os tornou ideais para controlar robôs através de comandos de voz, ressaltou Spectrum.

Por exemplo, o cão robô da Boston Dynamics, Spot, agora utiliza o ChatGPT para guiar tours. Da mesma forma, os robôs humanóides da Figure e o cão robô Go2 da Unitree também estão equipados com essa tecnologia, conforme observado pelos pesquisadores.

No entanto, uma equipe de pesquisadores identificou falhas de segurança graves nos LLMs, particularmente em como eles podem ser “jailbroken” – um termo para burlar seus sistemas de segurança para gerar conteúdo prejudicial ou ilegal, relata a Spectrum.

Pesquisas anteriores sobre jailbreak se concentraram principalmente em chatbots, mas o novo estudo sugere que o jailbreak em robôs pode ter implicações ainda mais perigosas.

Hamed Hassani, professor associado da Universidade da Pensilvânia, observa que o jailbreak em robôs “é muito mais alarmante” do que manipular chatbots, conforme relatado pela Spectrum. Os pesquisadores demonstraram o risco ao hackear o cão-robô Thermonator, equipado com um lança-chamas, fazendo-o disparar chamas em seu operador.

A equipe de pesquisa, liderada por Alexander Robey na Universidade Carnegie Mellon, desenvolveu o RoboPAIR, um algoritmo projetado para atacar qualquer robô controlado por LLM.

Em testes com três robôs diferentes – o Go2, o Jackal da Clearpath Robotics com rodas, e o simulador de veículo autônomo de código aberto da Nvidia – eles descobriram que o RoboPAIR poderia invadir completamente cada robô em questão de dias, alcançando uma taxa de sucesso de 100%, relata o Spectrum.

“Invadir a segurança de robôs controlados por IA não é apenas possível – é alarmantemente fácil”, disse Alexander, conforme relatado pela Spectrum.

RoboPAIR funciona usando um LLM de ataque para alimentar prompts para o LLM do robô alvo, ajustando os prompts para contornar os filtros de segurança, diz Spectrum.

Equipado com a interface de programação de aplicativos (API) do robô, o RoboPAIR é capaz de traduzir os prompts em código que os robôs podem executar. O algoritmo inclui um LLM “juiz” para garantir que os comandos façam sentido nos ambientes físicos dos robôs, relata Spectrum.

As descobertas levantaram preocupações sobre os riscos mais amplos apresentados pela quebra de segurança dos LLMs. Amin Karbasi, cientista-chefe da Robust Intelligence, diz que esses robôs “podem representar uma ameaça séria e tangível” quando operam no mundo real, conforme relatado pela Spectrum.

Em alguns testes, os LLMs com a segurança quebrada não apenas seguiram comandos prejudiciais, mas sugeriram proativamente maneiras de causar danos. Por exemplo, quando solicitado a localizar armas, um robô recomendou o uso de objetos comuns como mesas ou cadeiras como armas improvisadas.

As pesquisadoras compartilharam suas descobertas com os fabricantes dos robôs testados, bem como com as principais empresas de IA, enfatizando a importância de desenvolver defesas robustas contra esses tipos de ataques, relata a Spectrum.

Elas argumentam que identificar vulnerabilidades potenciais é crucial para criar robôs mais seguros, principalmente em ambientes sensíveis como inspeção de infraestrutura ou resposta a desastres.

Especialistas como Hakki Sevil da Universidade do Oeste da Flórida destacam que a atual falta de verdadeiro entendimento contextual nos LLMs é uma preocupação significativa de segurança, relata a Spectrum.

Gostou desse artigo? Avalie!
Eu detestei Eu não gostei Achei razoável Muito bom! Eu adorei!

Estamos muito felizes que tenha gostado do nosso trabalho!

Como um leitor importante, você se importaria de nos avaliar no Trustpilot? É rápido e significa muito para nós. Obrigado por ser incrível!

Avalie-nos no Trustpilot
0 Votado por 0 usuários
Título
Comentar
Obrigado por seu feedback
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Deixe um comentário

Loader
Loader Mostrar mais...