A Ascensão do GhostGPT: A Nova Arma do Cibercrime

Image by Freepik

A Ascensão do GhostGPT: A Nova Arma do Cibercrime

Tempo de leitura: 3 minuto

A inteligência artificial revolucionou a forma como abordamos tarefas cotidianas, mas também criou novas ferramentas para os cibercriminosos. GhostGPT, um chatbot de IA sem censura, é o exemplo mais recente deste lado mais sombrio da tecnologia AI, conforme relatado em uma análise recente por Abnormal.

Com Pressa? Aqui estão os Fatos Rápidos!

  • GhostGPT é um chatbot de IA sem censura usado para a criação de malwares e golpes de phishing.
  • Ele burla as diretrizes éticas usando modelos de linguagem de IA de código aberto ou jailbroken.
  • GhostGPT é vendido via Telegram, oferecendo respostas rápidas e sem registros de atividades.

Diferentemente dos modelos tradicionais de IA que são limitados por diretrizes éticas, o GhostGPT remove completamente essas restrições, tornando-se uma ferramenta poderosa para fins maliciosos. Abnormal relata que o GhostGPT opera conectando-se a uma versão desbloqueada do ChatGPT, eliminando as salvaguardas que normalmente bloqueiam conteúdo prejudicial.

Vendido em plataformas como o Telegram, o chatbot está acessível para qualquer pessoa disposta a pagar uma taxa. Ele promete processamento rápido, sem registros de atividades e usabilidade instantânea, características que o tornam particularmente atraente para aqueles que se envolvem em crimes cibernéticos.

Um pesquisador, falando anonimamente para o Dark Reading, revelou que os autores oferecem três níveis de preços para o grande modelo de linguagem: $50 por uma semana, $150 por um mês e $300 por três meses.

Os pesquisadores explicam que as capacidades do chatbot incluem gerar malware, criar ferramentas de exploração e escrever e-mails de phishing convincentes. Por exemplo, quando solicitado a criar um e-mail falso de phishing do DocuSign, o GhostGPT produziu um modelo polido e enganoso, projetado para enganar vítimas desavisadas.

Embora os materiais promocionais da ferramenta sugiram que ela poderia ser usada para fins de cibersegurança, seu foco em atividades como fraudes de comprometimento de e-mail comercial torna sua verdadeira intenção clara.

O que diferencia o GhostGPT é sua acessibilidade. Ao contrário de ferramentas mais complexas que exigem conhecimentos técnicos avançados, este chatbot reduz a barreira de entrada no cibercrime.

Novatos podem comprá-lo e começar a usá-lo imediatamente, enquanto atacantes experientes podem aprimorar suas técnicas com suas respostas não filtradas. A ausência de registros de atividade permite ainda mais que os usuários operem sem medo de serem rastreados, tornando-o ainda mais perigoso.

As implicações do GhostGPT vão além do próprio chatbot. Ele representa uma tendência crescente de IA armamentizada que está reformulando a paisagem da segurança cibernética. Ao tornar o cibercrime mais rápido, mais fácil e mais eficiente, ferramentas como o GhostGPT representam desafios significativos para os defensores.

Pesquisas recentes mostram que a IA poderia criar até 10.000 variantes de malware, evadindo a detecção 88% das vezes. Enquanto isso, pesquisadores descobriram vulnerabilidades em robôs alimentados por IA, permitindo que hackers causem ações perigosas, como falhas ou armamentização, levantando preocupações críticas de segurança.

À medida que GhostGPT e chatbots similares ganham tração, a comunidade de cibersegurança está em uma corrida para superar essas ameaças em evolução. O futuro da IA dependerá não apenas da inovação, mas também da capacidade de prevenir seu uso indevido.

Gostou desse artigo? Avalie!
Eu detestei Eu não gostei Achei razoável Muito bom! Eu adorei!

Estamos muito felizes que tenha gostado do nosso trabalho!

Como um leitor importante, você se importaria de nos avaliar no Trustpilot? É rápido e significa muito para nós. Obrigado por ser incrível!

Avalie-nos no Trustpilot
5.00 Votado por 3 usuários
Título
Comentar
Obrigado por seu feedback
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Deixe um comentário

Loader
Loader Mostrar mais...