Pesquisadores Revelam que a IA Pode Ver Sua Tela Através de Vazamentos em Cabos HDMI

Image by Tima Miroshnichenko, from Pexels

Pesquisadores Revelam que a IA Pode Ver Sua Tela Através de Vazamentos em Cabos HDMI

Tempo de leitura: 2 minuto

Um novo estudo revela que hackers podem interceptar a radiação eletromagnética dos cabos HDMI para decodificar o conteúdo da tela, utilizando inteligência artificial. Esta sofisticada forma de espionagem, embora preocupante, é principalmente uma ameaça a ambientes de alta segurança, em vez de usuários comuns.

A conexão entre computadores e telas era totalmente analógica, mas hoje é principalmente digital, transmitindo dados em binário através de cabos de interface multimídia de alta definição (HDMI). Sempre que um sinal viaja através de um fio, alguma radiação eletromagnética vaza, e com sinais analógicos, os hackers poderiam interceptar essa fuga relativamente facilmente.

Os ataques que exploram esse fenômeno são conhecidos como TEMPEST. Embora os sinais digitais sejam mais complexos e carreguem mais dados, tornando-os mais difíceis de decodificar, eles ainda podem ser interceptados.

Federico Larroca e sua equipe na Universidad de la República Uruguay, desenvolveram um modelo de IA capaz de reconstruir esses sinais digitais interceptados a alguns metros de distância.

Elas avaliaram o desempenho do modelo comparando o texto capturado da imagem reconstruída com a imagem original da tela. A IA alcançou uma taxa de erro de cerca de 30%, o que significa que a maior parte do texto poderia ser lida com precisão, apesar de alguns caracteres serem interpretados incorretamente. Isso é uma melhoria substancial, com a taxa de erro sendo 60% menor do que os métodos anteriores.

Hackers poderiam usar essa técnica para espionar informações sensíveis como senhas e detalhes bancários exibidos em uma tela. Eles podem fazer isso interceptando sinais com antenas remotas ou dispositivos ocultos.

Em uma entrevista com o New Scientist, Larroca diz: “Os governos estão preocupados com isso, [mas] eu não diria que o usuário comum deve estar muito preocupado,[…] Mas se você realmente se preocupa com sua segurança, quaisquer que sejam seus motivos, isso pode ser um problema.”

Para mitigar esses riscos, os pesquisadores propõem duas contramedidas que podem ser implementadas modificando a imagem exibida de uma maneira quase imperceptível para o usuário, mas que interrompe a capacidade da IA de decodificar os sinais interceptados. Um método envolve adicionar um ruído de baixo nível à imagem, que atua como um ataque adversário à rede neural, tornando o texto resultante em grande parte ilegível. Outra abordagem é usar um gradiente de cor no fundo da imagem, como uma rampa de branco para preto, que altera significativamente o sinal interceptado.

Gostou desse artigo? Avalie!
Eu detestei Eu não gostei Achei razoável Muito bom! Eu adorei!

Estamos muito felizes que tenha gostado do nosso trabalho!

Como um leitor importante, você se importaria de nos avaliar no Trustpilot? É rápido e significa muito para nós. Obrigado por ser incrível!

Avalie-nos no Trustpilot
0 Votado por 0 usuários
Título
Comentar
Obrigado por seu feedback
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Deixe um comentário

Loader
Loader Mostrar mais...