
Image by Freepik
A Ameaça da IA Sombria à Segurança Empresarial
À medida que a tecnologia de IA evolui rapidamente, as organizações estão enfrentando uma nova ameaça de segurança: os aplicativos de IA não autorizados. Essas aplicações não autorizadas, desenvolvidas por funcionários sem a supervisão de TI ou segurança, estão se espalhando pelas empresas e muitas vezes passam despercebidas, conforme destacado em um artigo recente da VentureBeat.
Com Pressa? Aqui estão os Fatos Rápidos!
- Os aplicativos de Shadow AI são criados por funcionários sem a aprovação de TI ou segurança.
- Os funcionários criam o Shadow AI para aumentar a produtividade, muitas vezes sem intenções maliciosas.
- Modelos públicos podem expor dados sensíveis, criando riscos de conformidade para as organizações.
VentureBeat explica que, embora muitos desses aplicativos não sejam intencionalmente maliciosos, eles representam riscos significativos para as redes corporativas, variando de violações de dados a violações de conformidade.
Os aplicativos Shadow AI geralmente são desenvolvidos por funcionários que buscam automatizar tarefas rotineiras ou agilizar operações, usando modelos de IA treinados com dados proprietários da empresa.
Esses aplicativos, que frequentemente se baseiam em ferramentas de IA generativas como o ChatGPT da OpenAI ou o Google Gemini, não possuem salvaguardas essenciais, tornando-os altamente vulneráveis a ameaças de segurança.
De acordo com Itamar Golan, CEO da Prompt Security, “Cerca de 40% desses sistemas acabam sendo treinados com qualquer dado que você forneça a eles, o que significa que sua propriedade intelectual pode se tornar parte de seus modelos”, conforme relatado pela VentureBeat.
O apelo da IA sombria é evidente. Os funcionários, sob crescente pressão para cumprir prazos apertados e lidar com cargas de trabalho complexas, estão recorrendo a essas ferramentas para aumentar a produtividade.
Vineet Arora, CTO na WinWire, comenta à VentureBeats, “Os departamentos adotam soluções de IA não sancionadas porque os benefícios imediatos são tentadores demais para serem ignorados”. No entanto, os riscos que essas ferramentas introduzem são profundos.
Golan compara a IA sombria com drogas para melhorar o desempenho nos esportes, dizendo, “É como doping no Tour de France. As pessoas querem uma vantagem sem perceber as consequências a longo prazo”, conforme relatado pela VentureBeats.
Apesar de suas vantagens, os aplicativos de IA sombra expõem as organizações a uma variedade de vulnerabilidades, incluindo vazamentos de dados acidentais e ataques de injeção rápidos que as medidas de segurança tradicionais não conseguem detectar.
A escala do problema é assustadora. Golan revela ao VentureBeats que sua empresa cataloga 50 novos aplicativos de IA diariamente, com mais de 12.000 atualmente em uso. “Você não pode parar um tsunami, mas pode construir um barco”, Golan aconselha, apontando para o fato de que muitas organizações são surpreendidas pela amplitude do uso de IA sombra em suas redes.
Uma empresa financeira, por exemplo, descobriu 65 ferramentas de IA não autorizadas durante uma auditoria de 10 dias, muito mais do que as menos de 10 ferramentas que sua equipe de segurança esperava, conforme relatado pela VentureBeats.
Os perigos da IA oculta são particularmente agudos para os setores regulamentados. Uma vez que os dados proprietários são alimentados em um modelo de IA público, torna-se difícil controlá-los, levando a possíveis problemas de conformidade.
Golan alerta: “A próxima Lei de IA da UE poderia superar até mesmo o GDPR em multas”, enquanto Arora enfatiza a ameaça de vazamento de dados e as penalidades que as organizações poderiam enfrentar por não protegerem as informações sensíveis, conforme relatado pelo VentureBeats.
Para lidar com o crescente problema da IA oculta, especialistas recomendam uma abordagem multifacetada. Arora sugere que as organizações criem estruturas centralizadas de governança de IA, realizem auditorias regulares e implementem controles de segurança conscientes de IA que possam detectar explorações impulsionadas por IA.
Além disso, as empresas devem fornecer aos funcionários ferramentas de IA pré-aprovadas e políticas de uso claras para reduzir a tentação de usar soluções não aprovadas.
Deixe um comentário
Cancelar