Funcionários do Google DeepMind Instam a Empresa a Abandonar Contratos Militares
Cerca de 200 funcionários do Google Deepmind assinaram uma carta no início deste ano instando a gigante da tecnologia a abandonar contratos militares com várias organizações. A informação foi revelada pela revista TIME em uma exclusiva com mais detalhes da disputa.
A TIME teve acesso ao documento interno, datado de 16 de maio, e confirmou que vários talentos nos laboratórios de IA estão “preocupados com os recentes relatórios de contratos do Google com organizações militares”. O documento também esclarece que não é direcionado a nenhum conflito específico ou situação geopolítica atual.
Em abril, a TIME revelou que o Google tem um contrato com o Ministério da Defesa de Israel para um programa chamado Projeto Nimbus para fornecer serviços de IA e computação em nuvem.
“Qualquer envolvimento com a indústria militar e de armas impacta nossa posição como líderes em IA ética e responsável, e vai contra nossa declaração de missão e os Princípios de IA declarados”, escreveram os funcionários na carta.
Os talentos em aprendizado de máquina que assinaram a petição representam apenas 5% da força de trabalho do DeepMind do Google, mas revelam importantes diferenças internas e abordagens sobre como a tecnologia de IA do Google vem evoluindo.
Segundo a revista, o Google adquiriu o DeepMind em 2014 e manteve sua autonomia e princípios originais até os anos recentes. Em 2021, os líderes do laboratório tentaram recuperar a autonomia para obter uma estrutura legal mais independente, mas o pedido foi negado , e em vez disso, o Google fundiu o Google Brain — sua outra equipe de IA — com o DeepMind.
“Embora a DeepMind possa ter ficado insatisfeita em trabalhar com IA militar ou contratos de defesa no passado, eu realmente acho que essa não é mais a nossa decisão”, disse um trabalhador da DeepMind à TIME.
O Google publicou seus princípios de IA e garantiu que o Projeto Nimbus não é “direcionado a cargas de trabalho altamente sensíveis, classificadas ou militares relevantes para armas ou serviços de inteligência”.
No entanto, uma funcionária da DeepMind disse à TIME que a resposta da empresa não confirma se pode favorecer a violência e outros desenvolvimentos negativos, e que “é tão especificamente inespecífica que todos nós continuamos sem entender o que realmente significa”.
Deixe um comentário
Cancelar