A OpenAI dará ao Instituto de Segurança dos EUA acesso antecipado aos Novos Modelos
Sam Altman, CEO da OpenAI, anunciou hoje no X que a empresa fornecerá acesso antecipado ao Instituto de Segurança de Inteligência Artificial dos EUA ao próximo modelo fundamental.
“Como dissemos em julho passado, estamos comprometidos em alocar pelo menos 20% dos recursos de computação para esforços de segurança em toda a empresa”, escreveu Altman, “Nossa equipe tem trabalhado com o Instituto de Segurança de IA dos EUA em um acordo onde forneceríamos acesso antecipado ao nosso próximo modelo fundamental para que possamos trabalhar juntos para impulsionar a ciência das avaliações de IA.”
Altman disse que compartilhou essa decisão com entusiasmo e acrescentou que querem que os atuais e antigos funcionários expressem suas preocupações sobre as tecnologias de IA que a empresa está desenvolvendo. Ele enfatizou que isso era importante para a empresa e seu plano de segurança.
De acordo com o TechCrunch, o Instituto de Segurança em Inteligência Artificial dos EUA—parte do Instituto Nacional de Padrões e Tecnologia (NIST)—aborda e avalia riscos em plataformas de IA e a OpenAI já trabalhou em um acordo semelhante com o Reino Unido há apenas algumas semanas.
O anúncio de Altman vem após pessoas e organizações criticarem as medidas de segurança da empresa. Em junho, diversos funcionários atuais e antigos da OpenAI assinaram uma carta aberta para expressar preocupações e alertar sobre a disseminação de desinformação pela IA e o risco que ela representa para a sociedade. Diversos trabalhadores também abandonaram a empresa devido a preocupações com a segurança, incluindo o importante pesquisador da OpenAI Jan Leike, após a OpenAI dissolver a equipe Superalignment, responsável por lidar com os riscos da IA.
Apesar das preocupações com a segurança, a OpenAI continua avançando. A empresa acabou de lançar o recurso de voz para o ChatGPT Plus, e um novo motor de busca alimentado por IA chamado SearchGPT está disponível para usuários selecionados.
Os novos esforços para adicionar medidas de segurança parecem provar que Altman e sua equipe não esqueceram dos riscos e preocupações com a IA.
Deixe um comentário
Cancelar