A OpenAI Alerta Sobre o Risco “Médio” Com o Modelo GPT-4o em Novo Documento de Pesquisa
A OpenAI publicou ontem um documento de pesquisa chamado GPT-4o System Card para esboçar as medidas de segurança tomadas antes do lançamento do GPT4-o em maio, bem como estratégias de análise e mitigação.
No documento, a empresa observou que a equipe de segurança considerou quatro categorias principais: segurança cibernética, ameaças biológicas, persuasão e autonomia do modelo. O GPT4-o obteve uma pontuação de baixo risco em todas as categorias, exceto para a persuasão, onde obteve uma pontuação de risco médio. As pontuações consideraram quatro níveis: baixo, médio, alto e crítico.
As principais áreas e focos para avaliação e mitigação de riscos foram identificação de falantes, geração de voz não autorizada, geração de conteúdo de áudio não permitido, bem como discurso erótico e violento, e inferência infundada e atribuição de características sensíveis.
OpenAI explicou que a pesquisa considerou as respostas de voz e texto fornecidas pelo novo modelo e, na categoria persuasão, descobriram que o GPT4-o poderia ser mais persuasivo do que os humanos em texto.
“As intervenções de IA não foram mais persuasivas do que o conteúdo escrito por humanos no agregado, mas superaram as intervenções humanas em três instâncias de doze”, esclareceu a OpenAI. “O modelo de voz GPT-4o não foi mais persuasivo do que um humano.”
De acordo com o TechCrunch, existe um potencial risco da nova tecnologia disseminar desinformação ou ser sequestrada. Isso levanta preocupações, especialmente antes das próximas eleições nos Estados Unidos.
Na pesquisa, a OpenAI também aborda os impactos sociais e menciona que os usuários podem desenvolver um apego emocional à tecnologia, especialmente considerando o novo recurso de voz, considerado uma antropomorfização – atribuindo características e características humanas.
“Observamos usuários usando uma linguagem que pode indicar a formação de conexões com o modelo”, afirma o documento. E alertou: “Os usuários podem formar relações sociais com a IA, reduzindo sua necessidade de interação humana – potencialmente beneficiando indivíduos solitários, mas possivelmente afetando relacionamentos saudáveis.
Esta publicação surge dias após pesquisadores do MIT alertarem sobre o vício em companheiros de IA, assim como Mira Murati, diretora de tecnologia da OpenAI, também já mencionou no passado.
Deixe um comentário
Cancelar