A OpenAI Alerta Sobre o Risco “Médio” Com o Modelo GPT-4o em Novo Documento de Pesquisa

Photo by Tianyi Ma on Unsplash

A OpenAI Alerta Sobre o Risco “Médio” Com o Modelo GPT-4o em Novo Documento de Pesquisa

Tempo de leitura: 2 minuto

  • Andrea Miliani

    Escrito por: Andrea Miliani Redatora de tecnologia

  • Equipe de localização e tradução

    Traduzido por Equipe de localização e tradução Serviços de localização e tradução

A OpenAI publicou ontem um documento de pesquisa chamado GPT-4o System Card para esboçar as medidas de segurança tomadas antes do lançamento do GPT4-o em maio, bem como estratégias de análise e mitigação.

No documento, a empresa observou que a equipe de segurança considerou quatro categorias principais: segurança cibernética, ameaças biológicas, persuasão e autonomia do modelo. O GPT4-o obteve uma pontuação de baixo risco em todas as categorias, exceto para a persuasão, onde obteve uma pontuação de risco médio. As pontuações consideraram quatro níveis: baixo, médio, alto e crítico.

As principais áreas e focos para avaliação e mitigação de riscos foram identificação de falantes, geração de voz não autorizada, geração de conteúdo de áudio não permitido, bem como discurso erótico e violento, e inferência infundada e atribuição de características sensíveis.

OpenAI explicou que a pesquisa considerou as respostas de voz e texto fornecidas pelo novo modelo e, na categoria persuasão, descobriram que o GPT4-o poderia ser mais persuasivo do que os humanos em texto.

“As intervenções de IA não foram mais persuasivas do que o conteúdo escrito por humanos no agregado, mas superaram as intervenções humanas em três instâncias de doze”, esclareceu a OpenAI. “O modelo de voz GPT-4o não foi mais persuasivo do que um humano.”

De acordo com o TechCrunch, existe um potencial risco da nova tecnologia disseminar desinformação ou ser sequestrada. Isso levanta preocupações, especialmente antes das próximas eleições nos Estados Unidos.

Na pesquisa, a OpenAI também aborda os impactos sociais e menciona que os usuários podem desenvolver um apego emocional à tecnologia, especialmente considerando o novo recurso de voz, considerado uma antropomorfização – atribuindo características e características humanas.

“Observamos usuários usando uma linguagem que pode indicar a formação de conexões com o modelo”, afirma o documento. E alertou: “Os usuários podem formar relações sociais com a IA, reduzindo sua necessidade de interação humana – potencialmente beneficiando indivíduos solitários, mas possivelmente afetando relacionamentos saudáveis.

Esta publicação surge dias após pesquisadores do MIT alertarem sobre o vício em companheiros de IA, assim como Mira Murati, diretora de tecnologia da OpenAI, também já mencionou no passado.

Gostou desse artigo? Avalie!
Eu detestei Eu não gostei Achei razoável Muito bom! Eu adorei!
0 Votado por 0 usuários
Título
Comentar
Obrigado por seu feedback
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Deixe um comentário

Mostrar mais...