OpenAI lança novo GPT-4o: em breve disponível para o público

OpenAI lança novo GPT-4o: em breve disponível para o público

Tempo de leitura: 3 minuto

  • Andrea Miliani

    Escrito por: Andrea Miliani Redatora de tecnologia

  • Eric Ribeiro

    Traduzido por Eric Ribeiro Escritor de tecnologia

A OpenAI revelou um modelo novo e mais avançado do ChatGPT chamado GPT-4o durante o evento ao vivo OpenAI Spring Update na noite de segunda-feira. O novo GPT-4o é mais rápido do que o GPT-4 e pode processar simultaneamente texto, áudio e imagens – ele basicamente pode “ver” através da câmera de um dispositivo.

Durante a transmissão ao vivo de 26 minutos, a equipe da OpenAI mostrou em tempo real os novos recursos e capacidades do novo modelo. Eles também compartilharam detalhes sobre as próximas atualizações das versões anteriores, como o novo aplicativo para desktop.

“A grande novidade de hoje é o lançamento de nosso novo modelo principal, chamado ChatGPT-4o”, disse Mira Murati, diretora de tecnologia da OpenAI.

Murati explicou que o novo modelo e os novos recursos das versões anteriores estarão disponíveis em breve gratuitamente e para todos, inclusive para usuários não registrados. “Lançaremos o modelo nas próximas semanas”, disse Murati.

Durante a primeira demonstração, a equipe da OpenAI mostrou como o GPT-4o pode manter conversas usando uma voz feminina, ser interrompido, responder de forma rápida e criativa, com senso de humor, e até mesmo reconhecer emoções e dar conselhos.

Posteriormente, a equipe apresentou diferentes cenários em que o GPT-4o pode ser usado. Mostraram como aproveitar o recurso de “visão” para ajudar a resolver equações lineares escritas em papel, entender códigos e gráficos compartilhando a tela por meio da versão desktop e auxiliar em traduções simultâneas em conversas reais. O GPT-4o pode falar em vários idiomas e em diferentes tons e estilos de voz.

Por fim, os especialistas mostraram como o modelo pode reconhecer emoções humanas e cometer erros. Durante as demonstrações, o GPT-4o apresentou algumas falhas, confundindo um dos apresentadores com uma imagem de madeira e acreditando que o problema de matemática já havia sido resolvido quando o membro da equipe ainda não havia mostrado nada.

Mas o GPT-4o rapidamente pediu desculpas e encantou o público com suas respostas. “Oh, pare com isso, você está me fazendo corar!”, respondeu quando um dos líderes da pesquisa, Barret Zoph, disse ao GPT-4o o quanto ele o admirava.

Resposta ao GPT-4o

A OpenAI compartilhou vários vídeos curtos no X para demonstrar as diferentes funções do novo modelo GPT-4o.

Várias pessoas no X o associaram ao filme Her, em que o protagonista Theodore Twombly, interpretado por Joaquin Phoenix, se apaixona por uma assistente virtual de IA dublada por Scarlett Johanson. “Isso é uma loucura, quando vi esses clipes, lembrei-me imediatamente desse filme!” comentou um usuário. “Esta é literalmente a Scarlett Johansson. Como?!”, escreveu outro.

Embora a maioria dos usuários tenha ficado impressionada com os novos recursos, outros compartilharam algumas críticas e preocupações. “Cara @openai, sua demonstração foi impressionante e assustadora, mas o sotaque italiano foi terrível :)”, postou Massimo Banzi, cofundador do projeto Arduino de automação robótica.

“Realmente excelente, mas eu diria que vocês podem perder muitos usuários pagos se apenas o limite máximo for diferente da versão gratuita”, disse outro usuário.

Nos próximos dias, o novo modelo e as atualizações estarão disponíveis para que mais pessoas possam testar e experimentar a tecnologia em primeira mão.

Gostou desse artigo? Avalie!
Eu detestei Eu não gostei Achei razoável Muito bom! Eu adorei!
5.00 Votado por 1 usuários
Título
Comentar
Obrigado por seu feedback
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Deixe um comentário

Mostrar mais...