OpenAI lança novo GPT-4o: em breve disponível para o público

OpenAI lança novo GPT-4o: em breve disponível para o público

Tempo de leitura: 3 minuto

A OpenAI revelou um modelo novo e mais avançado do ChatGPT chamado GPT-4o durante o evento ao vivo OpenAI Spring Update na noite de segunda-feira. O novo GPT-4o é mais rápido do que o GPT-4 e pode processar simultaneamente texto, áudio e imagens – ele basicamente pode “ver” através da câmera de um dispositivo.

Durante a transmissão ao vivo de 26 minutos, a equipe da OpenAI mostrou em tempo real os novos recursos e capacidades do novo modelo. Eles também compartilharam detalhes sobre as próximas atualizações das versões anteriores, como o novo aplicativo para desktop.

“A grande novidade de hoje é o lançamento de nosso novo modelo principal, chamado ChatGPT-4o”, disse Mira Murati, diretora de tecnologia da OpenAI.

Murati explicou que o novo modelo e os novos recursos das versões anteriores estarão disponíveis em breve gratuitamente e para todos, inclusive para usuários não registrados. “Lançaremos o modelo nas próximas semanas”, disse Murati.

Durante a primeira demonstração, a equipe da OpenAI mostrou como o GPT-4o pode manter conversas usando uma voz feminina, ser interrompido, responder de forma rápida e criativa, com senso de humor, e até mesmo reconhecer emoções e dar conselhos.

Posteriormente, a equipe apresentou diferentes cenários em que o GPT-4o pode ser usado. Mostraram como aproveitar o recurso de “visão” para ajudar a resolver equações lineares escritas em papel, entender códigos e gráficos compartilhando a tela por meio da versão desktop e auxiliar em traduções simultâneas em conversas reais. O GPT-4o pode falar em vários idiomas e em diferentes tons e estilos de voz.

Por fim, os especialistas mostraram como o modelo pode reconhecer emoções humanas e cometer erros. Durante as demonstrações, o GPT-4o apresentou algumas falhas, confundindo um dos apresentadores com uma imagem de madeira e acreditando que o problema de matemática já havia sido resolvido quando o membro da equipe ainda não havia mostrado nada.

Mas o GPT-4o rapidamente pediu desculpas e encantou o público com suas respostas. “Oh, pare com isso, você está me fazendo corar!”, respondeu quando um dos líderes da pesquisa, Barret Zoph, disse ao GPT-4o o quanto ele o admirava.

Resposta ao GPT-4o

A OpenAI compartilhou vários vídeos curtos no X para demonstrar as diferentes funções do novo modelo GPT-4o.

Várias pessoas no X o associaram ao filme Her, em que o protagonista Theodore Twombly, interpretado por Joaquin Phoenix, se apaixona por uma assistente virtual de IA dublada por Scarlett Johanson. “Isso é uma loucura, quando vi esses clipes, lembrei-me imediatamente desse filme!” comentou um usuário. “Esta é literalmente a Scarlett Johansson. Como?!”, escreveu outro.

Embora a maioria dos usuários tenha ficado impressionada com os novos recursos, outros compartilharam algumas críticas e preocupações. “Cara @openai, sua demonstração foi impressionante e assustadora, mas o sotaque italiano foi terrível :)”, postou Massimo Banzi, cofundador do projeto Arduino de automação robótica.

“Realmente excelente, mas eu diria que vocês podem perder muitos usuários pagos se apenas o limite máximo for diferente da versão gratuita”, disse outro usuário.

Nos próximos dias, o novo modelo e as atualizações estarão disponíveis para que mais pessoas possam testar e experimentar a tecnologia em primeira mão.

Gostou desse artigo? Avalie!
Eu detestei Eu não gostei Achei razoável Muito bom! Eu adorei!

Estamos muito felizes que tenha gostado do nosso trabalho!

Como um leitor importante, você se importaria de nos avaliar no Trustpilot? É rápido e significa muito para nós. Obrigado por ser incrível!

Avalie-nos no Trustpilot
5.00 Votado por 1 usuários
Título
Comentar
Obrigado por seu feedback
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Deixe um comentário

Loader
Loader Mostrar mais...