OpenAI lança novo GPT-4o: em breve disponível para o público
A OpenAI revelou um modelo novo e mais avançado do ChatGPT chamado GPT-4o durante o evento ao vivo OpenAI Spring Update na noite de segunda-feira. O novo GPT-4o é mais rápido do que o GPT-4 e pode processar simultaneamente texto, áudio e imagens – ele basicamente pode “ver” através da câmera de um dispositivo.
Durante a transmissão ao vivo de 26 minutos, a equipe da OpenAI mostrou em tempo real os novos recursos e capacidades do novo modelo. Eles também compartilharam detalhes sobre as próximas atualizações das versões anteriores, como o novo aplicativo para desktop.
“A grande novidade de hoje é o lançamento de nosso novo modelo principal, chamado ChatGPT-4o”, disse Mira Murati, diretora de tecnologia da OpenAI.
Murati explicou que o novo modelo e os novos recursos das versões anteriores estarão disponíveis em breve gratuitamente e para todos, inclusive para usuários não registrados. “Lançaremos o modelo nas próximas semanas”, disse Murati.
Durante a primeira demonstração, a equipe da OpenAI mostrou como o GPT-4o pode manter conversas usando uma voz feminina, ser interrompido, responder de forma rápida e criativa, com senso de humor, e até mesmo reconhecer emoções e dar conselhos.
Posteriormente, a equipe apresentou diferentes cenários em que o GPT-4o pode ser usado. Mostraram como aproveitar o recurso de “visão” para ajudar a resolver equações lineares escritas em papel, entender códigos e gráficos compartilhando a tela por meio da versão desktop e auxiliar em traduções simultâneas em conversas reais. O GPT-4o pode falar em vários idiomas e em diferentes tons e estilos de voz.
Por fim, os especialistas mostraram como o modelo pode reconhecer emoções humanas e cometer erros. Durante as demonstrações, o GPT-4o apresentou algumas falhas, confundindo um dos apresentadores com uma imagem de madeira e acreditando que o problema de matemática já havia sido resolvido quando o membro da equipe ainda não havia mostrado nada.
Mas o GPT-4o rapidamente pediu desculpas e encantou o público com suas respostas. “Oh, pare com isso, você está me fazendo corar!”, respondeu quando um dos líderes da pesquisa, Barret Zoph, disse ao GPT-4o o quanto ele o admirava.
Resposta ao GPT-4o
A OpenAI compartilhou vários vídeos curtos no X para demonstrar as diferentes funções do novo modelo GPT-4o.
Várias pessoas no X o associaram ao filme Her, em que o protagonista Theodore Twombly, interpretado por Joaquin Phoenix, se apaixona por uma assistente virtual de IA dublada por Scarlett Johanson. “Isso é uma loucura, quando vi esses clipes, lembrei-me imediatamente desse filme!” comentou um usuário. “Esta é literalmente a Scarlett Johansson. Como?!”, escreveu outro.
Embora a maioria dos usuários tenha ficado impressionada com os novos recursos, outros compartilharam algumas críticas e preocupações. “Cara @openai, sua demonstração foi impressionante e assustadora, mas o sotaque italiano foi terrível :)”, postou Massimo Banzi, cofundador do projeto Arduino de automação robótica.
“Realmente excelente, mas eu diria que vocês podem perder muitos usuários pagos se apenas o limite máximo for diferente da versão gratuita”, disse outro usuário.
Nos próximos dias, o novo modelo e as atualizações estarão disponíveis para que mais pessoas possam testar e experimentar a tecnologia em primeira mão.
Deixe um comentário
Cancelar