O GPT-4 ofereceu recursos semelhantes, oferecendo aos usuários diversas maneiras de interagir com as ofertas de IA da OpenAI. Mas isolou-os em modelos separados, levando a tempos de resposta mais longos e custos de computação presumivelmente mais elevados. O GPT-4o agora fundiu essas capacidades em um único protótipo, que Murati chamou de “omnimodelo”. Isso significa respostas mais rápidas e transições mais suaves entre tarefas, disse ela.
O resultado, sugere a prova da empresa, é um assistente de conversação muito parecido com Siri ou Alexa, mas capaz de responder a solicitações muito mais complexas.
“Estamos olhando para o porvir da interação entre nós e as máquinas”, disse Murati sobre a prova. “Acreditamos que o GPT-4o está realmente mudando esse paradigma para o porvir da colaboração, onde esta interação se torna muito mais originário.”
Barret Zoph e Mark Chen, ambos pesquisadores da OpenAI, analisaram uma série de aplicações para o novo protótipo. O mais impressionante foi a facilidade com conversas ao vivo. Você poderia interromper o protótipo durante suas respostas e ele pararia, ouviria e ajustaria o curso.
OpenAI também mostrou a capacidade de mudar o tom do protótipo. Chen pediu à protótipo que lesse uma história para dormir “sobre robôs e paixão”, rapidamente exigindo uma voz mais dramática. O protótipo tornou-se progressivamente mais teatral até que Murati exigiu que ele girasse rapidamente para uma voz de robô suasório (na qual se destacava). Embora previsivelmente houvesse algumas pequenas pausas durante a conversa enquanto o protótipo raciocinava sobre o que manifestar a seguir, ela se destacou uma vez que uma conversa de IA de ritmo notavelmente originário.