

A OpenAI revelou, nesta segunda-feira (13), o novo cérebro do ChatGPT: o GPT-4o. Em uma mostra que aproxima sua utensílio do filme Ela (Spike Jonze, 2013), a companhia de lucidez sintético (IA) mostrou avanços sobre o GPT-4 turbo e ampliou a capacidade de processamento de texto e compreensão de imagens, além de manter suporte para conversas com voz.
Segundo a companhia, em relação ao atual GPT-4, o GPT-4o é duas vezes mais rápido no processamento de respostas, 50% mais barato e tem capacidade cinco vezes maior. No novo padrão, cada 1 milhão de tokens (pedacinhos de palavras) custa US$ 5 (referente a dados de ingressão), diante de US$ 10 no GPT-4 Turbo. Usuários da OpenAI, incluindo não assinantes do projecto ChatGPT Plus, poderão acessar gratuitamente a novidade IA, gradualmente, diz a startup americana.
A executiva Mira Murati, director de tecnologia da OpenAI, realizou demonstrações que indicam a capacidade do ChatGPT ao mourejar com imagens e voz. Na mostra, a IA aparentou estar não só mais inteligente, mas também mais proveniente nas respostas, com resultados menos robóticos e mais “humanos”. O chatbot também demonstrou ser capaz de ler emoções humanas.
Murati ainda afirmou que o GPT-4o também estará disponível uma vez que API (interface de emprego de programação, na {sigla} em inglês), permitindo que desenvolvedores e empresas, sob uma assinatura, consigam “retirar” o ChatGPT para seus serviços e integrar o padrão de lucidez sintético em diferentes produtos. Outrossim, a companhia anunciou melhorias para outros 50 idiomas.
A OpenAI também anunciou um novo aplicativo do ChatGPT para Mac, computador da Apple. A empresa afirma que vai ser mais fácil integrar o chatbot a tarefas do usuário.
O proclamação aconteceu a um dia de o Google realizar o seu principal evento do ano, o Google I/O, que também deve trazer novidades importantes na espaço. Especialistas esperam que a companhia demonstre a capacidade da IA Gemini uma vez que assistente pessoal.
GPT-4o é golpe para Siri e Alexa
O evento da OpenAI mostrou uma vez que funcionam as capacidades de multimodalidade do ChatGPT-4o. O padrão consegue ser um assistente de voz, similar à Alexa (da Amazon) e à Siri (da Apple), e é capaz de ler imagens do mundo real a partir da câmera de um smartphone. A principal diferença para os rivais é que se trata de um único padrão capaz de realizar isso tudo.
Na mostra, a IA consegue recontar histórias com diferentes entonações na voz, uma vez que um pouco emocionado ou totalmente robótico. Outrossim, com a câmera do celular, a IA ajuda a resolver equações matemáticas de primeiro proporção escritas em uma folha de papel ou, ainda, atuar uma vez que um tradutor em tempo real de uma conversa. Segundo a OpenAI, essas funções vão chegar aos usuários nas próximas semanas.