A OpenAI revelou, nesta segunda-feira, 13, o novo cérebro do ChatGPT: o GPT-4o. Em uma demonstração que aproxima sua ferramenta do filme Her, a companhia mostrou avanços sobre o GPT-4 turbo. A ferramenta ampliou sua capacidade de processamento de texto, compreensão de imagens e consegue manter suporte para conversas com voz.
Mira Muratti, chefe de tecnologia da OpenAI, realizou demonstrações que indicam a capacidade do ChatGPT em lidar com imagens e voz. Além disso, a companhia anunciou melhorias para outros 50 idiomas. Todos os usuários da OpenAI, incluindo não assinantes do plano ChatGPT Plus, poderão acessar gratuitamente a nova IA.
Disponibilidade e vantagens do GPT-4o
Muratti anunciou que o GPT-4o também estará disponível como API, de maneira a permitir que desenvolvedores e empresas, sob uma assinatura, consigam “puxar” o ChatGPT para seus serviços e integrar o modelo de inteligência artificial em diferentes produtos. Segundo a companhia, o GPT-4o é duas vezes mais rápido, 50% mais barato e tem capacidade cinco vezes maior.
Além disso, a OpenAI está prestes a lançar um novo aplicativo do ChatGPT para Mac, computador da Apple. A empresa afirma que será mais fácil integrar o chatbot a tarefas de produtividade do usuário. Sam Altman, CEO da OpenAI, comentou as novidades no Twitter/X.
our new model: GPT-4o, is our best model ever. it is smart, it is fast,it is natively multimodal (!), and…
— Sam Altman (@sama) May 13, 2024
Concorrência com o Google
A transmissão ocorre um dia antes de o Google realizar o seu principal evento do ano, o Google I/O, que também deve trazer novidades importantes na área. Especialistas esperam que a companhia demonstre a capacidade da IA Gemini como um assistente pessoal.
O evento da OpenAI
O evento da OpenAI mostrou como funcionam as capacidades de multimodalidade do ChatGPT-4o. O modelo consegue ser um assistente de voz, similar à Alexa (da Amazon) e à Siri (da Apple), e consegue ler imagens do mundo real a partir da câmera de um smartphone — como o Google já implementou no Android. A principal diferença para os rivais é que se trata de um único modelo capaz de realizar isso tudo.
Na demonstração, a IA consegue contar histórias com diferentes entonações na voz, como algo emocionado ou totalmente robótico. Além disso, com a câmera do celular, a IA ajuda a resolver equações matemáticas de primeiro grau escritas em uma folha de papel ou, ainda, atuar como um tradutor em tempo real de uma conversa.
Segundo a OpenAI, essas funções vão chegar aos usuários nas próximas semanas.
Fonte: revistaoeste