O modelo apresentado pela OpenAI consegue interagir com vídeos, áudios, imagens e textos simultaneamente
Por Misto Brasil – DF
A OpenAI anunciou no dia 13 de maio, lançamento do GPT-4o, a mais nova versão do modelo de IA usado pelo ChatGPT. Esta atualização traz uma série de melhorias que têm o potencial de transformar a forma como os profissionais de todos os setores da economia trabalham — incluindo os criativos.
Com uma interação mais “humana” e dinâmica, a nova versão foi comparada ao modelo de IA representado no filme longa de ficção científica HER (2013). O personagem vivido por Joaquin Phoenix se apaixona pela assistente virtual.
O modelo apresentado pela OpenAI consegue interagir com vídeos, áudios, imagens e textos simultaneamente, se aproximando cada vez mais das trocas entre humanos.
Segundo o CEO e founder da EPICdigitais, Luiz Guilherme Guedes, o avanço da IA em todos os setores da economia não é uma surpresa e nem deveria gerar tanto medo.
“A cada marco que a tecnologia alcança, toda a estrutura da sociedade é obrigada a melhorar para acompanhar seu processo”. Veja os quatro pontos do novo GPT apontados por Guedes.
Quatro principais novidades do ChatGPT 4.o
Disponibilidade: o GPT-4o está disponível para todos os usuários, inclusive os que estão na versão gratuita — diferentemente da versão anterior, disponível apenas para assinantes.
Significa que mais pessoas poderão experimentar a IA, democratizando o acesso à ferramenta.
Capacidade multimodal: a nova versão da ferramenta pode processar tanto texto quanto imagens, permitindo uma compreensão mais rica e detalhada dos contextos em que é utilizado.
Isso significa que ele pode analisar e responder a perguntas baseadas em imagens, como descrever o conteúdo de uma foto ou interpretar gráficos, além de permitir interações mais dinâmicas.
Aplicativo do ChatGPT: a OpenAI também anunciou um aplicativo do ChatGPT para computador, que se junta à versão para navegadores e o aplicativo para Android e iOS.
O app foi projetado para se integrar ao seu computador, podendo ser acessado com um simples atalho de teclado (Opção + Espaço), que irá acionar o comando de voz. Também é possível tirar e discutir capturas de tela diretamente no aplicativo.
Melhor compreensão e velocidade: o GPT-4o é mais rápido e tem mais capacidade para entender textos, imagens e áudios. Segundo a empresa, a nova versão leva, em média, 320 milissegundos para responder comandos de áudio — contra os 5,4 segundos de seu antecessor.

