
Tecnologia será capaz de detectar emoções dos usuários, interagir com textos, voz e documentos
A OpenAI anunciou nesta segunda-feira (13) seu mais recente modelo de linguagem artificial de grande porte, que, segundo eles, será mais fácil e intuitivo de usar. Chamado GPT-4o, é uma atualização do modelo anterior da empresa, o GPT-4, que foi lançado há pouco mais de um ano. O modelo estará disponível para clientes não pagantes, o que significa que qualquer pessoa terá o à tecnologia mais avançada da OpenAI através do ChatGPT.
O GPT-4o permitirá interações usando texto, voz e a “visão”, o que significa que ele pode visualizar capturas de tela, fotos, documentos ou gráficos enviados pelos usuários e conversar sobre eles. De acordo com as últimas informações noticiadas pela CNN, a Diretora de Tecnologia da OpenAI, Mira Murati, disse que o ChatGPT agora também terá capacidades de memória, o que significa que ele pode aprender com conversas anteriores com os usuários e pode fazer tradução em tempo real.
“Esta é a primeira vez que realmente estamos dando um grande o adiante se tratando de facilidade de uso”, disse Murati durante uma demonstração ao vivo na sede da empresa em São Francisco. “Esta interação se torna muito mais natural e muito, muito mais fácil.”
O novo lançamento ocorre enquanto a OpenAI busca manter-se à frente da crescente concorrência na corrida armamentista de IA. Rivais como Google e Meta têm trabalhado para construir modelos de linguagem de grande porte cada vez mais poderosos que podem ser usados para trazer ferramentas de IA para seus diversos produtos.
Enquanto isso, o mais recente lançamento do GPT pode ser uma vantagem para a Microsoft, que investiu bilhões de dólares na OpenAI para incorporar sua tecnologia de IA nos próprios produtos da empresa.
Executivos da OpenAI demonstraram uma conversa falada com o ChatGPT para obter instruções em tempo real para resolver um problema de matemática, contar uma história de dormir e obter conselhos de programação. A ferramenta foi capaz de falar com uma voz natural, semelhante à humana, bem como uma voz de robô — e até cantou parte de uma resposta. O chatbot também foi capaz de olhar para uma imagem de um gráfico e discuti-la.
Eles também mostraram o modelo detectando as emoções dos usuários: em uma instância, ele ouviu a respiração do executivo e o encorajou a se acalmar. E foi capaz de ter uma conversa em vários idiomas, traduzindo e respondendo automaticamente.
Murati disse que a OpenAI lançará um aplicativo desktop do ChatGPT com as capacidades do GPT-4o, dando aos usuários outra plataforma para interagir com a tecnologia da empresa.
As tecnologias e recursos atualizados estão programados para serem lançados para o ChatGPT nos próximos meses.
Por: Clare Duffy