Modo de Voz Avançado do ChatGPT Pronto para Ganhar Capacidades Visuais em Breve

Modo de Voz Avançado do ChatGPT Pronto para Ganhar Capacidades Visuais em Breve

O modo de voz avançado do ChatGPT, que permite aos usuários conversar com o chatbot em tempo real, poderá em breve ganhar o dom da visão, de acordo com o código descoberto na versão beta mais recente da plataforma. Embora a OpenAI ainda não tenha confirmado o lançamento específico do novo recurso, o código na versão beta do ChatGPT v1.2024.317 foi detectado por Autoridade Android sugere que a chamada “câmera ao vivo” pode ser iminente.

A OpenAI mostrou pela primeira vez os recursos de visão do Advanced Voice Mode para ChatGPT em maio, quando o recurso foi lançado pela primeira vez em alfa. Durante uma demonstração postada na época, o sistema foi capaz de identificar que estava olhando para um cachorro através da câmera do telefone, identificar o cachorro com base em interações anteriores, reconhecer a bola do cachorro e associar a relação do cachorro com a bola (ou seja, jogando buscar).

O recurso também foi um sucesso imediato entre os testadores alfa. O usuário do X, Manuel Sainsily, empregou-o com grande efeito ao responder perguntas verbais sobre seu novo gatinho com base no vídeo da câmera.

Vídeos recomendados

Tentando #ChatGPTO novo Modo de Voz Avançado que acaba de ser lançado em Alpha. É como conversar pessoalmente com um amigo super conhecedor, o que neste caso foi muito útil – nos tranquilizando com nosso novo gatinho. Ele pode responder perguntas em tempo real e também usar a câmera como entrada! pic.twitter.com/Xx0HCAc4To

– Manuel Saisily (@ManuVision) 30 de julho de 2024

O Advanced Voice Mode foi posteriormente lançado em beta para assinantes Plus e Enterprise em setembro, embora sem seus recursos visuais adicionais. Claro, isso não impediu os usuários de testar os limites vocais do recurso. Advanced Voice, “oferece conversas mais naturais e em tempo real, permite interromper a qualquer momento e sente e responde às suas emoções”, de acordo com a empresa.

A adição de olhos digitais certamente diferenciaria o Modo de Voz Avançado dos principais concorrentes da OpenAI, Google e Meta, que nos últimos meses introduziram seus próprios recursos de conversação.

O Gemini Live pode falar mais de 40 idiomas, mas não pode ver o mundo ao seu redor (pelo menos até Projeto Astra sai do papel) – nem o Natural Voice Interactions da Meta, que estreou no evento Connect 2024 em setembro, pode usar entradas de câmera.

OpenAI também anunciou hoje esse modo Advanced Voice agora também estava disponível para contas pagas do ChatGPT Plus no desktop. Ele esteve disponível exclusivamente para dispositivos móveis por um tempo, mas agora também pode ser acessado diretamente em seu laptop ou PC.

Relacionado :  GitHub Copilot vs. ChatGPT: Qual é Melhor para Programação?

Moyens I/O Staff motivou você, dando conselhos sobre tecnologia, desenvolvimento pessoal, estilo de vida e estratégias que irão ajudá-lo.