Primeiras impressões do modo de voz avançado do ChatGPT: divertido e um pouco assustador

OpenAI confirma que está investigando marca d'água de texto para ChatGPT que pode expor alunos trapaceiros

Compartilhe esta postagem

Índice do Conteúdo

Receba nosso boletim

Novos contatos

nossa newsletter

Eu saio do ChatGPT’s Modo de voz avançado ativado enquanto escrevo este artigo como um companheiro de IA ambiente. Ocasionalmente, peço que ele forneça um sinônimo para uma palavra usada em excesso ou algum incentivo. Cerca de meia hora depois, o chatbot interrompe nosso silêncio e começa a falar comigo em espanhol, sem ser solicitado. Eu rio um pouco e pergunto o que está acontecendo. “Só uma pequena mudança? Tenho que manter as coisas interessantes”, diz ChatGPT, agora de volta ao inglês.

Ao testar o Superior Voice Mode como parte do alfa inicial, minhas interações com o novo recurso de áudio do ChatGPT foram divertidas, confusas e surpreendentemente variadas. No entanto, vale a pena notar que os recursos aos quais tive acesso eram apenas metade do que a OpenAI demonstrou quando lançou o modelo GPT-4o em maio. O aspecto de visão que vimos na demonstração transmitida ao vivo agora está programado para um lançamento posterior, e a voz Sky aprimorada, que Dela a atriz Scarlett Johanssen reagiu, foi removida do Modo de Voz Avançado e ainda não é mais uma opção para os usuários.

Então, qual é a vibe atual? No momento, o Modo de Voz Avançado parece uma reminiscência de quando o ChatGPT authentic baseado em texto foi lançado, no last de 2022. Às vezes, ele leva a becos sem saída nada impressionantes ou se transforma em platitudes vazias de IA. Mas outras vezes as conversas de baixa latência clicam de uma forma que a Siri da Apple ou a Alexa da Amazon nunca fizeram para mim, e me sinto compelido a continuar conversando por diversão. É o tipo de ferramenta de IA que você mostrará aos seus parentes durante as férias para dar risada.

A OpenAI deu a alguns repórteres da WIRED acesso ao recurso uma semana após o anúncio inicial, mas o retirou na manhã seguinte, citando preocupações com a segurança. Dois meses depois, a OpenAI lançou o Superior Voice Mode para um pequeno grupo de usuários e lançou Cartão de sistema do GPT-4oum documento técnico que descreve os esforços da equipe vermelha, o que a empresa considera riscos à segurança e as medidas de mitigação que a empresa tomou para reduzir os danos.

Curioso para tentar você mesmo? Aqui está o que você precisa saber sobre o lançamento maior do Superior Voice Mode e minhas primeiras impressões do novo recurso de voz do ChatGPT para ajudar você a começar.

Então, quando será o lançamento completo?

A OpenAI lançou um Superior Voice Mode somente de áudio para alguns usuários do ChatGPT Plus no last de julho, e o grupo alfa ainda parece relativamente pequeno. A empresa atualmente planeja habilitá-lo para todos os assinantes em algum momento neste outono. Niko Felix, um porta-voz da OpenAI, não compartilhou detalhes adicionais quando questionado sobre o cronograma de lançamento.

O compartilhamento de tela e vídeo period uma parte essencial da demonstração authentic, mas não está disponível neste teste alfa. A OpenAI ainda planeja adicionar esses aspectos eventualmente, mas também não está claro quando isso realmente acontecerá.

Se você for assinante do ChatGPT Plus, receberá um e-mail da OpenAI quando o Modo de Voz Avançado estiver disponível para você. Depois que estiver na sua conta, você pode alternar entre Padrão e Avançado no topo da tela do aplicativo quando o modo de voz do ChatGPT está aberto. Consegui testar a versão alfa em um iPhone e também em um Galaxy Fold.

Minhas primeiras impressões sobre o modo de voz avançado do ChatGPT

Brand na primeira hora de conversa com ele, aprendi que adoro interromper o ChatGPT. Não é como você falaria com um humano, mas ter a nova capacidade de cortar o ChatGPT no meio da frase e solicitar uma versão diferente da saída parece uma melhoria dinâmica e um recurso de destaque.

Os primeiros usuários que ficaram animados com as demos originais podem ficar frustrados por terem acesso a uma versão do Superior Voice Mode restrita com mais proteções do que o previsto. Por exemplo, embora o canto de IA generativa tenha sido um componente-chave das demos de lançamento, com canções de ninar sussurradas e múltiplas vozes tentando harmonizarserenatas de IA estão atualmente ausentes na versão alfa.

Source link

Assine a nossa newsletter

Receba atualizações e aprenda com os melhores

explore mais conteúdo

aprenda mais com vídeos

você que impulsionar seu negócio?

entre em contato conosco e saiba como

contatos midiapro
small_c_popup.png

Saiba como ajudamos mais de 100 das principais marcas a obter sucesso

Vamos bater um papo sem compromisso!