ChatGPT ahora habla como una persona: descubre el nuevo modo de voz avanzado

En mayo de 2024, OpenAI presentó su innovador modelo de inteligencia artificial, GPT-4o, una versión multimodal que integra capacidades avanzadas para procesar texto, visión y audio simultáneamente. Tras meses de desarrollo y varios retrasos, la compañía ha lanzado finalmente el modo de voz avanzado (AVM) para ChatGPT, permitiendo interacciones más naturales y fluidas con el chatbot.

Mejoras en la comunicación con ChatGPT

El nuevo modo de voz avanzado transforma la manera en que los usuarios interactúan con ChatGPT. A diferencia de la versión anterior, que funcionaba por turnos (el chatbot hablaba y luego escuchaba), el AVM permite una escucha constante. Esto significa que los usuarios pueden interrumpir, agregar información o ajustar sus solicitudes en tiempo real, emulando una conversación más humana y dinámica.

Además, el AVM ofrece mejoras significativas en velocidad y fluidez, así como optimizaciones para diversos acentos en varios idiomas, haciendo que las interacciones sean más naturales y accesibles para una audiencia global.

Acceso exclusivo para usuarios de pago

Actualmente, el modo de voz avanzado está disponible exclusivamente para los clientes de las versiones de pago de ChatGPT, como los planes Plus y Teams. Pronto también estará accesible para los usuarios de Enterprise y Edu. El despliegue comenzó hace meses en modo alfa para un grupo selecto de usuarios, y se espera que continúe expandiéndose en los próximos días.

Nuevas voces y diseño renovado

El AVM introduce cinco nuevas voces: Arbor, Maple, Sol, Spruce y Vale, cada una con características únicas de entonación y respuesta, adaptándose a las preferencias de los usuarios. Estas voces están diseñadas para ofrecer una experiencia auditiva más personalizada y agradable.

El diseño de la interfaz también ha sido renovado. Ahora, en lugar de los puntos negros o blancos animados que indicaban cuando ChatGPT escuchaba, se ha incorporado una esfera azul animada, mejorando la estética y la claridad visual durante las interacciones de voz.

Limitaciones y futuras actualizaciones

Aunque el AVM representa un avance significativo, aún faltan algunas características mostradas en las demostraciones iniciales. Por ejemplo, la función de compartir pantalla y video en tiempo real, que permitiría a ChatGPT procesar información visual y audible de manera integrada, todavía no está disponible. OpenAI no ha anunciado un cronograma para la implementación de estas funciones adicionales.

Disponibilidad global y restricciones

El modo de voz avanzado está siendo desplegado en varios países, probablemente incluyendo México, ya que las suscripciones Plus, Team y Enterprise están disponibles en el país. Sin embargo, OpenAI ha señalado que el AVM no está disponible en varias regiones, incluyendo la Unión Europea, Reino Unido, Suiza, Islandia, Noruega y Liechtenstein, debido a diversas regulaciones y consideraciones legales.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *