OpenAI ha retrasado la llegada del modo de voz avanzado que introduce el modelo de lenguaje GPT-4o en el chatbot, y que habilita una conversación más natural, con "emociones y señales no verbales", para asegurarse de que cumplen los "altos estándares de seguridad y fiabilidad".
GPT-4o, presentado en mayo, se diseñó para ofrecer una interacción entre la persona y la máquina "más natural", ya que tiene la capacidad de comprender una combinación de entradas de texto, audio e imagen y generar respuestas en la misma medida con gran velocidad.
Incluye, además, un 'Modo voz' avanzado, que permite elegir entre una serie de voces para personalizar la interacción con el chatbot. Precisamente, una característica que ha generado polémica y ha llegado a la retirada de la voz Sky por parecerse a la de la actriz Scarlett Johansson, quien ya puso voz a un asistente de inteligencia artificial en la película 'Her', de 2013.
Este modo iba a probarse con un pequeño grupo de usuarios en julio, pero OpenAI ha decidido retrasar su inicio, porque necesitan "un mes mas" para alcanzar el estándar que se han marcado, como han informado a través de un comunicado publicado en X (antigua Twitter).
We're sharing an update on the advanced Voice Mode we demoed during our Spring Update, which we remain very excited about:
— OpenAI (@OpenAI) June 25, 2024
We had planned to start rolling this out in alpha to a small group of ChatGPT Plus users in late June, but need one more month to reach our bar to launch.…
En este tiempo, mejorarán la capacidad del modelo para detectar y rechazar contenido no apropiado y para mejorar la experiencia de usuario. También trabajarán en la infraestructura que respaldará su uso a gran escala y en tiempo real.
La hoja de ruta contempla el lanzamiento de este modo de voz en otoño para los usuarios de la suscripción Plus, aunque puede cambiar. Adicionalmente, esperan incorporar nuevas capacidades de vídeo y uso compartido de pantalla.
"El modo de voz avanzado de ChatGPT puede comprender y responder con emociones y señales no verbales, acercándonos a conversaciones naturales en tiempo real con IA", aseguran desde OpenAI. Por ello, dicen, los plazos en los que está disponible dependerán de cumpla sus "altos estándares de seguridad y fiabilidad".