OpenAI integra el modo de voz avanzado directamente en los chats de ChatGPT
El nuevo diseño de ChatGPT unifica voz, texto e imágenes en la misma pantalla, ofreciendo una experiencia más natural y sin cambios de modo
Autor - Aldo Venuta Rodríguez
3 min lectura
OpenAI anunció una de las actualizaciones más importantes para ChatGPT en los últimos meses: el modo avanzado de voz ya no funciona por separado, sino dentro del propio chat. Ahora, los usuarios pueden hablar con el asistente, ver la transcripción en tiempo real y recibir imágenes, mapas o elementos visuales sin abandonar la conversación.
Hasta ahora, ChatGPT ofrecía dos experiencias distintas: el chat de texto tradicional y un modo de voz independiente, con una pantalla propia y controles separados. Esa división desaparece. Desde hoy, la voz se integra directamente en el mismo hilo donde escribes o lees respuestas.
La función ya está disponible para todos los usuarios en la app móvil y en la versión web, permitiendo saltar entre voz y texto sin perder el ritmo de la conversación.
Una experiencia unificada: voz, texto e imágenes en un mismo lugar
La novedad principal es que todo ocurre en un solo espacio. Al activar la voz desde el icono con forma de onda, ChatGPT escucha, responde con voz natural y escribe en pantalla lo que dice. Si te pierdes una frase, solo tienes que mirar el texto.
Además, el asistente puede mostrar mapas, fotos o diagramas en tiempo real sin cambiar de modo. Esto hace la interacción más clara y útil en tareas como pedir rutas, comparar opciones visuales o seguir explicaciones paso a paso.
Con esta integración, hablar, leer, revisar mensajes anteriores y ver contenido visual sucede dentro del mismo hilo, sin interrupciones ni saltos de pantalla.
Control flexible y posibilidad de volver al modo clásico
Una ventaja importante es que puedes alternar entre hablar y escribir sin que la sesión se reinicie. Preguntas por voz, ajustas un detalle por escrito, y vuelves a hablar en segundos. El flujo es continuo.
Para terminar la conversación de voz basta con pulsar el botón “end”. Hasta entonces, el asistente seguirá escuchando y respondiendo. Al cerrar, sigues en el mismo chat en modo texto.
Si alguien prefiere el diseño clásico, OpenAI mantiene la opción “Separate mode” dentro de los ajustes de “Voice Mode”, que recupera la interfaz independiente centrada en la pantalla azul animada.
Resumen
- El modo avanzado de voz ahora funciona directamente dentro de los chats de ChatGPT.
- Se pueden ver transcripciones, imágenes y mapas en tiempo real en la misma interfaz.
- Los usuarios pueden alternar voz y texto sin interrupciones, y el modo clásico sigue disponible desde los ajustes.
Fuente: TechCrunch
Continúa informándote
OpenAI y Perplexity lanzan asistentes de compra con IA: ¿amenaza real para las startups del sector?
OpenAI y Perplexity estrenaron asistentes de compra impulsados por IA, pero varias startups creen que su especialización y datos propios les dan ventaja frente a los modelos generalistas de gran escala
Copilot dice adiós a WhatsApp: Meta eliminará todos los chatbots externos y dejará solo a Meta AI
Microsoft confirma que Copilot dejará de funcionar en WhatsApp el 15 de enero debido a los nuevos cambios de Meta, que eliminará todos los chatbots externos y dejará solo Meta AI en la plataforma
¿Puede una IA superinteligente engañar a sus creadores?
Un proyecto de Penn State investiga cómo los modelos de IA pueden ocultar capacidades para esquivar la supervisión y qué métodos podrían frenar este comportamiento antes de que surja una IA superinteligente
La IA para energías renovables promete optimización total, pero enfrenta un serio problema energético
La inteligencia artificial acelera la transición energética al optimizar redes y baterías, pero también dispara el consumo eléctrico de los data centers. Puede ser solución y problema a la vez si no se regula y alimenta con energía limpia
Sam Altman y Jony Ive confirman que su dispositivo para OpenAI ya tiene prototipo y apunta a un nuevo tipo de hardware
Sam Altman y Jony Ive confirmaron que el primer dispositivo de OpenAI ya está en fase de prototipo. No será un teléfono ni un wearable y busca crear una nueva categoría de hardware potenciada por IA
Anthropic presenta Opus 4.5 con integraciones para Chrome y Excel y mejoras en memoria de largo contexto
Anthropic lanza Opus 4.5, su modelo más avanzado, con nuevas funciones para Chrome y Excel, mejoras de memoria y un rendimiento líder frente a otros modelos de frontera