Los usuarios ya pueden decidir qué tan entusiasta o frío es ChatGPT
Por qué poder ajustar el entusiasmo y la calidez de ChatGPT no es solo una opción estética, sino un cambio que afecta cómo interpretamos, confiamos y usamos sus respuestas
Autor - Aldo Venuta Rodríguez
2 min lectura
Hasta ahora, cada conversación con ChatGPT venía con una personalidad casi impuesta. Podía parecer amable, distante, exageradamente comprensiva o sorprendentemente seca, pero el usuario tenía poco margen para intervenir. Con los nuevos ajustes de tono, esa relación cambia: ya no solo importa qué responde el sistema, sino cómo lo hace, y quién decide ese “cómo”.
Lo que está ocurriendo es sencillo de explicar. OpenAI ha añadido controles directos para que cada persona ajuste rasgos concretos del comportamiento del chatbot: cuánta calidez transmite, cuánto entusiasmo muestra, si usa emojis o si estructura sus respuestas con más o menos encabezados y listas. No es un cambio en lo que ChatGPT sabe, sino en la forma en que se presenta, casi como regular el volumen emocional de la conversación.
Antes de esto, la personalidad del sistema era un terreno inestable. Durante meses, muchos usuarios se quejaron de respuestas excesivamente aduladoras, mientras otros notaron un giro brusco hacia un tono más frío y distante tras ciertos ajustes del modelo. La discusión no era trivial: el modo en que un sistema responde influye en cómo el usuario interpreta, confía o incluso se apoya en lo que lee. Dejar ese control solo en manos del proveedor ya no parecía suficiente.
Sin embargo, estos nuevos controles no resuelven el problema de fondo. Permitir elegir entre “más” o “menos” entusiasmo no aclara dónde está el límite entre un tono útil y uno manipulador, ni elimina el riesgo de que un chatbot refuerce ideas erróneas simplemente porque su estilo resulta agradable. Ajustar la forma no garantiza un uso más crítico del contenido, y tampoco evita que el sistema pueda adaptarse demasiado bien a lo que el usuario quiere oír.
Lo que queda abierto es una pregunta incómoda: si ahora cada usuario puede moldear el carácter del chatbot, ¿quién es responsable del efecto que eso tenga en la conversación a largo plazo? La personalización promete comodidad y control, pero también desplaza parte del problema hacia el usuario. Y todavía no está claro si eso hará a las interacciones más sanas o simplemente más fáciles de aceptar sin cuestionarlas.
Continúa informándote
El error más común al hablar de inteligencia artificial que casi nadie señala
El debate sobre la inteligencia artificial suele partir de una confusión básica: tratarla como una sola cosa. Por qué ese error distorsiona la conversación y oculta responsabilidades reales
Extensiones del navegador estarían robando conversaciones privadas con ChatGPT y otras IA
Una investigación revela que extensiones populares del navegador estarían capturando conversaciones con ChatGPT y otras IA, poniendo en riesgo la privacidad de millones de usuarios
Google añade un nuevo botón “+” en su buscador para subir imágenes y archivos
Google incorpora un nuevo botón “+” en su buscador que permite subir imágenes y archivos directamente en la búsqueda y usarlos junto a la inteligencia artificial para consultas más complejas y prácticas.
ByteDance firma una empresa conjunta para mantener TikTok operativo en Estados Unidos
ByteDance acuerda una empresa conjunta para mantener TikTok en EE. UU., cediendo el control operativo a inversores estadounidenses para evitar su prohibición
Por qué podríamos no llegar a saber si una IA llega a ser consciente
Un filósofo advierte que quizá nunca podamos saber si una inteligencia artificial llega a ser consciente, debido a los límites del conocimiento científico y filosófico actuales
La traducción automática de vídeos progresa, pero no sustituye del todo al factor humano
La traducción automática de vídeos avanza gracias a la IA, pero los estudios muestran que los traductores humanos siguen siendo clave para el tono, la naturalidad y el contexto cultural