OpenAI y Google reconocen un problema creciente: modelos recientes de IA generan alucinaciones graves

Modelos avanzados de IA presentan más alucinaciones que sus versiones previas. Un fenómeno creciente que plantea riesgos para la confianza tecnológica.

Modelos avanzados de IA presentan más alucinaciones que sus versiones previas. Un fenómeno creciente que plantea riesgos para la confianza tecnológica.

3 min lectura

Autor - Aldo Venuta Rodríguez

Alucinaciones inteligencia artificial
Las alucinaciones de la inteligencia artificial representan un desafío creciente para la fiabilidad de los modelos de lenguaje actuales. Imagen conceptual.

Los modelos de inteligencia artificial (IA) más recientes, diseñados para razonar mejor y generar respuestas más precisas, están mostrando una preocupante tendencia: alucinan más que sus predecesores. Así lo advierten expertos del sector y lo confirma un informe técnico de OpenAI que compara las tasas de error de sus modelos o1, o3 y o4-mini, los dos últimos lanzados en abril de 2025.

Las alucinaciones de IA son respuestas erróneas, engañosas o irrelevantes que un modelo genera al no comprender con exactitud la pregunta, los datos o el contexto. Aunque algunas pueden parecer plausibles, en realidad distorsionan la información, lo que supone un riesgo si se utilizan en ámbitos críticos como diagnósticos médicos, seguridad financiera o decisiones políticas.

Según OpenAI, el modelo o1 presentaba una tasa de alucinaciones del 16 % al resumir datos sobre personas. En cambio, el o3 falló el 33 % de las veces y el o4-mini, un sorprendente 48 %. En lugar de mejorar, los nuevos modelos muestran mayores errores, lo que ha encendido alarmas sobre su fiabilidad y uso en aplicaciones masivas.

Google también reconoce esta problemática. Señala que las alucinaciones pueden deberse a datos de entrenamiento incompletos, sesgados o poco representativos. Un modelo mal entrenado podría, por ejemplo, confundir tejido sano con cáncer o inventar detalles en un resumen de noticias que no figuran en el texto original.

Los expertos de Google identifican otra causa clave: la falta de “fundamentación” del modelo, es decir, su capacidad para basar sus respuestas en conocimientos reales o verificables. Esta deficiencia puede llevar a generar información inventada o enlaces ficticios, lo que mina la confianza del usuario y expone a empresas y gobiernos a consecuencias graves.

Frente a este desafío, la industria propone varias soluciones: limitar los resultados posibles mediante regularización, entrenar modelos solo con datos específicos y relevantes, crear plantillas estructuradas para las respuestas, y ofrecer retroalimentación continua para mejorar la generación de contenido.

Aunque estos esfuerzos buscan reducir el impacto de las alucinaciones, la conclusión es clara: el problema está lejos de resolverse. Las plataformas que integran IA generativa deben ser conscientes de sus limitaciones y actuar con transparencia frente a los usuarios, especialmente en contextos de alto riesgo.

“Es probable que las alucinaciones no desaparezcan del todo”, advierte el artículo de New Scientist. En lugar de eliminarlas, el objetivo actual parece ser aprender a convivir con ellas, mitigarlas y construir entornos de IA más seguros, responsables y auditables.

Referencias: OpenAI, Google

No hemos podido validar su suscripción.
Se ha realizado su suscripción.

Recibe el boletín de Iceebook

Las noticias más importantes del planeta, ciencia, espacio y tecnología, directamente en tu bandeja de entrada. Sin ruido, solo lo esencial.

Preguntas frecuentes

💬 Son errores en los que la IA genera contenido falso, irrelevante o incorrecto, aunque parezca creíble.
💬 Por problemas en los datos de entrenamiento y dificultades para fundamentar respuestas en hechos reales.
💬 Pueden afectar decisiones médicas, legales o financieras, generando riesgos graves para los usuarios.
💬 Entrenar con datos relevantes, limitar resultados, crear plantillas y ofrecer retroalimentación constante.

Continúa informándote

Paisaje costero antiguo
Planeta Tierra

La anomalía geológica que hizo retroceder el mar 30 metros y transformó el planeta

Una anomalía geológica redujo la producción de corteza oceánica y provocó un descenso del nivel del mar de 30 metros hace millones de años

Afiche del foro Exposome Moonshot 2025
Ciencia

Científicos de todo el mundo se reúnen para trazar el mapa de lo que realmente enferma al cuerpo humano

El Exposome Moonshot arranca en Washington con más de 500 líderes globales para trazar la hoja de ruta del Proyecto Exposoma Humano

Pirámide de Giza
El Mundo

La Gran Pirámide de Giza revela un secreto estructural: su geometría oculta explica su durabilidad milenaria

Un estudio revela que la Gran Pirámide de Giza tiene ocho caras, no cuatro, gracias a una concavidad geométrica que refuerza su estructura

Mineral de plomo
Ciencia

Exposición al plomo en las comunidades mineras de Nigeria: un grave problema de salud pública

Estudio revela que la minería informal de plomo en Nigeria genera exposiciones peligrosas al plomo, afectando la salud de las comunidades locales

Marte captada por la cámara de Europa Clipper
Espacio

Europa Clipper de la NASA capta Marte en infrarrojo durante su camino a Júpiter

La sonda Europa Clipper de la NASA aprovecha su sobrevuelo de Marte para capturar imágenes infrarrojas que ayudarán a calibrar sus instrumentos para la misión a Júpiter

Auroras de Júpiter Telescopio Webb
Espacio

El Telescopio Webb de la NASA captura detalles nunca antes vistos sobre la aurora de Júpiter

El Telescopio Webb capta nuevas imágenes de las auroras en Júpiter, revelando una intensa luz y variabilidad energética que desafía lo conocido sobre su campo magnético

Entrelazamiento cuántico
Espacio

El entrelazamiento cuántico podría reescribir la gravedad y el tejido del espacio-tiempo

Un estudio sugiere que la gravedad puede surgir de la información cuántica codificada en el entrelazamiento, reformulando las ecuaciones de Einstein

Paisaje árido con colinas en Oregón
El Mundo

Estados Unidos descubre uno de los mayores depósitos de litio del mundo, valorado en miles de millones de dólares

El hallazgo de litio en la McDermitt Caldera podría transformar la economía energética de EE.UU., pero enfrenta una fuerte oposición ambiental e indígena

Obsidiana frente al Templo Mayor
El Mundo

El análisis de 788 artefactos revela una sofisticada red comercial azteca basada en la obsidiana

Estudio en PNAS muestra que los aztecas obtenían obsidiana desde al menos ocho regiones, incluso más allá de sus fronteras imperiales

Escaneo láser de dunas en Namibia
Planeta Tierra

Un estudio revela cómo se forman las mini dunas de arena en la Tierra y posiblemente en Marte

Investigadores de Southampton descubren cómo se originan las protodunas, pequeñas formaciones de arena que podrían explicar procesos similares en Marte