Tecnología
Publicado:

OpenAI y Google reconocen un problema creciente: modelos recientes de IA generan alucinaciones graves

Modelos avanzados de IA presentan más alucinaciones que sus versiones previas. Un fenómeno creciente que plantea riesgos para la confianza tecnológica

3 min lectura
Alucinaciones inteligencia artificial
Las alucinaciones de la inteligencia artificial representan un desafío creciente para la fiabilidad de los modelos de lenguaje actuales. Imagen conceptual.

Los modelos de inteligencia artificial (IA) más recientes, diseñados para razonar mejor y generar respuestas más precisas, están mostrando una preocupante tendencia: alucinan más que sus predecesores. Así lo advierten expertos del sector y lo confirma un informe técnico de OpenAI que compara las tasas de error de sus modelos o1, o3 y o4-mini, los dos últimos lanzados en abril de 2025.

Las alucinaciones de IA son respuestas erróneas, engañosas o irrelevantes que un modelo genera al no comprender con exactitud la pregunta, los datos o el contexto. Aunque algunas pueden parecer plausibles, en realidad distorsionan la información, lo que supone un riesgo si se utilizan en ámbitos críticos como diagnósticos médicos, seguridad financiera o decisiones políticas.

Según OpenAI, el modelo o1 presentaba una tasa de alucinaciones del 16 % al resumir datos sobre personas. En cambio, el o3 falló el 33 % de las veces y el o4-mini, un sorprendente 48 %. En lugar de mejorar, los nuevos modelos muestran mayores errores, lo que ha encendido alarmas sobre su fiabilidad y uso en aplicaciones masivas.

Google también reconoce esta problemática. Señala que las alucinaciones pueden deberse a datos de entrenamiento incompletos, sesgados o poco representativos. Un modelo mal entrenado podría, por ejemplo, confundir tejido sano con cáncer o inventar detalles en un resumen de noticias que no figuran en el texto original.

Los expertos de Google identifican otra causa clave: la falta de “fundamentación” del modelo, es decir, su capacidad para basar sus respuestas en conocimientos reales o verificables. Esta deficiencia puede llevar a generar información inventada o enlaces ficticios, lo que mina la confianza del usuario y expone a empresas y gobiernos a consecuencias graves.

Frente a este desafío, la industria propone varias soluciones: limitar los resultados posibles mediante regularización, entrenar modelos solo con datos específicos y relevantes, crear plantillas estructuradas para las respuestas, y ofrecer retroalimentación continua para mejorar la generación de contenido.

Aunque estos esfuerzos buscan reducir el impacto de las alucinaciones, la conclusión es clara: el problema está lejos de resolverse. Las plataformas que integran IA generativa deben ser conscientes de sus limitaciones y actuar con transparencia frente a los usuarios, especialmente en contextos de alto riesgo.

“Es probable que las alucinaciones no desaparezcan del todo”, advierte el artículo de New Scientist. En lugar de eliminarlas, el objetivo actual parece ser aprender a convivir con ellas, mitigarlas y construir entornos de IA más seguros, responsables y auditables.

Referencias: OpenAI, Google

Preguntas frecuentes

¿Qué son las alucinaciones de la inteligencia artificial?

Son errores en los que la IA genera contenido falso, irrelevante o incorrecto, aunque parezca creíble.

¿Por qué los nuevos modelos de IA tienen más alucinaciones?

Por problemas en los datos de entrenamiento y dificultades para fundamentar respuestas en hechos reales.

¿Qué consecuencias pueden tener estas alucinaciones?

Pueden afectar decisiones médicas, legales o financieras, generando riesgos graves para los usuarios.

¿Qué soluciones se están aplicando?

Entrenar con datos relevantes, limitar resultados, crear plantillas y ofrecer retroalimentación constante.

Compartir artículo

Continúa informándote