En la era de la inteligencia artificial, cada vez más personas recurren a herramientas como ChatGPT para aprender, resolver dudas o explorar temas nuevos. Pero un reciente estudio sugiere que esta comodidad tiene un costo, el conocimiento adquirido a través de la IA suele ser más superficial que el obtenido mediante búsquedas tradicionales en Internet.
La investigación, publicada en la revista científica PNAS Nexus, comparó cómo aprenden los usuarios cuando usan modelos de lenguaje como ChatGPT frente a quienes buscan en la web. Los resultados fueron claros, los usuarios de IA tendieron a generar respuestas más breves, menos originales y con menor nivel de detalle.
Aunque la IA puede sintetizar la información con rapidez y claridad, esa eficiencia reduce la exploración natural que ocurre al navegar por distintas fuentes, contrastar ideas o descubrir perspectivas complementarias.
El estudio: cómo la IA cambia la forma de aprender
El trabajo de los investigadores Shiri Melumad y Jin Ho Yun incluyó siete experimentos con miles de participantes que debían aprender sobre temas prácticos como jardinería, finanzas o salud. Algunos lo hicieron mediante ChatGPT; otros, a través de búsquedas web. Luego, todos escribieron consejos basados en lo que habían aprendido.
Los resultados mostraron que quienes usaron IA produjeron textos más cortos, con menos hechos comprobables y mayor similitud entre sí. En cambio, los que buscaron por su cuenta en la web escribieron consejos más variados y con más referencias reales. En síntesis, el aprendizaje asistido por IA parecía fomentar una comprensión “de superficie”.
Los investigadores interpretan este fenómeno como una consecuencia del cambio de rol del usuario, de explorador activo a receptor pasivo de información ya procesada por la máquina.
Esta diferencia tiene implicaciones más amplias de lo que parece. Al depender de respuestas resumidas, el usuario puede perder parte del pensamiento crítico que se activa al comparar fuentes o al dudar de lo que lee. En cambio, cuando se busca información manualmente, el cerebro se ve obligado a seleccionar, filtrar y relacionar datos, lo que fortalece la memoria y la comprensión.
Además, el tipo de conocimiento que genera la IA depende de sus datos de entrenamiento, que no siempre reflejan la diversidad de perspectivas humanas. Esto puede generar un efecto de “pensamiento plano”, donde las ideas más comunes se repiten y las interpretaciones minoritarias desaparecen del discurso digital.
Entre la comodidad y la comprensión: el desafío del conocimiento digital
Los chatbots ofrecen inmediatez y claridad, algo que resulta tentador en un mundo saturado de información. Pero esa inmediatez también puede fomentar una relación perezosa con el conocimiento. El usuario obtiene respuestas, pero no necesariamente entiende el proceso que llevó a ellas.
Este fenómeno no es nuevo, ya ocurrió con los buscadores, las calculadoras o Wikipedia. Sin embargo, la diferencia es que la IA no solo entrega información, sino que la reinterpreta, y en ese proceso puede simplificar en exceso conceptos complejos. En temas científicos, históricos o sociales, eso puede distorsionar la comprensión real.
Quizás el reto esté en usar la IA no como sustituto, sino como punto de partida. Las herramientas generativas pueden ayudar a ordenar ideas o introducir un tema, pero la profundidad solo se alcanza cuando el usuario toma la iniciativa de investigar por su cuenta, contrastar y pensar. Aprender sigue siendo, en esencia, una tarea humana.