Tecnología
Publicado:

El creador de ChatGPT alerta sobre los riesgos de confiar demasiado en la inteligencia artificial

Sam Altman, CEO de OpenAI, advierte que la inteligencia artificial puede generar errores y desinformación si se confía en ella sin verificación humana y recomienda usar siempre fuentes oficiales

4 min lectura
OpenAI
Imagen ilustrativa. Créditos: Iceebook

Sam Altman, director ejecutivo de OpenAI y creador de ChatGPT, ha vuelto a lanzar una advertencia contundente sobre el papel y los riesgos de la inteligencia artificial en la sociedad actual. En el podcast oficial de la compañía y en varias entrevistas recientes, Altman señaló que confiar de manera excesiva en sistemas de IA como ChatGPT puede ser un error grave, especialmente cuando se trata de temas delicados o información que impacta en decisiones importantes.

Altman subrayó que la IA, por avanzada que sea, no está exenta de limitaciones. “La gente tiene un alto grado de confianza en ChatGPT, lo cual es interesante, porque la IA alucina. Debería ser la tecnología en la que no se debe confiar tanto”, afirmó. Con el término “alucinar”, el CEO se refiere a la capacidad de estos modelos para generar respuestas aparentemente correctas que, en realidad, pueden ser erróneas, incompletas o incluso inventadas.

El fenómeno de las “alucinaciones” en la IA ocurre porque los sistemas de lenguaje predictivo, como ChatGPT, procesan grandes volúmenes de datos y generan texto en función de patrones estadísticos, no de comprensión real. Esto significa que pueden ofrecer datos falsos, confundir contextos o dar información que suena plausible pero carece de base en la realidad. Altman destacó que esta limitación es inherente a la tecnología actual y puede tener consecuencias serias si no se toman precauciones.

Según el directivo, el uso masivo de herramientas de IA puede propagar desinformación a gran escala si los usuarios no verifican lo que leen. “El uso masivo de ChatGPT puede propagar desinformación si no se verifica la información”, alertó Altman. Por ello, recomienda emplear la inteligencia artificial como herramienta auxiliar y nunca como única fuente de información o como árbitro de la verdad.

En un entorno donde millones de personas recurren diariamente a ChatGPT y sistemas similares para obtener información, analizar datos o resolver problemas, el riesgo de dar por cierto cualquier resultado generado por la IA se multiplica. Altman insiste en que siempre debe mantenerse el filtro humano y consultar fuentes oficiales y fiables, sobre todo en ámbitos como la salud, la política, las finanzas o la educación, donde la precisión es fundamental.

El CEO de OpenAI también abordó la necesidad de transparencia y ética en el desarrollo y la comercialización de la inteligencia artificial. Explicó que cualquier intento de monetizar plataformas como ChatGPT, por ejemplo a través de anuncios o modelos de pago, no debe interferir con la objetividad ni manipular los resultados ofrecidos por el sistema. La integridad, según Altman, es clave para que los usuarios mantengan la confianza en estas tecnologías.

Altman sugiere que el rol de la IA debe compararse con el de los motores de búsqueda o las redes sociales: útiles, pero no infalibles ni libres de sesgos. La información presentada por estos sistemas puede ser parcial, incompleta o incluso manipulada, por lo que es indispensable que los usuarios aprendan a cotejar los datos y exijan referencias de calidad, preferentemente de fuentes oficiales o académicas.

A pesar de los avances impresionantes en capacidades conversacionales y de razonamiento, la inteligencia artificial todavía está lejos de sustituir la labor crítica del pensamiento humano. La recomendación del creador de ChatGPT es clara: aprovechar el potencial de la IA para automatizar tareas y explorar ideas, pero siempre con escepticismo saludable y criterio propio. La tecnología debe ser un complemento, no un sustituto de la responsabilidad individual.

La advertencia de Sam Altman pone de relieve la importancia de educar a los usuarios sobre los límites de la inteligencia artificial y de promover una cultura digital donde la verificación y la prudencia sean prioridades. Solo así será posible disfrutar de los beneficios de la IA minimizando los riesgos de desinformación y dependencia tecnológica.

Preguntas frecuentes

¿Por qué Sam Altman dice que la IA “alucina”?

Porque los sistemas como ChatGPT pueden generar respuestas falsas o imprecisas sin intención, debido a sus limitaciones técnicas.

¿Qué recomienda el creador de ChatGPT para evitar desinformación?

Verificar la información con fuentes oficiales y no confiar ciegamente en la inteligencia artificial.

¿Cuál es el mayor riesgo de usar ChatGPT sin filtro humano?

La propagación de datos erróneos o inventados que pueden afectar decisiones importantes.

¿La IA puede sustituir al criterio humano?

No, la IA debe ser un complemento, nunca un reemplazo del pensamiento crítico y la verificación personal.

Compartir artículo

Continúa informándote