El creador de ChatGPT alerta sobre los riesgos de confiar demasiado en la inteligencia artificial
Sam Altman, CEO de OpenAI, advierte que la inteligencia artificial puede generar errores y desinformación si se confía en ella sin verificación humana y recomienda usar siempre fuentes oficiales
4 min lectura
Autor - Aldo Venuta Rodríguez

Sam Altman, director ejecutivo de OpenAI y creador de ChatGPT, ha vuelto a lanzar una advertencia contundente sobre el papel y los riesgos de la inteligencia artificial en la sociedad actual. En el podcast oficial de la compañía y en varias entrevistas recientes, Altman señaló que confiar de manera excesiva en sistemas de IA como ChatGPT puede ser un error grave, especialmente cuando se trata de temas delicados o información que impacta en decisiones importantes.
Altman subrayó que la IA, por avanzada que sea, no está exenta de limitaciones. “La gente tiene un alto grado de confianza en ChatGPT, lo cual es interesante, porque la IA alucina. Debería ser la tecnología en la que no se debe confiar tanto”, afirmó. Con el término “alucinar”, el CEO se refiere a la capacidad de estos modelos para generar respuestas aparentemente correctas que, en realidad, pueden ser erróneas, incompletas o incluso inventadas.
El fenómeno de las “alucinaciones” en la IA ocurre porque los sistemas de lenguaje predictivo, como ChatGPT, procesan grandes volúmenes de datos y generan texto en función de patrones estadísticos, no de comprensión real. Esto significa que pueden ofrecer datos falsos, confundir contextos o dar información que suena plausible pero carece de base en la realidad. Altman destacó que esta limitación es inherente a la tecnología actual y puede tener consecuencias serias si no se toman precauciones.
Según el directivo, el uso masivo de herramientas de IA puede propagar desinformación a gran escala si los usuarios no verifican lo que leen. “El uso masivo de ChatGPT puede propagar desinformación si no se verifica la información”, alertó Altman. Por ello, recomienda emplear la inteligencia artificial como herramienta auxiliar y nunca como única fuente de información o como árbitro de la verdad.
En un entorno donde millones de personas recurren diariamente a ChatGPT y sistemas similares para obtener información, analizar datos o resolver problemas, el riesgo de dar por cierto cualquier resultado generado por la IA se multiplica. Altman insiste en que siempre debe mantenerse el filtro humano y consultar fuentes oficiales y fiables, sobre todo en ámbitos como la salud, la política, las finanzas o la educación, donde la precisión es fundamental.
El CEO de OpenAI también abordó la necesidad de transparencia y ética en el desarrollo y la comercialización de la inteligencia artificial. Explicó que cualquier intento de monetizar plataformas como ChatGPT, por ejemplo a través de anuncios o modelos de pago, no debe interferir con la objetividad ni manipular los resultados ofrecidos por el sistema. La integridad, según Altman, es clave para que los usuarios mantengan la confianza en estas tecnologías.
Altman sugiere que el rol de la IA debe compararse con el de los motores de búsqueda o las redes sociales: útiles, pero no infalibles ni libres de sesgos. La información presentada por estos sistemas puede ser parcial, incompleta o incluso manipulada, por lo que es indispensable que los usuarios aprendan a cotejar los datos y exijan referencias de calidad, preferentemente de fuentes oficiales o académicas.
A pesar de los avances impresionantes en capacidades conversacionales y de razonamiento, la inteligencia artificial todavía está lejos de sustituir la labor crítica del pensamiento humano. La recomendación del creador de ChatGPT es clara: aprovechar el potencial de la IA para automatizar tareas y explorar ideas, pero siempre con escepticismo saludable y criterio propio. La tecnología debe ser un complemento, no un sustituto de la responsabilidad individual.
La advertencia de Sam Altman pone de relieve la importancia de educar a los usuarios sobre los límites de la inteligencia artificial y de promover una cultura digital donde la verificación y la prudencia sean prioridades. Solo así será posible disfrutar de los beneficios de la IA minimizando los riesgos de desinformación y dependencia tecnológica.
Preguntas frecuentes
- 💬 Porque los sistemas como ChatGPT pueden generar respuestas falsas o imprecisas sin intención, debido a sus limitaciones técnicas.
- 💬 Verificar la información con fuentes oficiales y no confiar ciegamente en la inteligencia artificial.
- 💬 La propagación de datos erróneos o inventados que pueden afectar decisiones importantes.
- 💬 No, la IA debe ser un complemento, nunca un reemplazo del pensamiento crítico y la verificación personal.
Continúa informándote

Elon Musk intenta impedir que OpenAI obtenga archivos de Meta relacionados con su intento fallido de compra
Elon Musk pidió a un juez bloquear a OpenAI en su acceso a archivos de Meta vinculados a su fallido intento de comprar la startup de inteligencia artificial

OpenAI y Sam Altman enfrentan demanda tras el suicidio de un adolescente en California vinculado a ChatGPT
Padres demandan a OpenAI y Sam Altman alegando que ChatGPT validó y enseñó métodos de suicidio a su hijo de 16 años en California

GPT6 llegará con memoria y personalización anuncia Sam Altman
GPT6 traerá memoria y ajustes personalizados para los usuarios de ChatGPT según confirmó Sam Altman en un evento en San Francisco

Google estrena AI Mode y desplaza los enlaces clásicos por respuestas generadas con IA
Google lanza AI Mode, un botón que sustituye los enlaces de siempre por respuestas creadas por inteligencia artificial, marcando un cambio histórico en su buscador

¿Pagar a los robots por trabajar? La propuesta que puede transformar la economía humana
La idea de otorgar un “salario” a las máquinas reabre el debate sobre el futuro del trabajo, la redistribución de riqueza y el papel de la inteligencia artificial en la economía
Continúa informándote

¿Quién es Jordi Segués y por qué se ha hecho famoso en las redes?
Jordi Segués pasó de ingeniero en telecomunicaciones a referente del marketing digital con millones de seguidores y su propia escuela de negocios

Satélite de la NASA mide en tiempo real la contaminación generada por rayos
El satélite TEMPO permitió observar cómo los rayos producen óxidos de nitrógeno y afectan la calidad del aire durante tormentas en Estados Unidos

La pobreza sería mucho mayor que la oficial según un estudio de la consultora Equilibra
Un análisis de Equilibra revisa canasta y subdeclaración de ingresos y estima una pobreza urbana de 43,3 por ciento frente al 34,7 oficial

Un estudio revela que el permafrost contribuyó a casi la mitad del aumento de CO₂ después de la edad de hielo
Investigadores de la Universidad de Gotemburgo demostraron que el deshielo del permafrost liberó enormes cantidades de carbono tras la última glaciación

Los primeros caballos genéticamente modificados generan polémica en el polo argentino
Cinco potros clonados y editados con CRISPR desatan un debate en Argentina entre la innovación científica y la tradición del polo

Un estudio revela la causa del enlentecimiento temporal de las ondas sísmicas después de un sismo
Investigadores del GFZ identifican la fricción entre granos de roca como la clave detrás de la ralentización de ondas sísmicas tras un terremoto

Argentina alcanza su mayor producción de petróleo en 26 años y se prepara para un nuevo récord histórico
La producción petrolera superó los 800.000 barriles diarios en julio gracias a Vaca Muerta y el país podría romper el récord de 1998 antes de fin de año

Estados Unidos despliega una flota en el Caribe y crecen las dudas sobre su verdadero objetivo
La Casa Blanca asegura que el despliegue busca combatir el narcotráfico pero Caracas y analistas lo interpretan como presión militar sobre Maduro

El cambio climático y los monzones amenazan la seguridad hídrica en el Himalaya y Asia Central
Una investigación muestra que los monzones intensifican el retroceso glaciar en Asia y ponen en riesgo el acceso al agua de más de 1400 millones de personas

La IA ya no es opcional en el trabajo: empresas despiden a quienes se niegan a usarla
Grandes tecnológicas y startups ya exigen a sus empleados usar IA en tareas diarias, despidiendo a quienes se resisten a adoptarla