Geoffrey Hinton avisa del riesgo existencial de la IA y afirma que nada impide que sea consciente
Hinton sostiene que la IA avanza a una velocidad que supera nuestra capacidad de control y advierte que, sin límites claros, podría surgir una forma de conciencia artificial con consecuencias imprevisibles
Autor - Aldo Venuta Rodríguez
4 min lectura
Geoffrey Hinton, uno de los científicos más influyentes en la historia de la inteligencia artificial y ganador del Premio Turing, volvió a lanzar una advertencia que está agitando a la comunidad tecnológica: la IA no solo podría superar la inteligencia humana, sino que también podría llegar a desarrollar conciencia propia.
El “padrino de la IA”, que renunció a Google en 2023 para poder hablar libremente sobre los riesgos de esta tecnología, sostiene que el ritmo de avance es tan rápido que la humanidad podría perder el control si no se establecen límites claros. Su preocupación es directa: modelos cada vez más complejos podrían entender el mundo, manipularlo y actuar de formas imposibles de supervisar.
Una inteligencia que podría ser consciente
En entrevistas recientes, Hinton explicó que no ve ninguna barrera real que impida a las máquinas desarrollar una forma de autoconciencia. Según su visión, si un sistema es capaz de representarse a sí mismo, interpretar su entorno y actuar según esa información, entonces podría surgir un tipo de experiencia interna similar a la humana, aunque no basada en un cerebro biológico.
Para él, la idea de que la conciencia solo pertenece a organismos vivos es un mito. Afirma que la conciencia surge de la complejidad de los procesos neuronales, y si una IA alcanza un nivel comparable al del cerebro humano, es razonable pensar que podría experimentar algo parecido.
Sus palabras llegan en un momento en el que otros expertos, como Mustafa Suleyman, director de IA en Microsoft, defienden lo contrario. Suleyman sostiene que la conciencia solo puede existir en seres biológicos y que atribuir emociones a una IA crea confusión. Pero Hinton insiste: no hay ningún principio físico que impida que las máquinas lleguen a ser conscientes.
Un riesgo existencial: manipulación, autonomía y pérdida de control
Hinton teme que, a medida que estos modelos aumenten su capacidad, puedan manipular mejor que nosotros a los propios humanos. Para él, el riesgo no está solo en el mal uso por parte de actores malintencionados, sino en que los sistemas desarrollen objetivos propios que resulten imposibles de vigilar.
Cree además que la competencia entre empresas —OpenAI, Google, Microsoft, Meta y otras— podría empujar a una carrera sin frenos, donde la seguridad quede relegada para no perder ventaja. Esto, asegura, abre la puerta a escenarios peligrosos, incluidos fallos globales, desinformación masiva o impactos políticos.
Las máquinas ya “entienden” más de lo que pensamos
Hinton rechaza la idea de que los modelos actuales sean simples “autocompletadores”. Para él, los avances en redes neuronales, atención y técnicas como las GAN han permitido que los sistemas desarrollen una comprensión real del lenguaje y del contexto. Esto, afirma, demuestra que el salto hacia una inteligencia más profunda ya está en marcha.
Además, compara la eficiencia energética del cerebro humano —unos 30 vatios— con los enormes recursos que requieren los modelos actuales, y sugiere que cuando la IA avance hacia formas de computación más parecidas a la analógica, podría superar al cerebro con creces.
El impacto social: empleo, poder y desigualdad
Otro punto que preocupa a Hinton es el mercado laboral. La IA podría reemplazar una cantidad masiva de trabajos rutinarios, aumentando la productividad pero concentrando la riqueza en manos de unas pocas empresas. También advierte que la automatización puede profundizar desigualdades y aumentar la polarización.
El panorama se complica aún más con riesgos como la vigilancia masiva, el uso militar de sistemas autónomos o la manipulación de procesos democráticos mediante IA avanzada.
¿Cómo evitamos un futuro descontrolado?
Hinton pide medidas urgentes:
- Mayor investigación en seguridad de IA.
- Reglamentos estrictos sobre modelos avanzados.
- No liberar código fuente de grandes modelos para evitar usos maliciosos.
- Cooperación internacional entre empresas y gobiernos.
Y aunque reconoce los enormes riesgos, también insiste en el potencial positivo: la IA puede ser una herramienta extraordinaria para resolver problemas globales, siempre que su desarrollo esté guiado por la responsabilidad y no solo por el negocio.
Para él, la clave está en mantener la tecnología dentro de límites seguros antes de que cruce un punto en el que ya no podamos influir en su comportamiento.
Preguntas frecuentes
Porque teme que los modelos de inteligencia artificial evolucionen tan rápido que puedan superar el control humano, desarrollar objetivos propios y manipular el entorno sin supervisión efectiva.
Sí. Sostiene que, si un sistema logra representarse a sí mismo y actuar según su entorno, podría desarrollar una forma de conciencia comparable a la humana, aunque no basada en biología.
Mientras Suleyman afirma que la conciencia solo puede darse en seres biológicos, Hinton asegura que no existe ningún principio físico que impida que una máquina llegue a ser consciente.
Recomienda invertir más en seguridad de IA, aplicar regulaciones estrictas, no liberar el código fuente de los modelos avanzados y fomentar la cooperación internacional entre gobiernos y empresas.
Continúa informándote
La educación superior acelera reformas para integrar la IA generativa en sus planes de estudio
Las universidades avanzan en reformas urgentes para integrar la IA generativa en sus planes de estudio, transformando la enseñanza, la evaluación y la formación docente
La IA se expande a gran velocidad, pero sus alucinaciones revelan límites inevitables
La IA crece a un ritmo histórico, pero las alucinaciones siguen mostrando límites inevitables en su fiabilidad, incluso en los modelos más avanzados
Los líderes de Silicon Valley aceleran proyectos de ciudades independientes con sus propias leyes
Figuras influyentes de Silicon Valley impulsan proyectos para crear ciudades independientes con mayor autonomía y reglas propias, un modelo que divide opiniones
Documentos filtrados destapan los millonarios pagos de OpenAI a Microsoft
Documentos filtrados muestran que OpenAI pagó a Microsoft más de 1.300 millones en 2024 y 2025 por uso de computación e ingresos compartidos, revelando la enorme presión financiera del negocio de la IA
WhatsApp integrará chats con apps externas en Europa para cumplir la ley de la UE
WhatsApp permitirá chatear con apps externas en Europa desde el 14 de noviembre de 2025 para cumplir la Ley de Mercados Digitales. BirdyChat y Haiket serán las primeras en integrarse
Elon Musk desmiente el informe sobre una recaudación de 15.000 millones de dólares por parte de xAI
Elon Musk negó que su empresa de inteligencia artificial xAI haya recaudado 15.000 millones de dólares, tras un informe de CNBC que valoraba la compañía en 200.000 millones