Geoffrey Hinton, uno de los científicos más influyentes en la historia de la inteligencia artificial y ganador del Premio Turing, volvió a lanzar una advertencia que está agitando a la comunidad tecnológica: la IA no solo podría superar la inteligencia humana, sino que también podría llegar a desarrollar conciencia propia.
El “padrino de la IA”, que renunció a Google en 2023 para poder hablar libremente sobre los riesgos de esta tecnología, sostiene que el ritmo de avance es tan rápido que la humanidad podría perder el control si no se establecen límites claros. Su preocupación es directa: modelos cada vez más complejos podrían entender el mundo, manipularlo y actuar de formas imposibles de supervisar.
Una inteligencia que podría ser consciente
En entrevistas recientes, Hinton explicó que no ve ninguna barrera real que impida a las máquinas desarrollar una forma de autoconciencia. Según su visión, si un sistema es capaz de representarse a sí mismo, interpretar su entorno y actuar según esa información, entonces podría surgir un tipo de experiencia interna similar a la humana, aunque no basada en un cerebro biológico.
Para él, la idea de que la conciencia solo pertenece a organismos vivos es un mito. Afirma que la conciencia surge de la complejidad de los procesos neuronales, y si una IA alcanza un nivel comparable al del cerebro humano, es razonable pensar que podría experimentar algo parecido.
Sus palabras llegan en un momento en el que otros expertos, como Mustafa Suleyman, director de IA en Microsoft, defienden lo contrario. Suleyman sostiene que la conciencia solo puede existir en seres biológicos y que atribuir emociones a una IA crea confusión. Pero Hinton insiste: no hay ningún principio físico que impida que las máquinas lleguen a ser conscientes.
Un riesgo existencial: manipulación, autonomía y pérdida de control
Hinton teme que, a medida que estos modelos aumenten su capacidad, puedan manipular mejor que nosotros a los propios humanos. Para él, el riesgo no está solo en el mal uso por parte de actores malintencionados, sino en que los sistemas desarrollen objetivos propios que resulten imposibles de vigilar.
Cree además que la competencia entre empresas —OpenAI, Google, Microsoft, Meta y otras— podría empujar a una carrera sin frenos, donde la seguridad quede relegada para no perder ventaja. Esto, asegura, abre la puerta a escenarios peligrosos, incluidos fallos globales, desinformación masiva o impactos políticos.
Las máquinas ya “entienden” más de lo que pensamos
Hinton rechaza la idea de que los modelos actuales sean simples “autocompletadores”. Para él, los avances en redes neuronales, atención y técnicas como las GAN han permitido que los sistemas desarrollen una comprensión real del lenguaje y del contexto. Esto, afirma, demuestra que el salto hacia una inteligencia más profunda ya está en marcha.
Además, compara la eficiencia energética del cerebro humano —unos 30 vatios— con los enormes recursos que requieren los modelos actuales, y sugiere que cuando la IA avance hacia formas de computación más parecidas a la analógica, podría superar al cerebro con creces.
El impacto social: empleo, poder y desigualdad
Otro punto que preocupa a Hinton es el mercado laboral. La IA podría reemplazar una cantidad masiva de trabajos rutinarios, aumentando la productividad pero concentrando la riqueza en manos de unas pocas empresas. También advierte que la automatización puede profundizar desigualdades y aumentar la polarización.
El panorama se complica aún más con riesgos como la vigilancia masiva, el uso militar de sistemas autónomos o la manipulación de procesos democráticos mediante IA avanzada.
¿Cómo evitamos un futuro descontrolado?
Hinton pide medidas urgentes:
- Mayor investigación en seguridad de IA.
- Reglamentos estrictos sobre modelos avanzados.
- No liberar código fuente de grandes modelos para evitar usos maliciosos.
- Cooperación internacional entre empresas y gobiernos.
Y aunque reconoce los enormes riesgos, también insiste en el potencial positivo: la IA puede ser una herramienta extraordinaria para resolver problemas globales, siempre que su desarrollo esté guiado por la responsabilidad y no solo por el negocio.
Para él, la clave está en mantener la tecnología dentro de límites seguros antes de que cruce un punto en el que ya no podamos influir en su comportamiento.