Geoffrey Hinton avisa del riesgo existencial de la IA y afirma que nada impide que sea consciente
Hinton sostiene que la IA avanza a una velocidad que supera nuestra capacidad de control y advierte que, sin límites claros, podría surgir una forma de conciencia artificial con consecuencias imprevisibles
Autor - Aldo Venuta Rodríguez
4 min lectura
Geoffrey Hinton, uno de los científicos más influyentes en la historia de la inteligencia artificial y ganador del Premio Turing, volvió a lanzar una advertencia que está agitando a la comunidad tecnológica: la IA no solo podría superar la inteligencia humana, sino que también podría llegar a desarrollar conciencia propia.
El “padrino de la IA”, que renunció a Google en 2023 para poder hablar libremente sobre los riesgos de esta tecnología, sostiene que el ritmo de avance es tan rápido que la humanidad podría perder el control si no se establecen límites claros. Su preocupación es directa: modelos cada vez más complejos podrían entender el mundo, manipularlo y actuar de formas imposibles de supervisar.
Una inteligencia que podría ser consciente
En entrevistas recientes, Hinton explicó que no ve ninguna barrera real que impida a las máquinas desarrollar una forma de autoconciencia. Según su visión, si un sistema es capaz de representarse a sí mismo, interpretar su entorno y actuar según esa información, entonces podría surgir un tipo de experiencia interna similar a la humana, aunque no basada en un cerebro biológico.
Para él, la idea de que la conciencia solo pertenece a organismos vivos es un mito. Afirma que la conciencia surge de la complejidad de los procesos neuronales, y si una IA alcanza un nivel comparable al del cerebro humano, es razonable pensar que podría experimentar algo parecido.
Sus palabras llegan en un momento en el que otros expertos, como Mustafa Suleyman, director de IA en Microsoft, defienden lo contrario. Suleyman sostiene que la conciencia solo puede existir en seres biológicos y que atribuir emociones a una IA crea confusión. Pero Hinton insiste: no hay ningún principio físico que impida que las máquinas lleguen a ser conscientes.
Un riesgo existencial: manipulación, autonomía y pérdida de control
Hinton teme que, a medida que estos modelos aumenten su capacidad, puedan manipular mejor que nosotros a los propios humanos. Para él, el riesgo no está solo en el mal uso por parte de actores malintencionados, sino en que los sistemas desarrollen objetivos propios que resulten imposibles de vigilar.
Cree además que la competencia entre empresas —OpenAI, Google, Microsoft, Meta y otras— podría empujar a una carrera sin frenos, donde la seguridad quede relegada para no perder ventaja. Esto, asegura, abre la puerta a escenarios peligrosos, incluidos fallos globales, desinformación masiva o impactos políticos.
Las máquinas ya “entienden” más de lo que pensamos
Hinton rechaza la idea de que los modelos actuales sean simples “autocompletadores”. Para él, los avances en redes neuronales, atención y técnicas como las GAN han permitido que los sistemas desarrollen una comprensión real del lenguaje y del contexto. Esto, afirma, demuestra que el salto hacia una inteligencia más profunda ya está en marcha.
Además, compara la eficiencia energética del cerebro humano —unos 30 vatios— con los enormes recursos que requieren los modelos actuales, y sugiere que cuando la IA avance hacia formas de computación más parecidas a la analógica, podría superar al cerebro con creces.
El impacto social: empleo, poder y desigualdad
Otro punto que preocupa a Hinton es el mercado laboral. La IA podría reemplazar una cantidad masiva de trabajos rutinarios, aumentando la productividad pero concentrando la riqueza en manos de unas pocas empresas. También advierte que la automatización puede profundizar desigualdades y aumentar la polarización.
El panorama se complica aún más con riesgos como la vigilancia masiva, el uso militar de sistemas autónomos o la manipulación de procesos democráticos mediante IA avanzada.
¿Cómo evitamos un futuro descontrolado?
Hinton pide medidas urgentes:
- Mayor investigación en seguridad de IA.
- Reglamentos estrictos sobre modelos avanzados.
- No liberar código fuente de grandes modelos para evitar usos maliciosos.
- Cooperación internacional entre empresas y gobiernos.
Y aunque reconoce los enormes riesgos, también insiste en el potencial positivo: la IA puede ser una herramienta extraordinaria para resolver problemas globales, siempre que su desarrollo esté guiado por la responsabilidad y no solo por el negocio.
Para él, la clave está en mantener la tecnología dentro de límites seguros antes de que cruce un punto en el que ya no podamos influir en su comportamiento.
Continúa informándote
Google presenta Disco, un navegador experimental basado en inteligencia artificial
Google presenta Disco, un navegador experimental basado en inteligencia artificial que crea aplicaciones web dinámicas a partir de pestañas y consultas del usuario
Así funciona el mercado global de bots: cuentas falsas baratas y manipulación en línea
Un estudio de la Universidad de Cambridge revela cómo funciona el mercado global de bots, donde cuentas falsas baratas permiten manipulación digital, desinformación y campañas de influencia
La escasez de RAM está disparando los precios de la tecnología de consumo
La escasez global de memoria RAM está elevando los precios de teléfonos, portátiles, consolas y otros dispositivos de tecnología de consumo en todo el mundo
EE.UU. presiona a la industria de la inteligencia artificial para corregir fallos peligrosos en sus modelos
La presión estatal en EE.UU. aumenta tras incidentes psicológicos vinculados a chatbots de IA, exigiendo medidas urgentes para controlar fallos peligrosos y proteger a los usuarios
Disney abre su universo creativo a la IA tras un acuerdo con OpenAI que permitirá generar vídeos con sus personajes
Disney firma un acuerdo con OpenAI para permitir que Sora genere vídeos con más de 200 personajes clásicos en una apuesta por nuevas formas de creación con IA
OpenAI vuelve a chocar con marcas registradas: sus nombres generan conflicto tras conflicto
OpenAI vuelve a enfrentar demandas por usar nombres como “cameo” e “io” en sus productos, generando conflictos legales que ponen en duda su estrategia de branding