Un grupo de investigadores de la Universidad de Waterloo, en Canadá, ha desarrollado un sistema de inteligencia artificial capaz de analizar y verificar la fiabilidad de otros sistemas basados en IA. La herramienta combina modelos matemáticos y redes neuronales para garantizar que los algoritmos que controlan infraestructuras críticas puedan operar de forma estable y segura.
El avance, liderado por el profesor Jun Liu, del Departamento de Matemáticas Aplicadas, busca resolver un problema que preocupa cada vez más a gobiernos y empresas: cómo asegurarse de que la inteligencia artificial que gestiona vehículos, redes eléctricas o sistemas financieros no falle ni actúe de forma imprevisible.
“Cuando trabajamos con sistemas dinámicos, como un coche autónomo o una red energética, necesitamos saber que volverán a un estado estable incluso ante cambios externos”, explicó Liu. “Nuestro método permite comprobar matemáticamente si eso ocurrirá, y lo hace utilizando aprendizaje automático”.
La investigación se basa en un concepto clásico de las matemáticas: las funciones de Lyapunov, empleadas para determinar si un sistema tiende naturalmente a la estabilidad. Los científicos entrenaron una red neuronal para aprender las reglas que rigen esas funciones y aplicarlas automáticamente a modelos complejos.
El equipo no solo utiliza inteligencia artificial para analizar otros algoritmos, sino que también implementa un sistema de verificación independiente basado en lógica formal. Esto permite garantizar que las conclusiones obtenidas por la red neuronal son matemáticamente válidas, reduciendo el riesgo de errores o falsos positivos.
“Puede parecer paradójico usar una IA para vigilar otra IA, pero en realidad se trata de combinar diferentes tipos de inteligencia artificial con fines de control y seguridad”, añadió Liu. “Una parte aprende las pruebas matemáticas, mientras que otra las verifica con razonamiento lógico”.
El marco desarrollado por Waterloo ya se ha probado en simulaciones de control de vehículos autónomos y sistemas eléctricos, mostrando resultados más precisos que los métodos tradicionales. Según el equipo, este tipo de herramientas será clave para garantizar la seguridad de la automatización avanzada en sectores críticos.
La iniciativa forma parte de un esfuerzo más amplio de la universidad por promover una inteligencia artificial confiable y transparente, en colaboración con la Red Académica TRuST y agencias canadienses que buscan establecer estándares nacionales de seguridad en IA.
Los investigadores planean liberar la herramienta como código abierto y explorar alianzas con la industria para aplicar su sistema en redes energéticas, aviación y transporte autónomo. “Nuestro objetivo final es que cada sistema controlado por IA pueda probar matemáticamente su propia seguridad antes de operar”, concluyó Liu.