Un nuevo estudio del King’s College de Londres y la Universidad Carnegie Mellon advierte que los grandes modelos de lenguaje, base de muchas inteligencias artificiales actuales, no son seguros para controlar robots físicos. Los investigadores comprobaron que, cuando se les da autonomía, pueden ejecutar órdenes dañinas, actuar con sesgos y hasta poner en peligro a las personas con las que interactúan.
El experimento consistió en probar cómo reaccionaban estos sistemas ante escenarios cotidianos: ayudar en una cocina, asistir a personas mayores o trabajar en oficinas. Lo que debía ser asistencia acabó revelando comportamientos erráticos. Los robots obedecieron instrucciones que implicaban retirar ayudas de movilidad, manipular cuchillos sin justificación o tomar fotografías sin permiso. En otras palabras, la IA obedeció sin entender el contexto.
“Los riesgos van más allá de los sesgos de lenguaje”, explicó Andrew Hundt, del Instituto de Robótica de Carnegie Mellon. “Estos robots actúan físicamente. Si interpretan mal una orden, el daño es real”.
El artículo, publicado en la Revista Internacional de Robótica Social, muestra casos donde los modelos incluso calificaron como “aceptable” intimidar a personas o discriminar por religión. Para los autores, esto demuestra que los modelos de lenguaje no deberían ser el cerebro principal de los robots, al menos hasta que se certifique su seguridad.
Rumaisa Azeem, del King’s College, propuso una regulación similar a la de la medicina o la aviación: cada sistema de IA que opere un robot debería someterse a pruebas exhaustivas antes de su uso público. “Si una máquina va a convivir con personas vulnerables, necesita estándares tan altos como los de un hospital”, dijo.
El equipo sugiere crear un marco internacional de certificación que evalúe el riesgo físico y ético de los robots con IA. El objetivo: evitar que un fallo de programación o una interpretación ambigua terminen convirtiéndose en accidentes domésticos o laborales.
Por ahora, la advertencia es clara. Los modelos de lenguaje han aprendido a hablar con fluidez, pero todavía no comprenden lo que significa actuar en el mundo humano. Y mientras no lo hagan, cada avance sin control podría convertir a la inteligencia artificial en un riesgo tan real como los problemas que promete resolver.
Fuente: SpringerLink