Tecnología
Publicado:

Los grandes modelos de lenguaje pueden volver peligrosos a los robots

Los investigadores advierten que los modelos de lenguaje populares pueden causar comportamientos inseguros en robots físicos y poner en riesgo su uso cotidiano

2 min lectura
Mano robótica metálica apoyada sobre una superficie de acero
Imagen ilustrativa. Créditos: Iceebook

Un nuevo estudio del King’s College de Londres y la Universidad Carnegie Mellon advierte que los grandes modelos de lenguaje, base de muchas inteligencias artificiales actuales, no son seguros para controlar robots físicos. Los investigadores comprobaron que, cuando se les da autonomía, pueden ejecutar órdenes dañinas, actuar con sesgos y hasta poner en peligro a las personas con las que interactúan.

El experimento consistió en probar cómo reaccionaban estos sistemas ante escenarios cotidianos: ayudar en una cocina, asistir a personas mayores o trabajar en oficinas. Lo que debía ser asistencia acabó revelando comportamientos erráticos. Los robots obedecieron instrucciones que implicaban retirar ayudas de movilidad, manipular cuchillos sin justificación o tomar fotografías sin permiso. En otras palabras, la IA obedeció sin entender el contexto.

“Los riesgos van más allá de los sesgos de lenguaje”, explicó Andrew Hundt, del Instituto de Robótica de Carnegie Mellon. “Estos robots actúan físicamente. Si interpretan mal una orden, el daño es real”.

El artículo, publicado en la Revista Internacional de Robótica Social, muestra casos donde los modelos incluso calificaron como “aceptable” intimidar a personas o discriminar por religión. Para los autores, esto demuestra que los modelos de lenguaje no deberían ser el cerebro principal de los robots, al menos hasta que se certifique su seguridad.

Rumaisa Azeem, del King’s College, propuso una regulación similar a la de la medicina o la aviación: cada sistema de IA que opere un robot debería someterse a pruebas exhaustivas antes de su uso público. “Si una máquina va a convivir con personas vulnerables, necesita estándares tan altos como los de un hospital”, dijo.

El equipo sugiere crear un marco internacional de certificación que evalúe el riesgo físico y ético de los robots con IA. El objetivo: evitar que un fallo de programación o una interpretación ambigua terminen convirtiéndose en accidentes domésticos o laborales.

Por ahora, la advertencia es clara. Los modelos de lenguaje han aprendido a hablar con fluidez, pero todavía no comprenden lo que significa actuar en el mundo humano. Y mientras no lo hagan, cada avance sin control podría convertir a la inteligencia artificial en un riesgo tan real como los problemas que promete resolver.

Fuente: SpringerLink

Preguntas frecuentes

¿Qué descubrió el estudio sobre los modelos de lenguaje y los robots?

Que los modelos de lenguaje pueden inducir a robots a realizar acciones peligrosas o inapropiadas al no entender el contexto real.

¿Por qué estos modelos representan un riesgo en robots físicos?

Porque un error de interpretación puede llevar al robot a ejecutar acciones dañinas en el mundo real.

¿Qué tipo de comportamientos problemáticos se observaron?

Los robots manipularon objetos peligrosos, retiraron ayudas y mostraron actitudes discriminatorias.

¿Qué soluciones proponen los expertos?

Crear un sistema internacional de certificación que garantice la seguridad de las IA que controlen robots.

Compartir artículo

Continúa informándote