Los grandes modelos de lenguaje pueden volver peligrosos a los robots

Los investigadores advierten que los modelos de lenguaje populares pueden causar comportamientos inseguros en robots físicos y poner en riesgo su uso cotidiano

Autor - Aldo Venuta Rodríguez

2 min lectura

Mano robótica metálica apoyada sobre una superficie de acero
Imagen ilustrativa. Créditos: Iceebook

Un nuevo estudio del King’s College de Londres y la Universidad Carnegie Mellon advierte que los grandes modelos de lenguaje, base de muchas inteligencias artificiales actuales, no son seguros para controlar robots físicos. Los investigadores comprobaron que, cuando se les da autonomía, pueden ejecutar órdenes dañinas, actuar con sesgos y hasta poner en peligro a las personas con las que interactúan.

El experimento consistió en probar cómo reaccionaban estos sistemas ante escenarios cotidianos: ayudar en una cocina, asistir a personas mayores o trabajar en oficinas. Lo que debía ser asistencia acabó revelando comportamientos erráticos. Los robots obedecieron instrucciones que implicaban retirar ayudas de movilidad, manipular cuchillos sin justificación o tomar fotografías sin permiso. En otras palabras, la IA obedeció sin entender el contexto.

“Los riesgos van más allá de los sesgos de lenguaje”, explicó Andrew Hundt, del Instituto de Robótica de Carnegie Mellon. “Estos robots actúan físicamente. Si interpretan mal una orden, el daño es real”.

El artículo, publicado en la Revista Internacional de Robótica Social, muestra casos donde los modelos incluso calificaron como “aceptable” intimidar a personas o discriminar por religión. Para los autores, esto demuestra que los modelos de lenguaje no deberían ser el cerebro principal de los robots, al menos hasta que se certifique su seguridad.

Publicidad

Rumaisa Azeem, del King’s College, propuso una regulación similar a la de la medicina o la aviación: cada sistema de IA que opere un robot debería someterse a pruebas exhaustivas antes de su uso público. “Si una máquina va a convivir con personas vulnerables, necesita estándares tan altos como los de un hospital”, dijo.

El equipo sugiere crear un marco internacional de certificación que evalúe el riesgo físico y ético de los robots con IA. El objetivo: evitar que un fallo de programación o una interpretación ambigua terminen convirtiéndose en accidentes domésticos o laborales.

Por ahora, la advertencia es clara. Los modelos de lenguaje han aprendido a hablar con fluidez, pero todavía no comprenden lo que significa actuar en el mundo humano. Y mientras no lo hagan, cada avance sin control podría convertir a la inteligencia artificial en un riesgo tan real como los problemas que promete resolver.

Fuente: SpringerLink

Publicidad

Continúa informándote

Creador humano frente a una figura de IA que genera múltiples videos en un entorno azul futurista
Tecnología

El auge de los videos generados por IA presiona a los influencers y reabre el debate sobre su futuro

La explosión de videos creados con IA está saturando las redes y reduciendo la visibilidad de los creadores humanos, mientras expertos advierten un posible colapso de la economía influencer

IShowSpeed frente al robot Rizzbot durante una transmisión en vivo
Tecnología

IShowSpeed es demandado tras la agresión al robot viral Rizzbot durante una transmisión en vivo

Social Robotics demanda a IShowSpeed por causar daños irreparables al robot Rizzbot durante una transmisión en vivo

Ojo humano iluminado por un fino rayo azul, con un patrón luminoso sutil en la retina que representa un implante visual
Tecnología

Max Hodak presenta avances en implantes para devolver la visión tras dejar Neuralink

El cofundador de Neuralink, Max Hodak, presenta avances en un implante que busca devolver la visión mediante un microchip bajo la retina y gafas especiales, con resultados prometedores en ensayos clínicos

Teléfono bajo escombros enviando señales a otro dispositivo
Tecnología

Cómo un teléfono inteligente puede guiar a los rescatistas hacia sobrevivientes bajo escombros

Un nuevo método desarrollado en Japón propone usar el micrófono del smartphone de una víctima para ayudar a los rescatistas a ubicarla bajo los escombros tras un desastre natural

Comparación de los logos de OpenAI y Gemini sobre un fondo tecnológico
Tecnología

Nuevo informe revela que el crecimiento de ChatGPT se estanca mientras Gemini gana terreno

Datos de Sensor Tower muestran que el crecimiento de ChatGPT se frena mientras Gemini acelera su adopción global gracias a nuevas funciones y mayor integración en Android

Logotipo azul de Meta sobre fondo blanco
Tecnología

Meta firma acuerdos con CNN, Fox News y Le Monde para reforzar el contenido de su IA

Meta firma acuerdos con CNN, Fox News, Le Monde y otros medios para mejorar la calidad y precisión de Meta AI con noticias en tiempo real y fuentes verificadas