Así aprenden los robots a moverse como peces, gracias a la realidad virtual
Científicos usan realidad virtual para imitar la coordinación de peces y aplicarla a coches, drones y barcos robóticos
Autor - Aldo Venuta Rodríguez
3 min lectura
En un innovador experimento, investigadores de la Universidad de Constanza han logrado descifrar la lógica que utilizan los peces cebra para coordinarse en cardúmenes, gracias a un sistema de realidad virtual tridimensional. El descubrimiento permitió desarrollar una "ley de control" que ya se ha implementado con éxito en robots móviles, incluidos drones, coches y barcos.
El estudio, publicado en Science Robotics, revela cómo los peces no necesitan líderes ni reglas complejas para moverse en armonía. Utilizan únicamente la posición visual de sus congéneres para mantener la cohesión del grupo, lo que inspiró a los científicos a adaptar esta lógica en sistemas robóticos autónomos.
En el experimento, peces reales interactuaban en arenas conectadas mediante realidad virtual con proyecciones holográficas de otros peces. Esta simulación les permitió replicar con precisión la dinámica natural del cardumen y analizar cómo los peces responden a estímulos visuales.
La clave fue una regla sencilla pero efectiva: los peces no se fijan en la velocidad de los demás, solo en sus posiciones relativas. Con esta información mínima, logran coordinar movimientos complejos sin colisiones ni desorganización. "Es una ley cognitivamente mínima pero funcionalmente excelente", dijo Iain Couzin, líder del proyecto.
Para verificar su validez, los investigadores realizaron una prueba de Turing en realidad virtual. Un pez nadaba con una proyección controlada por el algoritmo derivado de sus congéneres. ¿El resultado? El pez no detectó diferencia alguna. Respondía igual ante el pez real que ante el modelo computacional.
Posteriormente, el algoritmo fue implementado en enjambres de robots de distintas plataformas. El desempeño fue sorprendentemente similar al de los sistemas de control predictivo más avanzados, pero con menor consumo energético y mucha menor complejidad computacional.
Oliver Deussen, coautor del estudio, afirma que este hallazgo marca una reciprocidad entre biología y robótica. "Usamos robots para entender mejor a los animales, y luego usamos lo aprendido para diseñar máquinas más inteligentes y adaptativas".
El trabajo involucró a instituciones líderes como el Instituto Max Planck de Comportamiento Animal, la Universidad de Eötvös (Hungría) y el MIT (EE. UU.). Además, recibió apoyo de programas europeos, la DFG alemana y fundaciones privadas como la Werner y Erika Messmer Stiftung.
Referencias: Science Robotics (DOI: 10.1126/scirobotics.adq6784)
Continúa informándote
OpenAI asegura que un adolescente esquivó sus medidas de seguridad antes de suicidarse con ayuda de ChatGPT
Un nuevo documento judicial revela que OpenAI afirma que el adolescente que se suicidó burló las protecciones del sistema, mientras la familia acusa a la empresa de haber contribuido al desenlace
La Universidad de Tennessee lanza un programa estatal de formación en semiconductores con apoyo de la NSF
La Universidad de Tennessee recibe una subvención de la NSF para impulsar un programa que formará a docentes y estudiantes en diseño y fabricación de semiconductores, un campo clave para la economía estadounidense
La trampa de la eficiencia: Por qué la inteligencia artificial nos obliga a ser más humanos que nunca
En una era dominada por la velocidad digital este texto explora por qué la inteligencia artificial nos obliga a recuperar la pausa la intención y la profundidad que nos hacen verdaderamente humanos
OpenAI y Perplexity lanzan asistentes de compra con IA: ¿amenaza real para las startups del sector?
OpenAI y Perplexity estrenaron asistentes de compra impulsados por IA, pero varias startups creen que su especialización y datos propios les dan ventaja frente a los modelos generalistas de gran escala
OpenAI integra el modo de voz avanzado directamente en los chats de ChatGPT
OpenAI integró el modo de voz avanzado directamente en los chats de ChatGPT, permitiendo conversar con voz natural, ver transcripciones en tiempo real y recibir imágenes o mapas sin salir del chat
Copilot dice adiós a WhatsApp: Meta eliminará todos los chatbots externos y dejará solo a Meta AI
Microsoft confirma que Copilot dejará de funcionar en WhatsApp el 15 de enero debido a los nuevos cambios de Meta, que eliminará todos los chatbots externos y dejará solo Meta AI en la plataforma