Humanos superan a la inteligencia artificial en la comprensión de interacciones sociales en movimiento

Un estudio de Johns Hopkins revela que la IA aún no puede igualar la comprensión humana de interacciones sociales en escenas dinámicas

Autor - Aldo Venuta Rodríguez

3 min lectura

Comparativa visual entre percepción humana y análisis de modelos de IA ante escenas sociales dinámicas.
Ilustración conceptual que muestra cómo los humanos superan a los modelos de IA al interpretar interacciones sociales dinámicas, según un estudio de Johns Hopkins.

Aunque los modelos de inteligencia artificial han logrado grandes avances en tareas como el reconocimiento facial o la clasificación de imágenes, siguen quedándose cortos en una habilidad crucial para interactuar con humanos: interpretar correctamente las interacciones sociales en movimiento. Así lo demuestra un nuevo estudio de la Universidad Johns Hopkins, publicado el 24 de abril de 2025.

La investigación, liderada por la profesora Leyla Isik y presentada en la Conferencia Internacional sobre Representaciones de Aprendizaje, pone en evidencia que los humanos aún superan ampliamente a los modelos de IA cuando se trata de comprender las dinámicas sociales de una escena, un requisito esencial para tecnologías como vehículos autónomos, robots asistenciales y sistemas de vigilancia inteligente.

En el experimento, los científicos compararon las respuestas de personas y más de 350 modelos de IA ante videos de tres segundos que mostraban distintos tipos de interacciones humanas. Los participantes humanos calificaron aspectos sociales clave en una escala del uno al cinco. En contraste, los modelos de IA —de lenguaje, video e imagen— no lograron predecir ni describir adecuadamente las interacciones mostradas.

“La IA necesita saber si dos personas están conversando o a punto de cruzar una calle. Pero nuestros hallazgos muestran que aún no pueden hacer eso con fiabilidad”, explicó Isik. El estudio reveló que los modelos de video fueron los menos precisos al describir la actividad social, mientras que los de lenguaje lograron mejores resultados al predecir la respuesta humana.

Publicidad

La coautora Kathy García, quien presentó los resultados, destacó que los modelos actuales están basados en redes neuronales inspiradas en zonas del cerebro que procesan imágenes estáticas, no en las regiones que interpretan escenas dinámicas. Esto podría estar limitando su capacidad de comprender historias visuales complejas.

El estudio sugiere que, si bien la IA ha progresado en el reconocimiento de imágenes fijas, interpretar escenas sociales requiere una arquitectura cognitiva más compleja. "Comprender relaciones y contexto en movimiento es una habilidad que la IA aún no domina", afirmó García.

Los investigadores concluyen que para lograr una verdadera inteligencia social artificial, los sistemas deben integrar capacidades similares a las del cerebro humano en lo que respecta al procesamiento de escenas dinámicas. Este hallazgo plantea nuevos desafíos y oportunidades en el diseño de futuras arquitecturas de IA que convivan con seres humanos.

Referencias: Universidad Johns Hopkins

Publicidad

Continúa informándote

Logotipo azul de Meta sobre fondo blanco
Tecnología

Meta firma acuerdos con CNN, Fox News y Le Monde para reforzar el contenido de su IA

Meta firma acuerdos con CNN, Fox News, Le Monde y otros medios para mejorar la calidad y precisión de Meta AI con noticias en tiempo real y fuentes verificadas

Render de un chip con el logotipo de OpenAI y el texto GPT-5.2 resaltado sobre un circuito electrónico
Tecnología

GPT-5.2 llega antes de lo previsto: la contraofensiva de OpenAI ante Gemini 3

OpenAI adelanta el lanzamiento de GPT-5.2 para responder al avance de Gemini 3 y reforzar su posición en la carrera de la inteligencia artificial

Logo de Reddit sobre un fondo naranja sólido
Tecnología

La IA invade Reddit: usuarios y moderadores denuncian que el sitio pierde su esencia

Moderadores y usuarios alertan que la IA está inundando Reddit con publicaciones poco auténticas, erosionando la confianza y cambiando la esencia de la plataforma

Logos de Netflix y Warner Bros. Discovery destacados frente a un fondo de estudio iluminado
Tecnología

La mayor compra del streaming: Netflix absorberá Warner Bros. por más de 82.700 millones

Netflix anuncia la compra de Warner Bros. por 82.700 millones de dólares, una operación histórica que redefine el futuro del streaming y sacude a Hollywood

Dos personas debaten frente a una pantalla que muestra una figura digital de IA rodeada de burbujas de diálogo
Tecnología

Descubren las técnicas que permiten a la IA convencer mejor a las personas en debates políticos

Un estudio con 76.000 personas revela que la IA persuade mejor cuando usa abundante información y técnicas de posentrenamiento, aunque esto puede reducir la precisión de sus datos

Secuencia de un OCTOID cambiando de color mientras avanza hacia una presa en una simulación de caza
Tecnología

Crean un robot blando capaz de cambiar de color, moverse y agarrar objetos como un pulpo

Robot blando inspirado en pulpos combina camuflaje, movimiento direccional y agarre mediante materiales que cambian de color y forma con estímulos eléctricos