Humanos superan a la inteligencia artificial en la comprensión de interacciones sociales en movimiento

Un estudio de Johns Hopkins revela que la IA aún no puede igualar la comprensión humana de interacciones sociales en escenas dinámicas

Autor - Aldo Venuta Rodríguez

3 min lectura

Comparativa visual entre percepción humana y análisis de modelos de IA ante escenas sociales dinámicas.
Ilustración conceptual que muestra cómo los humanos superan a los modelos de IA al interpretar interacciones sociales dinámicas, según un estudio de Johns Hopkins.

Aunque los modelos de inteligencia artificial han logrado grandes avances en tareas como el reconocimiento facial o la clasificación de imágenes, siguen quedándose cortos en una habilidad crucial para interactuar con humanos: interpretar correctamente las interacciones sociales en movimiento. Así lo demuestra un nuevo estudio de la Universidad Johns Hopkins, publicado el 24 de abril de 2025.

La investigación, liderada por la profesora Leyla Isik y presentada en la Conferencia Internacional sobre Representaciones de Aprendizaje, pone en evidencia que los humanos aún superan ampliamente a los modelos de IA cuando se trata de comprender las dinámicas sociales de una escena, un requisito esencial para tecnologías como vehículos autónomos, robots asistenciales y sistemas de vigilancia inteligente.

En el experimento, los científicos compararon las respuestas de personas y más de 350 modelos de IA ante videos de tres segundos que mostraban distintos tipos de interacciones humanas. Los participantes humanos calificaron aspectos sociales clave en una escala del uno al cinco. En contraste, los modelos de IA —de lenguaje, video e imagen— no lograron predecir ni describir adecuadamente las interacciones mostradas.

“La IA necesita saber si dos personas están conversando o a punto de cruzar una calle. Pero nuestros hallazgos muestran que aún no pueden hacer eso con fiabilidad”, explicó Isik. El estudio reveló que los modelos de video fueron los menos precisos al describir la actividad social, mientras que los de lenguaje lograron mejores resultados al predecir la respuesta humana.

Publicidad

La coautora Kathy García, quien presentó los resultados, destacó que los modelos actuales están basados en redes neuronales inspiradas en zonas del cerebro que procesan imágenes estáticas, no en las regiones que interpretan escenas dinámicas. Esto podría estar limitando su capacidad de comprender historias visuales complejas.

El estudio sugiere que, si bien la IA ha progresado en el reconocimiento de imágenes fijas, interpretar escenas sociales requiere una arquitectura cognitiva más compleja. "Comprender relaciones y contexto en movimiento es una habilidad que la IA aún no domina", afirmó García.

Los investigadores concluyen que para lograr una verdadera inteligencia social artificial, los sistemas deben integrar capacidades similares a las del cerebro humano en lo que respecta al procesamiento de escenas dinámicas. Este hallazgo plantea nuevos desafíos y oportunidades en el diseño de futuras arquitecturas de IA que convivan con seres humanos.

Referencias: Universidad Johns Hopkins

Publicidad

Preguntas frecuentes

¿Qué reveló el estudio de Johns Hopkins sobre la IA?

Que la IA aún no puede interpretar interacciones sociales como lo hacen los humanos.

¿Qué modelos fueron evaluados en la investigación?

Más de 350 modelos de IA de lenguaje, imagen y video fueron puestos a prueba.

¿Por qué falla la IA en entender escenas dinámicas?

Porque su arquitectura está basada en el procesamiento de imágenes fijas, no de contexto social.

¿Qué implica este estudio para el desarrollo futuro de la IA?

Sugiere que la IA debe mejorar en la comprensión del comportamiento humano en movimiento.

Continúa informándote

Logo de Microsoft sobre fondo azul
Tecnología

Microsoft en Aragón: el plan energético que supera el consumo de toda la región

Microsoft planea tres centros de datos en Aragón con un consumo eléctrico superior al de toda la comunidad, un proyecto que tensiona la red regional y cuestiona la planificación energética española

Chip IA sobre fondo azul con estrellas de la UE
Tecnología

La UE recorta protecciones clave del RGPD y aplaza normas de la IA ante la presión de la industria

La Comisión Europea propone cambios que suavizan partes del RGPD y aplazan requisitos de la Ley de IA, buscando reducir burocracia y reactivar el crecimiento mientras crece la presión de la industria tecnológica

logotipo azul de Bluesky sobre un fondo degradado en tonos celestes, con pequeñas estrellas blancas dispersas
Tecnología

Bluesky refuerza su sistema de moderación con más control, nuevas sanciones y mayor transparencia

Bluesky actualiza su moderación con más categorías de denuncia, un sistema de sanciones graduado y herramientas internas mejoradas para ofrecer más coherencia, claridad y transparencia a los usuarios

Texto Gemini 3 sobre fondo azul degradado
Tecnología

Google presenta Gemini 3, su modelo más potente, con avances clave en razonamiento y programación

Google lanza Gemini 3 con mejoras notables en razonamiento, récords en pruebas de rendimiento y una nueva aplicación de programación agentiva que amplía las capacidades del ecosistema Gemini

Ilustración de un entorno de oficina con un símbolo de inteligencia artificial brillando en el centro
Tecnología

Un nuevo estudio revela que la IA no siempre mejora la vida laboral: existe un punto crítico

Un análisis de más de 500 empresas muestra que la IA solo mejora la satisfacción laboral hasta cierto punto; cuando su adopción se vuelve excesiva surgen presión, pérdida de autonomía y temor al reemplazo

Un teléfono móvil encendido muestra el logo de WhatsApp sobre un fondo claro
Tecnología

Descubren una grave vulnerabilidad en WhatsApp que permitió enumerar 3.500 millones de cuentas

Una falla en WhatsApp permitió identificar 3.500 millones de cuentas en todo el mundo. Investigadores revelan cómo funcionaba el fallo y Meta ya lo ha corregido