Humanos superan a la inteligencia artificial en la comprensión de interacciones sociales en movimiento

Un estudio de Johns Hopkins revela que la IA aún no puede igualar la comprensión humana de interacciones sociales en escenas dinámicas

Autor - Aldo Venuta Rodríguez

3 min lectura

Comparativa visual entre percepción humana y análisis de modelos de IA ante escenas sociales dinámicas.
Ilustración conceptual que muestra cómo los humanos superan a los modelos de IA al interpretar interacciones sociales dinámicas, según un estudio de Johns Hopkins.

Aunque los modelos de inteligencia artificial han logrado grandes avances en tareas como el reconocimiento facial o la clasificación de imágenes, siguen quedándose cortos en una habilidad crucial para interactuar con humanos: interpretar correctamente las interacciones sociales en movimiento. Así lo demuestra un nuevo estudio de la Universidad Johns Hopkins, publicado el 24 de abril de 2025.

La investigación, liderada por la profesora Leyla Isik y presentada en la Conferencia Internacional sobre Representaciones de Aprendizaje, pone en evidencia que los humanos aún superan ampliamente a los modelos de IA cuando se trata de comprender las dinámicas sociales de una escena, un requisito esencial para tecnologías como vehículos autónomos, robots asistenciales y sistemas de vigilancia inteligente.

En el experimento, los científicos compararon las respuestas de personas y más de 350 modelos de IA ante videos de tres segundos que mostraban distintos tipos de interacciones humanas. Los participantes humanos calificaron aspectos sociales clave en una escala del uno al cinco. En contraste, los modelos de IA —de lenguaje, video e imagen— no lograron predecir ni describir adecuadamente las interacciones mostradas.

“La IA necesita saber si dos personas están conversando o a punto de cruzar una calle. Pero nuestros hallazgos muestran que aún no pueden hacer eso con fiabilidad”, explicó Isik. El estudio reveló que los modelos de video fueron los menos precisos al describir la actividad social, mientras que los de lenguaje lograron mejores resultados al predecir la respuesta humana.

Publicidad

La coautora Kathy García, quien presentó los resultados, destacó que los modelos actuales están basados en redes neuronales inspiradas en zonas del cerebro que procesan imágenes estáticas, no en las regiones que interpretan escenas dinámicas. Esto podría estar limitando su capacidad de comprender historias visuales complejas.

El estudio sugiere que, si bien la IA ha progresado en el reconocimiento de imágenes fijas, interpretar escenas sociales requiere una arquitectura cognitiva más compleja. "Comprender relaciones y contexto en movimiento es una habilidad que la IA aún no domina", afirmó García.

Los investigadores concluyen que para lograr una verdadera inteligencia social artificial, los sistemas deben integrar capacidades similares a las del cerebro humano en lo que respecta al procesamiento de escenas dinámicas. Este hallazgo plantea nuevos desafíos y oportunidades en el diseño de futuras arquitecturas de IA que convivan con seres humanos.

Referencias: Universidad Johns Hopkins

Publicidad

Preguntas frecuentes

¿Qué reveló el estudio de Johns Hopkins sobre la IA?

Que la IA aún no puede interpretar interacciones sociales como lo hacen los humanos.

¿Qué modelos fueron evaluados en la investigación?

Más de 350 modelos de IA de lenguaje, imagen y video fueron puestos a prueba.

¿Por qué falla la IA en entender escenas dinámicas?

Porque su arquitectura está basada en el procesamiento de imágenes fijas, no de contexto social.

¿Qué implica este estudio para el desarrollo futuro de la IA?

Sugiere que la IA debe mejorar en la comprensión del comportamiento humano en movimiento.

Continúa informándote

Un teléfono móvil encendido muestra el logo de WhatsApp sobre un fondo claro
Tecnología

Descubren una grave vulnerabilidad en WhatsApp que permitió enumerar 3.500 millones de cuentas

Una falla en WhatsApp permitió identificar 3.500 millones de cuentas en todo el mundo. Investigadores revelan cómo funcionaba el fallo y Meta ya lo ha corregido

Iconos de Instagram y WhatsApp vistos de cerca en la pantalla de un móvil
Tecnología

Meta gana el juicio antimonopolio y mantiene el control sobre Instagram y WhatsApp

Meta logró una victoria clave en EE. UU. tras el rechazo de la demanda antimonopolio de la FTC, lo que le permite conservar el control de Instagram y WhatsApp en un mercado considerado competitivo

Logo de Meta sobre un fondo borroso con un teléfono mostrando un reel en pantalla
Tecnología

Meta lanza una herramienta para proteger a los creadores de reels contra el plagio en Facebook e Instagram

Meta lanza una herramienta que detecta reels robados y permite a los creadores bloquear copias, añadir atribución o seguir su rendimiento en Facebook e Instagram.

Centro de datos de Google en la Isla de Navidad
Tecnología

Google construirá un centro de datos en la Isla de Navidad y presiona para impulsar energías renovables en el territorio australiano

El nuevo centro de datos de Google en la Isla de Navidad abre un debate sobre el futuro energético de la isla y podría acelerar la transición hacia fuentes renovables en un territorio aislado

Robot cuadrúpedo futurista en primer plano, con diseño metálico y articulaciones avanzadas, caminando sobre un suelo industrial mientras una gran pantalla borrosa ilumina el fondo
Tecnología

Robots que saltan y caminan: los desafíos clave para lograr un movimiento realmente biónico

Un estudio analiza los principales retos que frenan a los robots con patas: desde la complejidad mecánica y el control en tiempo real hasta la transición de la simulación al mundo físico

Humanoide de aspecto metálico observado en primer plano frente a una gran pantalla
Tecnología

La IA ya puede manipular encuestas y pasar por humana sin ser detectada

La IA puede imitar a personas reales, superar controles y alterar encuestas con pocas respuestas falsas. Un estudio revela la vulnerabilidad de los sondeos en la era digital