Humanos superan a la inteligencia artificial en la comprensión de interacciones sociales en movimiento

Un estudio de Johns Hopkins revela que la IA aún no puede igualar la comprensión humana de interacciones sociales en escenas dinámicas

Autor - Aldo Venuta Rodríguez

3 min lectura

Comparativa visual entre percepción humana y análisis de modelos de IA ante escenas sociales dinámicas.
Ilustración conceptual que muestra cómo los humanos superan a los modelos de IA al interpretar interacciones sociales dinámicas, según un estudio de Johns Hopkins.

Aunque los modelos de inteligencia artificial han logrado grandes avances en tareas como el reconocimiento facial o la clasificación de imágenes, siguen quedándose cortos en una habilidad crucial para interactuar con humanos: interpretar correctamente las interacciones sociales en movimiento. Así lo demuestra un nuevo estudio de la Universidad Johns Hopkins, publicado el 24 de abril de 2025.

La investigación, liderada por la profesora Leyla Isik y presentada en la Conferencia Internacional sobre Representaciones de Aprendizaje, pone en evidencia que los humanos aún superan ampliamente a los modelos de IA cuando se trata de comprender las dinámicas sociales de una escena, un requisito esencial para tecnologías como vehículos autónomos, robots asistenciales y sistemas de vigilancia inteligente.

En el experimento, los científicos compararon las respuestas de personas y más de 350 modelos de IA ante videos de tres segundos que mostraban distintos tipos de interacciones humanas. Los participantes humanos calificaron aspectos sociales clave en una escala del uno al cinco. En contraste, los modelos de IA —de lenguaje, video e imagen— no lograron predecir ni describir adecuadamente las interacciones mostradas.

“La IA necesita saber si dos personas están conversando o a punto de cruzar una calle. Pero nuestros hallazgos muestran que aún no pueden hacer eso con fiabilidad”, explicó Isik. El estudio reveló que los modelos de video fueron los menos precisos al describir la actividad social, mientras que los de lenguaje lograron mejores resultados al predecir la respuesta humana.

Publicidad

La coautora Kathy García, quien presentó los resultados, destacó que los modelos actuales están basados en redes neuronales inspiradas en zonas del cerebro que procesan imágenes estáticas, no en las regiones que interpretan escenas dinámicas. Esto podría estar limitando su capacidad de comprender historias visuales complejas.

El estudio sugiere que, si bien la IA ha progresado en el reconocimiento de imágenes fijas, interpretar escenas sociales requiere una arquitectura cognitiva más compleja. "Comprender relaciones y contexto en movimiento es una habilidad que la IA aún no domina", afirmó García.

Los investigadores concluyen que para lograr una verdadera inteligencia social artificial, los sistemas deben integrar capacidades similares a las del cerebro humano en lo que respecta al procesamiento de escenas dinámicas. Este hallazgo plantea nuevos desafíos y oportunidades en el diseño de futuras arquitecturas de IA que convivan con seres humanos.

Referencias: Universidad Johns Hopkins

Publicidad

Continúa informándote

Nueva interfaz de Google Maps mostrando una ruta con indicaciones y búsqueda asistida por IA en un smartphone
Tecnología

Google Maps integra Gemini: nuevas funciones de IA y cómo activarlas en tu móvil

Google Maps empieza a integrar Gemini como asistente de voz: más funciones, respuestas naturales y nuevas formas de pedir rutas, información y acciones sin tocar la pantalla

Teléfono móvil sobre una superficie gris mostrando el logotipo de X en la pantalla
Tecnología

Cómo pequeños cambios en el feed de X pueden modificar actitudes políticas en solo días

Un experimento independiente demuestra que pequeñas variaciones en el contenido político que muestra X pueden cambiar actitudes y emociones hacia partidos rivales en solo unos días

Dron sobrevolando una granja mientras graba a un grupo de pavos, usado para identificar su comportamiento mediante visión artificial
Tecnología

Un dron con IA logra identificar el comportamiento de los pavos con un 87% de precisión, según Penn State

Un dron equipado con visión artificial logró detectar comportamientos de pavos con hasta un 87% de precisión, según un estudio de Penn State que busca mejorar el monitoreo del bienestar animal en granjas comerciales

Fondo azul oscuro con la palabra “Microsoft” centrada en tipografía limpia y minimalista
Tecnología

Francia rechaza las acusaciones de Qwant y exonera a Microsoft de abuso de dominio

El regulador francés descarta la denuncia de Qwant contra Microsoft por supuestas prácticas anticompetitivas y concluye que no hay pruebas suficientes para abrir acciones contra la compañía

Persona sosteniendo un smartphone con la pantalla de inicio de sesión de Instagram abierta
Tecnología

No eres adicto a Instagram: solo tienes un hábito muy fuerte

Las redes sociales no son tan adictivas como parece: la mayoría de usuarios confunde hábitos fuertes con adicción real, lo que reduce su sensación de control y aumenta la culpa

Robot humanoide metálico sentado en una mesa de trabajo
Tecnología

Por qué la inteligencia artificial sigue fallando al contar caracteres

La inteligencia artificial avanza rápido, pero sigue fallando en algo tan básico como contar caracteres. Por qué ocurre, cómo afecta a usuarios y qué limitaciones explican este problema