Logotipo de Iceebook Iceebook - Noticias de Ciencia, Tecnología, Economía y más

Humanos superan a la inteligencia artificial en la comprensión de interacciones sociales en movimiento

Un estudio de Johns Hopkins revela que la IA aún no puede igualar la comprensión humana de interacciones sociales en escenas dinámicas

Autor - Aldo Venuta Rodríguez

3 min lectura

Comparativa visual entre percepción humana y análisis de modelos de IA ante escenas sociales dinámicas.
Ilustración conceptual que muestra cómo los humanos superan a los modelos de IA al interpretar interacciones sociales dinámicas, según un estudio de Johns Hopkins.

Aunque los modelos de inteligencia artificial han logrado grandes avances en tareas como el reconocimiento facial o la clasificación de imágenes, siguen quedándose cortos en una habilidad crucial para interactuar con humanos: interpretar correctamente las interacciones sociales en movimiento. Así lo demuestra un nuevo estudio de la Universidad Johns Hopkins, publicado el 24 de abril de 2025.

La investigación, liderada por la profesora Leyla Isik y presentada en la Conferencia Internacional sobre Representaciones de Aprendizaje, pone en evidencia que los humanos aún superan ampliamente a los modelos de IA cuando se trata de comprender las dinámicas sociales de una escena, un requisito esencial para tecnologías como vehículos autónomos, robots asistenciales y sistemas de vigilancia inteligente.

En el experimento, los científicos compararon las respuestas de personas y más de 350 modelos de IA ante videos de tres segundos que mostraban distintos tipos de interacciones humanas. Los participantes humanos calificaron aspectos sociales clave en una escala del uno al cinco. En contraste, los modelos de IA —de lenguaje, video e imagen— no lograron predecir ni describir adecuadamente las interacciones mostradas.

“La IA necesita saber si dos personas están conversando o a punto de cruzar una calle. Pero nuestros hallazgos muestran que aún no pueden hacer eso con fiabilidad”, explicó Isik. El estudio reveló que los modelos de video fueron los menos precisos al describir la actividad social, mientras que los de lenguaje lograron mejores resultados al predecir la respuesta humana.

La coautora Kathy García, quien presentó los resultados, destacó que los modelos actuales están basados en redes neuronales inspiradas en zonas del cerebro que procesan imágenes estáticas, no en las regiones que interpretan escenas dinámicas. Esto podría estar limitando su capacidad de comprender historias visuales complejas.

El estudio sugiere que, si bien la IA ha progresado en el reconocimiento de imágenes fijas, interpretar escenas sociales requiere una arquitectura cognitiva más compleja. "Comprender relaciones y contexto en movimiento es una habilidad que la IA aún no domina", afirmó García.

Los investigadores concluyen que para lograr una verdadera inteligencia social artificial, los sistemas deben integrar capacidades similares a las del cerebro humano en lo que respecta al procesamiento de escenas dinámicas. Este hallazgo plantea nuevos desafíos y oportunidades en el diseño de futuras arquitecturas de IA que convivan con seres humanos.

Referencias: Universidad Johns Hopkins

Continúa informándote

Interior de mina de uranio con maquinaria pesada y rocas extraídas en primer plano
Tecnología

NexGen explora acuerdos con tecnológicas para financiar nuevas minas de uranio ante el auge de la IA

NexGen explora acuerdos con empresas tecnológicas y centros de datos para financiar nuevas minas de uranio y asegurar suministro nuclear ante el crecimiento energético de la inteligencia artificial

Logo de Claude en blanco sobre fondo naranja con el texto “Sonnet 4.6”
Tecnología

Anthropic lanza Claude Sonnet 4.6 con mejoras en codificación y menos alucinaciones

Anthropic lanza Claude Sonnet 4.6 con mejoras en codificación, menor tasa de alucinaciones y ventana de contexto ampliada, acercando la gama media al rendimiento de modelos premium

IA con gráfico financiero ascendente sobre fondo digital oscuro
Tecnología

Las empresas exigen resultados financieros reales a la inteligencia artificial

La industria endurece la evaluación del retorno de inversión en inteligencia artificial y exige impacto real en ingresos, costes y rentabilidad en 2026

Logotipo blanco de Z.ai junto al texto GLM-5 sobre fondo digital oscuro
Tecnología

GLM-5 amplía las capacidades de los modelos abiertos hacia sistemas completos

GLM-5 impulsa la transición hacia la ingeniería agencial en IA, donde los modelos de código abierto ya no solo generan código, sino que planifican y ejecutan sistemas completos

Robot humanoide en primer plano con banderas desenfocadas en la cumbre de IA en Nueva Delhi.
Tecnología

India busca redefinir su papel en la gobernanza global de la inteligencia artificial

India reúne a líderes de OpenAI, Google y otras tecnológicas en una cumbre que busca posicionar al país como actor clave en la adopción y gobernanza global de la inteligencia artificial

Robot sosteniendo un gráfico digital luminoso en tonos azules y rojos
Tecnología

Oleada de tráfico bot desde Asia distorsiona métricas y pone en riesgo la monetización web

El aumento de tráfico bot desde China y Singapur altera métricas, encarece costes y pone en riesgo la monetización web ligada a Google AdSense.