Un estudio del Instituto de Ciencias de la Información (ISI) de la Universidad del Sur de California plantea un escenario inquietante para el ecosistema digital. Los investigadores concluyen que los agentes de inteligencia artificial basados en grandes modelos de lenguaje ya pueden coordinar campañas de propaganda y desinformación de manera autónoma dentro de redes sociales simuladas.
La investigación analizó cómo estos sistemas pueden reproducir dinámicas típicas de operaciones de influencia en internet. A diferencia de los bots tradicionales —que siguen instrucciones preprogramadas por operadores humanos— los agentes generativos pueden interactuar entre sí, aprender de la conversación y adaptar su comportamiento para reforzar narrativas específicas.
Para estudiar este fenómeno, los científicos desarrollaron un modelo experimental llamado Generative Agent-Based Modeling (GABM). Este sistema permitió crear una red artificial inspirada en la plataforma X, anteriormente conocida como Twitter, donde múltiples agentes de IA podían interactuar como si fueran usuarios reales.
El experimento incluyó cincuenta agentes en total. Diez actuaban como participantes activos de una campaña de influencia diseñada para amplificar determinadas narrativas, mientras que los cuarenta restantes representaban usuarios ordinarios dentro del entorno social simulado.
Cada agente fue programado con tres componentes básicos que imitaban comportamientos humanos en redes sociales. El primero era un perfil ideológico que definía su identidad y posición política. El segundo era una memoria que registraba las interacciones previas. El tercero era una política de acción que determinaba cuándo publicar, responder, compartir mensajes o seguir a otros perfiles.
El equipo probó diferentes niveles de coordinación entre los agentes de la campaña. En el escenario más simple, todos conocían el objetivo común pero no sabían quiénes eran sus aliados. En configuraciones más avanzadas, los agentes podían identificar a otros miembros del grupo e incluso deliberar colectivamente sobre las estrategias de interacción.
Los resultados mostraron que, incluso con niveles limitados de coordinación, los agentes generaron comportamientos característicos de campañas reales de manipulación informativa. Entre ellos se observaron la amplificación coordinada de mensajes, el refuerzo de narrativas compartidas y la sincronización en la publicación de contenidos.
Uno de los indicadores analizados fue la proporción de republicaciones entre los participantes de la campaña. Cuando los agentes solo compartían un objetivo común, el valor alcanzó 0,82. Cuando también conocían a sus aliados, el indicador subió a 0,96, lo que refleja un nivel de amplificación casi total entre los miembros del grupo.
Otro dato relevante fue la densidad de la red, una medida que indica cuántas conexiones existen entre los participantes. Este valor aumentó de 0,74 en el escenario básico a 0,89 en las configuraciones con mayor coordinación. En términos prácticos, significa que los agentes tendían a interactuar cada vez más entre sí, formando comunidades altamente conectadas que reforzaban su propio contenido.
Los investigadores también observaron un incremento en la similitud de los patrones de republicación. Este indicador pasó de 0,28 en el escenario inicial a 0,35 cuando los agentes podían deliberar colectivamente. Ese aumento indica que los mensajes comenzaban a difundirse de forma sincronizada, una estrategia que puede impulsar artificialmente la visibilidad de determinados contenidos en las plataformas.
Este tipo de comportamiento puede generar lo que los especialistas llaman “ilusión de consenso”. Cuando múltiples cuentas publican mensajes similares en un corto periodo de tiempo, los algoritmos de las redes sociales tienden a interpretarlo como una señal de relevancia, amplificando aún más el contenido.
Los autores subrayan que esta capacidad de coordinación autónoma marca una diferencia clave frente a los sistemas de bots tradicionales. Mientras las campañas actuales suelen requerir operadores humanos que supervisen la actividad, los agentes generativos podrían ejecutar estas operaciones de manera automática, reduciendo costes y acelerando su propagación.
El estudio también reconoce varias limitaciones importantes. La simulación incluyó solo cincuenta agentes, utilizó un único modelo de lenguaje y se desarrolló en un entorno experimental inspirado en una red social, no en una plataforma real con millones de usuarios.
Aun así, los investigadores advierten que los resultados muestran un riesgo potencial para la integridad del ecosistema informativo digital. En contextos como procesos electorales, crisis sanitarias o debates políticos sensibles, la capacidad de coordinar campañas de influencia automatizadas podría amplificar la polarización y dificultar la detección de operaciones de manipulación a gran escala.