Tecnología
Publicado:

Cómo pequeños cambios en el feed de X pueden modificar actitudes políticas en solo días

Investigadores prueban que pequeñas variaciones en la cantidad de contenido político agresivo en X generan cambios rápidos en cómo los usuarios sienten y reaccionan

4 min lectura
Teléfono móvil sobre una superficie gris mostrando el logotipo de X en la pantalla
Imagen ilustrativa. Créditos: Iceebook

Un nuevo experimento demuestra algo que muchos intuían pero que casi nadie había podido probar con datos reales: cambiar ligeramente el contenido político que aparece en tu feed puede modificar tu actitud hacia partidos rivales en cuestión de días. Y lo más llamativo es que el estudio no dependió del algoritmo de X, sino de una herramienta externa creada por investigadores.

El trabajo fue dirigido por un equipo que desarrolló una extensión de navegador capaz de reordenar el feed de X en tiempo real, sin colaboración de la plataforma. La herramienta funcionaba como un bloqueador de anuncios, pero en vez de ocultar contenido, reorganizaba los posts para aumentar o reducir la presencia de mensajes políticos hostiles.

Con esta extensión, los científicos pudieron realizar un experimento de campo poco común: manipular lo que veían 1.256 usuarios durante diez días, en plena campaña presidencial de Estados Unidos de 2024. Cada persona recibió un feed diferente: algunos veían más contenido hostil, otros menos y un grupo de control lo veía igual que siempre.

Los resultados fueron claros. Quienes vieron menos contenido político agresivo desarrollaron actitudes más cálidas hacia el partido contrario. En promedio, su percepción mejoró más de dos puntos en una escala de cien. En cambio, quienes estuvieron expuestos a más hostilidad se volvieron más fríos hacia el partido rival.

Según los investigadores, este cambio es notable: equivale a varios años de aumento natural de la polarización, comprimidos en apenas diez días. Además, el efecto se observó en personas de distintos perfiles, no solo en los más politizados o en los más activos en la plataforma.

El experimento también midió emociones. Los participantes rellenaban pequeñas encuestas dentro del propio feed y reportaron cambios en la ira y la tristeza según su exposición al contenido hostil. Es decir: no solo cambiaron las actitudes políticas, también lo que sentían mientras usaban la aplicación.

Para los autores, el estudio ofrece una prueba causal directa de algo que las redes sociales han esquivado durante años: los algoritmos que seleccionan lo que vemos pueden cambiar nuestras emociones y nuestras opiniones, no de forma absoluta, pero sí de forma medible y sorprendentemente rápida.

Esto plantea preguntas importantes. Si un pequeño ajuste experimental hecho desde un navegador puede influir en miles de usuarios, ¿qué impacto puede tener una plataforma entera cuando modifica su algoritmo sin aviso? ¿Y cómo cambia la conversación pública cuando estos sistemas priorizan la hostilidad por encima del debate?

Los expertos señalan que este estudio no es la última palabra sobre el tema. Cada red social funciona de manera distinta y los efectos pueden variar según el contexto. Pero sí representa un avance metodológico: por primera vez, investigadores independientes pueden probar cómo nos afecta la clasificación algorítmica sin depender de las empresas tecnológicas.

El trabajo también abre una puerta para entender mejor cómo reducir la polarización. Si bajar la presencia de contenido hostil hace que las personas se perciban menos enemigas entre sí, quizá sea posible diseñar redes sociales que no amplifiquen la confrontación como fórmula por defecto.

Queda por ver si estos cambios son duraderos. El experimento midió efectos inmediatos, no cómo se comportan los usuarios semanas después. Aun así, el estudio demuestra que lo que vemos en redes sociales no es neutro y que pequeñas modificaciones pueden moldear, para bien o para mal, cómo pensamos de los demás.

Resumen

  • Una extensión externa reordenó el feed de X para aumentar o reducir contenido político hostil.
  • En diez días, los usuarios cambiaron su actitud hacia partidos rivales según su exposición.
  • Menos hostilidad generó percepciones más cálidas; más hostilidad, actitudes más frías.
  • El experimento también mostró cambios en emociones como ira y tristeza durante el uso.

Fuente: Science

Preguntas frecuentes

Qué demuestra el experimento sobre el feed de X

Que pequeños cambios en la cantidad de contenido político hostil pueden modificar actitudes hacia partidos rivales en solo unos días

Cómo lograron modificar el feed sin ayuda de X

Usaron una extensión de navegador que reorganizaba los posts en tiempo real aumentando o reduciendo la presencia de mensajes hostiles

Qué efectos tuvieron los cambios en las emociones

Los usuarios expuestos a más hostilidad reportaron más ira y tristeza mientras que quienes vieron menos contenido agresivo mostraron menos emociones negativas

Por qué es importante este hallazgo para entender el papel de las redes

Porque muestra que lo que vemos no es neutro y que ajustes mínimos en la clasificación algorítmica pueden influir rápido en opiniones y estados emocionales

Compartir artículo

Continúa informándote