Investigadores de Cornell Tech analizaron cómo las herramientas de escritura asistida por inteligencia artificial pueden modificar las opiniones de quienes las utilizan mientras redactan textos. El trabajo, revisado por pares y publicado en Science Advances, se centra en el impacto que pueden tener las sugerencias automáticas de autocompletado cuando aparecen durante el proceso de escritura.
El estudio se desarrolló a través de dos experimentos que en conjunto involucraron a más de 2500 participantes. Durante las pruebas, los voluntarios debían escribir pequeños textos sobre distintos temas sociales mientras un asistente de escritura basado en IA ofrecía sugerencias automáticas para completar frases o continuar sus argumentos.
Los investigadores diseñaron deliberadamente esas sugerencias con una orientación específica. El sistema generaba autocompletados que favorecían determinadas posiciones sobre los temas tratados. El objetivo era observar si esas sugerencias podían influir en la manera en que los participantes desarrollaban sus textos y, con el tiempo, en sus propias opiniones.
Los temas elegidos incluían debates sociales y políticos relevantes, como la pena de muerte, el fracking, los organismos genéticamente modificados y el derecho al voto de personas condenadas por delitos. En otro de los experimentos, los participantes debían escribir sobre el papel de las pruebas estandarizadas dentro del sistema educativo.
Mientras redactaban, los participantes veían cómo el sistema sugería frases completas o fragmentos de argumento que podían aceptar o ignorar. Estas sugerencias no eran simples ayudas gramaticales, sino propuestas de contenido que orientaban el texto hacia una determinada interpretación del tema tratado.
Antes y después de los ejercicios, los investigadores evaluaron las opiniones de los participantes mediante encuestas. El análisis mostró un patrón consistente: las personas que utilizaron el asistente con sugerencias sesgadas tendieron a ajustar sus posiciones hacia la perspectiva reflejada en las recomendaciones generadas por la inteligencia artificial.
Otro resultado destacado fue que la mayoría de los participantes no era consciente de este cambio. Las personas modificaban gradualmente sus posturas mientras escribían, pero no percibían que las sugerencias del sistema podían estar influyendo en la forma en que formulaban sus argumentos.
El equipo también intentó probar mecanismos para reducir este efecto. En algunos casos se informó a los participantes antes de comenzar que la inteligencia artificial podía ofrecer sugerencias sesgadas. En otros, la advertencia se dio después de terminar la actividad de escritura.
Los resultados mostraron que esas advertencias no lograron disminuir la influencia observada. Incluso cuando los participantes sabían que el sistema podía contener sesgos, las mediciones posteriores indicaron que sus actitudes seguían desplazándose hacia las posiciones sugeridas por el asistente de escritura.
Los investigadores explican que este fenómeno adquiere relevancia porque las funciones de autocompletado se han vuelto cada vez más comunes en herramientas digitales de uso cotidiano. Aplicaciones de correo electrónico o escritura ya utilizan sistemas capaces de sugerir frases completas, lo que amplía el alcance potencial de este tipo de influencia.
El estudio también subraya que los modelos de lenguaje utilizados en asistentes de escritura pueden generar respuestas con distintos grados de sesgo dependiendo de cómo se entrenen o se implementen. Cuando esas sugerencias se integran en el proceso de escritura, pueden terminar moldeando las ideas que las personas expresan y, con el tiempo, las opiniones que mantienen sobre determinados temas.