Durante años se ha hablado del riesgo de que la inteligencia artificial pueda influir en la opinión pública, pero hasta ahora no estaba claro qué factores la hacen realmente persuasiva. Un nuevo estudio, basado en más de 76.000 participantes y cientos de miles de mensajes generados por modelos de lenguaje, ofrece por primera vez una respuesta clara: la IA convence mejor cuando despliega mucha información y cuando ha sido entrenada específicamente para ese objetivo.
Los investigadores analizaron 19 modelos distintos, desde sistemas pequeños de código abierto hasta los más avanzados del mercado. La comparación reveló que el tamaño del modelo importa, pero mucho menos de lo que se pensaba. El verdadero salto se produce en el posentrenamiento: la fase en la que los desarrolladores ajustan el comportamiento del modelo para que razone mejor, converse con más fluidez o, en este caso, resulte más persuasivo. Esos ajustes pueden aumentar la capacidad de influencia hasta en un 50%, superando por amplio margen los beneficios de simplemente hacer el modelo más grande.
Una de las conclusiones más llamativas del trabajo es que la IA persuade sobre todo cuando llena la conversación de datos, ejemplos y afirmaciones verificables. Cuanta más información ofrece, mayor es su impacto en el cambio de opinión de los usuarios. Este patrón se repitió independientemente del tema político, el modelo utilizado o el tipo de persona que participaba en el experimento.
Sin embargo, el estudio también detectó una preocupación importante: esa avalancha de información no siempre es precisa. Los modelos más persuasivos tendieron a cometer más errores, especialmente cuando se les pidió que aportaran muchos datos para respaldar sus argumentos. Es decir, la estrategia que vuelve a la IA más convincente también aumenta el riesgo de que difunda información incorrecta, incluso sin intención.
Otra sorpresa fue el papel menor de la personalización. Aunque se suele pensar que adaptar los mensajes a cada individuo aumenta la eficacia persuasiva, el efecto observado fue modesto, muy inferior al impacto del entrenamiento especializado o del uso intensivo de datos.
Los autores señalan que estos resultados tienen implicaciones directas para el futuro de la comunicación política. Por un lado, muestran que la IA puede ser más influyente de lo que se pensaba, especialmente cuando se la diseña explícitamente para persuadir. Por otro, advierten que ese poder puede venir acompañado de una caída en la precisión de la información, lo que podría agravar la propagación de mensajes engañosos si no se establecen límites claros.
Aunque el estudio se realizó en condiciones controladas, los investigadores creen que el panorama real dependerá de cuánto estén dispuestas las personas a dialogar con sistemas de IA sobre temas políticos y de qué mecanismos regulatorios se implementen para controlar estas tecnologías. Pero su mensaje es claro: la capacidad persuasiva de la IA no es un misterio, y ahora sabemos exactamente qué la impulsa.
Fuente: Science