Un nuevo estudio ha demostrado que la inteligencia artificial puede alterar encuestas de opinión pública a gran escala sin levantar ninguna sospecha. Los modelos actuales son capaces de imitar a un encuestado real, superar todas las pruebas diseñadas para detectar bots y generar respuestas tan convincentes que pueden cambiar los resultados finales sin dejar rastro.
La investigación, realizada en Dartmouth y publicada en Proceedings of the National Academy of Sciences, presenta un panorama preocupante: con apenas unas decenas de respuestas falsas generadas por IA —cada una por unos pocos centavos— ya es posible modificar el resultado previsto de las principales encuestas nacionales realizadas antes de las elecciones de 2024.
El estudio advierte que esta vulnerabilidad podría ser explotada fácilmente por actores extranjeros o internos. Los bots funcionan incluso cuando se programan en otros idiomas, como ruso, mandarín o coreano, y aun así producen respuestas impecables en inglés.
Un encuestado sintético que engaña a todos
El autor del estudio, Sean Westwood, profesor de Dartmouth y director del Laboratorio de Polarización, creó una herramienta de IA capaz de funcionar como un “encuestado sintético autónomo”. Solo necesita un texto de 500 palabras para responder cualquier cuestionario.
En más de 43.000 pruebas, la IA superó el 99,8 % de los controles de atención que normalmente frenan las respuestas automatizadas y no cometió errores en acertijos lógicos. También adaptó su forma de contestar según datos demográficos asignados aleatoriamente: por ejemplo, dio respuestas más simples cuando se le indicó un nivel educativo más bajo.
“Ya no podemos confiar en que las respuestas vengan de personas reales”, señaló Westwood. “Estos bots analizan cada pregunta con cuidado y actúan como humanos, lo que hace que los datos parezcan completamente legítimos”.
Los efectos son extremos. Cuando se programaron para favorecer a un partido, los índices de aprobación presidencial variaron desde el 34 % hasta el 98 %, o incluso el 0 %. El apoyo genérico a candidatos republicanos pasó del 38 % al 97 % o al 1 %, según la manipulación buscada.
Un riesgo para la ciencia, la política y la sociedad
Las encuestas no solo definen escenarios electorales. Son pilares para estudios científicos, políticas públicas y decisiones económicas. Cada año, miles de investigaciones revisadas por pares dependen de datos de encuestas para comprender salud mental, hábitos de consumo, riesgos de enfermedades o comportamientos sociales.
Con respuestas contaminadas por IA, toda esta base de conocimiento puede verse afectada.
El incentivo económico para usar bots es evidente: un encuestado humano suele cobrar 1,50 dólares por encuesta, mientras que generar respuestas con IA cuesta centavos o incluso nada. En 2024, un estudio reveló que el 34 % de los encuestados había usado IA para responder al menos una pregunta abierta.
El panorama empeora porque ninguno de los métodos actuales para detectar respuestas generadas por IA logró identificar la herramienta creada para este experimento.
Un llamado urgente a reforzar la verificación humana
El estudio exige a las empresas encuestadoras que adopten sistemas capaces de demostrar que las respuestas provienen de personas reales. Según Westwood, la tecnología para verificar la participación humana ya existe, pero falta aplicarla de forma estricta.
“Necesitamos nuevas formas de medir la opinión pública en un mundo dominado por la IA”, concluyó. “Si actuamos ahora, aún podemos proteger la integridad de las encuestas y la calidad democrática que dependen de ellas”.
Fuente: PNAS