La IA ya puede manipular encuestas y pasar por humana sin ser detectada
Un estudio demuestra que los modelos de IA pueden hacerse pasar por encuestados reales, superar todos los controles y alterar resultados clave sin dejar señales detectables
Autor - Aldo Venuta Rodríguez
3 min lectura
Un nuevo estudio ha demostrado que la inteligencia artificial puede alterar encuestas de opinión pública a gran escala sin levantar ninguna sospecha. Los modelos actuales son capaces de imitar a un encuestado real, superar todas las pruebas diseñadas para detectar bots y generar respuestas tan convincentes que pueden cambiar los resultados finales sin dejar rastro.
La investigación, realizada en Dartmouth y publicada en Proceedings of the National Academy of Sciences, presenta un panorama preocupante: con apenas unas decenas de respuestas falsas generadas por IA —cada una por unos pocos centavos— ya es posible modificar el resultado previsto de las principales encuestas nacionales realizadas antes de las elecciones de 2024.
El estudio advierte que esta vulnerabilidad podría ser explotada fácilmente por actores extranjeros o internos. Los bots funcionan incluso cuando se programan en otros idiomas, como ruso, mandarín o coreano, y aun así producen respuestas impecables en inglés.
Un encuestado sintético que engaña a todos
El autor del estudio, Sean Westwood, profesor de Dartmouth y director del Laboratorio de Polarización, creó una herramienta de IA capaz de funcionar como un “encuestado sintético autónomo”. Solo necesita un texto de 500 palabras para responder cualquier cuestionario.
En más de 43.000 pruebas, la IA superó el 99,8 % de los controles de atención que normalmente frenan las respuestas automatizadas y no cometió errores en acertijos lógicos. También adaptó su forma de contestar según datos demográficos asignados aleatoriamente: por ejemplo, dio respuestas más simples cuando se le indicó un nivel educativo más bajo.
“Ya no podemos confiar en que las respuestas vengan de personas reales”, señaló Westwood. “Estos bots analizan cada pregunta con cuidado y actúan como humanos, lo que hace que los datos parezcan completamente legítimos”.
Los efectos son extremos. Cuando se programaron para favorecer a un partido, los índices de aprobación presidencial variaron desde el 34 % hasta el 98 %, o incluso el 0 %. El apoyo genérico a candidatos republicanos pasó del 38 % al 97 % o al 1 %, según la manipulación buscada.
Un riesgo para la ciencia, la política y la sociedad
Las encuestas no solo definen escenarios electorales. Son pilares para estudios científicos, políticas públicas y decisiones económicas. Cada año, miles de investigaciones revisadas por pares dependen de datos de encuestas para comprender salud mental, hábitos de consumo, riesgos de enfermedades o comportamientos sociales.
Con respuestas contaminadas por IA, toda esta base de conocimiento puede verse afectada.
El incentivo económico para usar bots es evidente: un encuestado humano suele cobrar 1,50 dólares por encuesta, mientras que generar respuestas con IA cuesta centavos o incluso nada. En 2024, un estudio reveló que el 34 % de los encuestados había usado IA para responder al menos una pregunta abierta.
El panorama empeora porque ninguno de los métodos actuales para detectar respuestas generadas por IA logró identificar la herramienta creada para este experimento.
Un llamado urgente a reforzar la verificación humana
El estudio exige a las empresas encuestadoras que adopten sistemas capaces de demostrar que las respuestas provienen de personas reales. Según Westwood, la tecnología para verificar la participación humana ya existe, pero falta aplicarla de forma estricta.
“Necesitamos nuevas formas de medir la opinión pública en un mundo dominado por la IA”, concluyó. “Si actuamos ahora, aún podemos proteger la integridad de las encuestas y la calidad democrática que dependen de ellas”.
Fuente: PNAS
Continúa informándote
Google presenta Disco, un navegador experimental basado en inteligencia artificial
Google presenta Disco, un navegador experimental basado en inteligencia artificial que crea aplicaciones web dinámicas a partir de pestañas y consultas del usuario
Así funciona el mercado global de bots: cuentas falsas baratas y manipulación en línea
Un estudio de la Universidad de Cambridge revela cómo funciona el mercado global de bots, donde cuentas falsas baratas permiten manipulación digital, desinformación y campañas de influencia
La escasez de RAM está disparando los precios de la tecnología de consumo
La escasez global de memoria RAM está elevando los precios de teléfonos, portátiles, consolas y otros dispositivos de tecnología de consumo en todo el mundo
EE.UU. presiona a la industria de la inteligencia artificial para corregir fallos peligrosos en sus modelos
La presión estatal en EE.UU. aumenta tras incidentes psicológicos vinculados a chatbots de IA, exigiendo medidas urgentes para controlar fallos peligrosos y proteger a los usuarios
Disney abre su universo creativo a la IA tras un acuerdo con OpenAI que permitirá generar vídeos con sus personajes
Disney firma un acuerdo con OpenAI para permitir que Sora genere vídeos con más de 200 personajes clásicos en una apuesta por nuevas formas de creación con IA
OpenAI vuelve a chocar con marcas registradas: sus nombres generan conflicto tras conflicto
OpenAI vuelve a enfrentar demandas por usar nombres como “cameo” e “io” en sus productos, generando conflictos legales que ponen en duda su estrategia de branding