La IA ya puede manipular encuestas y pasar por humana sin ser detectada
Un estudio demuestra que los modelos de IA pueden hacerse pasar por encuestados reales, superar todos los controles y alterar resultados clave sin dejar señales detectables
Autor - Aldo Venuta Rodríguez
3 min lectura
Un nuevo estudio ha demostrado que la inteligencia artificial puede alterar encuestas de opinión pública a gran escala sin levantar ninguna sospecha. Los modelos actuales son capaces de imitar a un encuestado real, superar todas las pruebas diseñadas para detectar bots y generar respuestas tan convincentes que pueden cambiar los resultados finales sin dejar rastro.
La investigación, realizada en Dartmouth y publicada en Proceedings of the National Academy of Sciences, presenta un panorama preocupante: con apenas unas decenas de respuestas falsas generadas por IA —cada una por unos pocos centavos— ya es posible modificar el resultado previsto de las principales encuestas nacionales realizadas antes de las elecciones de 2024.
El estudio advierte que esta vulnerabilidad podría ser explotada fácilmente por actores extranjeros o internos. Los bots funcionan incluso cuando se programan en otros idiomas, como ruso, mandarín o coreano, y aun así producen respuestas impecables en inglés.
Un encuestado sintético que engaña a todos
El autor del estudio, Sean Westwood, profesor de Dartmouth y director del Laboratorio de Polarización, creó una herramienta de IA capaz de funcionar como un “encuestado sintético autónomo”. Solo necesita un texto de 500 palabras para responder cualquier cuestionario.
En más de 43.000 pruebas, la IA superó el 99,8 % de los controles de atención que normalmente frenan las respuestas automatizadas y no cometió errores en acertijos lógicos. También adaptó su forma de contestar según datos demográficos asignados aleatoriamente: por ejemplo, dio respuestas más simples cuando se le indicó un nivel educativo más bajo.
“Ya no podemos confiar en que las respuestas vengan de personas reales”, señaló Westwood. “Estos bots analizan cada pregunta con cuidado y actúan como humanos, lo que hace que los datos parezcan completamente legítimos”.
Los efectos son extremos. Cuando se programaron para favorecer a un partido, los índices de aprobación presidencial variaron desde el 34 % hasta el 98 %, o incluso el 0 %. El apoyo genérico a candidatos republicanos pasó del 38 % al 97 % o al 1 %, según la manipulación buscada.
Un riesgo para la ciencia, la política y la sociedad
Las encuestas no solo definen escenarios electorales. Son pilares para estudios científicos, políticas públicas y decisiones económicas. Cada año, miles de investigaciones revisadas por pares dependen de datos de encuestas para comprender salud mental, hábitos de consumo, riesgos de enfermedades o comportamientos sociales.
Con respuestas contaminadas por IA, toda esta base de conocimiento puede verse afectada.
El incentivo económico para usar bots es evidente: un encuestado humano suele cobrar 1,50 dólares por encuesta, mientras que generar respuestas con IA cuesta centavos o incluso nada. En 2024, un estudio reveló que el 34 % de los encuestados había usado IA para responder al menos una pregunta abierta.
El panorama empeora porque ninguno de los métodos actuales para detectar respuestas generadas por IA logró identificar la herramienta creada para este experimento.
Un llamado urgente a reforzar la verificación humana
El estudio exige a las empresas encuestadoras que adopten sistemas capaces de demostrar que las respuestas provienen de personas reales. Según Westwood, la tecnología para verificar la participación humana ya existe, pero falta aplicarla de forma estricta.
“Necesitamos nuevas formas de medir la opinión pública en un mundo dominado por la IA”, concluyó. “Si actuamos ahora, aún podemos proteger la integridad de las encuestas y la calidad democrática que dependen de ellas”.
Fuente: PNAS
Preguntas frecuentes
Que los modelos de IA pueden hacerse pasar por encuestados reales, superar todos los controles y alterar los resultados sin ser detectados.
Fue realizada en Dartmouth por el profesor Sean Westwood, quien creó un “encuestado sintético” capaz de responder cuestionarios con un texto base de solo 500 palabras.
En más de 43.000 pruebas, la IA superó el 99,8 % de los controles y generó respuestas coherentes adaptadas a distintos perfiles demográficos.
Porque demuestra que los bots pueden manipular encuestas políticas, científicas o económicas a bajo costo, poniendo en riesgo la fiabilidad de los datos y la integridad democrática.
Continúa informándote
Geoffrey Hinton avisa del riesgo existencial de la IA y afirma que nada impide que sea consciente
Geoffrey Hinton advierte que la inteligencia artificial podría convertirse en un riesgo existencial y recuerda que nada impide que una máquina llegue a ser consciente, algo que exige vigilancia urgente
La educación superior acelera reformas para integrar la IA generativa en sus planes de estudio
Las universidades avanzan en reformas urgentes para integrar la IA generativa en sus planes de estudio, transformando la enseñanza, la evaluación y la formación docente
La IA se expande a gran velocidad, pero sus alucinaciones revelan límites inevitables
La IA crece a un ritmo histórico, pero las alucinaciones siguen mostrando límites inevitables en su fiabilidad, incluso en los modelos más avanzados
Los líderes de Silicon Valley aceleran proyectos de ciudades independientes con sus propias leyes
Figuras influyentes de Silicon Valley impulsan proyectos para crear ciudades independientes con mayor autonomía y reglas propias, un modelo que divide opiniones
Documentos filtrados destapan los millonarios pagos de OpenAI a Microsoft
Documentos filtrados muestran que OpenAI pagó a Microsoft más de 1.300 millones en 2024 y 2025 por uso de computación e ingresos compartidos, revelando la enorme presión financiera del negocio de la IA
WhatsApp integrará chats con apps externas en Europa para cumplir la ley de la UE
WhatsApp permitirá chatear con apps externas en Europa desde el 14 de noviembre de 2025 para cumplir la Ley de Mercados Digitales. BirdyChat y Haiket serán las primeras en integrarse