La IA ya puede manipular encuestas y pasar por humana sin ser detectada

Un estudio demuestra que los modelos de IA pueden hacerse pasar por encuestados reales, superar todos los controles y alterar resultados clave sin dejar señales detectables

Autor - Aldo Venuta Rodríguez

3 min lectura

Humanoide de aspecto metálico observado en primer plano frente a una gran pantalla
Imagen ilustrativa. Créditos: Iceebook

Un nuevo estudio ha demostrado que la inteligencia artificial puede alterar encuestas de opinión pública a gran escala sin levantar ninguna sospecha. Los modelos actuales son capaces de imitar a un encuestado real, superar todas las pruebas diseñadas para detectar bots y generar respuestas tan convincentes que pueden cambiar los resultados finales sin dejar rastro.

La investigación, realizada en Dartmouth y publicada en Proceedings of the National Academy of Sciences, presenta un panorama preocupante: con apenas unas decenas de respuestas falsas generadas por IA —cada una por unos pocos centavos— ya es posible modificar el resultado previsto de las principales encuestas nacionales realizadas antes de las elecciones de 2024.

El estudio advierte que esta vulnerabilidad podría ser explotada fácilmente por actores extranjeros o internos. Los bots funcionan incluso cuando se programan en otros idiomas, como ruso, mandarín o coreano, y aun así producen respuestas impecables en inglés.

Un encuestado sintético que engaña a todos

El autor del estudio, Sean Westwood, profesor de Dartmouth y director del Laboratorio de Polarización, creó una herramienta de IA capaz de funcionar como un “encuestado sintético autónomo”. Solo necesita un texto de 500 palabras para responder cualquier cuestionario.

Publicidad

En más de 43.000 pruebas, la IA superó el 99,8 % de los controles de atención que normalmente frenan las respuestas automatizadas y no cometió errores en acertijos lógicos. También adaptó su forma de contestar según datos demográficos asignados aleatoriamente: por ejemplo, dio respuestas más simples cuando se le indicó un nivel educativo más bajo.

“Ya no podemos confiar en que las respuestas vengan de personas reales”, señaló Westwood. “Estos bots analizan cada pregunta con cuidado y actúan como humanos, lo que hace que los datos parezcan completamente legítimos”.

Los efectos son extremos. Cuando se programaron para favorecer a un partido, los índices de aprobación presidencial variaron desde el 34 % hasta el 98 %, o incluso el 0 %. El apoyo genérico a candidatos republicanos pasó del 38 % al 97 % o al 1 %, según la manipulación buscada.

Un riesgo para la ciencia, la política y la sociedad

Las encuestas no solo definen escenarios electorales. Son pilares para estudios científicos, políticas públicas y decisiones económicas. Cada año, miles de investigaciones revisadas por pares dependen de datos de encuestas para comprender salud mental, hábitos de consumo, riesgos de enfermedades o comportamientos sociales.

Publicidad

Con respuestas contaminadas por IA, toda esta base de conocimiento puede verse afectada.

El incentivo económico para usar bots es evidente: un encuestado humano suele cobrar 1,50 dólares por encuesta, mientras que generar respuestas con IA cuesta centavos o incluso nada. En 2024, un estudio reveló que el 34 % de los encuestados había usado IA para responder al menos una pregunta abierta.

El panorama empeora porque ninguno de los métodos actuales para detectar respuestas generadas por IA logró identificar la herramienta creada para este experimento.

Un llamado urgente a reforzar la verificación humana

El estudio exige a las empresas encuestadoras que adopten sistemas capaces de demostrar que las respuestas provienen de personas reales. Según Westwood, la tecnología para verificar la participación humana ya existe, pero falta aplicarla de forma estricta.

“Necesitamos nuevas formas de medir la opinión pública en un mundo dominado por la IA”, concluyó. “Si actuamos ahora, aún podemos proteger la integridad de las encuestas y la calidad democrática que dependen de ellas”.

Publicidad

Fuente: PNAS

Preguntas frecuentes

¿Qué demostró el nuevo estudio sobre la inteligencia artificial y las encuestas?

Que los modelos de IA pueden hacerse pasar por encuestados reales, superar todos los controles y alterar los resultados sin ser detectados.

¿Quién realizó la investigación y cómo lo hizo?

Fue realizada en Dartmouth por el profesor Sean Westwood, quien creó un “encuestado sintético” capaz de responder cuestionarios con un texto base de solo 500 palabras.

¿Qué tan efectivas fueron las respuestas generadas por IA?

En más de 43.000 pruebas, la IA superó el 99,8 % de los controles y generó respuestas coherentes adaptadas a distintos perfiles demográficos.

¿Por qué este hallazgo preocupa a expertos y gobiernos?

Porque demuestra que los bots pueden manipular encuestas políticas, científicas o económicas a bajo costo, poniendo en riesgo la fiabilidad de los datos y la integridad democrática.

Continúa informándote

Robot humanoide metálico apoyado sobre una mesa, inclinado hacia adelante en actitud pensativa
Tecnología

Geoffrey Hinton avisa del riesgo existencial de la IA y afirma que nada impide que sea consciente

Geoffrey Hinton advierte que la inteligencia artificial podría convertirse en un riesgo existencial y recuerda que nada impide que una máquina llegue a ser consciente, algo que exige vigilancia urgente

Laptop con un gráfico de IA encendido sobre un escritorio de madera, acompañado de libros cerrados y lápices de colores frente a una pizarra con diagramas
Tecnología

La educación superior acelera reformas para integrar la IA generativa en sus planes de estudio

Las universidades avanzan en reformas urgentes para integrar la IA generativa en sus planes de estudio, transformando la enseñanza, la evaluación y la formación docente

Rostro humanoide azul con patrones de red neuronal, disolviéndose en una nube de puntos y líneas luminosas
Tecnología

La IA se expande a gran velocidad, pero sus alucinaciones revelan límites inevitables

La IA crece a un ritmo histórico, pero las alucinaciones siguen mostrando límites inevitables en su fiabilidad, incluso en los modelos más avanzados

Ciudad futurista flotando entre nubes, con rascacielos iluminados por luz cálida sobre un cielo azul suave
Tecnología

Los líderes de Silicon Valley aceleran proyectos de ciudades independientes con sus propias leyes

Figuras influyentes de Silicon Valley impulsan proyectos para crear ciudades independientes con mayor autonomía y reglas propias, un modelo que divide opiniones

Logotipos de OpenAI y Microsoft sobre un fondo degradado en tonos azul, violeta y verde
Tecnología

Documentos filtrados destapan los millonarios pagos de OpenAI a Microsoft

Documentos filtrados muestran que OpenAI pagó a Microsoft más de 1.300 millones en 2024 y 2025 por uso de computación e ingresos compartidos, revelando la enorme presión financiera del negocio de la IA

Teléfono móvil inclinado sobre una mesa de madera con el logotipo de WhatsApp en la pantalla
Tecnología

WhatsApp integrará chats con apps externas en Europa para cumplir la ley de la UE

WhatsApp permitirá chatear con apps externas en Europa desde el 14 de noviembre de 2025 para cumplir la Ley de Mercados Digitales. BirdyChat y Haiket serán las primeras en integrarse