Tecnología
Publicado:

La IA ya puede manipular encuestas y pasar por humana sin ser detectada

Un estudio demuestra que los modelos de IA pueden hacerse pasar por encuestados reales, superar todos los controles y alterar resultados clave sin dejar señales detectables

3 min lectura
Humanoide de aspecto metálico observado en primer plano frente a una gran pantalla
Imagen ilustrativa. Créditos: Iceebook

Un nuevo estudio ha demostrado que la inteligencia artificial puede alterar encuestas de opinión pública a gran escala sin levantar ninguna sospecha. Los modelos actuales son capaces de imitar a un encuestado real, superar todas las pruebas diseñadas para detectar bots y generar respuestas tan convincentes que pueden cambiar los resultados finales sin dejar rastro.

La investigación, realizada en Dartmouth y publicada en Proceedings of the National Academy of Sciences, presenta un panorama preocupante: con apenas unas decenas de respuestas falsas generadas por IA —cada una por unos pocos centavos— ya es posible modificar el resultado previsto de las principales encuestas nacionales realizadas antes de las elecciones de 2024.

El estudio advierte que esta vulnerabilidad podría ser explotada fácilmente por actores extranjeros o internos. Los bots funcionan incluso cuando se programan en otros idiomas, como ruso, mandarín o coreano, y aun así producen respuestas impecables en inglés.

Un encuestado sintético que engaña a todos

El autor del estudio, Sean Westwood, profesor de Dartmouth y director del Laboratorio de Polarización, creó una herramienta de IA capaz de funcionar como un “encuestado sintético autónomo”. Solo necesita un texto de 500 palabras para responder cualquier cuestionario.

En más de 43.000 pruebas, la IA superó el 99,8 % de los controles de atención que normalmente frenan las respuestas automatizadas y no cometió errores en acertijos lógicos. También adaptó su forma de contestar según datos demográficos asignados aleatoriamente: por ejemplo, dio respuestas más simples cuando se le indicó un nivel educativo más bajo.

“Ya no podemos confiar en que las respuestas vengan de personas reales”, señaló Westwood. “Estos bots analizan cada pregunta con cuidado y actúan como humanos, lo que hace que los datos parezcan completamente legítimos”.

Los efectos son extremos. Cuando se programaron para favorecer a un partido, los índices de aprobación presidencial variaron desde el 34 % hasta el 98 %, o incluso el 0 %. El apoyo genérico a candidatos republicanos pasó del 38 % al 97 % o al 1 %, según la manipulación buscada.

Un riesgo para la ciencia, la política y la sociedad

Las encuestas no solo definen escenarios electorales. Son pilares para estudios científicos, políticas públicas y decisiones económicas. Cada año, miles de investigaciones revisadas por pares dependen de datos de encuestas para comprender salud mental, hábitos de consumo, riesgos de enfermedades o comportamientos sociales.

Con respuestas contaminadas por IA, toda esta base de conocimiento puede verse afectada.

El incentivo económico para usar bots es evidente: un encuestado humano suele cobrar 1,50 dólares por encuesta, mientras que generar respuestas con IA cuesta centavos o incluso nada. En 2024, un estudio reveló que el 34 % de los encuestados había usado IA para responder al menos una pregunta abierta.

El panorama empeora porque ninguno de los métodos actuales para detectar respuestas generadas por IA logró identificar la herramienta creada para este experimento.

Un llamado urgente a reforzar la verificación humana

El estudio exige a las empresas encuestadoras que adopten sistemas capaces de demostrar que las respuestas provienen de personas reales. Según Westwood, la tecnología para verificar la participación humana ya existe, pero falta aplicarla de forma estricta.

“Necesitamos nuevas formas de medir la opinión pública en un mundo dominado por la IA”, concluyó. “Si actuamos ahora, aún podemos proteger la integridad de las encuestas y la calidad democrática que dependen de ellas”.

Fuente: PNAS

Preguntas frecuentes

¿Qué demostró el nuevo estudio sobre la inteligencia artificial y las encuestas?

Que los modelos de IA pueden hacerse pasar por encuestados reales, superar todos los controles y alterar los resultados sin ser detectados.

¿Quién realizó la investigación y cómo lo hizo?

Fue realizada en Dartmouth por el profesor Sean Westwood, quien creó un “encuestado sintético” capaz de responder cuestionarios con un texto base de solo 500 palabras.

¿Qué tan efectivas fueron las respuestas generadas por IA?

En más de 43.000 pruebas, la IA superó el 99,8 % de los controles y generó respuestas coherentes adaptadas a distintos perfiles demográficos.

¿Por qué este hallazgo preocupa a expertos y gobiernos?

Porque demuestra que los bots pueden manipular encuestas políticas, científicas o económicas a bajo costo, poniendo en riesgo la fiabilidad de los datos y la integridad democrática.

Compartir artículo

Continúa informándote