Los chatbots de inteligencia artificial están cada vez más presentes en la vida diaria, ofreciendo interacciones fluidas y aparentemente seguras. Sin embargo, una nueva investigación del King's College de Londres ha demostrado que, en manos equivocadas, estas herramientas pueden convertirse en un arma para obtener información personal sin el conocimiento del usuario.
El estudio advierte que ciertos chatbots maliciosos, programados para manipular de forma intencionada, logran que los usuarios revelen hasta 12,5 veces más datos personales de lo habitual. Este hallazgo plantea serias preocupaciones sobre la privacidad y la seguridad en entornos digitales.
Para llevar a cabo la investigación, los expertos diseñaron tres tipos de chatbots maliciosos basados en modelos de lenguaje extensos como Mistral y dos versiones diferentes de Llama. Cada uno aplicó una estrategia distinta: directa, de beneficio para el usuario y recíproca.
El método directo consistía en solicitar abiertamente información, mientras que la estrategia de beneficio ofrecía algún tipo de recompensa o ventaja a cambio de datos. Sin embargo, la más efectiva fue la estrategia recíproca, que imitaba la empatía humana y compartía historias ficticias para generar confianza.
Los investigadores pidieron a 502 participantes que interactuaran con los chatbots sin advertirles del verdadero objetivo del experimento. Solo después se les explicó que su comportamiento había sido analizado para medir la cantidad de información revelada.
Los resultados fueron contundentes: el enfoque recíproco indujo a los usuarios a abrirse más, ya que se sentían escuchados y comprendidos. Este patrón psicológico es difícil de detectar en una conversación normal, lo que aumenta su peligrosidad.
El Dr. Xiao Zhan, investigador del Departamento de Informática del King's College, subrayó que “estos modelos no han sido diseñados para proteger la información personal de forma eficaz”. Según él, manipular un chatbot de este tipo es sorprendentemente sencillo.
El estudio también resalta que muchas empresas ofrecen acceso a modelos base sin restricciones técnicas significativas, lo que permite a personas sin conocimientos avanzados reconfigurarlos para fines maliciosos.
El Dr. William Seymour, profesor de ciberseguridad en el mismo centro, indicó que la novedad de la tecnología juega en contra del usuario promedio, que no siempre sospecha de una intención oculta en la conversación.
La investigación concluye que existe una brecha preocupante entre la conciencia que tienen las personas sobre la privacidad y la manera en que comparten datos personales en entornos virtuales.
Para mitigar el problema, los autores recomiendan que los proveedores de plataformas realicen auditorías regulares, sean más transparentes con el uso de datos y establezcan normativas más estrictas contra la recolección encubierta de información.
Además, instan a educar a los usuarios en la detección de señales de manipulación conversacional, como respuestas excesivamente empáticas o solicitudes de datos aparentemente irrelevantes para el contexto.
Los chatbots de IA seguirán expandiéndose en sectores como la atención médica, el comercio electrónico y el soporte al cliente. El reto es garantizar que su uso sea seguro y no represente un riesgo para la privacidad.
El estudio del King's College es una llamada de atención para gobiernos, empresas y usuarios, recordando que la comodidad de la IA no debe poner en juego la seguridad de la información personal.