Un equipo de la Universidad Estatal de Pensilvania descubrió que cuanto más interactiva es una aplicación móvil o un chatbot de inteligencia artificial, más divertidos y atractivos se perciben. Esa sensación de juego hace que los usuarios bajen la guardia y compartan datos personales sin prestar tanta atención a los riesgos de privacidad.
El estudio, publicado en la revista Behaviour & Information Technology, analizó cómo distintos niveles de interactividad afectan la percepción de los usuarios durante el registro en una aplicación simulada. Los resultados muestran que la experiencia lúdica generada por los mensajes conversacionales o las funciones visuales disminuye las preocupaciones sobre la información que se comparte.
Los investigadores señalaron que esperaban lo contrario, que una mayor interacción hiciera a las personas más conscientes de los datos que entregaban. Sin embargo, observaron que la naturaleza conversacional de los chatbots, que responde de manera fluida a las entradas previas, distrae a los usuarios de la vigilancia sobre su privacidad.
“Hoy en día, cuando los usuarios interactúan con agentes de IA, la experiencia es tan envolvente que olvidan reflexionar sobre lo que revelan”, explicó Jiaqi Agnes Bao, coautora del estudio. “Queríamos entender cómo diseñar mejores interfaces para que los usuarios tomen decisiones informadas sobre la información que comparten”.
El experimento incluyó a 216 participantes que probaron diferentes versiones de una app de fitness. Algunos se enfrentaron a un sistema con simples preguntas y respuestas, mientras que otros interactuaron con un chatbot más sofisticado y visual. En todos los casos, la interactividad aumentó la sensación de diversión, pero redujo la atención sobre posibles usos indebidos de los datos.
Los autores subrayan que las empresas podrían aprovechar esta vulnerabilidad para recopilar información personal sin que los usuarios sean plenamente conscientes. Por ello, recomiendan que los desarrolladores integren pausas o recordatorios dentro de la interacción, como ventanas emergentes, que inviten a reflexionar sobre la privacidad en medio de la conversación.
El hallazgo plantea un dilema importante, cómo equilibrar la necesidad de ofrecer experiencias atractivas con la responsabilidad de proteger los datos personales. La interactividad no es negativa en sí misma, pero debe estar acompañada de diseños que fomenten la transparencia y la confianza.
Los investigadores concluyen que, en una era dominada por chatbots de IA y aplicaciones móviles, el reto no es solo informar a los usuarios, sino ayudarlos a tomar decisiones más conscientes. Diseñar con responsabilidad podría marcar la diferencia entre una interacción divertida y un riesgo silencioso para la privacidad.