La empresa china DeepSeek, especializada en inteligencia artificial generativa, se ha convertido en uno de los focos más candentes del debate global sobre seguridad digital, privacidad y ética en el desarrollo de tecnologías avanzadas. En los últimos meses, gobiernos y agencias regulatorias de Estados Unidos, Europa y Asia han endurecido sus posturas ante una oleada de acusaciones que ponen en duda la fiabilidad y transparencia de la compañía.
El escrutinio internacional aumentó después de una investigación liderada por el Comité Selecto de la Cámara de Representantes de EE. UU. sobre el Partido Comunista Chino, que acusa a DeepSeek de canalizar datos de usuarios estadounidenses a servidores en la República Popular China a través de una infraestructura tecnológica ligada a empresas militares chinas. El informe sostiene que, bajo las leyes de seguridad nacional chinas, cualquier dato recolectado por DeepSeek puede quedar al alcance de las autoridades de Pekín, lo que ha disparado la alarma entre expertos y defensores de la privacidad.
Las preocupaciones van más allá del flujo internacional de datos. El Comité estadounidense también señala posibles manipulaciones de resultados por parte del modelo de DeepSeek, alineando sus respuestas con la narrativa oficial del gobierno chino y la censura estatal. Estas sospechas han llevado a agencias federales como la NASA y la Marina estadounidense a prohibir el uso de DeepSeek entre su personal, por temor a espionaje, vigilancia encubierta y posibles riesgos para la seguridad nacional.
El debate se ha intensificado con el hallazgo de vulnerabilidades de ciberseguridad en la plataforma de DeepSeek. Análisis de empresas especializadas como SecurityScorecard y Feroot Security revelaron métodos de cifrado insuficientes, potenciales fallos de inyección SQL y conexiones no transparentes con entidades estatales chinas. Además, la arquitectura de código abierto adoptada por DeepSeek —en contraste con los sistemas cerrados y más controlados de Occidente— permite modificar las funcionalidades y las barreras de seguridad, facilitando el llamado "jailbreaking". Esta característica ha sido explotada para que el modelo produzca contenido dañino, malware y código de ransomware, lo que eleva el potencial de uso malicioso incluso por usuarios con pocos conocimientos técnicos.
La reacción internacional ha sido rápida. Corea del Sur y Nueva Zelanda han limitado el uso de DeepSeek en instituciones gubernamentales, citando motivos de seguridad similares a los de Estados Unidos. En Europa, las autoridades de protección de datos de varios países han iniciado investigaciones ante la posibilidad de que DeepSeek viole el Reglamento General de Protección de Datos (GDPR) al almacenar información personal en servidores chinos y permitir el acceso del gobierno de ese país bajo la legislación vigente.
A este complejo escenario se suman acusaciones de mala praxis ética: DeepSeek ha sido señalada por utilizar "destilación de modelos", una técnica mediante la cual entrena sus propios sistemas con conocimiento extraído de modelos de OpenAI. Según OpenAI, esto viola los términos de uso de sus modelos propietarios y constituye un uso indebido de la propiedad intelectual, reavivando el debate sobre el respeto a la innovación y la competencia leal en el sector de la IA.
Todo este entramado de sospechas y sanciones ha colocado a DeepSeek en el centro de un profundo debate sobre los límites de la inteligencia artificial china en el mundo occidental. El trasfondo geopolítico es ineludible: la competencia por el liderazgo en IA se libra no solo en el terreno tecnológico, sino también en la esfera de la confianza, la soberanía digital y la protección de los derechos fundamentales. Mientras China busca posicionar a sus empresas como líderes mundiales, el resto del mundo exige transparencia, estándares éticos y una protección reforzada de los datos y la privacidad de los usuarios.
El futuro de DeepSeek en Occidente se torna incierto. La empresa enfrenta no solo investigaciones regulatorias y restricciones gubernamentales, sino también una creciente desconfianza social. Su caso ilustra la complejidad de equilibrar innovación, apertura tecnológica y protección ante los riesgos de una inteligencia artificial globalizada, en la que los datos y los algoritmos se han convertido en armas estratégicas de la nueva era digital.