El auge de DeepSeek: éxito, velocidad y desconfianza
En menos de dos años, DeepSeek ha pasado de ser una promesa emergente a convertirse en uno de los actores más visibles de la inteligencia artificial global. Su rápido crecimiento, apoyado por fuertes inversiones chinas y una agresiva estrategia de internacionalización, le ha permitido ganar millones de usuarios en Asia y Occidente. Sin embargo, la velocidad de su expansión solo ha alimentado la desconfianza, en especial fuera de China.
Países como Corea del Sur, Italia, Australia y Taiwán han bloqueado, restringido o eliminado la app por motivos de privacidad, manipulación de datos o preocupaciones en torno a la seguridad nacional. Mientras tanto, Microsoft y OpenAI han lanzado investigaciones por presunto robo de datos y uso indebido de APIs, acentuando la atmósfera de sospecha.
Censura, sesgo y control ideológico
DeepSeek evita responder a preguntas incómodas para el gobierno chino, como las relacionadas con la masacre de Tiananmén, el conflicto uigur o la soberanía de Taiwán. Esta censura programada se extiende a temas de derechos humanos, libertad de prensa y cuestiones que desafían la narrativa oficial.
El sesgo ideológico incorporado al sistema preocupa a expertos, periodistas y defensores de una IA plural. Si una inteligencia artificial reproduce restricciones políticas, no solo condiciona el acceso a la información de los usuarios chinos, sino que puede exportar ese modelo de control a otros países.
El debate es crucial: en la era de la IA generativa, la censura tecnológica y el sesgo no son solo un problema local, sino un desafío para la gobernanza digital global y la libertad de expresión en la era de los algoritmos.
Privacidad y seguridad: una puerta abierta al espionaje
DeepSeek ha sido objeto de múltiples investigaciones internacionales por supuestas brechas de seguridad y exfiltración masiva de datos personales. Los términos de uso de la plataforma permiten que los datos de las conversaciones sean utilizados para mejorar el servicio, sin ofrecer garantías claras de anonimato ni opciones para rechazar este procesamiento.
El caso más grave se produjo en Corea del Sur, donde una brecha expuso información sensible de miles de usuarios y la app fue retirada de las tiendas oficiales. Investigadores han demostrado que DeepSeek puede ser manipulado fácilmente para generar código malicioso o violar la privacidad de los usuarios, un problema agravado por la opacidad en la gestión de los datos.
Acusaciones de robo de tecnología y manipulación de modelos
Microsoft y OpenAI han acusado a DeepSeek de entrenar parte de su modelo con datos extraídos ilícitamente de la API de OpenAI, a través de técnicas de destilación y scraping no autorizadas. Estas prácticas, de confirmarse, pondrían en jaque la propiedad intelectual y abrirían un peligroso precedente para el desarrollo ético de la IA.
A esto se suma el hallazgo de que algunos modelos de DeepSeek presentan confusión de identidad, afirmando ser ChatGPT debido a una “contaminación” de datos durante el entrenamiento, lo que evidencia una falta de control y rigor técnico preocupante.
Geopolítica y espionaje: la sombra del Estado chino
DeepSeek ha sido señalado como un posible “caballo de Troya” para la recopilación de datos sensibles de usuarios extranjeros. Autoridades estadounidenses y europeas temen que la IA china pueda ser presionada, como TikTok, para compartir datos con el gobierno de Pekín y apoyar operaciones militares, de inteligencia o ciberespionaje.
La empresa ha sido acusada de eludir controles de exportación de chips Nvidia a través de compañías fantasma y de brindar “apoyo voluntario” a operaciones del Estado chino, según altos funcionarios estadounidenses. En este contexto, la desconfianza no solo es tecnológica, sino también política y estratégica.
Un modelo para el mundo… ¿o solo para China?
El caso DeepSeek revela un dilema de fondo: ¿puede una IA creada bajo los principios y controles de un régimen autoritario operar con transparencia y neutralidad en mercados democráticos? La falta de garantías sobre privacidad, independencia editorial y transparencia refuerzan el escepticismo.
La controversia no solo afecta a DeepSeek, sino que anticipa los desafíos de la próxima década: en un escenario de rivalidad tecnológica y comercial, las plataformas de IA no solo compiten en innovación, sino también en credibilidad y confianza pública.