31 Jan 2025 - 07:26 UTC
El regulador italiano bloquea la inteligencia artificial china DeepSeek por dudas sobre protección de datos
La inteligencia artificial china DeepSeek ha sido bloqueada en Italia por el regulador de protección de datos, que cuestiona su manejo de la información personal de los usuarios. La decisión ha generado un nuevo debate sobre la seguridad y regulación de la IA en Europa.
/
2 min lectura

El regulador de protección de datos de Italia, conocido como Garante, ha ordenado el bloqueo inmediato del modelo de inteligencia artificial DeepSeek debido a la falta de claridad sobre su manejo de datos personales. Esta medida se tomó después de que las empresas chinas responsables del servicio proporcionaran información considerada insuficiente por las autoridades italianas.
Según el comunicado oficial, la investigación se centra en determinar qué datos personales recoge DeepSeek, de qué fuentes los obtiene, con qué propósito los utiliza y si estos datos se almacenan en servidores ubicados en China. La falta de respuestas concretas llevó a la suspensión inmediata de la aplicación en Italia.
El miércoles, DeepSeek ya no estaba disponible en las tiendas de aplicaciones de Apple y Google en Italia, un día después de que el regulador solicitara información detallada sobre sus prácticas de recopilación de datos. Esta medida forma parte de un esfuerzo más amplio de la Unión Europea para reforzar la protección de la privacidad en el ámbito digital.
DeepSeek no ha respondido oficialmente a la decisión del regulador italiano, aunque la controversia surge en un momento en el que la inteligencia artificial china ha empezado a competir con las soluciones occidentales. La semana pasada, la IA de DeepSeek superó en descargas a ChatGPT en la App Store de Apple, lo que generó inquietud en los mercados tecnológicos.
La acción de Italia refleja una creciente preocupación en Europa sobre el impacto de la inteligencia artificial y la necesidad de garantizar que las tecnologías emergentes cumplan con las normativas de privacidad. No es la primera vez que las aplicaciones de IA enfrentan restricciones en la región: OpenAI también tuvo que hacer modificaciones en ChatGPT para cumplir con las regulaciones europeas.
La investigación del regulador italiano sigue en curso y podría sentar un precedente para otros países de la Unión Europea que evalúan medidas similares contra aplicaciones de inteligencia artificial que no cumplen con los estándares de transparencia y seguridad de datos.
Más artículos: