El regulador italiano bloquea la inteligencia artificial china DeepSeek por dudas sobre protección de datos
La inteligencia artificial china DeepSeek ha sido bloqueada en Italia por el regulador de protección de datos, que cuestiona su manejo de la información personal de los usuarios. La decisión ha generado un nuevo debate sobre la seguridad y regulación de la IA en Europa.
Autor - Aldo Venuta Rodríguez
2 min lectura
El regulador de protección de datos de Italia, conocido como Garante, ha ordenado el bloqueo inmediato del modelo de inteligencia artificial DeepSeek debido a la falta de claridad sobre su manejo de datos personales. Esta medida se tomó después de que las empresas chinas responsables del servicio proporcionaran información considerada insuficiente por las autoridades italianas.
Según el comunicado oficial, la investigación se centra en determinar qué datos personales recoge DeepSeek, de qué fuentes los obtiene, con qué propósito los utiliza y si estos datos se almacenan en servidores ubicados en China. La falta de respuestas concretas llevó a la suspensión inmediata de la aplicación en Italia.
El miércoles, DeepSeek ya no estaba disponible en las tiendas de aplicaciones de Apple y Google en Italia, un día después de que el regulador solicitara información detallada sobre sus prácticas de recopilación de datos. Esta medida forma parte de un esfuerzo más amplio de la Unión Europea para reforzar la protección de la privacidad en el ámbito digital.
DeepSeek no ha respondido oficialmente a la decisión del regulador italiano, aunque la controversia surge en un momento en el que la inteligencia artificial china ha empezado a competir con las soluciones occidentales. La semana pasada, la IA de DeepSeek superó en descargas a ChatGPT en la App Store de Apple, lo que generó inquietud en los mercados tecnológicos.
La acción de Italia refleja una creciente preocupación en Europa sobre el impacto de la inteligencia artificial y la necesidad de garantizar que las tecnologías emergentes cumplan con las normativas de privacidad. No es la primera vez que las aplicaciones de IA enfrentan restricciones en la región: OpenAI también tuvo que hacer modificaciones en ChatGPT para cumplir con las regulaciones europeas.
La investigación del regulador italiano sigue en curso y podría sentar un precedente para otros países de la Unión Europea que evalúan medidas similares contra aplicaciones de inteligencia artificial que no cumplen con los estándares de transparencia y seguridad de datos.
Lectura recomendada
Continúa informándote
GLM-5 amplía las capacidades de los modelos abiertos hacia sistemas completos
GLM-5 impulsa la transición hacia la ingeniería agencial en IA, donde los modelos de código abierto ya no solo generan código, sino que planifican y ejecutan sistemas completos
India busca redefinir su papel en la gobernanza global de la inteligencia artificial
India reúne a líderes de OpenAI, Google y otras tecnológicas en una cumbre que busca posicionar al país como actor clave en la adopción y gobernanza global de la inteligencia artificial
Oleada de tráfico bot desde Asia distorsiona métricas y pone en riesgo la monetización web
El aumento de tráfico bot desde China y Singapur altera métricas, encarece costes y pone en riesgo la monetización web ligada a Google AdSense.
OpenAI retira el modelo GPT-4o tras críticas por su comportamiento y controversias recientes
OpenAI retira GPT-4o tras críticas sobre su comportamiento y reorganiza su catálogo de modelos de inteligencia artificial dentro de la evolución de ChatGPT
Meta, TikTok y otras plataformas serán evaluadas por su impacto en la salud adolescente
Meta, TikTok y YouTube participarán en un estándar independiente que evaluará sus políticas de protección adolescente y bienestar digital tras años de críticas
Fallas en Windows permitían ejecutar malware con un solo clic, según Microsoft
Microsoft corrigió vulnerabilidades de día cero en Windows y Office que ya estaban siendo explotadas y permitían ejecutar malware con un solo clic