El regulador italiano bloquea la inteligencia artificial china DeepSeek por dudas sobre protección de datos
La inteligencia artificial china DeepSeek ha sido bloqueada en Italia por el regulador de protección de datos, que cuestiona su manejo de la información personal de los usuarios. La decisión ha generado un nuevo debate sobre la seguridad y regulación de la IA en Europa.
Autor - Aldo Venuta Rodríguez
2 min lectura
El regulador de protección de datos de Italia, conocido como Garante, ha ordenado el bloqueo inmediato del modelo de inteligencia artificial DeepSeek debido a la falta de claridad sobre su manejo de datos personales. Esta medida se tomó después de que las empresas chinas responsables del servicio proporcionaran información considerada insuficiente por las autoridades italianas.
Según el comunicado oficial, la investigación se centra en determinar qué datos personales recoge DeepSeek, de qué fuentes los obtiene, con qué propósito los utiliza y si estos datos se almacenan en servidores ubicados en China. La falta de respuestas concretas llevó a la suspensión inmediata de la aplicación en Italia.
El miércoles, DeepSeek ya no estaba disponible en las tiendas de aplicaciones de Apple y Google en Italia, un día después de que el regulador solicitara información detallada sobre sus prácticas de recopilación de datos. Esta medida forma parte de un esfuerzo más amplio de la Unión Europea para reforzar la protección de la privacidad en el ámbito digital.
DeepSeek no ha respondido oficialmente a la decisión del regulador italiano, aunque la controversia surge en un momento en el que la inteligencia artificial china ha empezado a competir con las soluciones occidentales. La semana pasada, la IA de DeepSeek superó en descargas a ChatGPT en la App Store de Apple, lo que generó inquietud en los mercados tecnológicos.
La acción de Italia refleja una creciente preocupación en Europa sobre el impacto de la inteligencia artificial y la necesidad de garantizar que las tecnologías emergentes cumplan con las normativas de privacidad. No es la primera vez que las aplicaciones de IA enfrentan restricciones en la región: OpenAI también tuvo que hacer modificaciones en ChatGPT para cumplir con las regulaciones europeas.
La investigación del regulador italiano sigue en curso y podría sentar un precedente para otros países de la Unión Europea que evalúan medidas similares contra aplicaciones de inteligencia artificial que no cumplen con los estándares de transparencia y seguridad de datos.
Lectura recomendada
Continúa informándote
Meta, TikTok y otras plataformas serán evaluadas por su impacto en la salud adolescente
Meta, TikTok y YouTube participarán en un estándar independiente que evaluará sus políticas de protección adolescente y bienestar digital tras años de críticas
Fallas en Windows permitían ejecutar malware con un solo clic, según Microsoft
Microsoft corrigió vulnerabilidades de día cero en Windows y Office que ya estaban siendo explotadas y permitían ejecutar malware con un solo clic
América Latina presenta Latam-GPT, su primer modelo regional de inteligencia artificial
América Latina presenta Latam-GPT, su primer modelo regional de inteligencia artificial, desarrollado para reflejar contextos culturales propios y reducir la dependencia tecnológica externa
xAI hace pública su reunión y plantea una IA que opere desde el espacio
xAI publicó su reunión interna y detalló su reorganización, cifras de crecimiento y planes para desarrollar centros de datos de IA en órbita
Qué son los centros de datos y cómo funcionan por dentro
Qué son los centros de datos, cómo funcionan por dentro, qué hay en sus servidores, redes y sistemas de refrigeración, y por qué consumen tanta energía en la era de la nube y la IA
Chatbots religiosos y sermones con IA: la tecnología se integra en comunidades de fe
La inteligencia artificial empieza a usarse en iglesias y comunidades religiosas para preparar sermones, ofrecer orientación espiritual y crear chatbots, abriendo un debate sobre fe, ética y tecnología