El regulador italiano bloquea la inteligencia artificial china DeepSeek por dudas sobre protección de datos
La inteligencia artificial china DeepSeek ha sido bloqueada en Italia por el regulador de protección de datos, que cuestiona su manejo de la información personal de los usuarios. La decisión ha generado un nuevo debate sobre la seguridad y regulación de la IA en Europa.
Autor - Aldo Venuta Rodríguez
2 min lectura
El regulador de protección de datos de Italia, conocido como Garante, ha ordenado el bloqueo inmediato del modelo de inteligencia artificial DeepSeek debido a la falta de claridad sobre su manejo de datos personales. Esta medida se tomó después de que las empresas chinas responsables del servicio proporcionaran información considerada insuficiente por las autoridades italianas.
Según el comunicado oficial, la investigación se centra en determinar qué datos personales recoge DeepSeek, de qué fuentes los obtiene, con qué propósito los utiliza y si estos datos se almacenan en servidores ubicados en China. La falta de respuestas concretas llevó a la suspensión inmediata de la aplicación en Italia.
El miércoles, DeepSeek ya no estaba disponible en las tiendas de aplicaciones de Apple y Google en Italia, un día después de que el regulador solicitara información detallada sobre sus prácticas de recopilación de datos. Esta medida forma parte de un esfuerzo más amplio de la Unión Europea para reforzar la protección de la privacidad en el ámbito digital.
DeepSeek no ha respondido oficialmente a la decisión del regulador italiano, aunque la controversia surge en un momento en el que la inteligencia artificial china ha empezado a competir con las soluciones occidentales. La semana pasada, la IA de DeepSeek superó en descargas a ChatGPT en la App Store de Apple, lo que generó inquietud en los mercados tecnológicos.
La acción de Italia refleja una creciente preocupación en Europa sobre el impacto de la inteligencia artificial y la necesidad de garantizar que las tecnologías emergentes cumplan con las normativas de privacidad. No es la primera vez que las aplicaciones de IA enfrentan restricciones en la región: OpenAI también tuvo que hacer modificaciones en ChatGPT para cumplir con las regulaciones europeas.
La investigación del regulador italiano sigue en curso y podría sentar un precedente para otros países de la Unión Europea que evalúan medidas similares contra aplicaciones de inteligencia artificial que no cumplen con los estándares de transparencia y seguridad de datos.
Continúa informándote
OpenAI presenta ChatGPT Health como área dedicada a consultas de salud
OpenAI lanza ChatGPT Health un espacio específico para consultas de salud que separa datos sensibles del resto del chatbot y refuerza privacidad y seguridad
SHASAI busca blindar la IA ante riesgos de ciberseguridad
La Unión Europea impulsa SHASAI, un proyecto que busca reforzar la ciberseguridad de los sistemas de inteligencia artificial desde su diseño hasta su uso real
DeepSeek presenta un método para escalar IA sin perder estabilidad
DeepSeek propone un nuevo método de entrenamiento que permite escalar modelos de inteligencia artificial manteniendo la estabilidad y controlando los costos computacionales
Plaud presenta NotePin S y una app de notas con IA
Plaud lanza NotePin S, un dispositivo portátil con IA para grabar y transcribir, junto con una app de escritorio pensada para tomar notas de reuniones digitales
Cómo los algoritmos deciden qué ves en redes sociales
Los algoritmos de redes sociales ordenan contenidos según cómo reaccionas y cuánto tiempo te quedas, priorizando retener tu atención más que informarte mejor
California activa un sistema único para solicitar la eliminación de datos personales
California lanza un sistema centralizado que permite pedir a cientos de corredores de datos la eliminación de información personal con una sola solicitud