El Parlamento Europeo ha desactivado las funciones de inteligencia artificial integradas en los dispositivos de trabajo de sus legisladores y su personal tras una evaluación interna de riesgos. El departamento de TI concluyó que no podía garantizar la seguridad de los datos enviados a servicios en la nube ni determinar con precisión qué información se comparte con proveedores externos. La medida llega en un momento de alta sensibilidad regulatoria y tensiones transatlánticas en materia tecnológica.
La restricción afecta a asistentes de redacción, herramientas de resumen automático y funciones inteligentes integradas en tabletas y teléfonos corporativos. Las aplicaciones habituales como correo electrónico, calendario o documentos no se verán afectadas. El foco está en aquellas funciones que procesan contenido mediante servidores externos.
El motivo técnico es claro. Algunas de estas herramientas envían datos desde el dispositivo a la nube para ejecutar tareas que podrían realizarse localmente. Mientras no exista plena certeza sobre el tratamiento de esa información, el Parlamento ha optado por mantenerlas desactivadas como medida preventiva.
Los chatbots y asistentes de IA funcionan analizando el texto o los documentos que el usuario introduce. Ese procesamiento suele realizarse en infraestructuras gestionadas por las propias empresas proveedoras. Además, muchos sistemas utilizan interacciones para mejorar sus modelos, lo que plantea interrogantes sobre almacenamiento y reutilización de datos.
A esto se suma la dimensión jurídica. Varias de las compañías que ofrecen estos servicios están sujetas a la legislación estadounidense. En determinadas circunstancias, las autoridades de ese país pueden requerir información a empresas tecnológicas, lo que introduce un factor adicional de riesgo para instituciones que manejan documentación sensible.
La decisión se enmarca en la tradición europea de protección de datos, una de las más estrictas del mundo. Al mismo tiempo, la Comisión Europea ha propuesto flexibilizar ciertas normas para facilitar el entrenamiento de modelos de inteligencia artificial con datos europeos. Ese debate refleja la tensión entre competitividad digital y garantías de privacidad.
El contexto geopolítico también influye. Recientemente, el Departamento de Seguridad Nacional de Estados Unidos envió citaciones a empresas tecnológicas y redes sociales para obtener información sobre determinados usuarios. Algunas compañías atendieron esos requerimientos, lo que ha alimentado inquietudes en Europa sobre la exposición de datos bajo marcos legales externos.
La medida del Parlamento no implica un rechazo a la inteligencia artificial. Representa una decisión de prudencia institucional ante un entorno tecnológico y jurídico en evolución. En una era de servicios en la nube y proveedores globales, la gestión del riesgo digital se convierte en una cuestión estratégica para las instituciones públicas.
Fuente: Politico