Tecnología
Publicado:

Microsoft advierte que agentes de IA sin supervisión podrían convertirse en “agentes dobles”

El crecimiento de los agentes de inteligencia artificial en las empresas plantea nuevos desafíos de seguridad. Microsoft propone herramientas para supervisarlos

4 min lectura
Logo de Microsoft sobre fondo de circuitos digitales

La inteligencia artificial empresarial está entrando en una nueva fase. Los llamados agentes de IA —programas capaces de ejecutar tareas de forma autónoma— están pasando rápidamente de ser experimentos tecnológicos a convertirse en parte de la infraestructura operativa de muchas organizaciones. Este cambio está obligando a las empresas a replantear cómo supervisar y proteger sistemas que ya toman decisiones o interactúan con datos corporativos.

Microsoft sostiene que este proceso ya está muy avanzado. Según datos citados por la propia compañía, más del 80 % de las empresas del índice Fortune 500 utilizan agentes de inteligencia artificial en diferentes áreas de trabajo. Estos sistemas suelen emplearse en investigación, programación, atención al cliente, ventas o gestión de recursos humanos.

El problema es que la adopción de estos sistemas está avanzando más rápido que los mecanismos de control. Un estudio citado por Microsoft indica que alrededor del 29 % de los agentes que operan dentro de las empresas lo hacen sin aprobación de los equipos de tecnología o de seguridad. Esa falta de visibilidad crea un escenario en el que los sistemas autónomos pueden interactuar con datos sensibles sin supervisión adecuada.

El riesgo de los “agentes dobles”

Microsoft ha introducido el concepto de “agentes dobles” para describir uno de los escenarios de riesgo que empiezan a preocupar a los equipos de ciberseguridad. La idea se refiere a agentes de inteligencia artificial que, tras ser manipulados, terminan actuando en contra de los intereses de la organización para la que trabajan.

Las técnicas que podrían permitirlo incluyen la inyección de instrucciones maliciosas en las solicitudes que reciben los sistemas de IA, el envenenamiento de modelos o la manipulación de datos utilizados durante su funcionamiento. Investigaciones internas de Microsoft indican que, en entornos de prueba, este tipo de ataques puede conseguir que un agente acceda a información no autorizada o ejecute acciones que no estaban previstas.

Estas amenazas reflejan un cambio importante en el panorama de seguridad digital. Durante años, las defensas corporativas se centraron en proteger cuentas humanas, aplicaciones y servidores. La aparición de agentes autónomos introduce una nueva categoría de “entidades digitales” que también necesitan identidad, permisos y auditoría.

La respuesta de Microsoft

La estrategia de Microsoft consiste en aplicar a los agentes de IA los mismos principios de seguridad que ya se utilizan para los usuarios humanos. Con ese objetivo, la empresa anunció dos nuevas herramientas: Agent 365 y Microsoft 365 Enterprise 7, cuyo lanzamiento está previsto para el 1 de mayo.

Agent 365 funcionará como una plataforma centralizada para supervisar agentes de inteligencia artificial dentro de una organización. El sistema permitirá a los equipos de tecnología y seguridad observar cómo se comportan estos agentes, qué datos utilizan y qué riesgos pueden presentar. El producto tendrá un precio de 15 dólares por usuario al mes.

El sistema incluye funciones de observabilidad, seguridad y gobernanza. Cada agente puede recibir una identidad digital propia dentro del sistema de gestión de identidades de Microsoft, lo que permite aplicar políticas de acceso, registros de actividad y controles de seguridad similares a los de cualquier usuario corporativo.

Microsoft 365 Enterprise 7, por su parte, agrupa varias herramientas en una única licencia de 99 dólares mensuales por usuario. Este paquete integra Copilot —la plataforma de IA empresarial de Microsoft— con Agent 365 y con herramientas avanzadas de seguridad, gestión de identidades y protección de datos.

El movimiento refleja una tendencia más amplia en el sector tecnológico. A medida que los agentes de inteligencia artificial se integran en procesos empresariales reales, las organizaciones se ven obligadas a crear nuevas formas de supervisión para sistemas que operan de manera autónoma. El desafío ya no consiste solo en desarrollar IA más potente, sino en garantizar que esos sistemas funcionen dentro de límites de seguridad claros.

Compartir artículo

Continúa informándote