Ordenador con Windows - UNSPLASH/GEORGIY LYAMIN
MADRID, 11 Feb. (Portaltic/EP) -
Microsoft ha alertado del riesgo de los agentes dobles, que aprovechan los accesos y privilegios que se otorgan a los agentes de inteligencia artificial (IA) para realizar acciones maliciosas sin que las empresas se den cuenta.
Los agentes están cada vez más presentes en empresas y organizaciones. Según recoge el informe Cyber Pulse 2026 de Microsoft, las empresas pioneras ya trabajan con equipos mixtos de personas y agentes de IA y más del 80 por ciento de las empresas Fortune 500 utilizan agentes activos creados con herramientas de 'low code'.
Sectores como el del 'software' y la tecnología (16%), la manufactura (13%), las entidades financieras (11%) y el comercio minorista (9%) ya utilizan agentes para apoyar la realización de tareas cada vez más complejas, como redactar propuestas, analizar datos financieros, clasificar alertas de seguridad, automatizar procesos repetitivos y obtener información a la velocidad de las máquinas.
Estos agentes pueden funcionar de manera asistida, respondiendo a las indicaciones de los usuario, o de forma autónoma, ejecutando tareas con muy poca intervención humana.
Sin embargo, la creciente adopción se acompaña de nuevos riesgos, en tanto que los agentes de IA están escalando más rápido de lo que algunas empresas pueden llegar a ver, lo que provoca una falta de visibilidad que puede dar lugar a lo que se conoce como IA en la sombra ('shadow IA') y los agentes dobles.
Esta amenaza se traduce en el abuso de los agentes de IA, aprovechando que tienen amplios permisos y accesos a los sistemas para trabajar de manera autónoma. "Un agente con demasiados permisos -o con instrucciones incorrectas- puede convertirse en una vulnerabilidad", advierten desde Microsoft en un comunicado.
Al igual que ocurre con las personas, los agentes pueden convertirse en agentes dobles "si no se gestionan, si tienen permisos inadecuados o reciben instrucciones de fuentes no fiables".
Según el Data Security Index de Microsoft, solo el 47 por ciento de las organizaciones de todos los sectores afirman estar implementando controles de seguridad específicos para la IA generativa, lo
Microsoft aboga por adoptar un enfoque de seguridad de confianza cero ('Zero Trust') con los agentes, lo que implica la concesión de acceso con privilegios mínimos e imprescindibles, la comprobación de quién o qué solicita acceso y diseñar los sistemas partiendo de la base de que los atacantes pueden llegar a acceder.