Hay un cambio silencioso y acelerado: los agentes de inteligencia artificial están entrando en tu empresa y, con ellos, una mezcla de eficiencia y riesgo. Microsoft, con Charlie Bell al frente de Seguridad, sitúa el debate hoy, mientras la cifra clave apunta a 2028.
Bell recurre a “Data” y “Lore”, los personajes de Star Trek, para explicar la dualidad. Los agentes de inteligencia artificial pueden ser colaboradores brillantes o convertirse en una fuente nueva de incidentes. Y no hablamos de un fenómeno menor: IDC, citado por Bell, estima 1.300 millones de agentes en circulación en 2028, un volumen que cambiará la ciberseguridad en cualquier sector.

La pregunta inmediata es obvia. ¿Vas a poder confiar en estos agentes de inteligencia artificial cuando actúan de forma autónoma, se integran en procesos críticos y hablan en lenguaje natural con personas y sistemas? Hay un marco que reduce el ruido y permite avanzar con control.
El primer choque con la realidad llega con un patrón de fallo conocido: el “Confused Deputy”. Un agente con privilegios amplios, si se ve manipulado, puede filtrar datos o ejecutar acciones no autorizadas. La situación empeora con los agentes en la sombra, creados sin permiso o fuera del inventario, que abren puntos ciegos, como ocurrió con el BYOD hace dos décadas.
La complejidad sube porque los agentes de inteligencia artificial procesan volúmenes masivos de datos y comandos en varios idiomas. Distinguir una operación legítima de un “prompt” malicioso es más difícil que en el software clásico. Con todo, puedes gobernarlos si adaptas principios de seguridad consolidados a este entorno más dinámico y autónomo.
Bell y Mustafa Suleyman ponen dos ideas en el centro: contención y alineación. La contención acota privilegios y propósito, y registra cada acción y cada mensaje. La alineación asegura que el agente solo persiga los objetivos para los que fue diseñado, con protecciones integradas en el modelo y en los comandos que lo activan.
También te puede interesar:OpenAI Presenta un Agente para Investigación ProfundaLa regla práctica es clara: un agente de inteligencia artificial que no pueda ser supervisado no debería operar. Cada agente necesita identidad propia y un responsable dentro de la organización. Este enfoque encaja con Zero Trust, que verifica explícitamente identidades —humanas, dispositivos y agentes— y recorta el acceso a lo estrictamente necesario.
En la capa humana, Bell insiste en que la seguridad frente a la IA es un asunto de dirección. La cultura pesa tanto como la tecnología. Hace falta diálogo abierto sobre riesgos, participación de legal, cumplimiento y recursos humanos, formación continua y espacios de experimentación controlada. La meta es tratar a la IA como colaborador y no como amenaza.
Zero Trust para agentes añade capacidades técnicas y un lenguaje común para el riesgo. ¿Por dónde empiezas sin bloquear la utilidad? Hay atajos seguros.
La contención se traduce en permisos mínimos, límites temporales y perímetros claros entre datos, herramientas y destinatarios. La alineación se refuerza con plantillas de instrucciones, políticas de salida y validaciones automáticas antes de ejecutar acciones sensibles. Así, los agentes de inteligencia artificial resisten prompts maliciosos y errores de configuración.

El impacto sectorial es inmediato. En banca y sanidad, cualquier desalineación puede activar procesos regulados. En industria, un agente con permisos en planta podría apagar un sistema por una orden ambigua. Por eso, contención + alineación + Zero Trust forman el triángulo operativo para 2025.
Microsoft está moviendo fichas. Entra Agent ID aporta identidades trazables desde el nacimiento del agente, y Defender con Security Copilot correlaciona señales para cortar phishing dirigido a agentes y automatizaciones encadenadas. Bell avanzó nuevas innovaciones, cocreadas con clientes y partners, que se presentarán en Ignite, en noviembre de 2025 en California.
También te puede interesar:¿La IA nos Hace Más tontos?: El MIT Revela el Impacto Oculto de la IA en el AprendizajeQueda por resolver cómo escalar buenas prácticas a cientos de casos. Las piezas están: identidad desde el día cero, control de privilegios, observabilidad y cultura de aprendizaje continuo. Los agentes de inteligencia artificial tienen un papel enorme, y la “seguridad ambiental” combina medidas técnicas, educación y liderazgo para que esa promesa no se vuelva en contra.

Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.