This is the Trace Id: 6c378a99c718ae5c33a621397b6bd183

 

Cyber Pulse: un informe de seguridad sobre IA

Las últimas investigaciones y datos de telemetría propios de Microsoft muestran que muchas organizaciones están adoptando agentes de IA. Ahora es el momento de que los líderes implementen la observabilidad, la gobernanza y la seguridad.

Número 1: Introducción

Las organizaciones pioneras están redefiniendo la forma en que se realiza el trabajo, con personas y agentes trabajando codo con codo para elevar la ambición humana. Los datos recientes de Microsoft muestran que estos equipos humano-agente están creciendo y ganando adopción global.

Los agentes de IA están creciendo más rápido de lo que algunas empresas pueden percibir, y esa brecha de visibilidad supone un riesgo para el negocio. Las organizaciones necesitan urgentemente una gobernanza y una seguridad eficaces para adoptar agentes de forma segura, promover la innovación y reducir los riesgos. Al igual que los usuarios humanos, los agentes de IA requieren protección mediante observabilidad, gobernanza y una seguridad robusta basada en los principios de Confianza cero. Las empresas que tengan éxito en la siguiente fase de adopción de la IA serán aquellas que actúen con rapidez y reúnan a los equipos comerciales, de TI, de seguridad y de desarrollo para observar, gestionar y proteger su transformación hacia la IA.

En todo el ecosistema de Microsoft, los clientes ahora están creando e implementando agentes en todas las plataformas principales, desde Fabric y Foundry hasta Copilot Studio y Agent Builder, lo que refleja un amplio cambio hacia la automatización impulsada por la IA en el flujo de trabajo.

La creación de agentes no se limita a los puestos técnicos; hoy en día, empleados de diversos puestos crean y utilizan agentes en su trabajo diario. De hecho, los datos de Microsoft muestran que más del 80 % de las empresas Fortune 500 están desplegando agentes activos creados con herramientas de código bajo/sin código.1 Con el crecimiento del uso de agentes y la multiplicación de oportunidades de transformación, es momento de establecer controles fundamentales.

Al igual que para los empleados humanos, la Confianza cero para agentes significa:
 

  • Acceso con privilegios mínimos: otorgar a cada usuario, agente de IA o sistema solo los permisos estrictamente necesarios.

  • Verificación explícita: confirmar siempre quién o qué solicita acceso, evaluando identidad, estado del dispositivo, ubicación y nivel de riesgo.

  • Asumir que pueden haber compromisos: diseñar sistemas bajo la premisa de que los atacantes podrían infiltrarse.

Gráfico que muestra que más del 80 % de las empresas Fortune 500 utilizan activamente herramientas low code para agentes, como Ask Copilot

Los agentes de IA se expanden rápidamente en todas las regiones y sectores

La adopción de agentes se acelera en todas las regiones del mundo, desde EMEA hasta las Américas y Asia.2
 Gráfico de barras que ilustra la distribución regional: EMEA 42 %, Estados Unidos 29 %, Asia 19 % y América 10 %.
Microsoft está observando un crecimiento de los agentes en todos los sectores. Los servicios financieros, la industria manufacturera y el comercio minorista lideran la adopción de agentes. Los servicios financieros, incluyendo banca, mercados de capital y seguros, representan alrededor del 11 % de todos los agentes activos a nivel mundial.2 La manufactura representa el 13 % del uso global de agentes, evidenciando una adopción masiva en fábricas, cadenas de suministro y operaciones energéticas.2 El comercio minorista abarca el 9 %, con agentes que mejoran la experiencia del cliente, la gestión de inventarios y los procesos de primera línea.2

El desafío: algunos de estos agentes están autorizados por TI, mientras que otros no. Algunos de estos agentes son seguros, otros no.
Círculos superpuestos que ilustran la distribución por sectores: Software y Tecnología 16 %, Manufactura 13 %, Servicios Financieros 11 %, y Comercio Minorista 9 %.

El riesgo de los dobles agentes

La rápida implementación de agentes puede superar los controles de seguridad y cumplimiento, lo que aumenta el riesgo de shadow AI. Los actores malintencionados podrían explotar el acceso y privilegios de los agentes, convirtiéndolos en "dobles agentes" no deseados. Al igual que los empleados humanos, un agente con demasiado acceso, o con instrucciones erróneas, puede convertirse en una vulnerabilidad.

La amenaza de que los agentes dobles sean explotados si no se gestionan, se conceden permisos erróneos o se manipulan con información no de confianza no es un riesgo teórico. Recientemente, el equipo Defender de Microsoft detectó una campaña fraudulenta donde múltiples actores aprovecharon una técnica de ataque de IA llamada “envenenamiento de memoria” para manipular persistentemente la memoria de asistentes de IA, desviando silenciosamente respuestas futuras y minando la confianza en la precisión del sistema.

En investigaciones independientes y seguras realizadas por el propio equipo rojo de IA de Microsoft, se documentó cómo los agentes fueron engañados por elementos de interfaz manipulados, siguiendo instrucciones dañinas ocultas en contenido cotidiano. El Red Team también descubrió cómo el razonamiento de los agentes podía ser sutilmente redirigido mediante la manipulación del planteamiento de las tareas. Estos hallazgos ilustran por qué es fundamental que las empresas tengan una observabilidad y una gestión completas de todos los agentes que entran en contacto con ellas, de modo que los controles se puedan aplicar de forma centralizada y los riesgos se puedan gestionar de forma centralizada con un enfoque integrado.
El 29 % de los empleados utiliza agentes de IA no autorizados para tareas laborales, según una encuesta realizada en 2025
Según el Índice de Seguridad de Datos de Microsoft, solo el 47 % de las organizaciones en diversos sectores informan que están implementando controles específicos de seguridad para la IA generativa,3 lo que revela una oportunidad para que las empresas obtengan la visibilidad necesaria para una adopción segura de la IA. Aún más relevante, según una encuesta multinacional realizada a más de 1700 profesionales de seguridad de datos, encargada por Microsoft a Hypothesis Group, el 29 % de los empleados ya utilizan agentes de IA no autorizados para tareas en el trabajo.4
Gráfico circular que revela que solo el 47 % de las organizaciones implementan controles de seguridad para el uso de inteligencia artificial generativa.

A medida que se acelera la adopción, ¿cuántos líderes reconocen el riesgo subyacente? ¿Cuántos líderes tienen visibilidad sobre su plantilla de agentes? Los agentes de IA no supervisados o no regulados pueden agravar los riesgos en la empresa, amenazando la seguridad, la continuidad del negocio y la reputación, lo que recae directamente sobre el CISO y la alta dirección. Este es el quid de la cuestión del dilema del riesgo cibernético. Los agentes de IA están aportando nuevas oportunidades al lugar de trabajo y se están integrando en las operaciones internas. Pero el comportamiento de riesgo de un agente puede amplificar las amenazas internas y crear nuevos modos de fallo para las organizaciones que no están preparadas para gestionarlos.

 

La doble naturaleza de la IA ha llegado: una innovación extraordinaria acompañada de riesgos sin precedentes.

Aprovechar al máximo tus agentes de IA

Las empresas pioneras están aprovechando la ola de la IA para modernizar la gobernanza, reducir la exposición innecesaria de datos e implementar controles en toda la empresa. Esto va acompañado de un cambio cultural: los líderes empresariales pueden ser los responsables de la estrategia de IA, pero los equipos de TI y seguridad son ahora auténticos socios en materia de observabilidad, gobernanza y experimentación segura. Para estas organizaciones, la seguridad de los agentes no es una limitación, sino una ventaja competitiva, basada en tratar a los agentes de IA como seres humanos y aplicar los mismos principios de Confianza cero.

Todo comienza con la observabilidad, ya que no se puede proteger lo que no se ve y no se puede gestionar lo que no se comprende. La observabilidad consiste en disponer de un plano de control en todas las capas de la organización (TI, seguridad, desarrolladores y equipos de IA) para comprender:

  • Qué agentes existen
     

  • Quiénes son sus responsables
     

  • Qué sistemas y datos tocan
     

  • Cómo se comportan


 

La observabilidad incluye cinco áreas fundamentales:

  • Un registro centralizado funciona como fuente única de la verdad para todos los agentes en la organización: agentes autorizados, de terceros y ocultos emergentes. Este inventario ayuda a prevenir la proliferación descontrolada de agentes, facilita la rendición de cuentas y apoya su detección, permitiendo restringir o aislar agentes no autorizados cuando sea necesario.
  • Cada agente se gestiona con los mismos controles de acceso basados en identidad y políticas que se aplican a usuarios humanos y aplicaciones. Los permisos de mínimo privilegio, aplicados de forma consistente, garantizan que los agentes solo accedan a los datos, sistemas y flujos de trabajo estrictamente necesarios para cumplir su función.
  • Los paneles y la telemetría en tiempo real ofrecen una visión clara de cómo los agentes interactúan con personas, datos y sistemas. Los líderes pueden identificar dónde operan los agentes, comprender sus dependencias y supervisar su comportamiento e impacto, facilitando la detección más rápida de usos indebidos, desfases o riesgos emergentes.
  • Los agentes operan en plataformas Microsoft, marcos de código abierto y ecosistemas de terceros bajo un modelo de gobernanza unificado. Esta interoperabilidad permite que los agentes colaboren con personas y otros agentes en flujos de trabajo, manteniéndose siempre bajo los mismos controles empresariales.
  • Las protecciones integradas resguardan a los agentes frente a usos indebidos internos y amenazas externas. Las señales de seguridad, la aplicación de directivas y las herramientas integradas ayudan a las organizaciones a detectar rápidamente los agentes comprometidos o desalineados y a responder con rapidez, antes de que los problemas se conviertan en daños comerciales, normativos o de reputación.

Cerrar la brecha: lista de comprobación de gobernanza y seguridad de la IA

El camino para controlar los riesgos de la IA es claro: tratar a los agentes de IA con el mismo rigor que a cualquier empleado o cuenta de servicio de software. Aquí tienes siete puntos clave para tu lista de comprobación.
  • Documenta el propósito de cada agente y dales acceso solo a lo que necesitan. Sin privilegios generales.
  • Aplicar las normas de protección de datos a los canales de IA. Mantener registros de auditoría y etiquetar el contenido generado por IA.
  • Ofrecer alternativas seguras para frenar la shadow AI. Bloquear aplicaciones no autorizadas.
  • Actualizar los planes de continuidad del negocio para escenarios de IA. Realiza ejercicios de simulación y realiza un seguimiento de las métricas de observabilidad en los planos de identidad, datos y amenazas.
  • Desarrolla ahora mismo una gobernanza de la IA y una autorregulación: documenta los datos de entrenamiento, evalúa los sesgos y establece una supervisión humana en los ámbitos jurídico, de datos y de seguridad, de modo que el cumplimiento normativo se integre desde el principio y no se añada posteriormente.
  • Elevar el riesgo de la IA al nivel empresarial: establecer la responsabilidad ejecutiva, los KPI medibles y la visibilidad a nivel directivo junto con el riesgo financiero y operativo.
  • Formar a los empleados sobre el uso seguro de la IA. Fomentar la transparencia y la colaboración.

Las organizaciones que tengan éxito con los agentes de IA serán aquellas que den prioridad a la observabilidad, la gobernanza y la seguridad. Para lograrlo, es necesaria la colaboración entre todos los equipos y la observabilidad de los agentes de IA en todos los niveles de las organizaciones: profesionales de TI, equipos de seguridad, equipos de IA y desarrolladores, todos gestionados y supervisados desde una plataforma centralizada unificada.

Agent 365 es el plano de control unificado de Microsoft para gestionar agentes de IA en toda una organización. Proporciona un sistema centralizado de nivel empresarial para registrar, gestionar, proteger, supervisar y operar agentes de IA, ya sea que estén desarrollados en plataformas de Microsoft, marcos de código abierto o sistemas de terceros. Para obtener más información sobre los productos y servicios de Microsoft que ayudan a proteger la IA y los agentes, haz clic aquí.
Tarjetas de recursos de Seguridad de Microsoft que muestran guías para aplicaciones de IA, gobernanza de IA y cumplimiento normativo de IA sobre fondo azul
Guías para la seguridad de la IA

Guía de Microsoft para proteger la empresa con tecnología de IA

Obtén orientación para ayudar a construir una base sólida para la IA, incluyendo cómo gestionar y proteger las aplicaciones de IA, y ayudar a mantener el cumplimiento normativo.

Más recursos

Persona trabajando con un portátil en una mesa de espacio de trabajo compartido mientras consulta información en un teléfono inteligente

Índice de seguridad de datos de Microsoft

Obtén información sobre cómo la IA generativa está transformando la seguridad de los datos.
Presentador de pie en el escenario con llamadas en pantalla que dicen: comprender los riesgos, establecer los controles adecuados, medir y supervisar

Acelera las oportunidades con IA de confianza

Escucha a líderes de Microsoft compartir estrategias prácticas para generar confianza en cada etapa de tu recorrido con IA.
Icono azul y blanco que muestra un papel dentro de un sobre con el texto Nuevo.

Obtener CISO Digest

Mantente al día con la información de expertos, tendencias del sector e investigaciones sobre seguridad en esta serie bimestral de correos electrónicos.
  1. [1]
    Basado en agentes de medición de telemetría propios de Microsoft creados con Microsoft Copilot Studio o Microsoft Agent Builder que estuvieron en uso durante los últimos 28 días de noviembre de 2025.
  2. [2]
    Las métricas de agentes regionales y del sector se crearon utilizando agentes de medición de telemetría propios de Microsoft, creados con Microsoft Copilot Studio o Microsoft Agent Builder, que estuvieron en uso durante los últimos 28 días de noviembre de 2025.
  3. [3]
    Encuesta multinacional realizada en julio de 2025 a más de 1700 profesionales de la seguridad de datos, encargada por Microsoft a Hypothesis Group
  4. [4]

    Índice de seguridad de datos 2026: unificando la protección de datos y la innovación en IA, Seguridad de Microsoft, 2026

     

    Metodología:

     

    Las métricas de agentes regionales y del sector se crearon utilizando agentes de medición de telemetría propios de Microsoft, creados con Microsoft Copilot Studio o Microsoft Agent Builder, que estuvieron en uso durante los últimos 28 días de noviembre de 2025.

     

    Índice de seguridad de datos 2026:

     

    Entre el 16 de julio y el 11 de agosto de 2025 se llevó a cabo una encuesta multinacional en línea de 25 minutos de duración entre 1725 responsables de la seguridad de los datos.

     

    Las preguntas se centraron en el panorama de la seguridad de los datos, los incidentes asociados, la protección frente al uso de GenAI por parte de los empleados y la integración de GenAI en los programas de seguridad de datos, con el fin de destacar las comparaciones respecto a 2024.

     

    Se realizaron entrevistas en profundidad de una hora de duración a 10 responsables de seguridad de datos en Estados Unidos y Reino Unido para recabar información sobre cómo abordan la seguridad de datos en sus organizaciones.

     

    Definiciones:

     

    Los agentes activos son aquellos que 1) se han implementado en producción y 2) han realizado alguna "actividad real" en los últimos 28 días.

     

    "Actividad real" se define como 1 o más interacciones con un usuario (agentes asistenciales) O 1 o más ejecuciones autónomas (agentes autónomos).

Seguir a Seguridad de Microsoft