This is the Trace Id: 7b20f7f8365c03a58afd0e839f75d4bf
Преминаване към основното съдържание

 

Cyber Pulse: отчет на защитата на ИИ

Последните телеметрични данни и изследвания на Microsoft показват, че много организации вече внедряват ИИ агенти. Сега е моментът лидерите да въведат наблюдение, управление и сигурност.

Тема 1: Въведение

Водещите организации преосмислят начина на работа, като хора и агенти работят заедно, за да повишат човешките амбиции. Последните данни на Microsoft показват, че тези екипи от хора и агенти растат и се приемат широко по целия свят.

ИИ агентите се разрастват по-бързо, отколкото някои компании могат да ги наблюдават, а тази липса на видимост представлява бизнес риск. Организациите спешно се нуждаят от ефективно управление и сигурност, за да приемат агенти безопасно, да стимулират иновациите и да намалят рисковете. Както при човешките потребители, ИИ агентите изискват защита чрез наблюдение, управление и силна сигурност, базирана на принципите на Zero Trust. Предприятията, които ще успеят в следващата фаза на приемане на ИИ, са тези, които действат бързо и обединяват бизнес, ИТ, екипи по сигурност и разработчици, за да наблюдават, управляват и защитават своята ИИ трансформация.

В екосистемата на Microsoft клиентите вече изграждат и внедряват агенти на всички основни платформи – от Fabric и Foundry до Copilot Studio и Agent Builder – отразявайки широкия преход към автоматизация с подкрепа на ИИ в работния процес.

Създаването на агенти вече не е запазено само за технически специалисти; днес служители от различни позиции създават и използват агенти в ежедневната си работа. Данни на Microsoft показват , че над 80% от компаниите в списъка Fortune 500 използват активни агенти , създадени с нискокодови и безкодови инструменти.1 С разрастването на използването на агенти и умножаването на възможностите за трансформация, сега е моментът да се въведат основни контролни механизми.

Точно както за човешките служители, Zero Trust за агентите означава:
 

  • Достъп с най-малко привилегии: Дайте на всеки потребител, ИИ агент или система само необходимите права – нищо повече.

  • Ясна проверка: винаги потвърждавайте кой или какво иска достъп, използвайки идентичност, състояние на устройството, местоположение и ниво на риск.

  • Предполага се, че компромис може да възникне: проектирайте системи с очакването, че нападатели могат да проникнат вътре.

Графика, показваща, че над 80% от компаниите в списъка Fortune 500 използват активни нискокодови инструменти. Попитайте Copilot

ИИ агентите се разрастват бързо – във всички региони и индустрии

Приемането на агенти се ускорява в целия свят – от EMEA до Америка и Азия.2
 Лентова диаграма, илюстрираща регионалното разпределение: EMEA 42%, САЩ 29%, Азия 19%, Америка 10%.
Microsoft наблюдава растеж на агентите във всички индустрии. Финансовите услуги, производството и търговията на дребно водят в приемането на агенти. Финансовите услуги – включително банкиране, капиталови пазари и застраховане – вече представляват около 11% от всички активни агенти в световен мащаб.2 Производството заема 13% от глобалното използване на агенти, демонстрирайки широко разпространение в заводи, вериги за доставки и енергийни операции.2 Търговията на дребно представлява 9%, като агенти се използват за подобряване на клиентското изживяване, управлението на инвентара и процесите на първа линия.2

Проблемът: някои от тези агенти са одобрени от ИТ, докато други не са. Някои от тези агенти са сигурни, други – не.
Пресичащи се кръгове, илюстриращи разпределението по индустрии: Софтуер и технологии 16%, Производство 13%, Финансови услуги 11%, Търговия на дребно 9%.

Рискът от двойни агенти

Бързото внедряване на агенти може да изпревари контрола за сигурност и съответствие, увеличавайки риска от сенчест ИИ (shadow AI). Злонамерени лица могат да използват достъпа и привилегиите на агентите, превръщайки ги в нежелани „двойни агенти“. Както при човешките служители, агент с прекалено много достъп или неправилни инструкции може да се превърне в сериозна уязвимост.

Заплахата от експлоатация на двойни агенти, ако те не се управляват, не се разрешават правилно или се манипулират с недоверени входни данни, не е теоретичен риск. Наскоро екипът на Microsoft Defender откри измамна кампания, в която множество участници използват ИИ атака, известна като „отравяне на паметта“, за да манипулират паметта на ИИ асистентите по устойчив начин, тихо насочвайки бъдещите отговори и подкопавайки доверието в точността на системата.

В независими, сигурни тестови изследвания, проведени от собствения AI Red Teamна Microsoft, изследователите документираха как агентите бяха заблуждавани от измамни интерфейсни елементи, следвайки вредни инструкции, вградени в ежедневното съдържание. Red Team също откри как разсъжденията на агентите могат да бъдат фино пренасочени чрез манипулирано формулиране на задачи. Тези открития подчертават колко е критично предприятията да имат пълна видимост и контрол върху всички агенти, свързани с тяхната организация, за да могат контролните мерки да се прилагат централизирано, а рисковете да се управляват интегрирано и ефективно.
Според проучване от 2025 г., 29% от служителите използват неразрешени AI агенти за изпълнение на работни задачи
Според Индекса за сигурност на данните на Microsoft, едва 47% от организациите в различни сектори прилагат конкретни мерки за сигурност при GenAI,3 което открива възможност за компаниите да придобият необходимата прозрачност за безопасно внедряване на изкуствения интелект. Още по-важно, според международно проучване сред над 1700 специалисти по сигурност на данни, поръчано от Microsoft чрез Hypothesis Group, вече 29% от служителите използват неразрешени ИИ агенти за служебни задачи.4
Кръгова диаграма, показваща, че едва 47% от организациите разполагат със защитни мерки за използване на генеративен изкуствен интелект.

С ускоряването на приемането, колко лидери осъзнават скритите рискове? Колко лидери имат пълна видимост върху своята популация от агенти? Ненаблюдаваните или неуправлявани ИИ агенти увеличават рисковете за предприятието – застрашавайки сигурността, непрекъснатостта на бизнеса и репутацията, като цялата отговорност пада върху CISO и висшето ръководство. Това е сърцето на дилемата при киберрисковете. ИИ агентите отварят нови възможности на работното място и се интегрират дълбоко във вътрешните процеси. Но рисковото поведение на агентите може да засили вътрешните заплахи и да създаде нови уязвимости за организациите, неподготвени да ги управляват.

 

Двойствената природа на ИИ вече е факт: изключителни иновации, съчетани с безпрецедентни рискове.

Как да извлечете максимума от вашите ИИ агенти

Водещите компании използват вълната на ИИ, за да модернизират управлението, да намалят излишното излагане на данни и да внедрят контролни мерки на ниво цялото предприятие. Това върви ръка за ръка с културна промяна: бизнес лидерите ръководят ИИ стратегията, а ИТ и екипите по сигурност са истински партньори в наблюдението, управлението и безопасния експеримент. За тези организации защитата на агентите не е пречка, а конкурентно предимство, базирано на третирането на ИИ агентите като хора и прилагането на същите Zero Trust принципи.

Всичко започва с наблюдение – не можете да защитите това, което не виждате, и не можете да управлявате това, което не разбирате. Наблюдаемостта означава да имате контролна платформа, обхващаща всички нива на организацията (ИТ, сигурност, разработчици и ИИ екипи), за да разберете:

  • Какви агенти съществуват
     

  • Кой е техният собственик
     

  • Кои системи и данни използват
     

  • Как се държат


 

Наблюдаемостта обхваща пет ключови области:

  • Централизираният регистър служи като единствен източник на истина за всички агенти в организацията – одобрени, от трети страни и нововъзникващи сянка агенти. Този инвентар предотвратява разрастването на агентите, осигурява отчетност и подпомага откриването, като позволява ограничаване или карантина на неразрешени агенти при необходимост.
  • Всеки агент се управлява с идентичностно- и политикобазирани контролни механизми за достъп, същите, които се прилагат за човешки потребители и приложения. Принципът за най-малко привилегии, прилаган последователно, гарантира, че агентите имат достъп само до данните, системите и работните потоци, необходими за изпълнение на задачите им – нищо повече, нищо по-малко.
  • Таблата за управление в реално време и телеметрията предоставят прозрения за взаимодействието на агентите с хора, данни и системи. Лидерите могат да проследяват къде оперират агентите, да разбират зависимостите и да наблюдават поведението и въздействието им – подпомагайки бързото откриване на злоупотреби, отклонения или нови рискове.
  • Агентите функционират на платформите на Microsoft, в отворени източници и екосистеми на трети страни, под единен модел за управление. Тази съвместимост позволява на агентите да си сътрудничат с хора и други агенти в работните потоци, като същевременно остават управлявани в рамките на същите корпоративни контроли.
  • Вградените защити предпазват агентите от вътрешни злоупотреби и външни заплахи. Сигналите за сигурност, прилагането на политики и интегрираните инструменти помагат на организациите да откриват навреме компрометирани или несъответстващи агенти и да реагират бързо – преди проблемите да се превърнат в бизнес, регулаторни или репутационни щети.

Затваряне на пропуските: контролен списък за управление и сигурност на ИИ

Пътят към контролиране на рисковете от ИИ е ясен: третирайте ИИ агентите със същата строгост, както всеки служител или софтуерен акаунт. Ето седем ключови точки за вашия контролен списък.
  • Документирайте целта на всеки агент и му предоставяйте достъп само до необходимите ресурси. Без широки привилегии.
  • Прилагайте правила за защита на данните в ИИ каналите. Поддържайте одитни следи и маркирайте съдържание, генерирано от ИИ.
  • Предлагайте сигурни алтернативи, за да ограничите използването на сенчест ИИ (shadow AI). Блокирайте неоторизирани приложения.
  • Актуализирайте плановете за непрекъснатост на бизнеса, включително ИИ сценарии. Провеждайте симулации и следете ключови метрики за наблюдаемост в областите на идентичност, данни и заплахи.
  • Изградете управление на ИИ и саморегулация още сега – документирайте обучителните данни, оценявайте пристрастията и осигурете човешки контрол в областите право, данни и сигурност, за да интегрирате съответствието с регулациите от самото начало, а не като допълнение.
  • Повишете управлението на ИИ риска до корпоративно ниво – въведете изпълнителна отговорност, измерими ключови показатели (KPI) и видимост на ниво съвет на директорите, заедно с финансовия и оперативен риск.
  • Обучавайте служителите за безопасна и отговорна употреба на ИИ. Насърчавайте прозрачност и сътрудничество.

Организациите, които успеят с ИИ агенти, са тези, които поставят на първо място наблюдаемост, управление и сигурност. Постигането на това изисква тясно сътрудничество между всички екипи и наблюдение на ИИ агентите на всички нива в организацията: IT специалисти, екипи по сигурността, ИИ екипи и разработчици – всички управлявани и наблюдавани чрез единна централизирана платформа за контрол.

Agent 365 е единната контролна платформа на Microsoft за управление на ИИ агенти в цялата организация. Тя предоставя централизирана, корпоративна система за регистриране, управление, защита, наблюдение и експлоатация на ИИ агенти – независимо дали са изградени на платформите на Microsoft, отворени рамки или системи на трети страни. Повече информация за продуктите и услугите на Microsoft, които подпомагат защитата на ИИ и агентите, е налична тук.
Карти с ресурси на Microsoft Security, представящи ръководства за ИИ приложения, управление на ИИ и съответствие с ИИ на син фон
Ръководства за защита на ИИ

Ръководства на Microsoft за защита на предприятие с помощта на ИИ

Получете насоки за изграждане на стабилна основа за ИИ – как да управлявате и защитавате ИИ приложения и да осигурите съответствие с регулациите.

Още ресурси

Човек работи на лаптоп в споделено работно пространство, докато проверява информация на смартфон

Индекс на защита на данните на Microsoft

Получете ценни прозрения за това как генеративният ИИ трансформира сигурността на данните.
Презентатор на сцена с надписи на екрана: разбиране на рисковете, въвеждане на правилните контроли, измерване и наблюдение

Ускоряване на възможностите с надежден изкуствен интелект

Чуйте лидерите на Microsoft, които споделят практични подходи за изграждане на доверие във всеки етап от вашето ИИ пътуване.
Синьо-бяла икона, изобразяваща лист хартия в плик с надпис "Нов."

Получете периодичния резюмиран доклад на CISO

Бъдете в крак с експертни анализи, тенденции в отрасъла и проучвания за сигурността с този двумесечен имейл бюлетин.
  1. [1]
    Въз основа на телеметрия от първа страна на Microsoft, измерваща агенти, създадени с Microsoft Copilot Studio или Microsoft Agent Builder, използвани през последните 28 дни на ноември 2025 г.
  2. [2]
    Показателите за индустрията и регионалните агенти са създадени с помощта на телеметрични измервателни агенти на Microsoft, създадени с Microsoft Copilot Studio или Microsoft Agent Builder, използвани през последните 28 дни на ноември 2025 г.
  3. [3]
    Международно проучване от юли 2025 г. сред над 1700 специалисти по защита на данни, поръчано от Microsoft чрез Hypothesis Group
  4. [4]

    Индекс за защита на данните на Microsoft 2026: Обединяване на защитата на данните и иновациите в ИИ, Microsoft Security, 2026 г.

     

    Методология:

     

    Показателите за индустрията и регионалните агенти са създадени с помощта на телеметрични измервателни агенти на Microsoft, създадени с Microsoft Copilot Studio или Microsoft Agent Builder, използвани през последните 28 дни на ноември 2025 г.

     

    Индекс за защита на данните 2026 г.:

     

    Онлайн проучване с продължителност 25 минути, проведено от 16 юли до 11 август 2025 г. сред 1725 лидери в областта на защитата на данни.

     

    Въпросите бяха фокусирани върху пейзажа на защитата на данните, инцидентите със сигурността, осигуряването на безопасното използване на GenAI от служителите и прилагането на GenAI в програми за защита на данните с цел сравнение с 2024 г.

     

    Проведохме едночасови задълбочени интервюта с 10 водещи експерти по защита на данните от САЩ и Великобритания, за да съберем техните истории и подходи към управлението на сигурността на данните в организациите им.

     

    Определения:

     

    Активните агенти са 1) внедрени в продукция и 2) имат реална активност през последните 28 дни.

     

    „Реална активност“ се определя като поне 1 взаимодействие с потребител (помощни агенти) ИЛИ поне 1 автономно изпълнение (автономни агенти).

Следвайте Microsoft Security