This is the Trace Id: 1a9c3aa640d3d58203ce6e3f67dbc953
Salt la conținutul principal De ce Microsoft Security Securitate cibernetică pe platformă de inteligență artificială Securitate în cloud Securitatea și guvernarea datelor Identitate și acces la rețea Confidențialitate și gestionarea riscurilor Securitate pentru inteligența artificială Operațiuni de securitate unificate Zero Trust Microsoft Defender Microsoft Entra Microsoft Intune Microsoft Priva Microsoft Purview Microsoft Sentinel Microsoft Security Copilot Microsoft Entra ID (Azure Active Directory) ID Agent Microsoft Entra ID extern Microsoft Entra Guvernare Microsoft Entra ID Protecție Microsoft Entra ID Acces la internet Microsoft Entra Acces privat Microsoft Entra Gestionarea permisiunilor Microsoft Entra ID verificat Microsoft Entra ID sarcină de lucru Microsoft Entra Servicii de domeniu Microsoft Entra Azure Key Vault Microsoft Sentinel Microsoft Defender for Cloud Microsoft Defender XDR Microsoft Defender pentru punct final Microsoft Defender pentru Office 365 Microsoft Defender pentru identitate Microsoft Defender for Cloud Apps Gestionarea expunerii securității Microsoft Gestiunea vulnerabilităților Microsoft Defender Inteligența contra amenințărilor Microsoft Defender Suita Microsoft Defender pentru Business Premium Microsoft Defender for Cloud Managementul posturii de securitate în cloud Microsoft Defender Gestionarea suprafeței de atac externe Microsoft Defender Securitate avansată GitHub Microsoft Defender pentru punct final Microsoft Defender XDR Microsoft Defender pentru companii Capacitățile de bază Microsoft Intune Microsoft Defender pentru IoT Gestiunea vulnerabilităților Microsoft Defender Analiză avansată Microsoft Intune Administrarea privilegiilor punctelor finale Microsoft Intune Managementul aplicațiilor pentru întreprindere Microsoft Intune Ajutor la distanță Microsoft Intune PKI în cloud Microsoft Conformitate comunicare Microsoft Purview Manager de conformitate Microsoft Purview Gestionarea ciclului de viață al datelor Microsoft Purview Microsoft Purview eDiscovery Audit Microsoft Purview Gestionarea riscurilor Microsoft Priva Solicitările drepturilor subiecților Microsoft Priva Guvernare date Microsoft Purview Suita Microsoft Purview pentru Business Premium Capacități Microsoft Purview pentru securitatea datelor Prețuri Servicii Parteneri Conștientizarea securității cibernetice Relatările clienților Introducere în securitate Versiuni de încercare ale produselor Recunoaștere la nivelul sectorului de activitate Microsoft Security Insider Raportul Apărarea digitală Microsoft Security Response Center Blogul Microsoft Security Evenimente Microsoft Security Microsoft Tech Community Documentație Bibliotecă de conținut tehnic Instruire și certificări Programul de conformitate pentru Microsoft Cloud Centru de autorizare Microsoft Service Trust Portal Microsoft Inițiativa pentru un viitor sigur Hub de soluții de afaceri Contactați echipa de vânzări Începeți versiunea de încercare gratuită Microsoft Security Azure Dynamics 365 Microsoft 365 Microsoft Teams Windows 365 Inteligență artificială Microsoft Azure Space Realitate mixtă Microsoft HoloLens Microsoft Viva Calcul cuantic Sustenabilitate Instituții de învățământ Auto Servicii financiare Administrație publică Instituții medicale Producție Comerț cu amănuntul Găsiți un partener Deveniți partener Programul de parteneriat Microsoft Marketplace Marketplace Rewards Companii de dezvoltare software Blog Microsoft Advertising Centru pentru dezvoltatori Documentație Evenimente Licențiere Microsoft Learn Cercetare Microsoft Vizualizare hartă site

Ce este securitatea cu inteligență artificială?

Aflați noțiunile de bază ale securității inteligenței artificiale și cum să protejați sistemele de inteligență artificială împotriva posibilelor amenințări și vulnerabilități.

O prezentare generală a securității inteligenței artificiale


Securitatea inteligenței artificiale este o ramură a securității cibernetice specifică sistemelor de inteligență artificială. Se referă la setul de procese, cele mai bune practici și soluții tehnologice care protejează sistemele de inteligență artificială împotriva amenințărilor și vulnerabilităților. 

Idei principale

  • Securitatea inteligenței artificiale protejează datele inteligenței artificiale, menține integritatea sistemului și asigură disponibilitatea serviciilor de inteligență artificială.
  • Printre amenințările comune la adresa sistemelor de inteligență artificială se numără atacarea datelor, atacurile de inversare a modelelor și atacurile împotriva amenințărilor.
  • Cele mai bune practici pentru securitatea inteligenței artificiale includ criptarea datelor, testarea robustă, controlul puternic al accesului și monitorizarea continuă.
  • Instrumentele, soluțiile și cadrele moderne de securitate pentru inteligența artificială pot contribui la protejarea sistemelor de inteligență artificială împotriva amenințărilor în continuă dezvoltare. 

Ce este securitatea cu inteligență artificială?

Inteligența artificială a adus o inovație incredibilă în lume într-un ritm fără precedent. Din păcate, infractorii cibernetici au adoptat tehnologia inteligenței artificiale la fel de rapid ca restul lumii, ceea ce prezintă noi vulnerabilități de securitate, amenințări și provocări.

Securitatea AI sau securitatea inteligenței artificiale se referă la măsurile și practicile proiectate să protejeze sistemele de inteligență artificială împotriva acestor amenințări. La fel cum sistemele IT tradiționale necesită protecție împotriva hackingului, virușilor și accesului neautorizat, sistemele de inteligență artificială necesită propriile măsuri de securitate pentru a se asigura că rămân funcționale, fiabile și protejate.

Securitatea inteligenței artificiale este importantă din mai multe motive, inclusiv:
 
  • Protejarea datelor confidențiale. Sistemele de inteligență artificială procesează volume mari de date confidențiale, inclusiv informații financiare, medicale, personale și financiare. 
  • Menținerea integrității sistemului. Vulnerabilitățile neverificate din sistemele de inteligență artificială pot duce la modele compromise, care, la rândul lor, pot genera rezultate inexacte sau dăunătoare.
  • Protejarea disponibilității serviciilor de inteligență artificială. La fel ca orice alt serviciu, sistemele de inteligență artificială trebuie să rămână disponibile și operaționale, mai ales că tot mai multe persoane și organizații se bazează pe ele. Breșele de securitate duc adesea la nefuncționare, ceea ce poate perturba serviciile esențiale. 
  • Responsabilitate. Pentru ca inteligența artificială să fie adoptată la scară globală, persoanele și organizațiile trebuie să aibă încredere că sistemele de inteligență artificială sunt sigure și fiabile.

Concepte cheie în securitatea inteligenței artificiale

  • Confidențialitate: Asigurarea accesibilității datelor confidențiale doar pentru persoanele sau sistemele autorizate. 
  • Integritate: Menținerea acurateței și consistenței sistemelor de inteligență artificială.
  • Disponibilitate: Asigurarea faptului că sistemele de inteligență artificială rămân operaționale și accesibile. 

  • Responsabilitate: Capacitatea de a urmări acțiunile efectuate de sistemele de inteligență artificială.
 

Securitatea inteligenței artificiale vs. Inteligență artificială pentru securitatea cibernetică

Este important să distingem între două concepte conexe, dar diferite: securitatea inteligenței artificiale și inteligența artificială pentru securitatea cibernetică.

Securitatea inteligenței artificiale se concentrează pe protecția sistemelor de inteligență artificială propriu-zise. Securitatea inteligenței artificiale cuprinde strategiile, instrumentele și practicile menite să protejeze modelele de inteligență artificială, datele și algoritmii împotriva amenințărilor. Printre acestea se numără asigurarea faptului că sistemul AI funcționează conform așteptărilor și că atacatorii nu pot exploata vulnerabilitățile pentru a manipula ieșiri sau a fura informații confidențiale.

Inteligența artificială pentru securitatea cibernetică, pe de altă parte, se referă la utilizarea instrumentelor și modelelor de inteligență artificială pentru a îmbunătăți capacitatea unei organizații de a detecta, a răspunde și a atenua amenințările la adresa tuturor sistemelor sale tehnologice. Aceasta ajută organizațiile să analizeze volume mari de date despre evenimente și să identifice modele care indică amenințări potențiale. Inteligența artificială pentru securitatea cibernetică poate analiza și corela evenimente și date cibernetice în mai multe surse.

Pe scurt, securitatea inteligenței artificiale se referă la protejarea sistemelor de inteligență artificială, în timp ce inteligența artificială pentru securitatea cibernetică se referă la utilizarea sistemelor AI pentru a îmbunătăți postura de securitate generală a unei organizații.
Amenințări la adresa inteligenței artificiale

Amenințări comune la adresa securității inteligenței artificiale

Pe măsură ce sistemele de inteligență artificială sunt utilizate pe scară tot mai largă de către firme și persoane fizice, acestea devin ținte din ce în ce mai atractive pentru atacurile cibernetice.

Mai multe amenințări cheie prezintă riscuri pentru securitatea sistemelor de inteligență artificială:

Atacarea datelor

Atacarea datelor are loc atunci când atacatorii injectează date rău intenționate sau înșelătoare în setul de instruire al unui sistem AI. Deoarece modelele de inteligență artificială sunt la fel de bune ca datele pe care sunt instruite, coruperea acestor date poate duce la ieșiri incorecte sau dăunătoare. 

Atacuri de inversare a modelului

În atacurile de inversare a modelului, atacatorii utilizează predicțiile unui model AI pentru a reface sursa informațiilor confidențiale pe care a fost instruit modelul. Acest lucru poate duce la expunerea datelor confidențiale, cum ar fi informațiile personale, care nu au fost destinate publicului. Aceste atacuri prezintă un risc semnificativ, mai ales atunci când e vorba de modele de inteligență artificială care procesează informații confidențiale.

Atacuri de tip adversar

Atacurile de tip adversare implică crearea de intrări înșelătoare care păcălesc modelele de inteligență artificială în a face predicții sau clasificări incorecte. În aceste atacuri, intrările aparent benigne, cum ar fi o imagine modificată sau un clip audio, determină un model AI să se comporte imprevizibil. Într-un exemplu din lumea reală, cercetătorii au demonstrat cum modificările subtile ale imaginilor ar putea păcăli sistemele de recunoaștere facială în a identifica greșit persoanele.

Preocupări privind confidențialitatea

Sistemele de inteligență artificială se bazează adesea pe seturi mari de date, multe dintre acestea conținând informații personale sau sensibile. Asigurarea confidențialității persoanelor ale căror date sunt utilizate în instruirea pentru inteligența artificială reprezintă un aspect esențial al securității inteligenței artificiale. Încălcarea confidențialității poate apărea atunci când datele sunt tratate, stocate sau utilizate necorespunzător, într-un mod care încalcă consimțământul utilizatorului.

 Implementări grăbite 

Firmele se confruntă adesea cu o presiune intensă pentru a inova rapid, ceea ce poate duce la testare inadecvată, implementări grăbite și verificări de securitate insuficiente. Această creștere a ritmului de dezvoltare lasă uneori vulnerabilitățile critice neadresate, creând riscuri de securitate după ce sistemul de inteligență artificială este în funcțiune.

Vulnerabilitățile lanțului de aprovizionare

Lanțul de aprovizionare cu inteligență artificială este un ecosistem complex care prezintă vulnerabilitățile potențiale care ar putea compromite integritatea și securitatea sistemelor de inteligență artificială. Vulnerabilitățile din bibliotecile sau modelele de la terți expun uneori sistemele de inteligență artificială la exploatare. 

Configurație eronată a inteligenței artificiale

Atunci când dezvoltați și implementați aplicații de inteligență artificială, configurațiile greșite pot expune organizațiile la riscuri directe, cum ar fi neimplementarea guvernanței identității pentru o resursă de inteligență artificială, și riscuri indirecte, cum ar fi vulnerabilitățile unei mașini virtuale expuse la internet, care ar putea permite unui atacator să obțină acces la o resursă de inteligență artificială. 

Injectări de solicitări

Într-un atac de injectare a unei solicitări, un hacker deghizează o intrare rău intenționată ca solicitare legitimă, provocând acțiuni neintenționate din partea unui sistem de inteligență artificială. Prin crearea de solicitări înșelătoare, atacatorii păcălesc modelele de inteligență artificială să genereze rezultate care includ informații confidențiale. 

Cele mai bune practici pentru securizarea sistemelor de inteligență artificială

Asigurarea securității sistemelor de inteligență artificială necesită o abordare cuprinzătoare care să răspundă atât provocărilor tehnice, cât și celor operaționale. Iată câteva exemple de bună practică pentru securizarea sistemelor de inteligență artificială:

Securitatea datelor

Pentru a asigura integritatea și confidențialitatea datelor utilizate pentru instruirea modelelor de inteligență artificială, organizațiile trebuie să implementeze măsuri robuste de securitate a datelor, printre care se numără:

  • Criptarea datelor confidențiale pentru a contribui la prevenirea accesului neautorizat la seturile de date de instruire a inteligenței artificiale.
  • Verificarea surselor de date: este important să vă asigurați că datele utilizate pentru instruire provin din surse de încredere și verificabile, reducând riscul de atacare a datelor.
  • Igienizarea regulată a datelor pentru a elimina orice elemente rău intenționate sau nedorite poate contribui la atenuarea riscurilor de securitate ale inteligenței artificiale.

Securitatea modelului

Protejarea modelelor de inteligență artificială împotriva atacurilor este la fel de importantă ca protejarea datelor. Printre tehnicile cheie pentru asigurarea securității modelului se numără:

  • Testarea regulată a modelelor de inteligență artificială pentru a identifica vulnerabilitățile potențiale ale atacurilor de tip conflictual este esențială pentru menținerea securității.
  • Utilizarea confidențialității diferențiale pentru a împiedica atacatorii să refacă sursa informațiilor sensibile de la modelele de inteligență artificială.
  • Implementarea instruirii adversare, care antrenează modele de inteligență artificială pe algoritmi care simulează atacuri pentru a-i ajuta să identifice mai rapid atacurile reale. 

Controlul accesului

Implementarea unor mecanisme puternice de control al accesului asigură faptul că doar persoanele autorizate interacționează cu sau modifică sistemele de inteligență artificială. Organizațiile ar trebui:

  • Utilizați controlul accesului bazat pe roluri pentru a limita accesul la sistemele de inteligență artificială pe baza rolurilor de utilizator.
  • Implementați autentificarea multifactor pentru a oferi un nivel suplimentar de securitate pentru accesarea modelelor și datelor de inteligență artificială.
  • Monitorizați și înregistrați toate încercările de acces pentru a vă asigura că accesul neautorizat este detectat și atenuat rapid.

Auditări și monitorizare regulate

Monitorizarea și auditarea continuă a sistemelor de inteligență artificială sunt esențiale pentru a detecta și a răspunde la amenințări potențiale de securitate. Organizațiile ar trebui:

  • Auditați periodic sistemele de inteligență artificială pentru a identifica vulnerabilitățile sau anomaliile din performanța sistemului. 
  • Utilizați instrumente de monitorizare automată pentru a detecta comportamente neobișnuite sau modele de acces în timp real. 
  • Actualizați cu regularitate modelele de inteligență artificială pentru a corecta vulnerabilitățile și a îmbunătăți rezistența la amenințările emergente. 

Îmbunătățiți securitatea inteligenței artificiale cu instrumentele potrivite

Există mai multe instrumente și tehnologii care pot contribui la îmbunătățirea securității sistemelor de inteligență artificială. Printre acestea se numără cadre de securitate, tehnici de criptare și instrumente de securitate AI specializate.

Cadre de securitate

Cadre precum NIST AI Risk Management Framework oferă îndrumări pentru organizații pentru gestionarea și atenuarea riscurilor asociate inteligenței artificiale. Aceste cadre oferă cele mai bune practici pentru securizarea sistemelor de inteligență artificială, identificarea posibilelor riscurilor și asigurarea fiabilității modelelor de inteligență artificială.

Tehnici de criptare 

Utilizarea tehnicilor de criptare contribuie la protejarea datelor, cât și a modelelor de inteligență artificială. Prin criptarea datelor confidențiale, organizațiile pot reduce riscul de breșe de date și pot asigura faptul că, chiar dacă atacatorii obțin acces la date, acestea rămân inutilizabile.

Instrumente de securitate AI

Diverse instrumente și platforme au fost dezvoltate pentru a securiza aplicațiile AI. Aceste instrumente ajută organizațiile să detecteze vulnerabilități, să monitorizeze sistemele AI pentru posibile atacuri și să aplice protocoale de securitate. 

Soluții de securitate cu inteligență artificială

Pe măsură ce provocările de securitate ale inteligenței artificiale continuă să evolueze, organizațiile trebuie să rămână proactive în adaptarea strategiilor lor de securitate la peisajul amenințărilor în continuă dezvoltare, pentru a asigura siguranța și fiabilitatea sistemelor lor de inteligență artificială. Printre strategiile cheie se numără adoptarea de cadre de securitate cuprinzătoare, investirea în tehnologii de criptare și controlul accesului, și menținerea informațiilor despre amenințările în curs de dezvoltare și soluții noi.

Soluțiile moderne de securitate a inteligenței artificiale care securizează și guvernează inteligența artificială îmbunătățesc semnificativ protecția unei organizații împotriva acestor noi amenințări. Prin integrarea acestor soluții puternice de securitate a inteligenței artificiale, organizațiile își pot proteja mai bine datele sensibile, pot menține o conformitate cu reglementările și pot asigura rezistența mediilor de inteligență artificială împotriva amenințărilor viitoare.

Întrebări frecvente

  • Unele dintre principalele riscuri de securitate unde securitatea inteligenței artificiale ajută este protejarea împotriva încălcărilor datelor, manipularea modelelor, atacurilor de tip conflictual și utilizarea abuzivă a inteligenței artificiale în scopuri rău intenționate, cum ar fi phishingul.
  • Securizarea inteligenței artificiale implică protejarea datelor, modelelor și sistemelor de inteligență artificială împotriva atacurilor cibernetice, utilizând criptarea, testarea regulată, monitorizarea și supravegherea umană.
  • Securitatea inteligenței artificiale se concentrează pe protecția sistemelor AI propriu-zise. Aceasta cuprinde strategiile, instrumentele și practicile menite să protejeze modelele de inteligență artificială, datele și algoritmii împotriva amenințărilor. Inteligența artificială pentru securitatea cibernetică se referă la utilizarea instrumentelor și modelelor de inteligență artificială pentru a îmbunătăți capacitatea unei organizații de a detecta, a răspunde și a atenua amenințările la adresa tuturor sistemelor sale tehnologice.

Urmăriți Microsoft Security