This is the Trace Id: fce29b59a6cba53630bb818eaa844fe2
メイン コンテンツへスキップ Microsoft Security が選ばれる理由 AI 搭載のサイバーセキュリティ クラウド セキュリティ データ セキュリティとガバナンス ID とネットワーク アクセス プライバシーとリスク管理 AI 対応のセキュリティ 統合セキュリティ オペレーション ゼロ トラスト Microsoft Defender Microsoft Entra Microsoft Intune Microsoft Priva Microsoft Purview Microsoft Sentinel Microsoft Security Copilot Microsoft Entra ID (Azure Active Directory) Microsoft Entra エージェント ID Microsoft Entra 外部 ID Microsoft Entra ID ガバナンス Microsoft Entra ID 保護 Microsoft Entra Internet Access Microsoft Entra Private Access Microsoft Entra Permissions Management Microsoft Entra Verified ID Microsoft Entra ワークロード ID Microsoft Entra Domain Services Azure Key Vault Microsoft Sentinel Microsoft Defender for Cloud Microsoft Defender XDR Microsoft Defender for Endpoint Microsoft Defender for Office 365 Microsoft Defender for Identity Microsoft Defender for Cloud Apps Microsoft Security 露出管理 Microsoft Defender 脆弱性の管理 Microsoft Defender 脅威インテリジェンス Microsoft Defender スイート for Business Premium Microsoft Defender for Cloud Microsoft Defender クラウド セキュリティ態勢管理 Microsoft Defender 外部攻撃面管理 Azure Firewall Azure Web App Firewall Azure DDoS Protection GitHub での高度なセキュリティ Microsoft Defender for Endpoint Microsoft Defender XDR Microsoft Defender for Business Microsoft Intune の中核的な機能 Microsoft Defender for IoT Microsoft Defender 脆弱性の管理 Microsoft Intune 高度分析 Microsoft Intune エンドポイント特権管理 Microsoft Intune エンタープライズ アプリケーション管理 Microsoft Intune リモート ヘルプ Microsoft クラウド PKI Microsoft Purview コミュニケーション コンプライアンス Microsoft Purview コンプライアンス マネージャー Microsoft Purview データ ライフサイクル管理 Microsoft Purview eDiscovery Microsoft Purview 監査 Microsoft Priva リスク管理 Microsoft Priva 主体の権利要求 Microsoft Purview データ ガバナンス Microsoft Purview スイート for Business Premium Microsoft Purview データ セキュリティ機能 価格 サービス パートナー サイバーセキュリティ意識向上 お客様導入事例 セキュリティ 101 製品試用版 業界での評価 Microsoft Security Insider Microsoft Digital Defense Report Security Response Center Microsoft Security のブログ Microsoft Security のイベント Microsoft Tech Community ドキュメント 技術コンテンツ ライブラリ トレーニングと認定 Compliance Program for Microsoft Cloud Microsoft トラスト センター Service Trust Portal Microsoft セキュア フューチャー イニシアティブ ビジネス ソリューション ハブ 営業に問い合わせる 無料試用を開始する Microsoft Security Azure Dynamics 365 Microsoft 365 Microsoft Teams Windows 365 Microsoft AI Azure Space Mixed Reality Microsoft HoloLens Microsoft Viva 量子コンピューティング 持続可能性 教育機関 自動車 金融サービス 行政機関 医療 製造業 小売業 パートナーを探す パートナーになる パートナー ネットワーク Microsoft Marketplace Marketplace Rewards ソフトウェア開発会社 ブログ Microsoft Advertising デベロッパー センター ドキュメント イベント ライセンス Microsoft Learn Microsoft Research サイトマップの表示

AI セキュリティとは?

AI セキュリティの基本と、潜在的な脅威や脆弱性から AI システムを保護する方法を説明します。

AI セキュリティの概要


AI セキュリティは、AI システムに特化したサイバーセキュリティ分野です。これには、AI システムを脅威や脆弱性から保護する各種のプロセス、ベスト プラクティス、テクノロジ ソリューションが含まれます。 

重要なポイント

  • AI セキュリティでは、AI データの保護、システムの整合性維持、AI サービスの可用性の確保を行います。
  • AI システムに対する一般的な脅威には、データ ポイズニング、モデル反転攻撃、敵対的攻撃などの種類があります。
  • AI セキュリティのベスト プラクティスには、データの暗号化、堅牢なテスト、強力なアクセス制御、継続的な監視が含まれます。
  • モダンな AI セキュリティ ツール、ソリューション、フレームワークは、進化する脅威から AI システムを保護するのに役立つ可能性があります。 

AI セキュリティとは?

AI は、前例のないペースで、信じられないほどのイノベーションを世界にもたらしました。しかし、残念ながらサイバー犯罪者も、他の人々と同じくハイペースで AI テクノロジを取り入れ、新たなセキュリティ脆弱性、脅威、課題を生み出しています。

AI セキュリティ (人工知能セキュリティ) とは、そのような脅威から AI システムを保護するために設計された対策やプラクティスです。従来の IT システムをハッキング、ウイルス、不正アクセスから保護することが必要なのと同様に、AI システムにもそれ専用のセキュリティ対策を施して、機能、信頼性、保護された状態を維持する必要があります。

以下のような理由から、AI セキュリティは重要な意味を持ちます。
 
  • 機密データの保護。AI システムは、財務情報、医療情報、個人情報、金融情報など、膨大な量の機密データを処理しています。 
  • システムの整合性の維持。AI システムに未対策の脆弱性が残っていると、モデルが侵害され、不正確な結果や有害な結果が生じるおそれがあります。
  • AI サービスの可用性の確保。他のあらゆるサービスと同じく、AI システムについても可用性と運用状態が維持される必要があります。AI に頼る人々や組織がますます増えるにつれて、このことはいっそう重要になります。セキュリティ侵害はダウンタイムを発生させることが多く、必要不可欠なサービスの中断につながります。 
  • 結果責任。AI が世界規模で普及するためには、AI システムの安全性と信頼性の高さに関して、人々や組織からの信頼を得る必要があります。

AI セキュリティの重要な概念

  • 機密性: 承認を得た個人やシステム以外の何者も機密データにはアクセスできない状態が保たれることです。 
  • 整合性: AI システムの精度と一貫性が保たれることです。
  • 可用性: AI システムの、運用可能、アクセス可能な状態が持続することです。 

  • 説明責任: AI システムによって行われたアクションの追跡把握ができることです。
 

"AI セキュリティ" と"サイバーセキュリティのための AI" の違い

関連はしているが異なる概念である AI セキュリティと サイバーセキュリティのための AI を区別することが重要です。

"AI セキュリティ" の主眼は AI システム自体を保護することです。つまり、AI のためのセキュリティです。その内容は、AI のモデル、データ、アルゴリズムを脅威から保護することを目的とした、戦略、ツール、実践によって構成されます。その役割には、意図されたとおりに AI システムが機能し、攻撃者に脆弱性を悪用されず、攻撃者による出力の改変や機密情報の窃取が発生しない状態を保つことが含まれます。

一方、"サイバーセキュリティのための AI" とは、組織が自分のテクノロジ システムすべてに対する脅威を検出、対応、軽減する能力を高めるために利用する AI のツールやモデルです。これは、組織が膨大な量のイベント データを分析し、脅威の兆候かもしれないパターンを特定するために役立ちます。サイバーセキュリティのための AI には、複数のソースから得られるイベント データやサイバー脅威データを分析し、関連付ける能力があります。

要約すると、"AI セキュリティ" は AI システムを保護することであり、"サイバーセキュリティのための AI" は、組織の全体的なセキュリティ態勢を強化するために AI システムを使用することです。
AI に対する脅威

AI セキュリティの一般的な脅威

AI システムは、企業や個人による利用が広がるにつれて、サイバー攻撃の標的にされることも多くなっています。

以下に、AI システムのセキュリティ リスクをもたらす主な脅威の種類をいくつか示します。

データ ポイズニング

データ ポイズニングは、AI システムのトレーニング セットに、攻撃者が悪意あるデータや判断を誤らせるデータを挿入することで行われます。AI モデルの品質はトレーニングに使用したデータの品質によって規定されるのであり、このデータが汚染されると、不正確な出力や有害な出力の発生原因になるおそれがあります。 

モデル反転攻撃

モデル反転攻撃は、攻撃者が AI モデルの予測に基づくリバース エンジニアリングによって、モデルのトレーニングに使用された機密情報を把握するものです。これは、世の中一般に知らせないことになっている機密データ (個人情報など) の漏洩につながるおそれがあります。この種の攻撃は、特に機密情報を扱う AI モデルの使用に重大なリスクをもたらします。

敵対的攻撃

敵対的攻撃は、AI モデルを混乱させる入力を作り込み、予測や分類の結果を誤らせるものです。この種の攻撃では、一見無害だと思われる入力 (加工された画像やオーディオ クリップなど) によって、AI モデルに想定外の挙動が引き起こされます。たとえば、研究者によるデモでは、画像に微妙な改変を加えて顔認識システムを騙し、実際に人の識別を誤らせることの成功例が示されています。

プライバシーに関する懸念

AI システムは大規模なデータセットに依存して機能する場合が多く、また、そのようなデータセットには個人情報や機密情報が含まれていることがよくあります。AI トレーニング用データに含まれる個人データに関して、その個人のプライバシーをどう確保するかという問題は、AI セキュリティのきわめて重要な側面の 1 つです。データの取り扱い、保存、使用が、ユーザーの同意に反する形で不適切に行われていると、プライバシー侵害が発生するおそれがあります。

 性急なデプロイ 

企業には迅速なイノベーションを求める強い重圧がかかっている場合が多く、そうした状況下では、適切でないテスト、性急なデプロイ、不十分なセキュリティ審査が行われることがあります。しかし、そのような形で開発のペースを加速させることは、重大な脆弱性を放置し、AI システムの稼働開始後にセキュリティ リスクを発生させる原因になりがちです。

サプライ チェーンの脆弱性

AI サプライ チェーンは複雑なエコシステムであるため、AI システムの整合性とセキュリティを損ないかねない脆弱性が潜んでいるおそれがあります。サードパーティ製のライブラリやモデルに含まれる脆弱性が原因で、AI システムが悪用に対して無防備になることも少なくありません。 

AI の構成ミス

AI アプリケーションの開発時やデプロイ時の構成にミスがあると、そのことが原因になって、組織が直接的なリスク (例: AI リソースの ID ガバナンスを実装できない) や間接的なリスク (例: インターネットとの接点がある仮想マシンに脆弱性が存在することで、攻撃者による AI リソースへのアクセスが可能になる) にさらされる場合があります。 

プロンプト インジェクション

プロンプト インジェクション攻撃は、正当なプロンプトに偽装した悪意ある入力により、ハッカーが、意図されていないアクションを AI システムに実行させるものです。攻撃者は、AI モデルを騙すプロンプトを作り込み、機密情報を含んだ出力を生成させます。 

AI システムのセキュリティに関するベスト プラクティス

AI システムのセキュリティをしっかりと確保するには、技術的な課題と運用上の課題の両方に対応する包括的なアプローチが必要不可欠です。以下に、AI システムをセキュリティで保護するためのベスト プラクティスをいくつか紹介します。

データ セキュリティ

AI モデルのトレーニングに使用するデータの整合性と機密性を確保するために、組織は、以下のような堅牢なデータ セキュリティ対策を実装するべきです。

  • 機密データを暗号化する。AI トレーニング データセットへの不正アクセス防止に役立ちます。
  • データ ソースを検証する。信頼できる検証可能なソースから得られたトレーニング用データであることを確認し、データ ポイズニングのリスクを軽減することが重要です。
  • データを定期的にサニタイズする。悪意ある要素や含まれるべきでない要素を取り除くことは、AI のセキュリティ リスク軽減に役立ちます。

モデル セキュリティ

AI モデルを攻撃から防御する。これもデータを保護することと同じく重要です。モデルのセキュリティを確保するための主な手法を以下に示します。

  • AI モデルを定期的にテストする。敵対的攻撃を受けかねない潜在的な脆弱性を特定することは、セキュリティを維持するために重要です。
  • 差分プライバシーを採用する。AI モデルのリバース エンジニアリングによって攻撃者に機密情報が知られるのを防ぐために役立ちます。
  • 敵対的トレーニングを実装する。攻撃をシミュレートするアルゴリズムで AI モデルをトレーニングすることは、実際の攻撃を迅速に特定するために役立ちます。 

アクセス制御

強力なアクセス制御メカニズムを実装する。承認された個人以外による AI システムとの対話操作や AI システムへの変更を禁止します。組織として行うべき対策:

  • ロールベースのアクセス制御を使用し、ユーザー ロールに基づいて AI システムへのアクセスを制限します。
  • 多要素認証を実装し、AI モデルとデータへのアクセスに追加のセキュリティ レイヤーを設けます。
  • すべてのアクセス試行を監視してログに記録し、不正アクセスの検出と影響軽減を迅速に行えるようにします。

定期的な監査と監視

潜在的なセキュリティ脅威を検出して対応するには、AI システムの監視と監査を継続的に行うことが必要不可欠です。組織として行うべき対策:

  • AI システムの監査を定期的に実施し、脆弱性やシステム パフォーマンスの乱れを特定します。 
  • 自動監視ツールを使用し、通常とは異なる挙動やアクセス パターンをリアルタイムで検出します。 
  • AI モデルを定期的に更新し、脆弱性にパッチを適用し、新たに出現する脅威に対しての回復力を高めます。 

最適なツールで AI セキュリティを強化

AI システムのセキュリティ強化に役立つツールとテクノロジは数種類ほど存在します。それらには、セキュリティ フレームワーク、暗号化技術や、目的に特化した AI セキュリティ ツールが含まれます。

セキュリティ フレームワーク

NIST AI Risk Management Framework などのフレームワークは、AI に関連するリスクを組織が管理し軽減するためのガイドラインとなります。こうしたフレームワークを利用すると、AI システムの保護、潜在的なリスクの特定、AI モデルの信頼性確保に関するベスト プラクティスを実践できます。

暗号化技術 

暗号化技術を使用することは、データと AI モデルの両方を保護するために役立ちます。機密データを暗号化すると、組織はデータ侵害のリスクを軽減でき、攻撃者によるデータ アクセスが万一成功した場合にも、データが使用されることを防止できます。

AI セキュリティ ツール

AI アプリケーションの保護を目的としたツールやプラットフォームは、さまざまなものが開発されています。それらのツールは、組織において、脆弱性を検出したり、AI システムを監視して潜在的な攻撃の可能性を察知したり、セキュリティ プロトコルを適用したりするのに役立ちます。 

AI セキュリティ ソリューション

AI セキュリティの課題が変化し続ける中で、組織は、進化する脅威の情勢に対して常に積極的にセキュリティ戦略を適応させ、AI システムの安全性と信頼性を確保する必要があります。その戦略としては、包括的なセキュリティ フレームワークを採用すること、暗号化テクノロジとアクセス制御に投資すること、そして、新たな脅威と新たなソリューションに関する情報の入手を怠らないことが重要です。

モダンな AI セキュリティ ソリューションには、現在の新しい脅威に対する組織の保護能力を大幅に強化する機能があります。そうした強力な AI セキュリティ ソリューションを統合することは、より効果的に機密データを保護し、規制コンプライアンスを維持し、将来の脅威に対して AI 環境の回復力を確保するために役立ちます。

よくあるご質問

  • AI セキュリティによって防ぐことができる主なセキュリティ リスクとしては、データ侵害、モデル改変、敵対的攻撃のほか、フィッシングなど悪意ある目的への AI の悪用が挙げられます。
  • AI を保護するには、暗号化、定期的なテスト、監視、および人間による監督活動によって、AI のデータ、モデル、システムをサイバー攻撃から守ります。
  • "AI セキュリティ" の主眼は AI システム自体を保護することです。その内容は、AI のモデル、データ、アルゴリズムを脅威から保護することを目的とした、戦略、ツール、実践によって構成されます。"サイバーセキュリティのための AI" とは、組織が自分のテクノロジ システムすべてに対する脅威を検出、対応、軽減する能力を高めるために利用する AI のツールやモデルです。

Microsoft Security をフォロー