AI時代のサイバーセキュリティ戦略

サイバーセキュリティ領域におけるAI(人工知能)は、大きな可能性を秘めていますが、一方で課題も抱えています。そのため、企業や組織は段階的かつAIの価値を重視したアプローチで導入を進める必要があります。

2025年2月25日更新

eBook「AI時代のサイバーセキュリティ戦略:将来に向けた展望と実践ガイド」をダウンロード

混乱を最小限に抑え、リスク・マネジメントを行いながら、AIの価値を活用するための知見をご確認いただけます。

「進む」ボタンをクリックいただいた場合、利用規約 および プライバシー・ポリシー に同意したものとみなします。

連絡先情報

すべて必須項目となります。

勤務先情報

すべて必須項目となります。

Optional

セキュリティ/リスク・マネジメント領域のリーダー、CIOおよびエグゼクティブ・リーダー向け

AIの可能性を最大限に活用しながら、重大な脅威を効果的に管理するための実践ガイド

AIの進化がサイバーセキュリティの環境を大きく変える中、企業や組織は新たなチャンスとリスクの両面に直面しています。AIはセキュリティ対策を強化する一方で、未知のリスクをもたらす可能性もあります。

ガートナーのeBookをダウンロードし、次の重要なポイントをご確認ください。

  • AIの影響範囲を最適化する
  • 主要なリスク領域を特定し、優先順位を付ける
  • AIの価値を最大限に引き出す
  • 将来の変化に柔軟に対応する

フォームにご記入いただくと、無料でダウンロードできます。

サイバーセキュリティにおけるAI

サイバーセキュリティ領域におけるAI(人工知能)は、大きな可能性を秘めていますが、一方で課題も抱えています。そのため、企業や組織は段階的かつAIの価値を重視したアプローチで導入を進める必要があります。以下にセキュリティ領域でAI導入における主要なポイントを示します。

  • AIによる完全自動化を目指す前に、人間の作業を補完・強化する活用を優先する
  • アプリケーション・セキュリティおよびセキュリティ・オペレーションの領域から検討を開始する
  • 生成AIの導入による業務効率向上とコスト増加を総合的に評価する
  • インシデント対応や脆弱性管理においてAIをパイロットテストし、有効性を検証する
  • AIの完全自動化を過度に推進せず、脅威環境の変化を継続的に監視する

サイバーセキュリティにおけるAIハイプ (過度な期待)

生成AIを巡る初期のハイプ(過度な期待)は、企業や組織に十分な検証を行わないままの導入を促し、結果として大きなリスクを招く可能性があります。初期のハイプどおりの見返りが得られることは稀であり、計画性のない行動は危険です。

多くの場合、試行錯誤が何カ月も続き、後に遡及的な評価や財務面での評価損処理が行われ、時には評価損の規模によって、幹部の退任などにも発展し得ます。さらに、生成AIの機能展開が遅れた結果としての機会損失という大きな影響も後から顕在化します。

こうした生成AIを巡る初期のハイプは、セキュリティ・オペレーションの生産性向上を求める外部圧力と、成熟度の低い機能や断片化されたワークフローが衝突することで、短期的には幻滅を招きます。

AIハイプを抑制しつつロードマップを策定するための施策

AIに関する過剰な期待を抑制しつつロードマップを策定するには、以下の施策が有効です。

  • 複数年にわたるアプローチを採用する:まずはアプリケーション・セキュリティとセキュリティ・オペレーションの領域から始め、利用可能な生成AIオファリングがあれば段階的に統合する
  • 投資価値を問い直す:投資に対する期待値を設定し、この期待値を基準に自社の現状を測定する
  • 効率性の向上をコストと合わせて評価する:生成AIによる新機能の効果を説明できるように検知精度や生産性の評価指標を改良する
  • 業務遂行能力の強化を優先する:タスクの自動化だけでなく、生成AIを活用してスタッフ(従業員)のスキルを補強する。採用による長期的なスキル要件の変化を考慮した計画を立てる
  • プライバシー面の課題を考慮する:生成AIの導入に伴うメリットとリスクを天秤にかけてバランスを取る

準備不足の生成AI統合プロジェクトにおける注意点

準備不足の生成AI統合プロジェクトには、以下のような共通点が見られるため、注意が必要です。

  • 生成AIのメリットやビジネス・インパクトを測る評価指標がなく、アドオンの割高な価格に対する明確な評価もないため、「生産性向上」だけを主要指標としている
  • セキュリティ・オペレーション・チームやプロバイダーとのコラボレーション・ワークフローにAIアシスタントを統合しようとして、技術的・運用的な困難に直面する
  • 脅威やインシデントについて問い合わせるための対話型インタフェースが乱立し、「プロンプト疲れ」を引き起こす

AIによるサイバーセキュリティにおける機会

次に、生成AIがサイバーセキュリティ領域にもたらす機会について説明します。

1. AIによる人的能力の補完

サイバーセキュリティ領域におけるAIの役割は、人間のスタッフを置き換えるのではなく補完することにあります。たとえば、複数のエージェントを連携させるマルチエージェントAIは脅威の検出やインシデント対応での活用が進むとされ、2028年までに大幅に増加する見込みです。これは人間の作業を支援することを主な目的としています。

2028年までに、脅威検知とインシデント対応におけるマルチエージェントAIがAI実装の70%にまで増加し (2023年時点は5%) 、スタッフの代替ではなく補強を主な目的とするようになる

出典: Strategic Planning Assumptions, Predicts 2024: AI & Cybersecurity, Gartner, Inc.

2. スキル不足(スキル・ギャップ)の改善

ガートナーの調査*によると、組織で目標達成を阻むスキル・ギャップの上位にはサイバーセキュリティが含まれます。このサイバーセキュリティ領域におけるスキル・ギャップを解消する手段として、生成AIによるスキル補完機能の導入は有望な可能性を持っています。

* ガートナーと契約のお客様は、詳細をリサーチノートよりご確認できます。
CIOはITスキルのギャップにどう対処するか:2024年の人材計画

3. 生成オーグメント(GA)の利用

生成AIによるスキル補完機能としては、たとえば、生成オーグメント(GA)の利用が考えられます。

これはホスト・アプリケーション上に構築されるアドオン(プラグインや拡張機能など)で、ユーザーの操作を観測しつつ、事前にプログラムされたプロンプトと外部データを組み合わせてガイダンスを提供します。

これらのプロンプトは定義済みのフォーマットでLLMに問い合わせを行うため、ハルシネーション(幻覚)の軽減に効果的です。

GA内のロジックは回答の検証を行ったうえでユーザーに提示するため、会話型インタフェースに依存せず、社内向けユースケースを想定したLLMとのやり取りを最適化できます。こうした生成オーグメントの導入や開発により、LLM特有の未解明リスクを低減することが期待されます。

AIによるサイバーセキュリティにおける課題

さらに、生成AIがサイバーセキュリティ領域にもたらす課題について説明します。

1. サイバー脅威環境の変化

悪意ある攻撃者も生成AIを活用し得る点に注意が必要です。たとえば、従来のフィッシング対策を回避するような高度にカスタマイズされた詐欺メールが生成AIによって作成されるケースがあります。このため、サイバー脅威環境は今後、従来にはない予測不能な形へと変化する可能性があることを常に認識しておく必要があります。

ディープフェイクへの対策

ディープフェイクはインジェクション攻撃に利用される可能性があり、たとえばカメラを使った本人確認を回避できるケースが挙げられます。

AIが生成するディープフェイクは、一部の本人確認手法の信頼性を損なう恐れがあります。そのため、デバイス識別や行動分析などの追加シグナルを組み合わせることで、攻撃検知の精度を高めることが可能です。

認証のユースケースでは、顔認証バイオメトリクスにのみ依存せず、常に補完的なシグナルや認証情報を利用することが推奨されます。また、一部の攻撃が成功するリスクを前提に、本人確認や認証プロセスを突破された後でも、アカウントの異常行動を監視・検知できるように事後検証モニタリングへ投資することで、回復力(レジリエンス)を向上させることが可能です。

2. サイバーセキュリティ対策のリソースの配分と支出

サイバーセキュリティ強化に必要なリソースの急増や、アプリケーションならびにデータ・セキュリティへの支出増を予測したうえで対策を講じる必要があります。

生成AI導入による業務効率向上と、それに伴う実装/運用コストを総合的に評価し、適切な指標を再設定することが重要です。つまり、セキュリティ対策の自動化によって効率は上がるものの、初期投資や運用コストとのバランスを検討しなければなりません。

3. 特定ベンダーへの依存(ベンダー・ロックイン)

生成AIを自社の差別化要素として大規模プラットフォーム化するセキュリティ・プロバイダーには注意が必要です。そうした取り組みが進むと、特定ベンダーへの依存(ベンダー・ロックイン)リスクが高まります。

さらに、プライバシーや著作権、追跡可能性、説明責任といった課題に対応するには、厳格なプロバイダー評価基準を設けることが求められます。たとえば、セキュリティ・プロバイダーが強調する独自の生成AI技術に過度に依存すると、他社製品への切り替えが困難になる可能性があるため、事前に慎重な検討が必要です。

生成AIソリューションの評価と統合

サイバーセキュリティ・プロバイダーが提供する初期段階の生成AIソリューションを評価し、成熟に応じて新たなセキュリティツールとの統合を進める計画を立てる必要があります。

また、速度・精度・生産性などの具体的な指標に基づく「ビジネス価値重視」のAI評価フレームワークを導入することが不可欠です。たとえば、セキュリティ監視システムに生成AIを導入する際、異常検知の速度や正確性がどの程度向上するかを定量的に評価する方法が考えられます。

AIによるサイバーセキュリティの主なリスク

生成AIは、タスク自動化による生産性向上を実現する最新テクノロジの一つです。しかし、複雑なセキュリティ活動を完全自動化しようとした過去の試みは多くが失敗に終わり、かえって混乱を招くことがありました。

生成AIモデルや外部の大規模言語モデル(LLM)を利用することにはメリットもありますが、新たなセキュリティ・プラクティスを必要とする独特のユーザー・リスクも生じます。

外部ホスティングのLLMや生成AIモデルでは、企業や組織がデータの処理/保管を直接制御できないためリスクが高まります。一方、オンプレミスにモデルをホスティングする場合でも、セキュリティとリスク管理が不十分だと同様にリスクは高くなります。

以下に、AIアプリケーションやAIモデルを運用する際に直面する主な3つのリスク領域を示します。

  • コンテンツの異常検知
    • ハルシネーション(幻覚)や不正確性、違法性、著作権侵害を含む出力:意図しない、または望ましくない結果を生成し、意思決定の質を下げたりブランドを傷つけたりする
    • 容認できない/悪意ある使用:ユーザーが誤用することで、社会的/法的リスクが発生する可能性がある
    • 管理されていない企業コンテンツの送信:プロンプトを通じて機密データが外部に漏洩する恐れがある
  • データの保護
    • ホスティングされたベンダー環境でのデータ漏洩リスク: コンテンツやユーザー・データの完全性/機密性が侵害される可能性がある
    • プライバシー/データ保護ポリシーの統制困難:外部ホスティング環境では、企業が独自にポリシーを徹底しづらい
    • ブラックボックス性による規制遵守の難しさ:サードパーティ・モデルの仕組みが不透明なため、プライバシー・インパクト・アセスメントや地域規制への適合が困難
    • モデル再構築のコスト問題:未加工データをモデルに取り込んだ後、削除は容易でなく、再構築には大きな負担が伴う
  • アプリケーションのセキュリティ
    • 敵対的なプロンプト攻撃:ビジネス・ロジックの悪用や直接・間接的なプロンプト・インジェクションによる攻撃
    • ベクトル・データベースへの攻撃: AIモデルが参照するデータベースに対して不正操作が行われるリスク
    • AIモデル自体への不正アクセス:ハッカーがモデルの状態やパラメータを取得・改ざんする可能性

AI導入に伴うサイバーセキュリティ・リスクを管理する重要なポイント

生成AIの進化は、サイバーセキュリティに大きな影響を及ぼし、新たな役割やリソース配分、運用上のリスク管理など、多岐にわたる変革をもたらします。これらの重要ポイントを踏まえ、企業や組織はAI導入や人材戦略、そしてセキュリティ対策の両面で、戦略的なアプローチを構築する必要があります。

セキュリティ・ワークフローへのAI統合の長期計画

まず、アプリケーション・セキュリティとセキュリティ運用を起点に、段階的に生成AIの機能や製品をセキュリティ・ワークフローへ統合する長期的アプローチを構築する必要があります。これにより、各プロセスがAIで強化され、全体的な防御能力の向上が期待できます。

戦略的なサイバーセキュリティ計画

企業や組織は、生成AIへの過度な期待とサイバーセキュリティの実情を踏まえたうえで、ロードマップを策定する必要があります。たとえば、クラウド上で提供されるホスト型の生成AIサービスや、既存システムに組み込まれた生成AI機能を適切に管理することが不可欠です。

さらに、AIアプリケーションに対応するために従来のアプリケーション・セキュリティ対策を見直し、AIガバナンスや信頼性、公平性、データ保護などを強化する取り組みが求められます。

AIのトラスト/リスク/セキュリティ・マネジメント (AI TRiSM)

ガートナーが提唱するAI TRiSMは、AIに関するリスクを事前に特定・軽減し、信頼性や安全性を保証するための仕組みです。たとえば、企業がチャットボットのようなホスト型生成AIサービスと、業務プロセスに組み込まれた自動応答機能を同時に運用する場合、それぞれのリスクや利用状況を正確に評価し、必要なセキュリティ対策を整備しなければなりません。

AI時代のサイバーセキュリティについての関連リサーチ

Predicts 2024: AI & Cybersecurity — Turning Disruption Into an Opportunity

AIはサイバーセキュリティに長期的にポジティブな変化をもたらす一方で、短期的には多くの幻滅を生み出す可能性があります。2023年は生成AIの始まりに過ぎず、その進化に備える必要性を認識することが重要です。

生成AIがCISOとそのチームに及ぼす4つの影響
監訳:礒田 優一

ChatGPTと大規模言語モデルは、生成AIが及ぼすさまざまな影響についての議論を促進しています。CISOをはじめとするセキュリティ/リスク・マネジメントのリーダーとそのチームは、自社が生成AIをセキュアに構築および利用できるようにするとともに、生成AIがサイバーセキュリティに及ぼす影響にうまく対処していく必要があります。

サイバーセキュリティAIアシスタントを評価する方法
礒田 優一鈴木 弘之

本リサーチノートは、セキュリティ・チームで重要な役割を担うセキュリティ・オペレーション・マネージャーを対象に、AIリテラシーの構築や、測定可能なアウトカムの定義、定性的/定量的/拡張的評価を通じてサイバーセキュリティAIアシスタントの長期的価値を評価する方法を説明します。

※Gartner のサービスをご利用のお客様は、上記レポートの詳細をご覧いただけます。契約されているサービスにより閲覧いただけないドキュメントもございますので、ご了承ください。

ガートナーのリサーチ・サービスについてのお問い合わせ