サイバーセキュリティ領域におけるAI(人工知能)は、大きな可能性を秘めていますが、一方で課題も抱えています。そのため、企業や組織は段階的かつAIの価値を重視したアプローチで導入を進める必要があります。
2025年2月25日更新
サイバーセキュリティ領域におけるAI(人工知能)は、大きな可能性を秘めていますが、一方で課題も抱えています。そのため、企業や組織は段階的かつAIの価値を重視したアプローチで導入を進める必要があります。
2025年2月25日更新
AIの進化がサイバーセキュリティの環境を大きく変える中、企業や組織は新たなチャンスとリスクの両面に直面しています。AIはセキュリティ対策を強化する一方で、未知のリスクをもたらす可能性もあります。
ガートナーのeBookをダウンロードし、次の重要なポイントをご確認ください。
フォームにご記入いただくと、無料でダウンロードできます。
サイバーセキュリティ領域におけるAI(人工知能)は、大きな可能性を秘めていますが、一方で課題も抱えています。そのため、企業や組織は段階的かつAIの価値を重視したアプローチで導入を進める必要があります。以下にセキュリティ領域でAI導入における主要なポイントを示します。
生成AIを巡る初期のハイプ(過度な期待)は、企業や組織に十分な検証を行わないままの導入を促し、結果として大きなリスクを招く可能性があります。初期のハイプどおりの見返りが得られることは稀であり、計画性のない行動は危険です。
多くの場合、試行錯誤が何カ月も続き、後に遡及的な評価や財務面での評価損処理が行われ、時には評価損の規模によって、幹部の退任などにも発展し得ます。さらに、生成AIの機能展開が遅れた結果としての機会損失という大きな影響も後から顕在化します。
こうした生成AIを巡る初期のハイプは、セキュリティ・オペレーションの生産性向上を求める外部圧力と、成熟度の低い機能や断片化されたワークフローが衝突することで、短期的には幻滅を招きます。
AIに関する過剰な期待を抑制しつつロードマップを策定するには、以下の施策が有効です。
準備不足の生成AI統合プロジェクトには、以下のような共通点が見られるため、注意が必要です。
次に、生成AIがサイバーセキュリティ領域にもたらす機会について説明します。
サイバーセキュリティ領域におけるAIの役割は、人間のスタッフを置き換えるのではなく補完することにあります。たとえば、複数のエージェントを連携させるマルチエージェントAIは脅威の検出やインシデント対応での活用が進むとされ、2028年までに大幅に増加する見込みです。これは人間の作業を支援することを主な目的としています。
ガートナーの調査*によると、組織で目標達成を阻むスキル・ギャップの上位にはサイバーセキュリティが含まれます。このサイバーセキュリティ領域におけるスキル・ギャップを解消する手段として、生成AIによるスキル補完機能の導入は有望な可能性を持っています。
* ガートナーと契約のお客様は、詳細をリサーチノートよりご確認できます。
CIOはITスキルのギャップにどう対処するか:2024年の人材計画
生成AIによるスキル補完機能としては、たとえば、生成オーグメント(GA)の利用が考えられます。
これはホスト・アプリケーション上に構築されるアドオン(プラグインや拡張機能など)で、ユーザーの操作を観測しつつ、事前にプログラムされたプロンプトと外部データを組み合わせてガイダンスを提供します。
これらのプロンプトは定義済みのフォーマットでLLMに問い合わせを行うため、ハルシネーション(幻覚)の軽減に効果的です。
GA内のロジックは回答の検証を行ったうえでユーザーに提示するため、会話型インタフェースに依存せず、社内向けユースケースを想定したLLMとのやり取りを最適化できます。こうした生成オーグメントの導入や開発により、LLM特有の未解明リスクを低減することが期待されます。
さらに、生成AIがサイバーセキュリティ領域にもたらす課題について説明します。
悪意ある攻撃者も生成AIを活用し得る点に注意が必要です。たとえば、従来のフィッシング対策を回避するような高度にカスタマイズされた詐欺メールが生成AIによって作成されるケースがあります。このため、サイバー脅威環境は今後、従来にはない予測不能な形へと変化する可能性があることを常に認識しておく必要があります。
ディープフェイクはインジェクション攻撃に利用される可能性があり、たとえばカメラを使った本人確認を回避できるケースが挙げられます。
AIが生成するディープフェイクは、一部の本人確認手法の信頼性を損なう恐れがあります。そのため、デバイス識別や行動分析などの追加シグナルを組み合わせることで、攻撃検知の精度を高めることが可能です。
認証のユースケースでは、顔認証バイオメトリクスにのみ依存せず、常に補完的なシグナルや認証情報を利用することが推奨されます。また、一部の攻撃が成功するリスクを前提に、本人確認や認証プロセスを突破された後でも、アカウントの異常行動を監視・検知できるように事後検証モニタリングへ投資することで、回復力(レジリエンス)を向上させることが可能です。
サイバーセキュリティ強化に必要なリソースの急増や、アプリケーションならびにデータ・セキュリティへの支出増を予測したうえで対策を講じる必要があります。
生成AI導入による業務効率向上と、それに伴う実装/運用コストを総合的に評価し、適切な指標を再設定することが重要です。つまり、セキュリティ対策の自動化によって効率は上がるものの、初期投資や運用コストとのバランスを検討しなければなりません。
生成AIを自社の差別化要素として大規模プラットフォーム化するセキュリティ・プロバイダーには注意が必要です。そうした取り組みが進むと、特定ベンダーへの依存(ベンダー・ロックイン)リスクが高まります。
さらに、プライバシーや著作権、追跡可能性、説明責任といった課題に対応するには、厳格なプロバイダー評価基準を設けることが求められます。たとえば、セキュリティ・プロバイダーが強調する独自の生成AI技術に過度に依存すると、他社製品への切り替えが困難になる可能性があるため、事前に慎重な検討が必要です。
サイバーセキュリティ・プロバイダーが提供する初期段階の生成AIソリューションを評価し、成熟に応じて新たなセキュリティツールとの統合を進める計画を立てる必要があります。
また、速度・精度・生産性などの具体的な指標に基づく「ビジネス価値重視」のAI評価フレームワークを導入することが不可欠です。たとえば、セキュリティ監視システムに生成AIを導入する際、異常検知の速度や正確性がどの程度向上するかを定量的に評価する方法が考えられます。
生成AIは、タスク自動化による生産性向上を実現する最新テクノロジの一つです。しかし、複雑なセキュリティ活動を完全自動化しようとした過去の試みは多くが失敗に終わり、かえって混乱を招くことがありました。
生成AIモデルや外部の大規模言語モデル(LLM)を利用することにはメリットもありますが、新たなセキュリティ・プラクティスを必要とする独特のユーザー・リスクも生じます。
外部ホスティングのLLMや生成AIモデルでは、企業や組織がデータの処理/保管を直接制御できないためリスクが高まります。一方、オンプレミスにモデルをホスティングする場合でも、セキュリティとリスク管理が不十分だと同様にリスクは高くなります。
以下に、AIアプリケーションやAIモデルを運用する際に直面する主な3つのリスク領域を示します。
生成AIの進化は、サイバーセキュリティに大きな影響を及ぼし、新たな役割やリソース配分、運用上のリスク管理など、多岐にわたる変革をもたらします。これらの重要ポイントを踏まえ、企業や組織はAI導入や人材戦略、そしてセキュリティ対策の両面で、戦略的なアプローチを構築する必要があります。
まず、アプリケーション・セキュリティとセキュリティ運用を起点に、段階的に生成AIの機能や製品をセキュリティ・ワークフローへ統合する長期的アプローチを構築する必要があります。これにより、各プロセスがAIで強化され、全体的な防御能力の向上が期待できます。
企業や組織は、生成AIへの過度な期待とサイバーセキュリティの実情を踏まえたうえで、ロードマップを策定する必要があります。たとえば、クラウド上で提供されるホスト型の生成AIサービスや、既存システムに組み込まれた生成AI機能を適切に管理することが不可欠です。
さらに、AIアプリケーションに対応するために従来のアプリケーション・セキュリティ対策を見直し、AIガバナンスや信頼性、公平性、データ保護などを強化する取り組みが求められます。
ガートナーが提唱するAI TRiSMは、AIに関するリスクを事前に特定・軽減し、信頼性や安全性を保証するための仕組みです。たとえば、企業がチャットボットのようなホスト型生成AIサービスと、業務プロセスに組み込まれた自動応答機能を同時に運用する場合、それぞれのリスクや利用状況を正確に評価し、必要なセキュリティ対策を整備しなければなりません。
Predicts 2024: AI & Cybersecurity — Turning Disruption Into an Opportunity
AIはサイバーセキュリティに長期的にポジティブな変化をもたらす一方で、短期的には多くの幻滅を生み出す可能性があります。2023年は生成AIの始まりに過ぎず、その進化に備える必要性を認識することが重要です。
生成AIがCISOとそのチームに及ぼす4つの影響
監訳:礒田 優一
ChatGPTと大規模言語モデルは、生成AIが及ぼすさまざまな影響についての議論を促進しています。CISOをはじめとするセキュリティ/リスク・マネジメントのリーダーとそのチームは、自社が生成AIをセキュアに構築および利用できるようにするとともに、生成AIがサイバーセキュリティに及ぼす影響にうまく対処していく必要があります。
サイバーセキュリティAIアシスタントを評価する方法
礒田 優一, 鈴木 弘之
本リサーチノートは、セキュリティ・チームで重要な役割を担うセキュリティ・オペレーション・マネージャーを対象に、AIリテラシーの構築や、測定可能なアウトカムの定義、定性的/定量的/拡張的評価を通じてサイバーセキュリティAIアシスタントの長期的価値を評価する方法を説明します。
※Gartner のサービスをご利用のお客様は、上記レポートの詳細をご覧いただけます。契約されているサービスにより閲覧いただけないドキュメントもございますので、ご了承ください。
ガートナーの各種コンファレンスでは、CIOをはじめ、IT投資、導入、運用管理にかかわるすべての意思決定者に最新・最適な情報とアドバイス、コミュニティを提供します。