AIモデルやAIアプリケーションを何も対策せずに放置しておくと、重大なリスクが生じる可能性があります。AIのトラスト/リスク/セキュリティ・マネジメント (AI TRiSM) は、そうしたリスクを能動的に特定して軽減し、確実性、信頼性、セキュリティを確保するためのソリューションです。
サイバー攻撃あるいは内部不正の脅威による機密情報の漏洩が後を絶たないなか、ビジネスの現場では生成AIなど新しいツールの利用がすでに現実的なものとなっています。
企業では情報漏洩対策とデータ利活用の利便性のバランスを取ることが急務ですが、IT部門と事業部門との間でセキュリティの責任の所在に関する認識が異なるなど、セキュリティと利便性のバランスが困難なケースも散見されます。
本セッションでは、企業がデータ保護やアクセス管理について知っておくべきセキュリティの基本や、最新のトレンドを、推奨事項と共に解説します。
フォームにご記入いただくと、無料でご視聴いただけます。
ガートナーのAI TRiSM(AI Trust, Risk, and Security Management)とは、AIのガバナンス(統制)、信頼性、公平性、信頼性、堅牢性、有効性、データ保護 を確保するためのフレームワークです。
ガートナーは、AIの導入において AIのガバナンス、信頼性、公平性、信頼性、データ保護を確保する手段として AI TRiSMを位置付けています。AI TRiSMは、AIに関連するリスクを特定し、軽減するためのプロアクティブな(事前対応型の)ソリューションを提供し、AIの信頼性・安全性を保証する仕組みです。
企業や組織でAIの活用が進む中で、AI TRiSMは 信頼性とセキュリティを確保し、ビジネス価値を最大化するための重要な要素 となります。
AIガバナンスは、AI投資の成果を最大化し、潜在的なリスクを最小限に抑えるために不可欠です。AIガバナンスを軽視すると、AIプロジェクトの管理不全やセキュリティの脆弱性にさらされるリスクが高まります。
AIガバナンスは、その複雑性や、準備が十分でない企業や組織も多い新しい領域であるという実状を踏まえると、極めて困難な取り組みに思われるかもしれないですが、AIリスク・マネジメントの一貫したプラクティスを採用した企業や組織は、プロジェクトの失敗を回避し、セキュリティ/財務/評判を損なう可能性を軽減できます。
企業や組織にリスクが存在するにもかかわらず、AIガバナンスとAIリスク・マネジメントは後回しのままになっていることが多く、企業や組織にとって重要な課題のひとつです。AIモデルやアプリケーションが本番環境で稼働していなければ、リスクの影響を考慮しないという企業や組織が多い、というのが実情となっています。
しかし、既存のAIワークフローに後からガバナンスを組み込むことは容易ではなく、潜在的なリスクや非効率なワークフローが生じかねません。
1. AIイニシアティブの方向性のズレと潜在的リスク
企業や組織がAI戦略を適切に評価し、重要な課題を明確にできない場合、AIの導入が誤った方向に進み、リスクを招く可能性があります。
例: 企業が透明性の低いAIモデルを採用し、意図しないバイアスが組み込まれた意思決定を行ってしまう
2. セキュリティの脆弱性とオペレーション(運用)の混乱
AI技術の急速な導入は、企業や組織を多様なセキュリティ・リスクにさらします。適切なリスク管理が行われなければ、深刻な脆弱性が発生し、オペレーションに支障をきたす可能性があります。
例: AIを活用したカスタマーサポート・システムが攻撃を受け、不正な情報が顧客に提供される
3. 財務リスクと企業の評判リスク
リスク管理が不十分なAIシステムの導入は、企業の評判を損ない、経済的損失や制裁を招く可能性があります。
例: AIの誤判断による不適切なローン審査が発覚し、企業が訴訟や罰金を受ける。
4. 倫理的問題と業務の非効率性
適切なAIガバナンスが確立されていない場合、AIイニシアティブの誤運用が発生し、倫理的問題や業務の非効率性を引き起こす可能性があります。
例: AIが人材採用プロセスで性別や年齢による差別を助長し、企業の倫理的責任が問われる。
5. 法規制違反と法的トラブル
データ/アナリティクス(D&A、データ分析)とAIの価値をリスク管理と適切にバランスできない場合、法的問題に発展する可能性があります。
例: GDPR(EU一般データ保護規則)に準拠していないAIシステムを導入し、高額な制裁金が科される。
6. AI戦略全体の崩壊
企業や組織がAIリスクを体系的に管理できなければ、倫理問題、セキュリティ・リスク、ビジネスとの方向性のズレが生じ、AI戦略全体が機能しなくなる恐れがあります。
例: AI導入計画のガバナンスが不十分であり、途中でプロジェクトが頓挫する。
7. AIの誤用とオペレーション上の問題
AIリテラシー教育が不足していると、組織内でAIシステムの誤用が発生し、倫理的・運用上の問題を引き起こす可能性があります。
例: 社員がAI生成コンテンツを適切に管理できず、誤った情報が社内外に広まる。
上で述べたリスクを回避するために、企業や組織は 効果的なAIガバナンス・フレームワーク を構築する必要があります。具体的には、以下のアクションが求められます。
AI TRiSMは、AIガバナンスを実現し、投資の価値を最大化し、潜在的なリスクを軽減するために極めて重要な役割を果たします。以下にAI TRiSMが企業や組織にとって重要な理由を取り上げます。
AIの展開におけるガバナンスを確保するフレームワーク「AI TRiSM」には以下のような主要な機能があります。
• AIランタイム・インスペクション/エンフォースメントとAIガバナンス:
実際に動作しているAIシステムを監視し、ルール違反があった場合に自動的に制御を行う機能です。例として、各アプリケーションの動作をリアルタイムにチェックし、不正な動作が検出された場合にその動作を停止させる仕組みが挙げられます。
• 情報ガバナンスとインフラストラクチャ/スタック:
AI環境だけでなく、非AI環境もサポートするために用いられ、従来の技術保護機能も含んでいます。 たとえば、企業内のネットワーク・インフラやサーバー群全体の管理/保護もこの範疇に入ります。
• 従来型のテクノロジ保護:
従来型のテクノロジ保護は、AIに特化しない、一般的なセキュリティ機能を表しています。たとえば、エンドポイント・セキュリティやネットワーク・セキュリティ、アイデンティティ・アクセス管理など、従来から利用されているテクノロジが含まれます。
もしAI TRiSMのようなAIガバナンスを確保するフレームワークがなければ、AIモデルやアプリケーションは大きなリスクをはらみ、望ましくない出力やデータ漏洩につながる可能性があります。効果的なAIガバナンスは、さまざまな側面において重要な疑問に対処できる能力に依存しており、企業や組織にとって、AIガバナンス・ポリシーを支援し、強化するためのテクノロジが必要とされています。
AIの利用に伴うリスクは主に2つあります。
そのため、企業や組織内で利用されるすべてのAIテクノロジを対象に、以下のアクションで強固なガバナンスを確保します。
企業や組織が、効果的にAIガバナンス・フレームワークを構築するための知見をガートナーはご提供します。本記事にて取り上げた内容以外にも以下のような知見をご確認いただくことが可能です:
AIプロジェクトを成功させ規模を拡大するために、リーダーは公正性、透明性、説明可能性、信頼性、プライバシー、セキュリティに関連する戦略と手法に取り組む必要があります。本リサーチノートでは、ガバナンス/トラスト/リスク/セキュリティ・マネジメントの課題に対して利用できるGartnerのAIリサーチを概説します。
Use TRiSM to Manage AI Governance, Trust, Risk and Security
組織は、AIガバナンス・ポリシーをサポートし、徹底するためのテクノロジを必要としています。ガートナーのAI TRiSMテクノロジ・スタックについて解説し、AIガバナンスを可能にし、安全で信頼性の高いAI運用を実現するために活用できるテクノロジ・スタックについての最新情報をご確認いただけます。
Pacing Yourself in the AI Races: 2024 IT Symposium/Xpo Keynote Insights
AIの成果を安全かつ大規模に生み出す競争に参戦しているCIOに向けて、ガートナーの2024 IT Symposium/Xpoの基調講演内容をご提供します。そうすることで、組織にとって望ましいビジネス、テクノロジ、アクション成果を生み出し、AI競争における適切なペースを保つのにお役立ていただけます。
※Gartner のサービスをご利用のお客様は、上記レポートの詳細をご覧いただけます。契約されているサービスにより閲覧いただけないドキュメントもございますので、ご了承ください。
ガートナーの各種コンファレンスでは、CIOをはじめ、IT投資、導入、運用管理にかかわるすべての意思決定者に最新・最適な情報とアドバイス、コミュニティを提供します。