ガートナー ジャパン
メインメニュー ホーム リサーチ コンサルティング ベンチマーク エグゼクティブ プログラム イベント 会社情報 メインメニュー
SAMPLE RESEARCH

サンプル・リサーチ

イメージ

2013年の企業向けテクノロジの最重要トレンドがもたらすインフラストラクチャとオペレーション管理の変化とは

インフラストラクチャ (INF) /INF-13-57
Research Note
C. Haight, M. Govekar
掲載日:2013年8月20日/発行日:2013年5月31日

本リサーチ分析レポートのテーマに関心をお持ちの方は、2013年10月15日(火)〜17日(木)に開催する 「Gartner Symposium/ITxpo 2013」 のページを是非ご覧ください。(イベント終了後も開催実績としてご覧いただけます)

 

2013年に、ビッグ・データ、アナリティクス、インメモリ・コンピューティング、統合されたエコシステムといった企業向けテクノロジのトレンドは、インフラストラクチャとオペレーションの管理と考え方における変化を促進する。I&Oリーダーは、今後のI&O管理プラットフォームで表面化するこれらのテクノロジにも備えるべきである。

要約

影響

    ● ITオペレーション部門は、ビッグ・データ・システムのアーキテクチャの登場により、新たな管理ツール/手続きを探す必要に迫られる。

    ● ビジネス部門ではリアルタイムのアクショナブルなアナリティクスのニーズが増しているため、インフラストラクチャとオペレーション (I&O) 部門は、オンデマンド型のリソース提供の熟練度を高めなければならない。

    ● インメモリ・コンピューティング (IMC) の管理に関する課題によって、データ・アクセス・スループットの向上に向けたI&O部門の期待度が低下する可能性がある。

    ● ITオペレーション部門は、プログラム可能なインフラストラクチャの台頭を受けて、API管理に対する注意を強化する必要に迫られる。

    ● ハイブリッド・クラウドはパブリックとプライベートの両属性を兼ね備えているため、I&O部門は、ITサービスのプロバイダーとブローカーを兼務せざるを得なくなる。

推奨事項

    ● オペレーション管理システムを通じて、さまざまなビッグ・データ・ソリューションに加え、大規模なデータの収集と解釈を管理できるようにする。

    ●アクショナブルな分析システムをサポートするために、高速リソース・スケーリング機能を備えた弾力的なハイパフォーマンス環境を設計する。

    ● IMCに最適な候補の特定と、より正確な将来のメモリ要件の予測に向けて、トランザクション処理ワークロードを理解する。

    ● API管理のポリシーと原則を、従来のアプリケーションとインフラストラクチャのアーキテクチャおよび社内ITオペレーション管理 (ITOM) 分野のサポートに適用する。




戦略的プランニングの仮説事項
2017年までに、Global 2000企業の40%は、ビッグ・データ、IMC、アクショナブルなアナリティクスなどの概念を採用したITOMテクノロジを利用するようになる (現在は5%未満)。

分析
ガートナーは、2012年10月に開催したガートナー・シンポジウムで、シェアの追求もしくは維持に向けた各社の市場での競合状況を変化させる、2013年のテクノロジ・トレンドのトップ10を予測している。これらテクノロジ・トレンドはそれぞれ、I&O部門に対しても大きな影響を及ぼしている (図1参照)。

図1 2013年のテクノロジ・トレンドのトップ10

出典:ガートナー (2013年3月)

管理に関する一般的な考え方の多くは、I&O部門がビジネスのために管理しなければならないテクノロジの変化の幅と頻度に追随できるほどには進化していない。総合的に見ると、I&O部門は前述した新しいテクノロジ能力の登場を受けて、サービス提供、サポート管理、社内資産の保護に対するアプローチを大幅に変更せざるを得なくなる。I&Oリーダーにとって、俊敏性とコスト・コントロールに関するビジネス要件を満たす方法で、前述の新テクノロジや他の新テクノロジをサポートするための長期計画の策定に取り組むことは必要不可欠である。この計画は社内文化、組織構成、プロセス、ツールをはじめ、ITオペレーション分野全体を見渡すものとなる。また、I&Oリーダーは、より高いビジネス価値を提供できるよう、最新の一般消費者向けテクノロジと企業向けテクノロジを統合する能力を開発することも忘れてはならない。

I&Oプランニングは、そうしたテクノロジをITOMアーキテクチャ内で採用する方法も説明しなければならない。例えば、サービスとしてのソフトウェア (SaaS) 管理ベンダーが大量のデータの収集と合成を行っている事例があるように、ITOM業界がビッグ・データ型アプローチを採用していることは既に周知のとおりである。ガートナーでは、このトレンドと同調して、ハイブリッド・クラウド環境の興隆に対処すべく、挙動学習テクノロジや次世代アナリティクスが最前線に登場すると予測している。個人向けテクノロジが企業に採用され、企業向けテクノロジがITOMツールの新たな波に対応するプラットフォームとなるため、I&Oリーダーはサービス管理戦略に統合の考え方を採用しなければならない (図2および備考1参照)

図2 I&O管理への影響と主要推奨事項

出典:ガートナー (2013年3月)

影響と推奨事項

ITオペレーション部門は、ビッグ・データ・システムのアーキテクチャの登場により、新たな管理ツール/手続きを探す必要に迫られる
ビッグ・データ指向のシステムは、管理をめぐる一般的な考え方の多くを覆すものである (根拠1参照)。ビッグ・データ指向システムのベースとなるテクノロジは、ACIDベースの環境ではなく最終的に一貫性を実現する能力を活用しているため、トランザクション追跡はなかなか実現していない。この点で、ビッグ・データ指向のシステムは、トランザクションの完了を確実に確認するために標準的な要求/応答パターンを利用する従来の監視システムとは異なる。また、ビッグ・データを扱うトランザクションやジョブの多くは長時間を要するため、特に大規模テストを行っていないクラスタを集中的に使用する場合は、標準処理時間の確認やサービス・レベル合意 (SLA) の設定が困難になることが多い。

現在のビッグ・データ環境の多くはバッチ処理ベースであるため、このシナリオの緊急性は低いかもしれない。ただし、リアルタイム情報をアナリティクスと組み合わせて使用したいという要求が強くなっているため、今後はインテリジェンスの追加とリアルタイムのポリシー駆動型プロセス自動化で管理システムをサポートするニーズが生まれる。

一貫性の低いシステムはレプリケーション (データ複製) テクノロジに依存しているため、クラスタ内のレプリカの配置がパフォーマンスを大きく左右する。数千台のサーバが関係する規模では、障害の断続的な発生を避けられない。例えば、1つのラックの外部でデータにアクセスする必要がある場合、断続的な障害が発生するとレプリカ配置の最適化に影響する可能性がある。そうした状況では、障害がパフォーマンスに影響するだけではなく、「古い」データが生き残る機会が増すためにデータの整合性に関する課題が潜在的に生じる。通常、バックエンドのデータ・ストアの障害は壊滅的な結果をもたらすものではないと考えられているが、フロントエンド・サーバの場合は必ずしもそうではない。例えば、市場内の一部のソリューションは既に対処しているが、Hadoop Distributed File System (HDFS) アーキテクチャでは、NameNodeが単一障害点となる。

ストレージ管理は、ビッグ・データ・システムに関連するもう1つのリソース指向型の問題である。Hadoopのデータ削除管理は、その一例である。HadoopのデータベースであるApache HBaseは、データを直ちに削除しない。バックエンドのノードとサーバのすべてが削除処理を実行した後にデータを削除し、その後で圧縮処理を実行する。その結果、圧縮が完了するまではパフォーマンスの低下とディスク使用量の増大が生じる。

最後に、収集すべきチェック項目と測定基準に加え、収集頻度を把握するという問題もある。ビッグ・データ・システムは、数千のノードから構成されている場合がある。そうしたシステムが生成する「ビッグ管理データ」は、スケーラブルな時系列的データ処理能力を備えた監視システムを必要とする。データ収集を阻む要因としては、「ビッグ・データ・インフラストラクチャの多くはJavaなどのテクノロジをベースにしているが、システム (やサービス) の健全性情報を完全に提供できる標準APIは存在しない」という事実も挙げられる。

推奨事項:

    ● 顧客指向サービス・レベル・パフォーマンスの測定に向けて、現行監視テクノロジの機能を評価する。


    ● 明白な障害と関連するパフォーマンス低下の背後に隠れている問題発生源を、利用中の管理テクノロジで特定できることを確認する。


    ●単一障害点とそれ以外のシステム上の不備に対処可能な既存システム (または補完テクノロジ) の機能を比較する。


    ● 稼働中のオペレーション管理システムで、さまざまなビッグ・データ・ソリューションの管理と大規模なデータ収集/解釈処理を実行できることを確認する。


    ● インテリジェンスが強化され、ポリシー駆動型のリアルタイム・プロセス自動化が可能な管理システムの導入を計画する。

ビジネス部門ではリアルタイムのアクショナブルなアナリティクスのニーズが増しているため、I&O部門は、オンデマンド型のリソース提供の熟練度を高めなければならない
次世代アナリティクス・プラットフォームは、以下に示すような主要コンポーネントを備えたシステムの集合体である (根拠2参照)。

    ● レンダリング/可視化プラットフォーム

    ● ストリーミング/イベント管理能力

    ● ビジネス・ロジック・コンテナ

    ● 関連するデータ保存/収集エレメント

データ収集システムには、データベース/データウェアハウス統合システムに対するインタフェースを備えているものや、他の外部データ・ソースに対応するコネクタも備えているものがある。これらのシステムの目的は、複雑化の一途をたどる環境の明瞭度を高めることであるが、分析システム自体は「可動部」の多い複雑なソリューションである。最小限に総合管理アプローチの可能性を評価する一方で、監視対象とする重要なインタフェースを判断する。

この能力の重要性は、データ収集システムの用途が履歴/バッチ分析コンテキストを脱して、ビジネス指向の運用データ・ストアをサポートするリアルタイム性とイベント駆動性の高い分析ニーズに移行する傾向を強めるに従い、さらに高まりつつある。また、入力データのタイプが構造化データを中心とするものから変化し、音声や動画などの非構造化データが含まれるようになっている。したがって、ITオペレーション部門がアドホック型データ分析の不安定で頻繁な需要急増に対応するには、インフラストラクチャ・リソースを迅速にスケーリングするための「感知と対応」型の能力が組み込まれた回復性の高いハイパフォーマンス環境を設計しなければならない。

推奨事項:

    ●管理性を念頭に置いて、アクショナブルな分析システムを導入する。可能な場合は、回復性とパフォーマンスを重視した環境を設計する。

    ● 下位の従属コンポーネントの健全性を評価する能力を利用して、社内のアナリティクス・インフラストラクチャに対するサービス・レベル・ビューを構築する。

    ● 仮想化テクノロジとパブリック/プライベート・クラウド・テクノロジを活用して、オンデマンド型のリソースを実現する。

    ● アドホック式データ分析の不安定で頻繁な需要急増に対応するには、インフラストラクチャ・リソースを迅速にスケーリングするための「感知と対応」型の能力が組み込まれた回復性の高いハイパフォーマンス環境を設計する。

インメモリ・コンピューティング (IMC) の管理に関する課題によって、データ・アクセス・スループットの向上に向けたI&O部門の期待度が低下する可能性がある
インメモリDBMS (IMDBMS)、インメモリ・データ・グリッド (IMDG)、複合イベント処理 (CEP) プラットフォームをはじめとするIMCシステム (根拠3参照) は、大量のデータを高速処理できるように設計されている (「Taxonomy, Definition and Vendor Landscape for In-memory Computing Technologies」参照)。データがサーバ (通常はマルチコア) のメイン・メモリ内に直接保存されるため、直結ストレージ (DAS) やネットワーク接続ストレージ (NAS) で通常発生するアクセス速度の低下を大幅に緩和できる。ただし、本リサーチノートで取り上げた他のテクノロジと同様、これらのメリットには以下のような課題も付随する。

    ●データの耐久性:データの耐久性は、CEPプラットフォームやデータ可視化ツールといった、メモリ内にデータを保持する時間がごく短時間に限られているタイプのIMCテクノロジでは問題化しない。しかし、IMDBMSやIMDGといった製品を利用する場合は課題になる。サーバで障害が発生すると、データが失われる。一部のシステムは、インメモリ・データをバックアップ・サーバ (ディザスタ・リカバリ [DR] 用のリモート・データセンターを含む) 上に複製して、定期的に更新内容をディスクに非同期式に書き込むか、またはトランザクション・ログを更新することによって、独自の回復能力を実現している。それ以外のシステムは、データの保持を実現するためにサードパーティのレプリケーション・テクノロジや他の可用性テクノロジを利用している。一般に、耐久性を実現しようとするとパフォーマンスとスケーラビリティの間でトレードオフが発生するため、IMCシステムを展開するアーキテクチャを設計する際には、それらの間でバランスを取らなければならない。

    ●適正なメモリ・サイズの設定:IMDBMSは、メモリ使用量を削減するために圧縮テクノロジを利用するカラム表現の採用を通してメモリ使用量を最適化する例が多い。一般に、IMDBMSやIMDGは、インメモリ・データの一部をディスクや半導体ドライブ (SSD) に保存するか、または適切なアルゴリズムに基づいて選択したデータを単純に削除することによって、新たなデータを保存する余地を確保するオーバーフロー/エビクション (不要データの追い出し) の仕組みをサポートしている。IMDGをはじめとするIMC製品はJavaで開発されており、Java「ヒープ」(Java仮想マシン [JVM] のワーキング・メモリ) を利用してデータを保存する。JVMは定期的に「ガベージ・コレクション」処理を開始し、使用していないオブジェクトをヒープから取り除く。JVMは、このプロセスの最中に停止することが多い。このプロセスは、ヒープが大きいほど長時間を要する。したがって、インメモリ・データのボリュームとアプリケーション・パフォーマンスの予測可能性の間にトレードオフが存在する。ベンダーは高度な問題回避戦略を提供しているが、IMCベースのアプリケーション設計ではこれらの問題を考慮しなければならない。サーバ用メモリのコストは低下しているが、依然として接続ストレージの価格を大きく上回っているため、I&Oリーダーはコストも考慮しなければならない。

    ● 活動とパフォーマンスの監視:IMCシステムは、数十もしくは数百台のクラスタ・サーバをベースにしていることがある。活動、データの物理的な保存場所、パフォーマンス上のボトルネック、サーバのパフォーマンスの追跡は、重要な問題である。しかし、IMCベンダーはこれまでそうした問題にあまり注目しておらず、提供しているシステム管理/監視ツールや他の管理ツールもごく基本的なものにすぎないため、サードパーティ製品で補完せざるを得ない。


推奨事項:

    ● IMCテクノロジの選定時には、複数の耐久性戦略、DR能力、柔軟なメモリ最適化機構、総合的なシステム管理、サードパーティ・ツールの監視と管理のほか、DevOps APIを実現するサードパーティ・ツール統合に対応している製品を優先する。

    ● 複数のIMCソリューションもサポートし得るサードパーティ・データ耐久性ソリューションの必要性の有無を評価する。

    ● IMCシステムは高価であるため、IMCに最適な候補を特定するとともに、より正確に将来のメモリ要件を予測する計画を立てる。

    ● 大半のIMCは何らかの管理機能を内蔵しているが、複数のインタフェースに関してオペレーション・スタッフをトレーニングするコストを削減するために、複数のインフラストラクチャ・ベンダーのIMCを監視できる管理ソリューションを探す。

ITオペレーション部門は、プログラム可能なインフラストラクチャの台頭を受けて、API管理に対する注意を強化する必要に迫られる
ITの管理と運用の簡素化は2013年の重要ターゲットであり、今後も長年にわたって重要性が低下することはない。I&Oリーダーは、簡素化の促進と使い勝手の改善に向けたアプローチとして、統合を検討しなければならない。ガートナーの現時点の見解によると、統合の実例はインフラストラクチャ・レベルで統合済みのアプライアンスとファブリック・ベース・インフラストラクチャ・プラットフォームを利用することで実現している。

アプリケーション・レベルの統合は、まだ実現途上にある。これまではミドルウェア (エンタプライズ・サービス・バス [ESB] など) が基本的な統合を実現していたが、最近はクラウド・サービス・ブローカ (CSB)/クラウド・マッシュアップ能力が登場し、Web/モバイル・ベースのAPIとアプリケーションに採用される事例が増加している。企業は、サードパーティのWebサイトやモバイル・アプリケーションといった、新たなデリバリ・チャネル経由での自社のリーチ拡大や企業間 (B2B) 接続の迅速化と簡素化に向けて、RESTfulな公開Web APIを利用している。ここで重要なのは「API」であり、統合されたエコシステムに関するターゲットの大半は、API管理である (根拠4参照)。ITオペレーション部門は、こうした変化により次の2つのレベルで影響を受ける。

    エンタプライズ・アーキテクチャ/アプリケーション・レベル:ITオペレーション部門は、アプリケーション・パフォーマンス管理 (APM) テクノロジを通じてRESTfulな公開Web APIの健全性とパフォーマンスに関する情報を提示できる能力を構築するか、購入するか、あるいは利用する必要に迫られる。また、APIのアップデートを既存のプロビジョニング・システム/プロセスに適用せざるを得なくなり、状況に応じてAPIインフラストラクチャをスケーリングする能力を実現しなければならない可能性が高い。

    システム管理レベル:DevOpsとプログラム可能なインフラストラクチャという概念の影響力が強くなっているため、API管理はITオペレーション・スタッフに影響する。ライフサイクル全体を通じて作用するDevOpsツールチェーンの影響力が増しているため、アプリケーション担当部門がサービスを相互にやりとりする方法に注意を払うべきであるのと同様に、オペレーション部門は、インフラストラクチャとアプリケーションを管理するテクノロジのAPIをカタログ化し管理する必要がある。Software Defined Network (SDN) は、プログラム可能なインフラストラクチャ・ランタイムの新たなユースケースの一例であり、その多くがオープンな (ただし多様な) APIを通じてプログラム可能な作業 (変更内容をフロー・テーブルにプッシュ配信するなど) を実行している。OpenFlowをはじめとするSDN標準が存在するが、独自仕様の拡張機能を利用するには、API管理ソリューションに多数のベンダーをサポートする能力が求められる。

推奨事項:

    ● ITオペレーション部門は、CSBや他のアプリケーション統合アプローチをサポートする際に、サービス・レベルを評価する計装/監視テクノロジを提供する。

    ● I&O部門は、API管理に関するポリシーと原則を従来のアプリケーション/インフラストラクチャ・アーキテクチャだけではなく、ITOM分野のサポートにも適用する。

    ● 完全に指定されたオープンなアプリケーション/管理APIのみを購入要件とするよう、調達プロセスに影響力を行使する計画を立てる。

     

ハイブリッド・クラウドはパブリックとプライベートの両属性を兼ね備えているため、I&O部門は、ITサービスのプロバイダーとブローカーを兼務せざるを得なくなる
さまざまなプライベート/パブリック・クラウドをかなり前から利用している企業は多いが、IT部門は基本的に、これらのリソースを2つの別々のものとしてサポートしてきた。プライベート・クラウドとパブリック・クラウドの間では、資産の統合や移動はほとんど行われていない。アプリケーションの配置先をどちらにするかという意思決定の根拠は、基幹アプリケーションの最適なホスト場所に関する静的な基準であることが多い。

クラウド・テクノロジの成熟度が増すと、自社と外部クラウド・サービス・プロバイダーの間におけるワークロードの移動が可能になる。このハイブリッド・クラウド戦略は、ウォーム・スタンバイ・サーバによる自動リカバリとサイト内の自動DR、バックアップとアーカイブ、キャパシティ管理とクラウドバースティング、データセンター移行に役立つものになる可能性がある。ハイブリッド・クラウド戦略を採用するには、社内の資産を十分保護するためのさまざまな能力をI&O部門が開発しなければならない。

プライベート・クラウド・サービスをローカル側で提供する場合、I&O部門は従量制ポリシーに基づくセルフサービスの実現に注力すべきである。この活動では自動化が重要な役割を担い、顧客がリソースを利用できるようにするために必要なすべてのサービスの統合を支える。クラウド管理プラットフォームと呼ばれる管理ソリューションとの統合か、またはベスト・オブ・ブリードのソリューションの組み合わせによる統合も可能である (「Use Planning to Avoid Overspending and Inefficiency on Cloud Management Platform Purchases」参照)。

プライベート・クラウド・サービス・プロバイダーの役割を担うI&O部門は、社内の大半に関係する次の2点を重視すべきである。

    俊敏性:俊敏性は、クラウド・サービスの推進力として言及される例が多い。社内でパブリック・クラウド・サービスを数分以内に立ち上げる能力の有無が、ベンチマークになる。この要求は、I&O部門がプロビジョニングや他の基幹ITオペレーション・プロセスに関する現行ベスト・プラクティスを再考する必要があることを示唆している。

    コスト:I&O部門には、パブリック・クラウド・ベンダーを下回るコストでプライベート・クラウド・サーバを提供するか、またはより大きなビジネス価値を実証することを期待されるようになる。比較作業は、必ず類似の能力も含めて行う。

I&O部門はブローカーの役割を担うこともできる。この場合は、顧客の要求と、それを受けた外部プロバイダーによるクラウド・サービス・デリバリの間で仲介者として振る舞う。ブローカーとしてのI&O部門は、コンプライアンス、規制、遅延といったビジネス要件を理解した上で、ビジネス部門に選択肢を提示しなければならない。具体的には、この役割に以下の作業が含まれる。

    ● クラウド・サービスのプロバイダーやブローカーが提供する外部サービスを精査する。

    ● リモート・インスタンスの継続的な監視と最適化を通してコストのコントロールに留意しながら、クラウド・サービス・プロバイダーの利用者を擁護する立場で行動する (サービスの使用率が低い場合、外部サービス・プロバイダーには顧客をより低料金のサブスクリプション・モデルに移行させるインセンティブはないに等しい)。

I&O部門は、いずれの役割であれ、クラウドに合わせて最適化したソリューションの開発に向けて、アプリケーション指向の顧客と共同作業を行わなければならない。クラウドに合わせて最適化されたソリューションとは、クラウド・コンピューティング・プラットフォームのグローバルな特徴をフル活用できるように設計されたアプリケーションである。クラウドに合わせて最適化されたソリューションの成功例は、水平スケーラビリティ、フォールト・トレランス、ハイパフォーマンス、効率性、相互運用の容易性といった重要な原則に沿って開発されている。クラウドに合わせて最適化されたアプリケーション設計とそのパターンの採用 (少なくとも試み) の主役は、依然としてクラウド・サービス・プロバイダーと最先端を行く新興Web関連ベンダーであるが、ガートナーの調査によると、ガートナーの顧客間では、運用の簡素化と市場リリースまでのリードタイム短縮に向けて、クラウド・ソリューションの自社開発に対する関心が強くなっている。

推奨事項:

    ● クラウド・サービス・デリバリに関して、主な注力対象が異なる、2つのまったく別の役割をサポートする計画を立てる。

    ● 顧客の場合と同等レベルかそれ以上に競合先を理解する。ハイブリッド・クラウドの成功は、IT部門を代理として利用することに価値があると顧客が考える場合に限られる。

    ● 動的スケーラビリティを備えたリソースの利用効果を改善できるアプリケーションを開発できるよう、顧客を支援する。この活動には、管理性と有用性の機能を改善するための、アプリケーション開発に関する共同作業が含まれる。


推奨リサーチ:

・ 「'Big Data' and Content Will Challenge IT Across the Board」
・ 「Advanced Analytics: Predictive, Collaborative and Pervasive」
・ 「Top 10 Strategic Technology Trends: In-Memory Computing」
・ 「Devise a Systematic API Management and Governance Strategy for Long-Term CSB Success」
・ 「Govern Your Services and Manage Your APIs With Application Services Governance」
・ 「Fabric-Based Infrastructure Best Practices Could Result in Up to Six-Figure Savings」
・ 「Emerging Technology Analysis: OpenFlow」
・ 「DevOps Toolchains Work to Deliver Integratable IT Process Management」
・ 「リアルタイム・インフラストラクチャのハイプ・サイクル:2012年」(INF-13-37、2013年4月10日付)


根拠

1. 「Hadoop and MapReduce: Big Data Analytics」、リサーチノート、APP-11-84、2011年8月25日付「『ビッグ・データ』はエクストリーム情報管理のはじまりにすぎない」「User Survey Analysis: Infrastructure as a Service, the 2011 Uptake」、SAP Hana Administration Guide ( https://help.sap.com/hana/hana_admin_en.pdf )、IBM solidDB Universal Cache Version 6.5 Administrator Guide SC23-9869-05 ( ftp://public.dhe.ibm.com/software/data/soliddb/info/6.5/man/AdministratorGuide.pdf )、Big Data Problems in Monitoring at eBay ( http://www.infoq.com/presentations/Big-Data-Monitoring-eBay )、 http://practicalanalytics.wordpress.com/2011/11/11/big-data-infographic-and-gartner-2012-top-10-strategic-tech-trends/

2. http://readwrite.com/2011/10/04/infographic-10-better-data-usa

3. http://www54.sap.com/services-support/svc/in-memory-computing.html

4. API Management for the Software-Defined Network ( http://apigee.com/about/api-best-practices/api-management-software-defined-network-sdn )

 

備考1 I&Oマネージャーは、企業向けテクノロジと一般消費者向けテクノロジの統合に対応しなければならない
本リサーチノートの執筆に当たり、ガートナーが選出した2013年のテクノロジのトップ10において、主に企業向けに分類されている5つに注目した。同様に、関連リサーチでは、個人や一般消費者への影響に関係する残りの5つのテクノロジに注目している (「Top Consumer Technology Trends of 2013 Will Drive Changes in Infrastructure and Operations Management」参照)。この分類は、一般消費者向けと企業向けのテクノロジ・セットが密接に関連し、さらなる統合に向かっているという事実をないがしろにするものではない。一般消費者向けテクノロジは、特に戦略的ビッグ・データやアクショナブルなアナリティクスといった個人や一般消費者のソーシャル・エクスペリエンスに影響を与えることができるよう、データマイニングを可能にする複数の企業向けテクノロジの進化から恩恵を受ける。同様に、個人向けテクノロジは、企業におけるメディア・タブレット、ソーシャル・メディア、アプリケーション・ストアなどの浸透拡大といった例が示すように、企業内の環境に採用されている。したがってIT部門は、個人/一般消費者向けと企業向けの新たな対応能力が業界全体に及ぼす影響を調査し、対等の処置をもって双方の対応能力の活用と管理を図る計画を策定しなければならない。

 

(監訳:亦賀 忠明、長嶋 裕里香)
INF: INF-13-57

※本レポートの無断転載を禁じます。

←INDEXに戻る

 

gartner.com
TOP OF PAGE
Copyright