「データ3.0」~第三世代のデータを活かすアナリティクス基盤の構築~

こんにちは、インフォティカ編集部です!

ある調査会社が3,000人以上のCIOを対象に実施した調査レポートによると、「ビジネスの差別化を支援するテクノロジー」として最も取り組むべきイニシアチブは、「BI/アナリティクス」であることが明らかになりました。アナリティクスへの支出は、6年間連続でCIOが最優先する支出となっています。しかし、多くの企業では、BI/アナリティクスを活用して業務上の価値を生み出せる段階には至っていないようです。

また、別の調査レポートにおいても、経営幹部の86%は自社におけるデータ利用が「最大限好意的に見ても、会社が掲げるデータ/アナリティクスプログラムの主要目標を部分的にしかサポートできていない」と考えており、回答者の25%以上はまったく効果が上がっていないと感じているという結果が出ています。

果たして、この原因はどこにあるのでしょうか。

今回は、デジタルトランスフォーメーションが進む「第三世代のデータに求められるアナリティクス基盤」についてご紹介します。

 

全社レベルのデータアナリティクスの3本柱

高度なデータアナリティクスは、企業における意思決定方法を劇的に変革させます。しかし、それが多くの企業で「一定の効果がある」レベルに留まっている理由は、データを活用できるようになる前にすべき作業、つまり適切なデータ管理の基盤を整備する作業を残したままにしているからです。

 

すべてのデスクにダッシュボードを備え、社内すべてのユーザーが組織全体を通して知識を活用し、データ主導の意思決定を全社レベルで大規模に実現するには、

(1)データ管理

(2)データガバナンス

(3)セルフサービス

という3つの柱を構築することが必要です。

 

第1の柱:データ管理

アナリティクスでは、幅広い異種データを用いることで非常に役立つインサイトが得られます。従来のアプリケーションでサイロ化されていた情報も含め、あらゆるデータをあらゆるアナリティクスユーザーが利用できるようにします。「あらゆるデータ」には外部データ、パートナーデータ、ストリーミングデータ、クラウドや新しいアナリティクスアプリケーションに格納されているデータも含まれます。このためには、まず企業データカタログを導入して、全社にまたがるデータを探索することから開始することが大切です。

 

データ資産の目録を作成する

アプリケーションやシステムを数多く使用している大規模な組織では、現時点でどのようなデータがあり、どこにあるのかを知るのが難しいのではないでしょうか。この問題を解決してくれるのが、「データの目録」つまり「データカタログ」の作成です。業務用メタデータや技術的メタデータをひとつのデータ管理プラットフォームにまとめて管理を標準化すれば、システム間におけるデータの動きや、各事業部門におけるそれらの意味が見えてきます。

 

データ管理をサポートするためのテクノロジーとしては、あらゆるタイプのメタデータの収集・管理やデータのプロファイリング、統合、品質管理をサポートできるソリューションが有効です。またAI/機械学習を採用すれば、データ管理のために何をすべきかについてインテリジェントなアドバイスを得て、作業を自動化することができるようになります。

 

第2の柱:データガバナンス

データガバナンスとは、データを資産として管理することです。ITを活用することで部分的な解決はできますが、それだけでは不十分です。データガバナンスでは、業務部門の専門家とIT部門の技術担当者のコラボレーションが不可欠です。データがどういったコンテキストで使われるのかは、それを利用する業務担当者に聞かなければわかりません。一方で、業務部門がデータを活用できるようにする仕組みづくりはIT部門なしでは構築するのが難しいからです。

 

データガバナンスをサポートするテクノロジーとしては、業務部門のユーザーがデータの業務上の意味やコンテキストを定義、管理、共有化するためのビジネスグロッサリや、機密情報やユーザーの役割に応じたアクセスを制御するためのデータセキュリティ、使う人にとって最低限必要なデータ品質の指標を設定し、継続的に追跡管理して、異常や問題の発生時に改善措置を取れるようにするためのデータ品質ソリューションを導入することをお勧めします。

 

第3の柱:セルフサービス環境の構築

多くの企業が従来のリレーショナルストレージテクノロジーを使用してセルフサービスアナリティクスを提供してきましたが、現在ではデータレイク、クラウドデータレイク、クラウドストレージも導入することができます。これにより、データ取り込みの高速化や拡張性/柔軟性の向上といった利点が得られます。しかし、大量の生データをデータレイクなどのリポジトリに放り込んでおけば、ユーザーが自分で(セルフサービスで)使えるだろうということにはなりません。

 

データの準備

何らかのデータクレンジングはすべてのユーザーが必要とするものですが、さらにデータセットを統合し、興味深く有益なインサイトを提供するための方法も必要です。そのためには、データ構造、タグ、キーに関して、ある程度の事前準備が必要となります。また、機密データを特定できるように、データセキュリティの作業も必要となります。タイプが異なる複数のデータを統合して新しい機密データを作成することもあるでしょう。この場合、個人を特定できる情報を隠すため、データマスキングが必要になる可能性があります。

 

ユーザーが役割に応じたツールとセキュアな環境を利用して、さまざまなデータソースを探索し、それらにアクセスできるようなセルフサービス環境をサポートするテクノロジーとしては、データを迅速に検索するためのデータカタログ、業務ユーザー自身がデータの統合、クレンジング、セキュリティ保護を容易に実行できるデータ準備ツールが必要です。

 

さらに重要なのは、すでに他のユーザーが作成したデータ検索や変換パターンを「レシピ」として他のユーザーが再活用できるような再現機能です。他のユーザーがアナリティクスのために実施した手順を検索および共有化できるようにし、さらにその手順をIT部門に戻すことで、業務部門が繰り返し実行可能なプロセスへ運用化する機能も備えている必要があります。こうした機能があれば、業務担当者が必要とする柔軟性とスピードをもたらすとともに、組織の全体的な生産性を高めることができます。

 

アナリティクスの活用に欠かせないユーザーエクスペリエンス

特に、非技術系のユーザーには、データをより簡単に取り扱えるように直感的に使えるインターフェイスが必要です。例えば、業務アナリストがデータ準備に最も広く利用しているツールはExcelです。新しいデータ準備ツールを導入する際には、ユーザーにとって馴染みのあるExcelに似たインターフェイスを採用したツールが望ましいでしょう。また、「iPaaS」(サービスとしての統合プラットフォーム)のようなクラウドベースの統合ツールは、中程度の技術知識を持つ、一般の統合担当者がデータ管理に使うのに適しています。

 

一方で、IT開発者向けには、質が高いGUIベースのコーディング不要な開発環境であることはもちろん、学習と使用が簡単でコードの再利用、スキルの再利用、共有が可能で非常に幅広いアナリティクス使用事例に対応していることが重要です。さらに、データタイプが変化するのと同様に、アナリティクステクノロジーも変化します。データ管理ツールには、ルールを基盤テクノロジーから切り離して抽象化することで、開発者がこのような変化による影響を受けないようにする機能が必要です。

 

未来を見据えたデータ管理アーキテクチャ

データ形式やアナリティクステクノロジー、アプリケーションは速いペースで変わり続けます。抽象化によりデータマッピングやデータ変換を維持できるため、新しいアナリティクスプラットフォームやテクノロジーが登場した際に、処理を最初からやり直すことなく、それらを活用できます。新たな「データの孤島」を作ることなく、アーキテクチャが長期にわたって進化および成長できるよう、あらゆるものに接続可能なデータ管理プラットフォームを選ぶようにしましょう。

 

第三世代のデータ管理のためのアーキテクチャ構築の導入手順やより詳しい技術的要件については、電子ブック「第3世代のデータ管理基盤の構築ガイド」を参考にしてみてください。

コメント