ビッグデータ分析による、新しい価値創出に必要なコト

近年、様々な業界で新しい価値創出を目的としたデータ分析のニーズが高まっています。

一方、分析対象となるデータは構造化データや非構造化データといった様々な種類・形式が含まれており、かつ、それらデータは日々膨大に生成・蓄積され、データの保管場所もバラバラであるケースは少なくありません。また、そのような環境下の中から、分析者(分析業務担当者)が自ら、価値ある(と思われる)データを探し出し、選別し、データの粒度・精度を整えたうえで分析に活かす作業は非常に困難で膨大な時間が掛かる作業となります。だからと言って、企業に蓄積されたデータを一部のユーザのみがアクセスし、彼らが高度なプログラミング技術を使ってデータの整形を行えるような状態では、分析ニーズの多様性・俊敏性には到底耐えられません。

上記の図のように、分析業務の80%は データ収集、クレンジング、変換といった分析前の準備作業に費やされていると言われています。そして、そのような準備作業を効率化することで、より本来の分析業務に専念できるものと考えています。

「ビッグデータ分析による新しい価値の創出」を実現するためには、

(1)情報が一部の人たちによって占有されている状態から情報をみんなで共有する状態にすること

(2)データの意味・鮮度・関係性などが把握(必要に応じてエンリッチメント)できる状態にすること

(3)データのクレンジング・変換処理を分析ユーザ自らセルフサービスで行える状態にすること

が重要になります。こうした3つをインフォマティカでは「データの民主化」と呼んでいます。

また、ビッグデータを扱う製品として、弊社では以下を中心に提供しています。

クラウドとオンプレミスのビッグデータを管理し、インサイトを迅速に獲得するData Engineering Integration(DEI)

各種データソースから大量なデータを素早く取り込み、データを統合します。
また、HadoopやBig Data特有のプログラミングを行わずに、データ活用を行うことができます。

分析用データを探索、準備、管理を実現するEnterprise Data Preparation(EDP)

データを活用する前に、ユーザーはデータの確認・抽出と簡単な加工を行うことができます。その結果、業務ユーザーはIT部門を介さずに、直接データにアクセス・活用できるようになるので、業務効率の向上が期待できます。

あらゆる環境内のデータ資産を分類・整理し、データの価値を最大限に引き出すEnterprise Data Catalog (EDC)

企業に散在するさまざまなシステムから自動的にメタデータを抽出してカタログ化し、各種データソースから、DWHやデータレイク、BIまでを複数のシステム横断で検索します。また、ユーザーはセルフサービスでそのデータの意味、流れ(リネージ)、リレーションなどを把握することができます。

会社のデータ資産が「宝の持ち腐れ」にならないよう、来年は「データの民主化」に目を向けてみませんか。