データの価値が毀損。旧来のデータ統合手法の課題

 DX(デジタルトランスフォーメーション)による価値創造を課題に挙げながら、肝心となるデータの統合・活用プロセスにボトルネックを抱えている企業は多い。

 その背景として「データソース、ユーザーニーズ双方の急速な拡大が進んでいることが挙げられます」。そう指摘するのは、企業のデータ管理と活用を支援するNTTコム オンライン・マーケティング・ソリューション(以下、NTTコム オンライン)の嶋田貴夫氏だ。

 近年では、企業内外を見回しても大量のデータが散在し、分析ツール・用途も多岐にわたる。データ統合の必要性は承知していても、大前提としてデータ統合の要件・出口が不明瞭なため作業が進まないといったフェーズから、統合作業をスタートさせてもETLによる作業では数週間から数カ月程度はかかり、バッチ処理によるデータのリアルタイム性低下の問題からデータが使われないまま放置されてしまうというのもよくあるケースだ。

 さらにデータ統合基盤の構築までこぎ着けても、データアクセス管理の問題が発生。アクセス権限の設定だけでも、IT部門の負担は膨らんでおり、「コストと負荷が増大していく割には成果につながらないという残念な事態が起こっています」と嶋田氏は言う。

 企業のICTプロダクト・サービス導入の流通事業を展開するSB C&Sの加藤学氏も、「データ統合・活用もアジャイルで進めるべき時代にあって、いまだコピーベースの旧態依然とした作業スタイルから脱していないのが実態です」と指摘。データの複製が氾濫することで正確性が問われる結果にもつながっているという。

 こうした課題をいかに解決するか。そのソリューションとして、注目を集めているのが「データ仮想化」技術だ。日本でも近年、言葉自体は浸透しつつある「データ仮想化」の、真の必要性とメリットについて迫る。

この先は日経クロステック Active会員の登録が必要です

日経クロステック Activeは、IT/製造/建設各分野にかかわる企業向け製品・サービスについて、選択や導入を支援する情報サイトです。製品・サービス情報、導入事例などのコンテンツを多数掲載しています。初めてご覧になる際には、会員登録(無料)をお願いいたします。