業務現場の実話に見るデータガバナンスの課題とは?
JDMC会員による「リレーコラム」。
メンバーの皆さんそれぞれの経験・知見・想いをリレー形式でつなげていきます。
今回、バトンを受け取ったのは、Yellowfin Japan株式会社の林 勇吾さんです。
「データ活用の自由度とガバナンスのせめぎ合い」は、BIを進める上で重要な課題
こんにちは、林です。
突然ですが、私はJDMCの情報共有システム「マングース」キャラのファンです。意外と隠れファンが多いのではと思います。かわいいですね。
さて、私はツールベンダー側の人間ですので、あまり自社の宣伝にならないように、自分の体験や聞いた話に基づいて、このコラムを書いてみようと思います。
ここのところ、データ ガバナンスにまつわるニュースが多いですね。もちろんガバナンスの課題というのは「データ」に関するものだけではありませんが、BIというデータを見える化するシステムの観点から見た場合、どうしても「自由度とガバナンスのせめぎ合い」について考えさせられてしまいます。
これは以前、あるユーザー企業の経営者の方がおっしゃっていた言葉です。
「俺は、このツールから出てくる数字しか信用しないからな。他での報告は受け付けないぞ」。
ところがその企業の会議向け報告フォーマットは、いわゆる表計算ツールを使ったもので、簡単に変更や修正が可能でした。このため入力箇所や元データはひとつでも、報告書作成の過程で複数の作成者の「意思」が盛り込まれ、時には項目が追加されたりした結果、共通の軸で会議が進まないという課題が生じていたそうです。
どんなスーパーマンでも、数多くある部署のすべてを細かく見るなどということは不可能です。そうしたことからも、意思決定を行っていく上で、元になるデータが「信頼できるか」、「正確性があるか」は重要なポイントであり、まさに会社の生命線と言っても過言ではないでしょう。
こういった課題を解決する一つの選択肢がBIツールです。もっとも、どんなツールをいれても上手くいかない企業は存在するのですが、そのことについて書き始めると、とんでもなく長くなってしまうので、今日はデータガバナンスの問題に集中してお話しすることにします。
効率よいデータ分析を行うには、データの加工処理の仕組みをあらかじめ考えておく
私も、しばしば自社データの分析を自分で行ってみることがあります。本来の役目ではありませんが、人前でデモをする機会も多く、またYellowfinのことを誰よりもくわしく知っていたいという欲求もあります。そこで技術畑の人間ではありませんが、とにかくチャレンジしてみるのです。
先日も、半期の営業会議向けに色々と分析をしてみました。既存のレポートからKPIを抽出してきたりしながら、いくつか新規のレポートを作りました。
当社の主なデータは、Kintone※1上で管理されています。分析しながら、このKintoneに入力されたデータの間違いを修正していきます。所用時間はデータ量次第ですが、そんなに時間はかかりません。
続いて、どうしても分析に必要な軸が足りないばあいは、Kintoneから引っ張ってきたCSVデータに手作業でデータを加えていきます。これは少々時間を要します。あれこれ調べながら、分類のためのフラグを立てるのに1時間ほどを要しました。
当社ではグローバルと日本で、さまざまなシステムを使っていますので、どうしてもアジャイル的な考え方で開発・運用を行うことになり、その過程でモコモコとデータが増えていきます。もっとも多少増えたところで、分析に必要な定型データがちゃんとそろっていれば、分析処理に要する時間は、ものの数分~10分程度です。
しかし、加工が必要なデータを使う際は、そうはいきません。少なくとも数時間は要します。また、ここが肝ですが、人による手作業が介入するため、100%信頼できるデータとは言えません。おまけに、私個人の「意思」を込めている可能性も大いにあり、信頼性が下がります。
しかもそんなに時間をかけて作ったデータも、経験上、たいがい1回しか利用できません。というのも、データ自体はその後もどんどん追加されていくので、もしまた利用したければ、新しいデータを盛り込んで加工しなおすなどのメンテナンスを、自分で行わなければならないからです。こうした毎回の手間を省くには、継続的に利用する軸はあらかじめ入力側に項目を追加しておくか、どこかからデータを引っ張って来て連結する仕組みを考えておく必要があります。
※1:サイボウズ社のビジネスアプリ作成プラットフォーム
今後の最重要テーマとなる、データガバナンスとセルフサービスBIの両立
「セルフサービスBI」というのは、上でお話しした手間や課題を解決するために、担当者が自分のPC上にツールを導入して、さまざまな処理を自分で行ってしまおうという考え方です。必要なデータにアクセスできるか、ローカルにデータがあれば、IT部門にいちいち依頼をしなくても自分で解決できてしまうのが大きな利点です。ただしツールを導入する際には、データガバナンスとリユース可能なデータソースという観点から慎重に選ばなくてはなりません。
また、セルフサービスBIを実践するばあい、①各人がデスクトップツールで同じような加工、分析をする ②ローカルの表計算ツールのデータに100%の信頼性があるかどうか ③データが各自のPCに保存されるというセキュリティ上の懸念……といった課題があります。
いうまでもなく現場には、IT部門より大勢の人がいます。そうした人たちが、自分で簡単にデータ分析できるツールがあれば、いろいろと試してみてしまうのが人の性です。そうなった結果、データガバナンスを担保できないまま現場が分析を継続し、意思決定が行われるのに懸念をおぼえない人はいないでしょう。……おっと、少し結論ありきの誘導っぽくなってきてしまいましたので、今回はこの辺でやめておきます。
本来なら、一度作ったデータソースは次にレポートを作る際にリユースできるのが理想であり、これを続けることで、「信頼できる」データ群ができあがっていくと、私は考えています。では、どうやって「信頼でき、リユースできる」データ群を作っていくのか。ぜひそんな魔法のツールをご紹介したいところですが、残念ながら現在の技術では、完全に処理を自動化することはできません。今のところはETLツールなどを使って自動化し、新たな要件が出ればまた追加していく。この繰り返しです。
当社でも、この部分を効率化できるよう、今後はYellowfinにデータ連携関連の機能などを新たに提供していく予定です。ぜひご期待ください。
林 勇吾(はやし ゆうご)
Yellowfin Managing Director – East Asia。1978年生まれ。前職はYellowfinの国内総代理店に勤務し、6年に渡りBIの営業を担当。同製品の開発元でありオーストラリアに本社を置くYellowfin社が、2014年に同社の日本法人であるYellowfin Japan株式会社を設立。その創業メンバーとして参画し、現在は日本法人と東アジア事業の責任者を務めている。