JDMC運営委員/伊阪コンサルティング事務所 代表 伊阪哲雄氏
データ品質に関わる問題は、1970~80年代のメインフレーム全盛期から存在した。当時はユーザー企業とITベンダーが共同でその解決を試みる動きが活発で、1990年前後から始まったクライアント/サーバー(C/S)システムの普及期、2000年前後からのWebコンピューティングの普及期にも活動は続き、製品やソリューションも多く登場したが、本質的な問題解決を図る動きはむしろ縮小していったように思う。それはなぜなのか?
その背景には、コンピューティングモデルの遷移と共に広まっていった部分(部門)最適があると筆者は見ている。1990年前後からのC/Sシステムは、部門システムとして導入・活用を定着させた。その後、バブルが崩壊し景気低迷期に入ると、情報システムのアウトソーシング、システム部門の規模縮小や子会社化が進み、いわゆるITガバナンスの主体が不在になり、部分最適に拍車がかかっていった。90年代前半から2000年代前半にかけて大手製造業を中心にERPシステムの導入が進んでも、その流れは止まらなかった。国内ではビッグバン型導入ではなく、個別モジュールの導入が大半だったうえ、カスタマイズも多かったためだ。
2000年代以降も、WebシステムやDWH、BCP/DR、そして仮想化/クラウドなどITの進化を取り込むのに手一杯で、データ品質の問題解決に抜本的に取り組む機運は生まれなかった。筆者自身はこの間、コンサルタントとして複数の企業でのデータ品質問題に関わっており、取り組みがまったくなされなかったわけではない。しかし、通信関連企業や流通業の一部を除けば、必要な人材と資金を投入し、本格的に取り組むまでには至らなかったのだ。
例えば金融機関では、アンチマネーロンダリングなどのコンプライアンス活動に向けて、複数システム/データの統合と顧客情報の名寄せは本来不可欠なはずである。しかし、従業員の器用さ、あるいは勤勉さによる配慮によって個別対処がなされるケースが多いため、問題が顕在化されにくい状態にある。ちなみに欧米だと、従業員は業務マニュアルに記載された以外のことは原則行わない。また、システム側での対応が必要なため、データ品質問題への取り組みは日本より一歩も二歩も進んでいる。
さて今日、経営の効率化・合理化や透明性向上や顧客サービスの向上が求められる中で、これまでのような取り組みでは済まされなくなった。IT部門でなすべきことの1つに、全体最適の観点に立ったシステム全体の統合、つまりデータ統合やデータ品質の確保であることは論を要しないだろう。今、目の前にある課題には次のようなものがある。
(1)データ初期入力の多様化と共同使用の促進
(2)データ・ライフサイクル管理のガバナンスの整備不足
(3)データ形式の不ぞろい(特にマスターデータとトランザクショデータ間)
(4)システム間の連携不足
多様なマスターデータの発生によるメタデータ管理の未熟度
(5)各フィールド定義の不統一
これらデータ品質を悪化させる要因はシステムの利用範囲の拡大と相まって深刻さを増している。筆者が考える解決に向けたアクションは次の3つである。
(1)人材の確保・育成(組織化)
(2)方法論整備
(3)効果的なソフトウェア・ツール
(1)と(2)については多くの事例を経験した外部の経験者と実績のある方法論を活用し各社固有の対処を行うべきである。(3)については自社でソフトウェア開発を行うより、汎用のソフトウェア・パッケージを活用する。特にデータ品質管理に豊富な経験があり、ソフトウェアとしての機能を十分に備えたソフトウェア・パッケージを有するIT企業の支援を活用すべきだ。
しかし解決策は見えても実践は難しい。人材の確保・育成(組織化)をとっても、そもそも専任でデータ品質を担う人材を置くのか、兼任でいいのか、その人材はどんなスキルを求められるのか、その人材のキャリアパスはどのようなものか、評価はどのように行うべきなのか、など検討すべき項目は多い。だからといって立ち止まっているわけにはいかない。JDMCにおける議論、あるいは先駆的事例発掘が必要だと筆者は考える。
2012/08/03
─ 伊阪哲雄氏プロフィール ──────────────────────
データマネジメントを専門とするITコンサルタント。1970年、大手コンピュータメーカーに入社して以来、一貫してデータモデリング/設計やデータクレンジング、データ統合、マスターデータ管理、データガバナンス組織、人材育成に関わる支援を行ってきた。特に通信業界、医薬業界や、金融業界のデータマネジメントに詳しい。米国など海外の事情にも通じ、例えば米MDM Instituteが主催するカンファレンスには毎年欠かさず参加している。e-mail: isaka@isaka.com