一般の企業に勤めている方は、様々な業務でPCを使って、様々なデータを入力したり取り出したりしていると思います。
ビッグデータというキーワードが登場して久しくなりますが、その時騒がれていたような数十テラバイトとか数ペタバイトという巨大データは、ほとんどの企業では無縁の存在で、ビッグデータは都市伝説だと言われた時期もありました。
その様な巨大なデータでなくもとも、自社で業務アプリをいくつも開発するような企業では、確実にデータが蓄積されており、日々巨大化していることは間違いありません。
私が勤めている会社でも、数年前は「数千万件のデータを、いちど見てみたいものだ」という上司がいましたが、現在私が担当するIoT関連の部門では、急激にデータ量が増えており、数千万件を遥かに超えてしまいました。
ただ、これだけデータが集まったとしても、AIを使ってデータを活用し、ビジネスに活かすというレベルにはほど遠く、試行錯誤の連続です。
それは何故か?
多くの業務アプリは、業務の生産性や利便性向上を目的として作られてきたため、データを分析するという視点でのデータが蓄積されていません。
データ分析に使うデータは、できるだけ多くの情報を正確に入力する必要があるため、生産性や利便性を追求するシステムとは相反することになり、結局のところ業務に支障をきたさない必要最小限の情報を、人が読んで理解する(データで処理することを想定しない)前提で入力してしまう結果になります。
また、入力の仕様をガチガチにしてしまうと、イレギュラーな業務対応の時に入力できないという事態が起きるため、何でも入力できる仕様にしておくという理由もあります。
データ分析の世界では Garbage in, garbage out という言葉があります。
「ゴミを入れるとゴミが出てくる」という意味なのですが、つまり品質の良く無いデータが大量にあっても、そこから何も生まれません。
従って、今のままデータが増え続けたとしても、ほとんど役に立たないのです。
これからは、せっかく蓄積した大量のデータを、業務に活用できるか否かによってビジネスの勝敗が分かれていくでしょう。
高品質で大量のデータは、顧客の嗜好に合わせた最適なセールス方法を提示してくれるでしょうし、顧客がどんなサービスや商品を望んでいるかを教えてくれます。
生産現場では製品不良の原因を特定したり、ラインや製品の異常を検知したり、或いは予防保全として、故障の予兆を検知することも可能になります。
このようにデータをビジネスに活用する会社と、データを活用できない会社があるとすれば、将来どちらが伸びていくでしょう。
答えは無論、前者のデータをビジネスに活用する会社ですね。
2019年3月において、今は全体の15%程度しか、まだデータをビジネスに活用できていません。
だから、まだ間に合うんです。
データ分析を前提として、どのような情報を現場から入力してもらったら良いか、入力されたデータの品質をどのように担保すればよいかを真剣に検討し、データのライフサイクルをマネジメントできる環境や組織を作り上げ、さらにそれを維持し続けることが、最も必要です。
データの蓄積は年単位の仕事です。
今初めても、それが活用できるまでには年単位の歳月が必要です。
種を巻いて実るまでの期間は、どこの企業でも同じくらい掛かるので、同業他社が追い付くのも年単位なので、そうすぐには追いつけません。
裏を返せば、もし自社が出遅れた場合、追いつくまでに年単位の歳月が必要だということです。
今一度データの重要さを認識して、データマネージメントへの取り組みを考えてみてはいかがでしょうか。
コメント