バスワード化するビッグデータ
最近、「ビッグデータ」という言葉をよく耳にするようになってきましたが、ビッグデータはどれほど素晴らしいものなのでしょうか。ビッグデータに関わる人間としては「ビッグデータ」という言葉がもてはやされるこの状況を手放しでは喜べない実態があります。なぜなら、言葉だけが独り歩きしており本質的な理解が追いついていないように感じるからです。
それを証明するように、米Gartner社がグローバルIT市場における2012年以降のトレンド予測として発表したレポート「Gartner Predicts 2012」にも次のような衝撃的な一文が記載されています。
「2015年までを通じ、Fortune 500企業の85%以上が、ビッグデータを競合優位性確保のために効果的に活用することに失敗する」
ビッグデータ普及の背景
ところで、「ビッグデータ」はいつごろから、どうして注目されるようになったのでしょうか。
この10数年、IT技術の進歩により、データの蓄積や高速な処理が可能になってきました。1997年がインターネット元年といわれており、それが広く普及したのは2000年頃からです。以来、インターネットはマーケティングに大きな影響を持つようになりました。
消費の場もリアルの店舗だけでなく、Webまで広がっています。消費者は自ら能動的に情報を取得し、取捨選択を行っています。では、Webの世界でどれだけ多くの情報がやり取りされているのか、その一例を数値で確認してみましょう。
インターネットの利用者数は2012年時点では、世界で22億7千万人と言われており、1秒間に8人のインターネットユーザーが誕生している計算になります。また、ツイッター、フェイスブックと言ったソーシャルメディアの躍進、スマートフォンの普及により、消費者自らがリアルタイムに自分の考えや行動を情報発信するようになってきました。
『GIZMODE』によると、Googleでは1分間に約70万件の検索が行われていて、ツイッターでは1分間に320のアカウント開設、9万8,000件のツイートが投稿されています。また、フェイスブックでは1分間に7万9,364件のウォールへの投稿、iPhoneアプリは1分間に1万3,000件ダウンロードされているようです。(出典:ウェブの世界では60秒で何が起きてる?,GIZMODE)
このように現在では、企業と消費者、双方での情報取得、情報発信が活発に行われ、その結果、マシンtoマシンの通信データが指数的に増加している状況なのです。
しかし量が多いということは実は扱いにくいということにもつながっています。データ量が増加するにつれ「どのような情報をどう集めて、どう読むか?」という分析が重要となってきているのです。