第1回 ビッグデータという時代観:【連載】ビッグデータという未来(1/2 ページ)
「ITmedia マーケティング」にはビッグデータをテーマとしたコラムがいくつかある。ユラス 代表取締役 井浦知久氏が執筆するこの寄稿記事は、しかし、ビッグデータが人類に及ぼす影響までを視野に入れたスケールの大きさで、ほかの寄稿記事と毛色を異にする。
珍妙なバズワード
「巨大データ」なる珍妙なバズワードが、しばらく前から時代を席巻しています。世界中のありとあらゆる情報ソースからインターネットを通じてかき集められたデータが、集計/分析され、あるいはマイニングの対象となっています。
一説には100テラバイトを超えるデータボリュームを持つものがビッグデータなのだそうですが、実際には規模に関わらず、従来ほとんど関心を払われてこなかったような多種多様なデータ、例えば、SNSに流れるつぶやきや、センサー機器の信号などから価値のある情報を掘り起こすような技術を総称しています。
IT専門の調査会社IDCによれば、企業が取り組むべき情報の量は、2年で2倍の規模で膨れ上がっているのだそうです。2年で2倍と言えば、奇しくもムーアの法則で有名なコンピュータのICチップの性能向上率と同じですが、データの場合は量が2倍になると、分析する要素の掛け合わせは2倍ではなく、一般には2乗(指数関数的に増大)となるので、コンピュータの性能向上ではとうてい追いつきません。
そこで、データの格納にオーバーヘッド(処理の負荷)の大きいリレーショナルデータベースを使うのを止めて、できるだけ素に近いデータをシンプルに格納して大規模に分散処理する技術が発明されました。オープンソースのHadoop(ハドゥープ)がその代表です。
サーバの性能を上げる代わりにサーバをスケールアウト(台数追加)し、並列に処理することで量の問題を解決しています。その結果、インターネットの大手企業は、いまや世界の至る所にデータセンターを建造するようになりました。気が遠くなる数のサーバを連携させることで、データ量の急増に対処しているのです。
Copyright © ITmedia, Inc. All Rights Reserved.