ヴェルクでは事業の一つにデータ分析ソリューションを据えており、2年ほど前から様々な業種のお客様に対してデータ分析の支援を行っています。
これから数回に分けてヴェルクが推進しているデータ分析の現状やそれを支えるITのお話をしていけたらと思います。極力前提知識を必要としない読みやすい内容を心がけていきたいと思っていますのでお付き合いいただけると嬉しく思います。

初回はよくお客様から尋ねられることの多い質問の一つである「なぜシステム開発会社であるヴェルクがデータ分析のビジネスを始めたのか」について触れようと思います。
そのためにまずはデータ分析を取り巻く大きな環境の変化についてお話から始めます。

「高嶺の花」だった大量データ分析


私もかつては大企業の基幹システムや情報系システムの設計構築に携わるエンジニアで、基幹系だけでなく情報系(データ分析関連)のシステム案件にも関わっていました。Excelに収まる位のデータ量であればシステム開発の必要は無いのですが、分析対象のデータ量が大量であればそうはいきません。大規模なサーバ・ストレージや専門性の高いBIツールの導入が必要で、当然の事ながらコストも時間も膨大にかかります。大量データ分析は多大な先行投資を伴う(言い換えればリスクの高い)業務だったのです。


必然的にこれを推進できる会社は資金や人材などの経営リソースに余裕のある企業に限定されます。2000年代初頭まで多かれ少なかれ企業における大量データ分析は「高嶺の花」のような存在だったように思います。
(分析に関しては「本当に高嶺に登れば綺麗な花が咲いているのか?」という議論もありますが、これは別の機会に書こうと思います) 

クラウドの登場

そんな中、ITの世界では新技術やサービスが幾つか登場してきます。近年で一番大きなものはやはりパブリッククラウドの登場と企業への普及でしょう。
Amazon Web Services(AWS)が日本でサービスを開始したのが2011年3月。当初はインターネット系など先進技術の利用に積極的な一部の企業が多く利用している印象でしたが、彼らが切り開いた「サーバを使った分だけ利用料を支払う」という新しいスタイルは今日では企業規模や業種を問わず情報システムのあり方を変えつつあります。

分散処理技術をクラウド環境で利用することにより(例:Amazon Redshift, Google BigQueryなど)、大量データ分析を支えるインフラの敷居も大きく下がりました。我々ヴェルクもこのトレンドに着目し、受託開発案件の一分野としてクラウドを活用した大量データ分析システムの構築を行うようになりました。

日本に上陸して間もないクラウドを使って大量データを分析するシステムを構築するという事は技術的な難易度も決して低くはありません。ただ、技術を売りにする会社としてはとてもやりがいのあるチャレンジで、技術への純粋な好奇心を糧にして試行錯誤を繰り返しながら開発実績を積み重ねていきました。

システム開発の領域から分析業務の支援への踏み出し

クラウド上での大量データ分析システムを設計、構築していく中で分析業務そのものに対する相談やアドバイスを求められる場面が増えてきました。本来、システムと業務は切り離せないものですし、切り離すべきではありません。ただし分析に関しては専門知識だけではなくお客様ごとの業務や特性を熟知する必要があるため、我々がシステム構築だけでなく分析業務そのものも支援するという決断をするのはそれなりに勇気のいる事でした。

AWSをはじめとしたパブリッククラウドによりシステムインフラの設計構築の生産性が上がり、そこで生まれた余剰時間を分析業務のキャッチアップに回していくという事を徐々に推進していった結果、今では複数の業種業態のお客様に対してシステムだけではなく分析業務の支援や「何をどう分析すれば良いのか」というようなコンサルティングも提供しています。

次回以降のテーマ(予告)

このブログでは今後「データの可視化が組織に与える影響」「データ分析で絶対にやってはいけないこと」「分析を文化として定着させるためのポイント」「大量データ分析で注目すべき技術・サービス」などのテーマについて書いていきたいと思います。
生々しい現場の話などもできたらと思っていますので是非お付き合いください。

このエントリーをはてなブックマークに追加