「市場ニーズよりも早く、答えにたどり着く必要がある。そのためにはデータドリブンでなければならない」(清水氏)
アサヒグループではPOS基盤を整備してきており、新システムではこれに基づくデータ分析を実現して、現場でやってきた内容の可視化を推進した。これにより、スピーディーでバリエーションに富んだ棚割り提案が可能になったという。データの活用という点では、外部のデータを援用することで、さらに精度を高めることもできる。
新システムは一枚岩の巨大なシステムではなく、マイクロサービスアーキテクチャに基づくものであるため、機能の拡張・追加が容易で、実際に「どんどん作り替えている」(清水氏)という。
このシステムは前述の通り、GCPとAzureで動いている。
データウェアハウスにはGCP上の「Google BigQuery」を採用。これは“データウェアハウスSaaS”ともいえ、チューニングなしに性能を維持できて、処理負荷の増減にも自動的に対応する点が気に入っているという。アサヒでは50〜60TB程度のデータを蓄積、週次で分析用にバッチ処理している。
コンテナプラットフォームとしては、「Google Kubernetes Engine(GKE)」を使い、コンテナ運用を自動化している。また、データワークフロー構築ツールとして、「Google Cloud Composer」を使っているという。
一方、Azure上では「Azure Cosmos DB」「Azure SQL DB」を使い、ユーザー向けのWebアプリケーションを動かしている。
清水氏は、同システムにおけるパブリッククラウドの利用について、「インフラ運用がほぼゼロになった」「50〜60TBといった大量のデータを扱うのは、オンプレミスでは無理」と評価する。だが、同氏が新システムにおける最大の成果として強調したのは、マイクロサービス化のメリットだ。
「新システムは、おそらく従来型のプロジェクトよりコストが高い。だが、“昭和100年”を迎えようとする今、COBOLベースの基幹システムに基づく、誰も触れないようなシステムを作る必要があるのか。止めてはいけないシステムを止めることなしに、やりたいことをどんどん組み込んでいけるシステムが求められていると思う」
Copyright © ITmedia, Inc. All Rights Reserved.