Google Cloud、MLプラットフォーム「Vertex AI」で生成AIアプリを構築可能に:「過去最大のアップデート」と位置付け
Google Cloudは、機械学習プラットフォーム「Vertex AI」におけるジェネレーティブAIサポートの一般提供を開始し、顧客がカスタムジェネレーティブAIアプリケーションを構築、強化するためにGoogle Cloudの最新プラットフォーム機能にアクセスできるようにした。
Google Cloudは2023年6月8日(米国時間)、機械学習(ML)プラットフォーム「Vertex AI」におけるジェネレーティブAI(生成AI)サポートの一般提供を開始し、顧客がカスタムジェネレーティブAIアプリケーションを構築、強化するために、Google Cloudの最新プラットフォーム機能にアクセスできるようにしたと発表した。
ジェネレーティブAIは、新しいテキスト、画像、コード、動画、音声などを生成するAIや、これらを組み合わせて生成するAIを指す。Vertex AIでは、MLモデルやAIアプリケーションのトレーニングやデプロイ(展開)ができ、モデルの構築、デプロイ、スケーリングを高速化することが可能だ。
Vertex AIでのジェネレーティブAIサポートは、2023年3月に発表されており、Google Cloudは、このMLプラットフォームの過去最大のアップデートと位置付けている。2023年5月にはさまざまな関連機能も発表している。
開発者はこのアップデートにより、Google Cloudの「PaLM 2」ベースのテキストモデル、テキスト用「Embeddings API」「Model Garden」の他の基盤モデルにアクセスできるようになり、「Generative AI Studio」のツールを利用して、モデルのチューニングやデプロイができるようになった。
最新のプラットフォーム機能
一般提供が開始されたこれらのプラットフォーム機能の概要は以下の通り。
- PaLM 2:2023年5月に発表された、多言語、推論、コーディング機能を向上させたGoogleの次世代言語モデル
- テキスト用Embeddings API:テキストのセマンティックな理解に基づいて、高度なアプリケーション(レコメンデーションエンジン、分類機能、質問回答システムなど)の構築を支援するAPI
- Model Garden:GoogleやGoogleパートナーのさまざまなエンタープライズ向け基盤モデル、タスク固有のモデル、APIを提供する。これらを1カ所で検索、検出、操作し、MLプロジェクトの効率化に役立てることができる
- Generative AI Studio:基盤モデルの操作、調整、本番環境へのデプロイを容易にするVertex AIのマネージド環境
また、5月に発表された基盤モデルの一つである「Codey」も、パブリックプレビューが開始されている。Codeyは、テキストからコードを生成する基盤モデルであり、コード補完、生成、チャットなどに利用できる。
Vertex AIの包括的なエコシステム
Vertex AIは、こうした基盤モデルやプラットフォーム機能とともに、本番環境でモデルをチューニング、デプロイ、管理するためのツールの完全なエコシステムを提供している。例えば、2023年5月には、モデルの有用性の向上とコスト削減を支援するRLHF(Reinforcement Learning with Human Feedback)を提供する最初のエンタープライズMLプラットフォームとなった。
またGoogle Cloudは、大規模モデルを扱う顧客向けに、モデルの開発とメンテナンス用のVertex AIのMLOpsツールスイートもアップグレードした。
「エンタープライズグレードのデータガバナンス、セキュリティ、安全性を提供する機能に支えられたVertex AIによって、顧客はこれまでよりも簡単に基盤モデルにアクセスし、それらを自社データでカスタマイズし、迅速にジェネレーティブAIアプリケーションを構築できる」と、Google Cloudは述べている。
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
Google Cloud、生成AI活用を支援する「Vertex AI」の強化と「Generative AI App Builder」を発表
Google Cloudは、生成AIアプリケーションを簡単に構築できるツールを求める企業のニーズに応え、Google Cloudの機械学習プラットフォーム「Vertex AI」での生成AIサポートと、新ツール「Generative AI App Builder」を発表した。Google、生成AI、大規模言語モデル(LLM)の構築に特化したスパコン「A3」を発表
Googleは「Google I/O」で、AIのトレーニングに特化したスーパーコンピュータ「A3」を発表した。A3のスループットは従来の3倍に進歩し、A3が活用できるネットワーク帯域幅はA2の10倍に向上しているという。Google、MLハードウェアとフレームワークの統合を簡素化する「PJRT」を発表
Googleは、オープンソースの機械学習(ML)コンパイラエコシステム「OpenXLA」プロジェクトの一部として、「PJRT」をオープンソースとして公開した。PJRTは、MLハードウェアやMLフレームワークに依存しないMLコンパイラインタフェースやMLランタイムインタフェースを提供する。