Docker、生成AIアプリの開発環境構築を容易にする「GenAI Stack」を発表:「Neo4j」「LangChain」「Ollama」とともに発表
Dockerは「GenAI Stack」を発表した。生成AIによるアプリケーション開発に必要な開発環境が、Dockerコンテナを通じて連携可能な状態で提供されるものだ。「GenAI Stack」の概要や入手方法などを紹介する。
Dockerは2023年10月3日から10月5日に開催されたDockerCon 2023で、「Neo4j」「LangChain」「Ollama」とともに「GenAI Stack」を発表した。
GenAI Stackは、Dockerおよび生成AI(GenAI)分野の先端技術を結集したもので、開発者はわずか数クリックでGenAI Stackをデプロイし、生成AIを活用したアプリケーションを開発、構築できるという。
GenAI Stackの特徴は
GenAI Stackを利用することで、AI/機械学習(ML)モデルの統合を簡素化し、生成AI技術を容易に利用できる。Ollama、Neo4jなど生成AIによるアプリケーション開発に必要な開発環境が、Dockerコンテナで連携可能な状態で提供される。
GenAI Stackには、以下の機能が含まれている。
設定済みの大規模言語モデル(LLM)
Llama 2、GPT-3.5、GPT-4などの大規模言語モデル(LLM:Large Language Models)を設定済みで提供する。
OllamaによるLLMの実行、管理
LLMの実行ツールであるOllamaにより、オープンソースLLMのローカル管理が簡素化され、AI開発プロセスをスムーズにする。
Neo4jでベクトル検索やナレッジグラフに対応
グラフ指向のデータベースであるNeo4jを組み込み、ベクトル検索機能を提供する。これにより、データのパターンや関係性が明らかになり、AI/MLモデルのスピードと精度の向上が期待できるという。また、Neo4jはAIの実装における長期記憶としても機能する。Neo4jのナレッジグラフ機能により、正確な予測と結果を生み出すことが可能になるとしている。
LangChainによるオーケストレーション
LangChainは、堅牢(けんろう)なベクトルインデックスとともに、LLM、アプリケーション、データベース間の通信を容易にする。LLMを搭載したアプリケーションを開発するためのフレームワークとしても機能する。LangChainには、LLMアプリケーションのデバッグ、テスト、評価、監視するツールであるLangSmithが含まれている。
包括的なサポート
GenAI Stackの使用をサポートするために、Dockerはさまざまなツール、コードテンプレート、ハウツーガイド、GenAI Stackのベストプラクティスを提供する予定だ。これらのリソースにより、必要なガイダンスを確実に得ることができるだろう。
GenAI Stackは現在早期アクセスで利用可能であり、Docker DesktopラーニングセンターまたはGitHubから入手できる。
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
「生成AI」と「ローコード/ノーコード開発ツール」は相性が良い? 日立ソリューションズが導入支援サービスを提供開始
日立ソリューションズは、「Azure OpenAI Serviceを活用したMicrosoft Power Platformに関する導入支援サービス」を提供する。ローコードアプリケーション開発を使って自社業務に適した生成AIの活用を支援する。直近6カ月で生成AIを使う企業が急増 55%が試験運用または本番運用:Gartner調査
経営幹部1400人以上に対するGartnerの調査によると、45%が生成AIの試験運用を行っていると回答し、10%が生成AIの本番運用を行っていると回答した。Docker、「Docker Desktop」のバージョン4.23を発表 クイック検索の改善、Mac向けパフォーマンスの強化など
Dockerは「Docker Desktop」バージョン4.23のリリースを発表した。