NVIDIA、日本語特化型のフルスクラッチ大言語モデルを提供開始:1000億パラメーターのLLMを簡単に利用可能に
NVIDIAは、ストックマークが開発した1000億パラメーターの日本語大規模言語モデルを「NVIDIA NIMマイクロサービス」として提供開始した。
NVIDIAは2025年9月25日、1000億パラメーターを持つ日本語大規模言語モデル(LLM)「Stockmark-2-100B-Instruct」(以下、Stockmark-2)の提供を開始した。AI(人工知能)運用に最適化されたマイクロサービス群「NVIDIA NIMマイクロサービス」で利用できる。
日本のビジネス環境を基にフルスクラッチ開発
一般的に1000億パラメータークラスのLLMは、推論やリーズニング、ファインチューンに高性能なGPU環境が必要となるため導入コストがかかり、ユーザー数が増えるとレスポンスの遅延やシステム負荷の問題も発生する。また、AIモデルの環境構築や最適化、API化には高度な専門知識が必要になる。
NVIDIAはこうした課題を解決し、開発者が簡単に生成AIモデルを構築できるようにするため、LLMをマイクロサービスとして提供する。マイクロサービスのため、クラウド、データセンター、GPU対応ワークステーションなど、場所を問わず利用できるため、同社は「開発したAIを市場投入するまでの時間を短縮する」としている。
Stockmark-2の開発元であるストックマークは、多くの日本企業への導入実績を持ち、産業技術総合研究所や東北大学、理化学研究所などとの産学連携による自然言語処理基盤の技術開発も推進している。Stockmark-2はフルスクラッチで開発されており、膨大な日本語のビジネス文書や会話文をトレーニングデータとして活用している。NVIDIAは「単なる言語モデルではなく、厳密性と専門性が求められるビジネス領域で高精度な性能を発揮し、日本のビジネス環境に最適化された独自のAI基盤モデルを構築できた」としている。
このニュースのポイント
Q: NVIDIAが提供開始したものは?
A: ストックマークが開発した日本語特化の1000億パラメーターLLM「Stockmark-2-100B-Instruct」を「NVIDIA NIMマイクロサービス」として提供。
Q: マイクロサービス提供の狙いは?
A: 高性能GPUや専門知識が必要なLLM導入の課題を解消し、クラウド、データセンター、GPUワークステーションなど場所を問わず容易に利用可能にすることで、AIの市場投入を加速させる。
Q: モデル開発の特徴は?
A: 日本語のビジネス文書や会話文を大規模に学習したフルスクラッチのLLMで、厳密性、専門性が求められる日本のビジネス環境に最適化されている。
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
さくらインターネット、API一つでLLMの推論やRAGを実行する「さくらのAI Engine」提供開始
さくらインターネットは、高性能GPUと国内データセンターを活用した推論API基盤「さくらのAI Engine」の一般提供を開始した。国内外の複数のオープンウェイトモデルやRAGの機能をAPI経由で提供し、AIを活用したアプリケーションの組み込みを支援する。対話型AI市場が急成長、2025年度は前年比45.7%増加の見込み ITR調査
ITRは、国内の対話型AIエンジン/デジタルヒューマン市場についての調査結果を発表した。2024年度の市場規模は12億9000万円に達し、2023年度比で46.9%増となった。生成AIのリスクを特定する「LLM脆弱性診断サービス」をEGセキュアソリューションズが提供開始
EGセキュアソリューションズは、大規模言語モデルの脆弱性を診断できるサービスを発表した。