検索
ニュース

国産LLM「tsuzumi 2」提供開始 他社モデルをベースとせず、フルスクラッチで一から開発する理由高性能と軽量化を両立

NTTは国産LLM「tsuzumi 2」の提供を開始した。超大規模モデルに匹敵する日本語性能と、1GPUでも動作可能な軽量化を両立させたという。

Share
Tweet
LINE
Hatena

 NTTは2025年10月20日、高性能な日本語処理能力を持つ国産LLM(大規模言語モデル)「tsuzumi 2」の提供を開始した。

 tsuzumi 2は、2023年に同社が発表したLLM「tsuzumi」の次世代モデルだ。tsuzumi 2では、企業や自治体が保有する複雑なドキュメントに対する理解力や専門知識への対応力を向上させているという。

 NTTは、tsuzumi 2の特徴について次のように説明している。

tsuzumi 2の4つの特徴

超大規模モデルに匹敵する日本語性能を実現

 30B(300億)パラメーターのtsuzumi 2の日本語性能は、「gpt-oss-120b」(1200億パラメーター)や「Llama 3.3 70B」(700億パラメーター)といった超大規模モデルに匹敵する性能を実現しているという。

 NTTが実施した公開ベンチマークを用いた評価によると、ビジネス領域で重視される「知識」「解析」「指示遂行」「安全性」の4項目において、超大規模モデルに匹敵するスコアを記録したという。

日本語性能の評価と評価条件(提供:NTT)
日本語性能の評価と評価条件(提供:NTT)

企業や業界に特化したモデル開発効率の向上

 企業でのユースケースとして注目されているRAG(検索拡張生成)やファインチューニングによる企業、業界特化型モデルの開発効率が向上している。tsuzumi 2は、金融、医療、公共分野の知識をあらかじめ強化しており、これらの分野で高い性能を発揮するという。

 NTT社内の財務システムに関する問い合わせ対応業務にRAGを活用した評価では、tsuzumi 2は「GPT-5」など大規模モデルと同等の性能を確認したという。

RAGユースケースにおけるtsuzumi 2の性能評価(提供:NTT)
RAGユースケースにおけるtsuzumi 2の性能評価(提供:NTT)

1GPUで動作可能

 tsuzumi 2は40GB以下のメモリを保有したGPU1基での動作を想定して開発されている。これにより、API利用料の増大を懸念する高頻度利用のユースケースや、機微情報を扱うためのオンプレミス環境構築において、運用コストを抑えることができるという。

フルスクラッチ開発による信頼性確保

 LLMの開発を巡っては、ニューヨーク・タイムズが同社の記事を無断で学習データに利用し著作権を侵害したとしてOpenAIやMicrosoftを提訴するなど、モデル開発過程の信頼性が厳しく問われつつあり、国内でも議論が活発化している。

 NTTは「こうした問題を指摘されたモデルを使い続けることは利用者側も責任を問われかねない」と指摘。そこで、tsuzumi 2は他社のモデルをベースとせず、NTTが一からフルスクラッチ開発しているという。

 「学習データを管理することにより、データの権利、品質、バイアスの制御が可能となる。モデルの信頼性を確保する上で極めて重要だ」と、NTTは述べている。


 学習データの偏りがバイアスをもたらし、LLMの出力結果に悪影響を及ぼすリスクは、AI利用企業のコンプライアンスリスクにも直結する。生成AIの社会実装が進む今、モデルの性能面だけではなく、信頼性やリスク管理の観点もモデルを選定する上で重要な要素となるだろう。

Copyright © ITmedia, Inc. All Rights Reserved.