検索
ニュース

OpenAIのオープンウェイトリーズニングモデル「gpt-oss-120b」「gpt-oss-20b」の違いは? どう使い分ければよいのかMicrosoftとの連携でWindows環境にも対応

OpenAIは、強力なリーズニング、エージェントタスク、多様な開発者向けユースケースに対応するオープンウェイト言語モデルである「gpt-oss-120b」および「gpt-oss-20b」をリリースした。

Share
Tweet
LINE
Hatena

 OpenAIは2025年8月5日(米国時間)、強力なリーズニング、エージェントタスク、多様な開発者向けユースケースに対応するオープンウェイト言語モデル「gpt-oss」シリーズの「gpt-oss-120b」および「gpt-oss-20b」をリリースした。ここでいうオープンウェイトとは「学習済みモデルの重みパラメーターを公開している」という意味だ。


リリース

両モデルはどう使い分ける?

 両モデルは実験、カスタマイズ、商用デプロイに適した「Apache 2.0ライセンス」で利用できる。リーズニングタスクにおいて、同規模のオープンモデルよりも優れたパフォーマンスを発揮し、強力なツール使用機能を備えており、広く利用されるハードウェア上での効率的な展開のために最適化されている。

 また、強化学習や「o3」などのフロンティアシステムを含むOpenAIの最先端モデルに基づく手法を組み合わせて学習している。

gpt-oss-120b

 高度なリーズニングを必要とする汎用(はんよう)的な本番ユースケース向け。「NVIDIA H100」や「AMD MI300X」のような80GBのGPUメモリ1枚で効率的に稼働する。コアリーズニングベンチマークでは「OpenAI o4-mini」とほぼ同等の結果を達成している。パラメーター数は合計で117B(Billion parameters)で、トークン当たりのアクティブパラメーター数は5.1Bとなっている。

gpt-oss-20b

 より低レイテンシのローカル環境または特殊なユースケース向け。一般的なベンチマークでは「OpenAI o3-mini」と同等の結果を出しており、16GBのメモリを搭載したエッジデバイスで実行可能となっている。パラメーター数は合計で21Bで、トークン当たりのアクティブパラメーター数は3.6B。

モデル レイヤー パラメーター合計 トークン当たりのアクティブパラメーター数 エキスパート合計 トークン当たりのアクティブエキスパート数 コンテキスト長
gpt-oss-120b 36 117B 5.1B 128 4 128k
gpt-oss-20b 24 21B 3.6B 32 4 128k

 gpt-oss-120bとgpt-oss-20bのウェイトは、いずれもHugging Faceから無料でダウンロードできる。

両モデルの特徴

 OpenAIは、両モデル共通の特徴として、以下を挙げている。

構成可能なリーズニング

 ユースケースやレイテンシニーズに応じて、リーズニングレベル(低、中、高)を簡単に調整できる。

完全な思考の連鎖(CoT:Chain of Thought)

 AIモデルが問題を解く際に自分の思考過程を段階的に表現しながら、論理的に理由付けをする仕組みを採用している。デバッグの簡素化や、出力への信頼向上に役立つ。一方、内部の思考過程が必ずしもユーザーにとって分かりやすい表現とは限らず、安全性やプライバシーの問題もあるため、エンドユーザーへの表示は意図されていない。

ファインチューニングが可能

 パラメーターをファインチューニングすることで、ユースケースに最適化できる。

エージェント機能

 関数呼び出し、Webブラウジング、「Python」コード実行、構造化出力(Structured Outputs)に対応したネイティブ機能を利用できる。

MXFP4量子化

 MoE(専門家混合モデル)のウェイトを「MXFP4」形式で量子化し、モデルのサイズを小さくしつつ効率的に動作できるように事後トレーニングされている。



 両モデルは、OpenAI独自の「ハーモニーレスポンス形式」でトレーニングされており、この形式でのみ使用すべきとされている。OpenAIは、導入を容易にするために、ハーモニーレスポンス形式に対応するためのツール「ハーモニーレンダラー」をPythonと「Rust」の両方で開発し、オープンソース化するとしている。

 また、OpenAIによると、Microsoftは、gpt-oss-20bモデルのGPUに最適化されたバージョンをWindowsデバイスで利用できるようにするという。このバージョンは「ONNX Runtime」という技術を使っており、ローカル環境でも効率的な推論が可能だ。これらのモデルは「Foundry Local」や「Visual Studio Code」のAIツールキットからも利用できる。

Copyright © ITmedia, Inc. All Rights Reserved.