2024年8月5日(火)の最新AIニュース、OpenAIが発表した新モデル「gpt-oss」についてです。今回の最新AIニュース、ポイントは以下の通りです。
この記事のポイントは?
- OpenAIは2025年8月5日(火)、2つの新しいオープンウェイト言語モデル「gpt-oss-120b」と「gpt-oss-20b」のリリースを発表。
- これらのモデルはApache 2.0ライセンスで利用可能で、推論タスクにおいて同規模のオープンモデルを上回る性能を発揮。
- gpt-oss-120bは、単一のGPUでOpenAI o4-miniに匹敵する性能を、gpt-oss-20bはエッジデバイスでo3‑miniと同様の結果を達成。
- 思考の連鎖(CoT)やツール使用に優れており、Responses APIと互換性あり。
- 安全性にも重点が置かれ、専門家によるレビューや、新たな安全性の問題を特定するための50万ドルの賞金付きチャレンジも開催。
OpenAIから新オープンウェイトモデル「gpt-oss」が登場
2025年8月5日(火)、OpenAIは、2つの最先端オープンウェイト言語モデル「gpt-oss-120b」と「gpt-oss-20b」をリリースしたことを発表しました。
これらのモデルは、GPT-2以来となるOpenAIのオープンウェイト言語モデルであり、Apache 2.0ライセンスの下でHugging Faceから無料でダウンロードできます。
低コストでありながら強力なパフォーマンスを実現し、一般的に普及しているハードウェア上での効率的な展開のために最適化されています。
gpt-ossの性能と技術的特徴
gpt-ossモデルは、推論、効率性、そして実世界での使いやすさに重点を置いて開発されました。
各モデルは、アクティブなパラメータ数を削減するmixture-of-experts(MoE)アーキテクチャを採用しています。
gpt-oss-120bは、合計1170億パラメータを持ち、単一の80GB GPUで効率的に動作しながら、主要な推論ベンチマークでOpenAIの独自モデル「o4-mini」に匹敵する結果を達成します。
一方、gpt-oss-20bは、合計210億パラメータを持ち、わずか16GBのメモリを搭載したエッジデバイスで実行可能です。
これにより、デバイス上でのローカル推論や、大規模なインフラなしでの迅速な開発が可能になります。
本モデルは、一般的なベンチマークで「o3‑mini」と同様の結果を出しています。
両モデルともに最大128kのコンテキスト長をサポートし、ツール使用、関数呼び出し、思考の連鎖(CoT)推論において優れた性能を発揮します。
安全性とエコシステムへの貢献
OpenAIは、オープンモデルにおける安全性を特に重視しています。
gpt-ossモデルは、化学・生物・放射線・核(CBRN)に関連する有害なデータを除外して事前学習が行われました。
さらに、悪意のある目的でモデルがファインチューニングされるリスクを評価するため、専門性の高いデータで意図的にモデルを再調整し、高い能力レベルには到達しないことを確認しています。
また、より安全なオープンソースエコシステムに貢献するため、新たな安全性の問題を特定することを奨励する賞金50万ドルの「Red Teaming Challenge」の開催も発表されました。
パートナー企業との協力と今後の展望
OpenAIは、AI Sweden、Orange、Snowflakeなどの初期パートナーと協力し、オープンモデルの実際の応用方法について学んでいることも明らかにしました。
これには、データセキュリティのためのオンプレミスでのホスティングや、特殊なデータセットでのファインチューニングなどが含まれます。
最高クラスのオープンモデルを提供することで、開発者から大企業、政府機関まで、誰もが独自のインフラでAIを実行し、カスタマイズできるようになることが期待されます。
※この記事の作成の一部にはAIが活用されています。より正確な情報収集のためにご自身でも調査し、情報の取捨選択をすることを推奨いたします。
\AIの導入・開発・相談なら【クラベルAI】に相談しよう!/