2025年07月9日(水)の最新AIニュース、xAIが発表したGrok 4についてです。今回の最新AIニュース、ポイントは以下の通りです。
この記事のポイントは?
- xAIが最新の大規模言語モデル「Grok 4」と、さらに高性能な「Grok 4 Heavy」を発表。
- 最上位モデル「Grok 4 Heavy」は、専門知識や数学などの主要ベンチマークで高い性能を実証。
- テキストに加え、画像、図表、リアルタイムでシーンを解析するマルチモーダル能力を搭載。
- 最大256,000トークンの広大なコンテキストウィンドウを持ち、長文の情報を正確に処理可能。
- Grok 4はSuperGrokおよびPremium+加入者向けに提供され、Grok 4 Heavyは新プランで利用可能。
目次
xAIが次世代AI「Grok 4」シリーズを正式発表
2025年7月9日(水)、イーロン・マスク氏が率いるxAIは、同社の最新大規模言語モデル(LLM)である「Grok 4」を発表しました。あわせて、さらに性能を高めた最上位モデル「Grok 4 Heavy」も公開されています。xAIはこれらのモデルを、汎用人工知能(AGI)の実現に向けた重要なステップと位置づけており、推論能力と問題解決能力が大幅に向上していると説明しています。
Grok 4 Heavyの高い性能:主要ベンチマークの結果
Grok4シリーズの中でも、上位モデルであるGrok 4 Heavyは、特に数学や推論の分野で高い性能を示しています。主要な学術ベンチマーク(性能評価指標)において、Grok 4 Heavyは以下のようなスコアを達成したと報告されています。
Humanity's Last Exam (HLE): 専門知識の深さを測るこのテストで、Grok 4 Heavyはテキストのみのサブセットで50.7%の正答率を記録しました。
数学ベンチマーク (USAMO): 米国数学オリンピック(USAMO)レベルの非常に難易度の高い問題において、61.9%のスコアを出しました。
これらの数値は、Grok 4 Heavyが複雑な問題を論理的に分析し、解決策を導き出す高度な能力を持つことを示唆しています。
Grok 4の革新的な機能:マルチモーダルと広大なコンテキスト
Grok 4はテキスト情報だけでなく、より多様な情報を扱えるように設計されています。これは「マルチモーダル」と呼ばれ、Grok 4の重要な特徴の一つです。
リアルワールドの空間理解
Grok 4は、テキストに加えて画像、図表など、リアルタイムでシーンを解析する能力を持っています。例えば、スマートフォンのカメラを介して目の前の光景をリアルタイムで分析し、音声で対話しながら洞察を提供することが可能です。
最大256,000トークンのコンテキストウィンドウ
Grok 4は、一度に処理できる情報量(コンテキストウィンドウ)が最大256,000トークンに及びます。これは一般的な書籍数冊分に相当する情報量であり、長大な文書や複雑な会話の文脈を維持したまま、一貫性のある応答を生成できます。この能力は、長大なソースコードの分析や、詳細な研究論文の読解といったタスクでの活用が期待されます。
Grok4の利用方法と今後の展開
Grok 4は、X(旧Twitter)の有料サブスクリプションプランである「SuperGrok」および「Premium+」のユーザー向けに提供が開始されています。より高性能なGrok 4 Heavyは、APIアクセスを含む新しいプランを通じて利用可能です。
xAIは、今後もマルチモーダル能力の向上や、より複雑な実世界の問題に適応できる学習メカニズムの開発を続けるとしており、Grok 4シリーズの登場は、AIの応用範囲をさらに広げるものと期待されます。
※この記事の作成の一部にはAIが活用されています。より正確な情報収集のためにご自身でも調査し、情報の取捨選択をすることを推奨いたします。
\AIの導入・開発・相談なら【クラベルAI】に相談しよう!/