Llama 4 ScoutとLlama 4 Mavericが今すぐ利用可能に。Scoutはコンシューマー向けGPU1枚で動作。Maverickは推論タスクでGPT-5.4 miniを上回るベンチマーク結果を記録。両モデルとも無料でダウンロード可能。
Metaは日曜日にLlama 4をリリースし、AIコミュニティは流出した法廷文書に対するような法医学的な強度でこれを解析し続けている。2つのモデルバリアントが同時に公開された。ローカル展開向けに最適化された170億パラメーターモデルのLlama 4 Scoutと、エンタープライズワークロード向けに設計された4000億パラメーターの混合エキスパート(MoE)モデルのLlama 4 Maverickだ。両モデルともMetaのオープンユースライセンスのもと無料でダウンロード可能で、月間アクティブユーザーが7億人未満の組織への商用展開が許可されている——この閾値は、Meta自身とごく一部の大手テック企業を除くほぼすべての組織を対象外とする。
Scoutの目玉は、24GBのVRAMを搭載したNvidia RTX 4090またはそれと同等のコンシューマー向けGPU1枚で動作することだ。これは開発者たちが待ち望んでいた閾値だった。個人の開発者や小規模チームが、クラウド推論コストを払うことなく、誰かのサーバーにデータを送ることなく、完全に自分自身のハードウェアで動かせる本当に有能なモデルの登場だ。開発者フォーラムで出回っている初期ベンチマークでは、Scoutは標準的なコーディングと推論タスクでGPT-5.4 miniおよびGemini 2.0 Flashと同等のスコアを記録し、構造化データ抽出では両者をわずかに上回っている。
Maverickは別格の存在だ。4000億というパラメーター数は大きく聞こえるが、混合エキスパートアーキテクチャにより、推論の各パスで有効になるパラメーターはその一部——約170億で、これはScoutの総サイズとほぼ同等だ。実用的な結果として、Maverickはクエリあたりの計算量が密な4000億モデルより少なくて済み、しかるにはるかに大きなネットワークの知識と推論の深さを維持している。MMLUベンチマークでMaverickは87.4点を記録し、GPT-5.4の86.1点、Claude 3.7 Sonnetの85.8点を上回った。数学的推論(MATHベンチマーク)では79.6点を達成し、これはそれ以前にリリースされたオープンソースモデルをいずれも明確に上回る数字だ。
開発者からの反響は大きく、概ね好意的だが、いくつかの留意点もある。Llama 4のコンテキストウィンドウはScoutで256,000トークン、Maverickで100万トークンとフロンティアモデルと競合する水準だが、コミュニティは今後1週間かけて、過去のLlamaバージョンと同様に長コンテキストタスクでパフォーマンスが低下するかどうかを検証するだろう。X上の複数のAI研究者は、Maverickのベンチマーク結果がベースモデルとは異なる「チャットチューニング済み」バリアントで得られたものであり、再現性に影響する可能性があると指摘した。
重要ポイント
- →meta: Llama 4 Scout is Meta's 17-billion-parameter model designed for local deployment.
Continue reading to see the full article