Llama 4 Scoutの17BアクティブパラメータとMoEアーキテクチャによる109B総パラメータは、MMLUで86.1%を達成し、GPT-4o miniの87.2%に接近している。しかし「差が消えた」と判断するのは時期尚早である。核心的な差異はポストトレーニング段階にある。Metaが公開するモデル重みにはRLHF後の完全な最適化パイプラインが含まれておらず、企業がAnthropicやOpenAIレベルの整合性品質を再現するには数百万ドルの追加投資が必要だ。より隠れた差は多言語能力にある。
差が消えたという判断は、特定の次元では既に成立しており、この傾向は構造的な意味を持つ。Scoutの4ビット量子化バージョンは単一のRTX 4090上で実行可能で、レイテンシは200msを下回る。これにより、エッジAI展開が初めてクラウドレベルの意味理解能力を獲得した。Hugging Faceのコミュニティ微調整エコシステムは、リリース後72時間以内に340の専用アダプターを生成し、医療診断から工業品質検査までの垂直シーンをカバーしている。このイノベーション速度はいかなるクローズドベンダーも匹敵できない。
「オープンソース」という定義自体の曖昧化を警戒する必要がある。Llama 4 Scoutは重みは公開されているが、トレーニングデータは不透明であり、MoEルーティングメカニズムの核心的な詳細——例えばエキスパート負荷均衡アルゴリズム——は完全に文書化されていない。これはMistralやQwenの真のオープンさと対照的だ。より深層の構造的非対称性は計算リソースにある。Metaは109Bパラメータモデルのトレーニングコストを負担できるが、学術機関や小規模ラボは重みを得ても同等規模の継続的事前学習ができない。