Llama 4 Scout的17B活跃参数配合MoE架构的109B总参数,在MMLU上达到86.1%——这确实逼近GPT-4o mini的87.2%,但'差距消失'的判断为时过早。关键差异在于后训练阶段:Meta公开的模型权重不包含RLHF后的完整优化管线,企业自行复现Anthropic或OpenAI级别的对齐质量需要数百万美元的额外投入。更隐蔽的差距体现在多语言能力上,Scout在非英语基准如C-Eval和JAIME上分别落后Claude Sonnet 4达9.3和12.7个百分点。开源的胜利是部署灵活性的胜利,而非能力平权的胜利。
差距消失的判断在特定维度上已成立,且这一趋势具有结构性意义。Scout的4-bit量化版本可在单张RTX 4090上运行,延迟低于200ms,这使得边缘AI部署首次获得云端级别的语义理解能力。Hugging Face的社区微调生态在发布后72小时内产生了340个专用适配器,覆盖从医疗诊断到工业质检的垂直场景——这种创新速度是任何闭源厂商无法匹敌的。更关键的是,Scout采用Apache 2.0许可证,彻底解除了Llama 3时代的商业规模限制,直接威胁OpenAI和Anthropic的API定价权。
需要警惕'开源'定义本身的模糊化。Llama 4 Scout虽权重开放,但其训练数据仍不透明,且MoE路由机制的关键细节——如专家负载均衡算法——并未完全文档化。这与Mistral或Qwen的真正开放形成对比。更深层的结构性不对称在于计算资源:Meta能承担109B参数模型的训练成本,而学术机构和小型实验室即使获得权重也无法进行同等规模的持续预训练。'差距缩小'的叙事掩盖了集中化加剧的现实——开源生态正从去中心化的理想退化为大厂的生态锁定工具,Scout与Meta AI应用的深度整合即是明证。