Meta 宣佈推出全新 Llama 4 系列,其中包括 Llama 4 Scout 和 Llama 4 Maverick,並預覽了一款極具潛力的超級模型 Llama 4 Behemoth。這一系列不僅代表了技術的突破,更是多模態人工智能領域的一次革命性進展。
Llama 4 系列的誕生標誌著多模態智能的全新篇章。它們以更高效、更強大的性能,將文字、圖像和視頻等多種模式融合於一體,同時保持著 Meta 一貫的開放性和創新性。Meta 表示,這些模型將支持開發者和企業創建更個性化、更智能的應用,滿足未來多樣化的需求。
模型 | 活躍參數 | 總參數 | 專家數量 | 上下文窗口 | 主要應用場景 |
---|---|---|---|---|---|
Llama 4 Scout | 170 億 | 1090 億 | 16 | 1000 萬 | 多文件總結、大規模代碼推理 |
Llama 4 Maverick | 170 億 | 4000 億 | 128 | 256K | 多模態應用、圖片理解 |
Llama 4 Behemoth | 2880 億 | 近 2 兆 | 16 | 尚未公布 | STEM 領域、高階推理 |
Llama 4 Scout 和 Maverick:多模態的雙子星
此次推出的 Llama 4 Scout 和 Llama 4 Maverick 是Llama 4 系列的兩顆明珠,它們分別適用於不同的應用場景,並在性能和效率上達到了新的高度。
Llama 4 Scout:上下文處理的王者
Llama 4 Scout 配備 170 億活躍參數 和 16 個專家,突破性地支持 1000萬上下文窗口,遠超業界平均水準。這一特性使其特別適合處理長文本、多文件總結、代碼推理等場景。
此外,Llama 4 Scout 在代碼推理、長文本處理和多模態應用程序中的表現,均超越了前代模型和其它競爭者。它的光環在於能夠以更小的參數規模,實現更強大的性能,為多模態應用提供了無限可能。
Llama 4 Maverick:多模態應用的全能選手
Llama 4 Maverick 同樣擁有 170 億活躍參數,但它的 128 個專家系統 使其在處理多模態輸入(如文本與圖片結合)時更為突出。無論是圖像理解、視覺推理,還是創意寫作,它都能為用戶帶來流暢的體驗。
Llama 4 Maverick 的另一大亮點是其優秀的性能與成本比。例如,在 LMArena 測試中,其ELO分數高達 1417,不僅超過了 GPT-4o 和 Gemini 2.0 Flash,還能與更大規模的 DeepSeek v3.1 模型相媲美。
Llama 4 Behemoth:下一代超級智能的預覽
Meta 也首次揭示了正在訓練中的 Llama 4 Behemoth,這是一款擁有 2880 億活躍參數 的巨型模型,並採用了多模態專家架構。這款模型的訓練數據規模達到了驚人的 30 兆億令牌,在 STEM(數學、科學、技術、工程)領域的表現尤為突出。
Meta 表示,Llama 4 Behemoth 的主要作用是作為教師模型,用於進一步提升 Scout 和 Maverick 的性能。儘管這款模型尚未正式發布,但它的潛力已經讓人充滿期待。
Llama 4 與競爭對手性能比較(部分測試結果)
測試項目 | Llama 4 Scout | Llama 4 Maverick | GPT-4o | Gemini 2.0 Flash | DeepSeek v3.1 |
---|---|---|---|---|---|
上下文窗口支持 | 10M | 256K | 128K | 64K | 512K |
代碼推理性能 | 業內領先 | 超越 GPT-4o | 良好 | 略次 | 與 Maverick 相當 |
多模態支持 | 文本+圖像 | 文本+圖像 | 僅文本 | 文本+有限圖像 | 文本+圖像 |
性能與成本比 | 極高 | 高 | 中 | 低 | 中 |
技術創新:重新定義多模態AI的核心
Llama 4 系列的成功背後,是一系列技術創新的支持:
1. 混合專家架構(MoE)
Llama 4 是首批採用 混合專家架構(Mixture of Experts, MoE) 的模型之一。這種架構使得每次推斷僅需要啟動部分參數,大幅降低了計算成本,同時提升了性能。例如,Llama 4 Maverick 的總參數規模達 4000 億,但其活躍參數僅為 170 億,在效率與性能之間找到了完美的平衡。
2. 超長上下文支持
Llama 4 Scout 支持 1000萬上下文窗口,是 Llama 3 的近 100 倍,這一突破為多文件分析、大規模數據處理等應用場景帶來了革命性進步。
3. 多模態融合
Llama 4 系列支持將文本、圖像和視頻數據無縫結合,並對多圖片輸入進行高效推理。這使得模型在處理複雜的多模態任務(如圖像問答)時,更加準確和高效。
4. 高效訓練方法
Meta 使用 FP8 精度 進行訓練,並通過創新的 MetaP 技術優化模型的參數設置。在訓練 Llama 4 Behemoth 時,Meta 達到了每張 GPU 390 TFLOPs 的高效利用率,充分展現了其技術實力。

安全與公平性:Llama 系列的新標準
在追求性能的同時,Meta 對模型的安全性和公平性也提出了更高的要求:
安全防護
- Llama Guard:檢測並防範潛在的有害內容。
- Prompt Guard:有效識別惡意提示與攻擊。
去偏見
Meta 致力於減少 AI 模型在政治和社會議題上的偏見。根據測試,Llama 4 的偏見回應率已降至不到 2%,並且能更均衡地處理不同觀點,為用戶提供更中立的回應。
開放與未來:Llama 4 的願景
Meta 表示,Llama 4 系列的所有模型將在 llama.com 和 Hugging Face 上免費提供下載,並支持開發者進行二次開發。此外,用戶還可以在 WhatsApp、Messenger 和 Instagram Direct 等平台上體驗基於 Llama 4 的全新功能。
Meta 透露,將於 4月29日的 LlamaCon 大會上分享更多技術細節和未來計劃。Llama 4 不僅是一款技術產品,更是一個生態系統,旨在促進全球開發者的創新,並為未來的人工智能應用鋪平道路。
參考來源:https://ai.meta.com/blog/llama-4-multimodal-intelligence/