Llama 4:首批采用混合專家(MoE)架構(gòu)的多模態(tài)AI模型
Llama 4是什么?
Llama 4 是 Meta 公司于 2025年4月5日發(fā)布的最新一代開源ai模型系列。包括Llama 4 Scout和Llama 4 Maverick,它們是首批采用混合專家(MoE)架構(gòu)的多模態(tài)AI模型。Scout 擁有 170 億個(gè)活躍參數(shù)、16個(gè)“專家”模型、總參數(shù)量為1090億,而 Maverick 同樣有170億個(gè)活躍參數(shù),但配備了 128 個(gè)“專家”模型,總參數(shù)量高達(dá)4000億。此外,還有一個(gè)正在開發(fā)中的更強(qiáng)大的版本Llama 4 Behemoth,它有2880億個(gè)活躍參數(shù)、16個(gè)“專家”模型,總參數(shù)量接近2萬(wàn)億。這些模型經(jīng)過(guò)大量未標(biāo)注的文本、圖像和視頻數(shù)據(jù)訓(xùn)練,具備視覺理解能力。

Llama 4 系列模型
Llama 4 Scout
參數(shù)規(guī)模:170 億活躍參數(shù),16 個(gè)專家
硬件需求:可在單張 NVIDIA H100 GPU 上運(yùn)行
上下文窗口:支持高達(dá) 1000 萬(wàn)個(gè) token 的超長(zhǎng)上下文窗口
性能優(yōu)勢(shì):優(yōu)于 Gemma 3、Gemini 2.0 Flash-Lite 和 Mistral 3.1
Llama 4 Maverick
參數(shù)規(guī)模:170 億活躍參數(shù),128 個(gè)專家,總參數(shù)量 4000 億
性能優(yōu)勢(shì):在多模態(tài)任務(wù)中表現(xiàn)卓越,性能超過(guò) GPT-4o 和 Gemini 2.0 Flash
推理能力:推理和編程能力與 DeepSeek v3 相當(dāng),但活躍參數(shù)不到其一半
Llama 4 Behemoth(預(yù)覽版)
參數(shù)規(guī)模:2880 億活躍參數(shù),16 個(gè)專家,總參數(shù)量接近 2 萬(wàn)億
性能優(yōu)勢(shì):在多個(gè) STEM 基準(zhǔn)測(cè)試中,性能超過(guò) GPT-4.5、Claude Sonnet 3.7 和 Gemini 2.0 Pro
角色定位:作為教師模型用于蒸餾其他 Llama 4 模型,目前仍在訓(xùn)練中

Llama 4功能特征
多模態(tài)能力:Llama 4 是一個(gè)多模態(tài)大模型,能夠處理和整合文本、視頻、圖像和音頻等不同類型的數(shù)據(jù),并在這些格式之間轉(zhuǎn)換內(nèi)容。例如,Llama 4 Scout 可以在復(fù)雜環(huán)境中分析圖像內(nèi)容。
混合專家架構(gòu):這是 Llama 4 的核心特點(diǎn)之一。該架構(gòu)將模型劃分為多個(gè)專注于特定任務(wù)的“專家”子模型,從而提高訓(xùn)練和回答用戶查詢時(shí)的效率。例如,Llama 4 Maverick 模型總共有 4000 億個(gè)參數(shù),但僅有 170 億個(gè)參數(shù)在實(shí)際運(yùn)算中活躍。
長(zhǎng)上下文處理能力:Llama 4 Scout 的上下文窗口可達(dá)到 1000 萬(wàn)個(gè)詞元,這使得它在處理冗長(zhǎng)文檔時(shí)表現(xiàn)尤為優(yōu)異。
語(yǔ)音功能:Llama 4 引入了原生語(yǔ)音處理功能,能夠直接處理語(yǔ)音信息,無(wú)需先將語(yǔ)音轉(zhuǎn)換為文本再輸入模型處理,最后又將文本轉(zhuǎn)換回語(yǔ)音。這極大地提升了語(yǔ)音交互的效率和流暢度。
應(yīng)用
客戶服務(wù):企業(yè)可以使用這種多模態(tài) AI 模型快速分析用戶提出的問(wèn)題,提供更加準(zhǔn)確和高效的答復(fù)。
教育領(lǐng)域:智能教學(xué)助手可以通過(guò)理解學(xué)生的提問(wèn)和輔以圖像的方式來(lái)解釋復(fù)雜概念,極大提升學(xué)習(xí)效果。
虛擬會(huì)議:在虛擬會(huì)議中,Llama 4 能夠充當(dāng)助手,幫助用戶進(jìn)行實(shí)時(shí)翻譯、記錄會(huì)議要點(diǎn),甚至還可以模擬參與者的發(fā)言,提高溝通效率。
智能設(shè)備控制:用戶通過(guò)語(yǔ)音指令,可輕松完成撰寫文本、發(fā)送信息、控制智能家居設(shè)備等任務(wù)。
信息密集型領(lǐng)域:Llama 4 的長(zhǎng)上下文處理能力使其在醫(yī)學(xué)、科學(xué)、工程、數(shù)學(xué)、文學(xué)等信息密集型領(lǐng)域非常實(shí)用。
Llama 4技術(shù)特點(diǎn)
模型規(guī)模和參數(shù)數(shù)量:Llama 4 Scout 擁有 170 億個(gè)活躍參數(shù)、16 個(gè)“專家”模型、總參數(shù)量為 1090 億;Llama 4 Maverick 同樣有 170 億個(gè)活躍參數(shù),但配備了 128 個(gè)“專家”模型,總參數(shù)量高達(dá) 4000 億;Llama 4 Behemoth 則擁有 2880 億個(gè)活躍參數(shù)和 2 萬(wàn)億個(gè)總參數(shù)。
訓(xùn)練數(shù)據(jù)和多樣性:所有模型都經(jīng)過(guò)了大量未標(biāo)注的文本、圖像和視頻數(shù)據(jù)的訓(xùn)練,以獲得廣泛的視覺理解能力。
架構(gòu)優(yōu)化:采用了混合專家架構(gòu),通過(guò)將數(shù)據(jù)處理任務(wù)分解為子任務(wù),并將其分配給更小的“專家”模型,實(shí)現(xiàn)了更高的運(yùn)行效率。
推理效率:通過(guò)降低模型運(yùn)行成本和延遲,提高了推理效率。例如,Llama 4 Maverick 可以在單個(gè)英偉達(dá) H100 DGX 主機(jī)上運(yùn)行。

Meta 估計(jì)Llama 4 Maverick 的推理成本為每 100 萬(wàn)個(gè) tokens 0.19 美元至 0.49 美元(輸入和輸出比例為 3:1),這使得它比像 GPT-4o 這樣的專有模型便宜得多。
詳細(xì)閱讀:https://ai.meta.com/blog/llama-4-multimodal-intelligence/
模型下載:https://www.llama.com/llama-downloads/?utm_source=llama-home-hero&utm_medium=llama-referral&utm_campaign=llama-utm&utm_offering=llama-downloads&utm_product=llama
提交您的產(chǎn)品
Ai應(yīng)用
Ai資訊
AI生圖
AI生視頻
開源AI應(yīng)用平臺(tái)










