編輯 | 劉寶丹
自四年前盤古大模型首次亮相以來,AI 大模型行業(yè)風(fēng)云變幻,不少 AI 大模型廠商加入開源大軍。一直堅(jiān)持閉源大模型的華為,如今也終于決定打開盤古的大門了。
6 月 30 日,華為正式宣布開源盤古 70 億參數(shù)的稠密模型、盤古 Pro MoE 720 億參數(shù)的混合專家模型和基于昇騰的模型推理技術(shù)。
這是華為首次開源盤古大模型。
華為方面表示,此舉是華為踐行昇騰生態(tài)戰(zhàn)略的又一關(guān)鍵舉措,推動(dòng)大模型技術(shù)的研究與創(chuàng)新發(fā)展,加速推進(jìn)人工智能在千行百業(yè)的應(yīng)用與價(jià)值創(chuàng)造。
據(jù)悉,盤古 Pro MoE 72B 模型權(quán)重、基礎(chǔ)推理代碼,基于昇騰的超大規(guī)模 MoE 模型推理代碼,已正式上線開源平臺(tái);盤古 7B 相關(guān)模型權(quán)重與推理代碼將于近期上線開源平臺(tái)。
華為首次開源大模型選擇了兩款可應(yīng)用廣泛的模型。
70 億參數(shù)的稠密模型采用雙系統(tǒng)框架,參數(shù)量適中、性能均衡、部署門檻較低,具備 " 快思考 " 和 " 慢思考 " 能力,可根據(jù)任務(wù)復(fù)雜度自動(dòng)切換推理模式。
同時(shí),該模型專為在昇騰 NPU 上優(yōu)化部署,兼顧推理速度與推理深度,在 AIME、GPQA 等復(fù)雜推理基準(zhǔn)測(cè)試中,超越 Qwen3-8B、GLM4-9B 等同量級(jí)模型,適用于智能客服、知識(shí)庫(kù)等場(chǎng)景。
盤古 Pro MoE 720 億參數(shù)的混合專家模型通過在專家選擇階段引入分組機(jī)制,確保了跨設(shè)備的計(jì)算負(fù)載均衡,不僅解決了傳統(tǒng) MoE 架構(gòu)中專家負(fù)載不均衡的問題,還顯著提升了模型的訓(xùn)練效率和推理性能,更適合處理相對(duì)復(fù)雜的任務(wù)。
AI 大模型浪潮掀起以來," 大模型開源 or 閉源 " 一直是業(yè)界的熱門議題。大模型開源的本質(zhì)是以開放換生態(tài),以生態(tài)養(yǎng)技術(shù),相對(duì)于閉源而言,可以借助全球開發(fā)者的力量加速大模型的研發(fā)迭代速度。
開源與閉源也可以理解為是 " 短期盈利 " 與 " 長(zhǎng)期生態(tài) " 的權(quán)衡:閉源像 " 專利藥 ",靠技術(shù)壁壘快速賺錢,但可能被后來者顛覆;開源像 " 通用藥 ",靠規(guī)模效應(yīng)和生態(tài)黏性構(gòu)建護(hù)城河,但需要長(zhǎng)期投入。
今年春節(jié)期間 DeepSeek 的橫空出世,徹底顛覆了整個(gè) AI 行業(yè),也成功彰顯了開源的價(jià)值。
在 DeepSeek 的推動(dòng)下,AI 應(yīng)用爆發(fā),海內(nèi)外公司紛紛在自家產(chǎn)品中接入 DeepSeek,直接沖擊了 OpenAI 等 AI 大模型廠商在人工智能領(lǐng)域的市場(chǎng)地位。
基于此,像 OpenAI、百度這樣的堅(jiān)定的閉源路線支持者,不得不在 " 技術(shù)護(hù)城河 " 與 " 商業(yè)價(jià)值 " 之間做出選擇,也決定擁抱開源。
2 月 14 日,百度宣布,文心大模型 4.5 系列即將面世,且 6 月 30 日起全面開源。不約而同地,Open AI 首席執(zhí)行官山姆 · 奧特曼也在 2 月 13 日稱,未來將重新制定開源戰(zhàn)略。
百度創(chuàng)始人李彥宏在 2 月 11 日的 World Governments Summit 2025 峰會(huì)上表示:" 開源能讓你更吸睛。" 他解釋,AI、生成 AI 現(xiàn)在還處在創(chuàng)新萌芽期,快速傳播能加速普及,吸引更多人試水,形成良性循環(huán)。
山姆 · 奧特曼則表態(tài)稱,OpenAI 在開源 AI 軟件方面 " 一直站在歷史的錯(cuò)誤一邊 "。他還透露,雖然并非所有員工都同意其觀點(diǎn),但 OpenAI 內(nèi)部正討論公開 AI 模型的權(quán)重等事宜。
有 AI 業(yè)內(nèi)人士指出,未來," 開源生態(tài) + 閉源核心 " 的混合模式可能成為主流 —— 既通過開源吸引開發(fā)者共建生態(tài),又通過閉源技術(shù)保持商業(yè)競(jìng)爭(zhēng)力,實(shí)現(xiàn)短期盈利與長(zhǎng)期布局的平衡。
在此背景下,華為部分開源盤古大模型也是大勢(shì)所趨。
此外,華為此次還開源了基于昇騰的模型推理技術(shù),昇騰這一層級(jí)對(duì)應(yīng)的則是華為瞄準(zhǔn)的 AI 算力市場(chǎng)。
眾所周知,華為的野心在于要做 AI 時(shí)代的 " 黑土地 ",其昇騰生態(tài)戰(zhàn)略是華為圍繞昇騰 AI 計(jì)算平臺(tái)構(gòu)建的全方位生態(tài)發(fā)展策略,旨在推動(dòng) AI 技術(shù)普及應(yīng)用、促進(jìn)產(chǎn)業(yè)創(chuàng)新、實(shí)現(xiàn)各方共贏,涵蓋技術(shù)創(chuàng)新、生態(tài)構(gòu)建、開源開放、人才培養(yǎng)等多個(gè)關(guān)鍵層面。
開源盤古大模型,有利于吸引開發(fā)者基于盤古大模型開發(fā)行業(yè)應(yīng)用,形成 " 模型 - 應(yīng)用 - 硬件 " 的昇騰生態(tài)閉環(huán)。
在 6 月 20 日召開的華為開發(fā)者大會(huì) 2025 上,華為常務(wù)董事、華為云計(jì)算 CEO 張平安在發(fā)布盤古大模型 5.5 的同時(shí),還正式宣布基于 CloudMatrix 384 超節(jié)點(diǎn)的新一代昇騰 AI 云服務(wù)全面上線,為大模型應(yīng)用提供澎湃算力。
據(jù)悉,華為云新一代昇騰 AI 云服務(wù)基于 CloudMatrix 384 超節(jié)點(diǎn),首創(chuàng)將 384 顆昇騰 NPU 和 192 顆鯤鵬 CPU 通過全新高速網(wǎng)絡(luò) MatrixLink 全對(duì)等互聯(lián),形成一臺(tái)超級(jí) "AI 服務(wù)器 ",單卡推理吞吐量躍升到 2300 Tokens/s,與非超節(jié)點(diǎn)相比提升近 4 倍。
值得一提的是,超節(jié)點(diǎn)架構(gòu)能更好地支持混合多專家 MoE 大模型的推理,可以實(shí)現(xiàn) " 一卡一專家 ",一個(gè)超節(jié)點(diǎn)可以支持 384 個(gè)專家并行推理,極大提升效率;同時(shí),超節(jié)點(diǎn)還可以支持 " 一卡一算子任務(wù) ",靈活分配資源,提升任務(wù)并行處理,減少等待,將算力有效使用率(MFU)提升 50% 以上。
盤古大模型基于昇騰云的全棧軟硬件訓(xùn)練,因此,華為開源盤古大模型的本質(zhì),也是在為昇騰生態(tài)引流。
2025 年已是開源模型快速進(jìn)步的一年,華為如今加入開源大軍,無疑將讓其在全球 AI 競(jìng)爭(zhēng)中占據(jù)戰(zhàn)略主動(dòng)。