智譜發(fā)布GLM-5技術(shù)報(bào)告 披露其實(shí)現(xiàn)性能大幅躍升的技術(shù)細(xì)節(jié)
本報(bào)訊 (記者梁傲男)2月22日,北京智譜華章科技股份有限公司(以下簡(jiǎn)稱“智譜”,股票代碼“HK2513”)發(fā)布了最新一代基礎(chǔ)模型GLM-5的技術(shù)報(bào)告,披露了GLM-5實(shí)現(xiàn)性能大幅躍升的技術(shù)細(xì)節(jié)。
智譜在報(bào)告中表示,GLM-5是一款旨在推動(dòng)編程范式從“VibeCoding”(氛圍編程)轉(zhuǎn)向“AgenticEngineering”(智能體工程)的下一代基礎(chǔ)模型。GLM-5在前代模型GLM-4.5的智能體、推理與編程能力基礎(chǔ)上,采用稀疏注意力以大幅降低推理成本,同時(shí)保持長(zhǎng)上下文能力無(wú)損。為了讓模型更好地與各類任務(wù)對(duì)齊,智譜構(gòu)建了一套新型異步強(qiáng)化學(xué)習(xí)(RL)基礎(chǔ)設(shè)施,通過(guò)將生成過(guò)程與訓(xùn)練過(guò)程解耦,從而大幅提升了后訓(xùn)練的迭代效率。
總體而言,GLM-5能夠?qū)崿F(xiàn)性能的大幅躍升,主要得益于以下四大技術(shù)創(chuàng)新:
第一,引入DSA稀疏注意力機(jī)制。這一全新架構(gòu)極大降低了訓(xùn)練與推理成本。此前的GLM-4.5依賴標(biāo)準(zhǔn)MoE架構(gòu)提升效率,而DSA機(jī)制則使GLM-5能夠根據(jù)Token的重要性動(dòng)態(tài)分配注意力資源。在不折損長(zhǎng)上下文理解和推理深度的前提下,算力開(kāi)銷得以大幅削減。得益于此,模型參數(shù)規(guī)模成功擴(kuò)展至744B(7440億),同時(shí)訓(xùn)練Token規(guī)模提升至28.5T(28.5萬(wàn)億)。
第二,構(gòu)建全新的異步RL基礎(chǔ)設(shè)施;贕LM-4.5時(shí)期slime框架“訓(xùn)練與推理解耦”的設(shè)計(jì),新基建進(jìn)一步實(shí)現(xiàn)了“生成與訓(xùn)練”的深度解耦,將GPU利用率推向極致。該系統(tǒng)支持模型開(kāi)展大規(guī)模的智能體軌跡探索,大幅減緩了以往拖慢迭代速度的同步瓶頸,讓RL后訓(xùn)練流程的效率實(shí)現(xiàn)了質(zhì)的飛躍。
第三,提出全新的異步Agent RL算法。該算法旨在全面提升模型的自主決策質(zhì)量。GLM-4.5曾依靠迭代自蒸餾和結(jié)果監(jiān)督來(lái)訓(xùn)練Agent;而在GLM-5中,異步算法使模型能夠從多樣化的長(zhǎng)周期交互中持續(xù)學(xué)習(xí)。這一算法針對(duì)動(dòng)態(tài)環(huán)境下的規(guī)劃與自我糾錯(cuò)能力進(jìn)行了深度優(yōu)化,這也正是GLM-5能夠在真實(shí)編程場(chǎng)景中表現(xiàn)卓越的底層邏輯。
第四,全面擁抱國(guó)產(chǎn)算力生態(tài)。從模型發(fā)布伊始,GLM-5就原生適配了中國(guó)GPU生態(tài)。全面兼容七大主流國(guó)產(chǎn)芯片平臺(tái):華為昇騰、摩爾線程、海光、寒武紀(jì)、昆侖芯、沐曦與燧原。
憑借上述進(jìn)步,GLM-5不僅是一個(gè)更強(qiáng)大的模型,更是下一代AIAgent更高效、更實(shí)用的基礎(chǔ)模型。智譜向社區(qū)開(kāi)源GLM-5,以進(jìn)一步推動(dòng)高效的、面向Agent的通用人工智能的發(fā)展。
智譜認(rèn)為,開(kāi)源追趕閉源的“戰(zhàn)役”仍在繼續(xù),公司將堅(jiān)定不移地探索技術(shù)前沿,構(gòu)建更高效、更智能的底層系統(tǒng)。
以下為技術(shù)報(bào)告全文。
0人