游客發(fā)表
發(fā)帖時(shí)間:2025-09-23 18:48:35
新浪科技訊 7月28日晚間消息,億參智譜今日發(fā)布新一代旗艦?zāi)P?nbsp;GLM-4.5,數(shù)智這是億參專為智能體應(yīng)用打造的基礎(chǔ)模型。目前已在Hugging Face 與 ModelScope 平臺(tái)同步開(kāi)源,數(shù)智模型權(quán)重遵循 MIT License。億參
據(jù)悉,數(shù)智GLM-4.5 在包含推理、億參代碼、數(shù)智智能體的億參綜合能力達(dá)到開(kāi)源 SOTA,在真實(shí)代碼智能體的數(shù)智人工對(duì)比評(píng)測(cè)中,實(shí)測(cè)國(guó)內(nèi)最佳。億參在包括 MMLU Pro、數(shù)智AIME 24、億參MATH 500、數(shù)智SciCode、億參GPQA 、HLE、LiveCodeBench等在內(nèi)的12個(gè)最具有代表性的評(píng)測(cè)基準(zhǔn)中,取得了全球模型第三、國(guó)產(chǎn)模型第一,開(kāi)源模型第一。
值得注意的是,得益于更高的參數(shù)效率,GLM-4.5 參數(shù)量為 DeepSeek-R1 的 1/2、Kimi-K2 的 1/3,但在衡量模型代碼能力的 SWE-bench Verified 榜單上,GLM-4.5 系列位于性能/參數(shù)比帕累托前沿,在相同規(guī)模下 GLM-4.5 系列實(shí)現(xiàn)了最佳性能。
該模型采用混合專家(MoE)架構(gòu),包括 GLM-4.5:總參數(shù)量 3550 億,激活參數(shù) 320 億;GLM-4.5-Air:總參數(shù) 1060 億,激活參數(shù) 120 億。模型可用于復(fù)雜推理和工具使用的思考模式,及用于即時(shí)響應(yīng)的非思考模式。
在價(jià)格方面,API 調(diào)用價(jià)格低至輸入 0.8 元/百萬(wàn)tokens、輸出 2 元/百萬(wàn)tokens;高速版最高可達(dá) 100 tokens/秒。(文猛)
責(zé)任編輯:何俊熹
相關(guān)內(nèi)容
隨機(jī)閱讀
熱門排行
友情鏈接