2月22日,智谱发布技术报告,全面解读GLM-5的技术细节。
从技术导向而言,此前AI编程范式属于“Vibe Coding”(氛围编程),即程序员手动提示AI生成代码,较为依赖人力,效率有瓶颈。
GLM-5瞄准的是Agentic Engineering(智能体工程),要求AI不再只是辅助工具,而是一个可以自主规划、执行、迭代的“虚拟工程师”。
为了实现这一目标,GLM-5在技术上实现了四大突破:
第一,更高效的模型“大脑”。GLM-5引入DSA稀疏注意力机制(DeepSeek Sparse Attention,DSA),可以理解为,模型在处理长文本时,不再对每个词都投入同等注意力,而是智能地聚焦在关键信息上。这大幅降低了计算成本,使得模型能用更少的资源处理更长的上下文。
得益于此,智谱将模型参数规模扩展至744B(7440亿),同时将训练token规模提升至28.5T(28.5万亿)。
第二,更快的“学习”方式。GLM-5构建并完善了一套名为“slime”的异步强化学习基础设施,这是其训练效率取得突破的核心。传统的强化学习训练效率相对较低,slime将“生成任务轨迹”和“模型参数更新”解耦,即将这两个过程分开后同时进行。这就像一边让AI在实践中不断尝试,一边后台同步总结经验教训,极大提升了训练效率。
第三,更聪明的“决策”算法。GLM-5提出了全新的异步Agent RL算法。这一算法针对动态环境下的规划与自我纠错能力进行了深度优化,这使得模型能够从海量的、多步骤的交互中持续学习,优化其在动态环境中的规划、执行和自我纠错能力。
第四,全面拥抱国产算力生态。从模型发布伊始,GLM-5就全面兼容七大主流国产芯片平台:华为昇腾、摩尔线程、海光、寒武纪、昆仑芯、沐曦与燧原,完成从底层内核到上层推理框架的深度优化。
GLM-5发布后,获得了开发者社区的用脚投票。发布之初,智谱以代号“Pony Alpha”在顶级模型平台OpenRouter上进行了匿名盲测,在社区引发了轰动。初步统计显示,25%的用户推测它是Anthropic的Claude Sonnet5,20%认为是Grok的新版本,10%猜是DeepSeek-V4,而其余用户则成功猜中了GLM-5。
“最终确认Pony Alpha真身即是GLM-5,这对我们团队是一次巨大的鼓舞,也有力回击了长期以来外界对中国本土模型技术水准的质疑。”智谱团队表示。
GLM-5折射出的另一趋势,是开源与闭源模型的差距正在被填平。硅谷顶级的风投机构a16z近期发布了一组数据,称开源大模型与顶级闭源模型之间的能力差距,正在以肉眼可见的速度快速收窄。而报告中被选为开源阵营的代表、并与闭源天花板ClaudeOpus4.6进行正面对标的,正是GLM-5。
智谱团队称,开源追赶闭源的战役仍在继续,将坚定不移地探索技术前沿,构建更高效、更智能的底层系统。
来源:上海证券报
作者: 孙小程