GLM-5:从 vibe coding 到 agentic engineering 的新一代开源AI模型
摘要
智谱AI发布新一代大语言模型GLM-5,参数规模从355B扩展至744B,预训练数据达28.5T tokens,并集成DeepSeek稀疏注意力技术显著降低部署成本。通过自研的异步强化学习基础设施slime,GLM-5在推理、编码和代理任务上达到开源模型最佳性能,特别在长周期任务规划中表现突出。该模型已开源并支持Claude Code和OpenClaw兼容。
内容框架与概述
GLM-5的发布标志着智谱AI在大模型领域的重大升级。文章首先介绍了模型规模扩展和技术创新,包括参数增长、预训练数据增加以及稀疏注意力技术的应用,这些改进在提升性能的同时大幅降低了部署成本。
在训练方法上,智谱AI开发了创新的异步强化学习基础设施slime,解决了大规模RL训练效率低下的问题,使模型能够更有效地弥合预训练模型的胜任力与卓越表现之间的差距。
性能表现方面,GLM-5在多个权威基准测试中取得突破性成绩,尤其在SWE-bench编程任务、Vending Bench 2长周期运营能力评估中位列开源模型第一,并在前端开发、后端任务上显著缩小与Claude Opus 4.5的差距。
核心概念及解读
AGI规模定律:通过增大模型参数和数据规模来提升通用人工智能的智能效率,这是实现AGI的关键路径之一。
稀疏注意力技术(DSA):DeepSeek Sparse Attention技术,在保持长上下文能力的同时显著降低计算和部署成本。
异步强化学习基础设施(slime):智谱AI自研的新型RL训练框架,大幅提升训练吞吐量,支持更细粒度的后训练迭代。
Vending Bench 2:评估模型长期运营能力的基准测试,模拟一年期自动售货机业务,考验模型的长周期规划和资源管理能力。
Agentic Engineering:代理化工程范式,从简单的对话交互转向能够独立完成复杂工程任务的智能代理。
原文信息
| 字段 | 内容 |
|---|---|
| 原文 | GLM-5:From Vibe Coding to Agentic Engineering |
| 作者 | 智谱AI |
| 发表日期 | 2026-02-12 |
此摘要卡片由 AI 自动生成