Latent.Space · 2026-02-12

Z.ai 发布 GLM-5:开源权重 LLM 新标杆

摘要

Z.ai 正式发布新一代开源权重模型 GLM-5,参数规模从 GLM-4.5 的 355B MoE 扩展至 744B(40B 活跃参数),预训练数据增至 28.5T tokens。该模型集成 DeepSeek 稀疏注意力(DSA)显著降低长上下文部署成本,在 GDPVal-AA 基准测试中超越 Kimi K2.5,Artificial Analysis 评测其 Intelligence Index 达 50 分,幻觉率最低。GLM-5 采用 MIT 许可证,已快速获得 vLLM、SGLang 等主流推理框架支持。

内容框架与概述

本文首先介绍了 GLM-5 的核心升级:模型规模的大幅扩展与训练数据的增加,同时集成了创新的稀疏注意力机制以优化长上下文场景下的部署效率。文章随后展示了 GLM-5 在多项基准测试中的表现,特别强调其在 GDPVal-AA 这一白领工作能力评测中的领先优势,以及在 Vending Bench 2、BrowseComp 等任务上的 SOTA 成绩。文章还提及该模型面临算力紧张的现实挑战,限制了服务能力的扩展速度。最后,文章梳理了 GLM-5 在开源生态中的快速推广情况,包括多家平台的上线支持与许可证的开放性。整体而言,本文呈现了中国开源大模型生态正快速演进,GLM-5 成为这一浪潮中的重要参与者。

核心概念及解读

GLM-5:智谱 AI 发布的最新开源权重模型,采用 MoE 架构,活跃参数 40B,总参数 744B,性能对标 Opus 级模型。

DeepSeek Sparse Attention (DSA):深度求索开发的稀疏注意力机制,被 GLM-5 集成用于降低长上下文部署成本,同时保持长上下文处理能力。

GDPVal-AA:Artificial Analysis 推出的白领工作能力基准测试,GLM-5 在该测试中排名靠前,ELO 分数达 1412。

MoE (Mixture of Experts):混合专家模型架构,通过稀疏激活减少计算开销,GLM-5 采用此架构实现大参数高效推理。

Intelligence Index:Artificial Analysis 发布的综合评测指标,GLM-5 得分 50,成为其评测体系中新的开源模型领跑者。


原文信息

字段内容
原文[AINews] Z.ai GLM-5:New SOTA Open Weights LLM
作者Latent.Space
发表日期2026-02-12

此摘要卡片由 AI 自动生成