OpenAI · 2025-10-13

OpenAI与博通定制AI芯片合作深度解读

摘要

本文基于OpenAI Podcast第八期内容,深度解析OpenAI与博通的战略合作。双方已合作约18个月,从最初的单芯片设计扩展到系统级研发,计划于2026年末部署10吉瓦级算力基础设施。这次合作标志着AI产业从依赖通用GPU转向定制化、纵向一体化的发展路径,目标是实现推理成本极低、响应极快、支持亿级并发智能体的普惠AI愿景。

内容框架与概述

本期播客由OpenAI的安德鲁·梅恩主持,萨姆·奥特曼和格雷格·布罗克曼与博通的霍克·谭和查理·卡瓦斯展开对话,全面阐述了两家公司合作的战略意义与技术细节。合作的核心在于突破传统芯片制造的局限,通过纵向整合实现从晶体管设计到系统架构的全流程优化,这被主持人与嘉宾多次类比为"工业史上最大规模的联合项目"。

合作始于OpenAI对算力需求的重新评估。随着GPT、Sora等前沿大模型能力提升与用户量级暴增,单纯依赖市售通用GPU已无法满足"推理成本极低、响应极快、支持亿级并发智能体"这类新场景需求。OpenAI与博通共同设计芯片与整体系统,可从晶体管层级优化每一环节,包括专为AI推理任务加强存储带宽与延迟、针对训练任务提升浮点计算峰值、采用100Tbps光学交换新技术、通过3D封装实现芯片堆叠,以及模块化设计灵活组装不同用途加速器。

几位核心人物多次强调AI应用场景对算力需求的"刚性增长":每当模型能力提升、成本降低,社会对AI的需求会几何级数暴增。目前2GW算力已能服务全球10%用户,但未来需求远大于此。AI被比作"经济生产力、生活品质提升的最根本驱动力",只有推动算力普及、基础设施开放,才能让"每个人都成为智力增强者"。合作双方认为行业正处于从"智能算力稀缺"逐步迈向"算力充裕"的转折点。

核心概念及解读

纵向整合(Vertical Integration):从晶体管设计、芯片制造,到系统集成、网络架构、应用开发的全流程统筹。AI算力需求已远超单一芯片范畴,需打通每一层级以优化整体能效和性能。通过融合OpenAI在模型研发上的理解与博通在半导体技术与系统制造的长板,实现软硬深度联动,每一环节无需迁就通用型方案,能根据实际模型需求灵活调整内存、网络、芯片布局等参数,带来数量级提升。

算力爆炸与需求跃迁模型:AI进步由模型能力提升与推理成本极大降低两个核心变量驱动。每当AI模型取得新突破、算力优化带来成本下降,社会经济系统就会迅速想象出数倍于此前的全新应用场景,反向推动算力刚性需求继续发生巨变。这是一种"正反馈循环":模型进步→需求激增→基础设施升级→再次需求激增。与铁路、互联网等历史级科技基础设施类似,AI算力基础设施也需投入数十年协同多方资源,跨越数代芯片与系统演进。

普惠AI愿景与代理人社会模型:OpenAI反复强调"AI不是为少数大企业服务,而是最终让80亿人都拥有属于自己的agent"。技术上实现每人拥有agent的基础是"算力充裕",即通过定制芯片、端到端协作推动无限接近这个目标。战略上要开放标准、打造全球协作产业链,帮助整个生态走向繁荣。未来理想社会是每个人都能享受24小时专属智能助理的支持,这对教育、事业、生活都将带来深远改变。

定制化系统优化:合作方案可针对每一代大模型(GPT-5、GPT-6、GPT-7等)动态调整架构,实现从底层能效到整体系统的连续跃迁。定制系统包括专为AI推理任务加强存储带宽与延迟、针对训练任务提升浮点计算峰值、网络互联采用100Tbps光学交换新技术、把多个芯片堆叠(3D封装)、通过模块化设计灵活组装不同用途加速器。

开放协作生态:OpenAI与博通的合作模式成为全球计算产业新生态的范例——“分工合作、生态开放、标准互通"成为推动算力基建突破的关键。两家公司致力于推动行业透明开放标准制定,加速整个AI基础设施与生态进步。借助开放标准、行业协作把AI基础能力推广到全球,让AI不仅仅服务大企业,而是致力于让80亿地球人口"都有自己的智能体和专属算力”。


原文信息

字段内容
原文OpenAI x Broadcom — The OpenAI Podcast Ep. 8
作者OpenAI
发表日期2025年

此文档由 AI 自动整理