2025-07-01
黄仁勋对话Transformer八子
在2024年的GTC大会上,英伟达创始人黄仁勋与缔造了现代AI基石的Transformer模型八位作者进行了一场深度对话。这次对话不仅回顾了十年前那篇改变世界的论文《Attention Is All You Need》的诞生历程,更揭示了当时团队如何打破循环神经网络(RNN)的效率桎梏,通过纯粹的自注意力机制实现了计算规模的大爆发。
除了回顾历史,这场对话还重点聚焦于“Transformer八子”离开谷歌后的多元探索。从致力于将大模型装进手机的创业尝试,到探索超越Transformer的新型神经网络架构,八位先锋正试图在数据效率、推理能力和算力优化等维度定义AI的下一个前沿。本页面通过交互式卡片、动态内容展示及雷达图可视化,将这场关于过去与未来的探索之旅进行了结构化呈现。