2025-09-02

前言 — 动手学深度学习 2.0.0 documentation

摘要

本文是《动手学深度学习》教材的前言,介绍了深度学习从边缘学科到主流技术的转变历程,阐述了本书创作的初衷:打造一本免费、技术深度足够、包含可运行代码、易于更新且有社区讨论支持的深度学习教材。书籍采用"在实践中学习"的理念,将概念、数学和代码有机结合,面向希望系统掌握深度学习实用技术的学生、工程师和研究人员。

内容框架与概述

文章开篇回顾了深度学习的发展历程。几年前,机器学习还是一门小众学科,神经网络被视为过时工具。但在过去五年间,深度学习在计算机视觉、自然语言处理、语音识别等领域取得突破性进展,已广泛应用于自动驾驶、智能回复、医疗诊断和基础科学研究等领域。

本书的核心定位是让深度学习变得平易近人,同时教授概念、背景和代码三个维度的知识。作者指出,当时市面上的资源要么缺乏技术深度,要么理论与实践脱节,要么隐藏在付费壁垒后。因此,他们创建了这本免费、深度足够、代码可运行、持续更新且有社区支持的教材,采用GitHub、Jupyter Notebook和Sphinx等工具整合多种输出格式。

全书分为三大部分:第一部分涵盖基础知识,包括深度学习入门、数学预备知识、线性回归和多层感知机;第二部分聚焦现代深度学习技术,涉及深度学习计算、CNN、RNN和注意力机制;第三部分探讨可伸缩性、效率和实际应用,包括优化算法、计算性能、计算机视觉和自然语言处理应用。本书支持MXNet、PyTorch、TensorFlow和PaddlePaddle等多个深度学习框架。

核心概念及解读

在实践中学习(Learning by Doing):本书摒弃了传统教科书逐一深入讲解概念的方式,采用"适时教授"策略,让读者在实现具体目标时学习所需概念,每节都提供可独立运行的代码示例。

概念-数学-代码三位一体:深度学习应用需要同时掌握问题建模动机、数学方法、优化算法和工程实现,本书通过交错呈现背景材料与可运行代码,弥合理论与实践的鸿沟。

从零实现与高级API双轨并行:基础教程中提供两个版本示例——一个仅依赖张量和自动微分从零实现,另一个使用框架高级API编写简洁代码,帮助读者既理解底层原理又掌握实用技能。

注意力机制(Attention Mechanism):一种新型模型技术,已在自然语言处理中逐步取代循环神经网络,是现代深度学习的核心工具之一。


原文信息

字段内容
原文前言 — 动手学深度学习 2.0.0 documentation
作者
发表日期未知

此摘要卡片由 AI 自动生成