Notes on Section 2.5

bobown_yao

首先我们应该明确梯度在深度学习中的应用

Image: image_001

Image: image_002

我们理解了梯度的一些概念

下面我们可以开始看一下反向传播,反向传播本身是计算梯度的一个算法

Image: image_003

Image: image_004

Image: image_005

Image: image_006

上面说的是具体的实现,当然理解上说,反向传播比较像一个递归结构,也就是我下面的一些理解

也就是说,对于一个复合的复杂结构函数,我们像剥洋葱一样将其向下分解

反例就是我直接用变量参数去对函数偏导,这样不仅麻烦,再参数很多的时候会有计算浪费(因为很多的式子对于不同参数的偏导可能是一样的)

Image: image_007

Image: image_008

  • Title: Notes on Section 2.5
  • Author: bobown_yao
  • Created at : 2025-11-26 00:00:00
  • Updated at : 2026-01-19 13:37:12
  • Link: https://bobownyao.github.io/2025/11/26/Notes-on-Section-2-5/
  • License: All Rights Reserved © bobown_yao
On this page
Notes on Section 2.5