前馈神经网络

类似 线性神经网络 ,但更多层,也不局限于 加权函数$\to$激活函数 の 格式

传播

性质 前向传播 反向传播
源对象 输入信号 损失梯度
终对象 输出信号 权重参数
方向 输入层 $\to$ 输出层 输出层 $\to$ 输入层

前向传播

输入信号从输入层到输出层,层层级联地计算加权函数&激活函数

反向传播

aka. BP

损失梯度从输出层到输入层,层层级联地更新权重参数

  1. 列出 梯度下降法 の总损失梯度迭代式 $$w_{k}^{(t+1)}=w_{k}^{(t)}-\lambda\cdot \left(\frac{ \partial E_{\mathrm{total}} }{ \partial w_{k} }\right)^{(t)} $$
  2. 用链式法则求偏导 $$\frac{ \partial E_{\mathrm{total}} }{ \partial w_{k} } =\frac{ \partial E_{\mathrm{total}} }{ \partial \dots } \times\dots \times \frac{ \partial \dots }{ \partial w_{k} } $$
  3. 逐个求部分偏导