Lec 7: Backpropagation
- Backpropagation 是一種比較有效率的 gradient descent
Chain Rule
Backpropagation
so that 所以現在只需要 focus 在如何計算某筆 training data 的 loss
- Forward pass
- compute for all params
- Backward pass
- compute for all activation function input
Forward pass
其實就是他的 input
Backward pass
- 以 sigmoid 而言,
而根據 chain rule, 又
因此
- 其實就是該層 activation function 的微分 (在 z 值 的導數 ,而 z 在 forward pass 時已經知道,因此這一項是常數)
- 就是下一層某個 neuron 的
所以要求某層的 就只要從最後一層算回來就好,故名 backward pass
Backpropagation - Summary
只要是跟第 k 個 input 相連的 w 的 forward pass
- 就是跟著他的 input
backward pass