Lec 7: Backpropagation

  • Backpropagation 是一種比較有效率的 gradient descent

Chain Rule

Backpropagation

so that 所以現在只需要 focus 在如何計算某筆 training data 的 loss

  • Forward pass
    • compute for all params
  • Backward pass
    • compute for all activation function input

Forward pass

其實就是他的 input

Backward pass

  • 以 sigmoid 而言,

而根據 chain rule,

因此

  • 其實就是該層 activation function 的微分 (在 z 值 的導數 ,而 z 在 forward pass 時已經知道,因此這一項是常數)
  • 就是下一層某個 neuron 的

所以要求某層的 就只要從最後一層算回來就好,故名 backward pass

Backpropagation - Summary

只要是跟第 k 個 input 相連的 w 的 forward pass

    • 就是跟著他的 input

backward pass

results matching ""

    No results matching ""