Logistic Regression as a Neural Network

Binary Classification


Logistic Regression

可以參考這個

  • Linear Regression 找出 使得 最貼近真實資料的 , 即使得cost function最小化

  • Logistic Regression 找出 使得 最貼近真實資料的 (範圍為0~1)

  • Sigmoid Function

Logistic Regression: cost function

Linear Regression的 Loss(Error) Function一般使用Square Error 但是Logistic Regression 的 Loss Function使用 註: 為實際資料y值, 為預測出來的y值

Cost Function使用training data中每一筆資料經由 Loss Function算出來的結果做平均 註: 即第i筆資料的y值

Gradient Descent

重複以下步驟:

註: 為 learning rate


Derivatives

More Derivatives examples


Derivatives of a Computation Graph

為例子 Computation Graph會長這樣

在寫code的時候, 我們姑且以 d_a 表示 , 其他諸如d_u, d_v等以此類推

下圖為計算d_a, d_b...

Logistic Regression Gradient Descent

Backpropagation 的目的: 經由最終的Loss Function來回推 中的各個 應該以什麼比例來調整, 如下圖

計算:

所以

Gradient Descent on m examples

for i = 1 to m

  • 算z和a是為了算誤差(J)總和, 最後再除以資料數量m
  • 算dz是為了計算dw和db(w和b對cost function的影響)總和, 最後再除以m

results matching ""

    No results matching ""