之前的部落格裡,跟大家分享了歸一化(regularization)的概念:保留所有的特徵,但是減小引數的大小(magnitude)。
這一次捏,跟大家討論討論,歸一化線性回歸模型和歸一化邏輯回歸模型。
具體的分析我們可以後續來討論,這裡就不贅述了。
歸一化線性回歸模型(regularized linear regression)
我們之前討論過,歸一化代價函式。線性回歸的代價函式和歸一化代價函式的表示式是一樣的:
如果我們使用梯度下降演算法使得這個代價函式最小,那麼我們得到的梯度下降演算法將表現為以下形式:(我們未對ø0進行歸一化)
對於上面的演算法,j=1,2,3,...,n 時,更新的表示式可以進行調整得到:
可以看出來,歸一化線性回歸的梯度下降演算法與之前的變化在於,每次在原有演算法更新規則的基礎之上都令ø的值減少了乙個額外的值。
同樣的,如果利用正規方程(normal equation)來求解歸一化線性回歸模型,表示式如下:
表示式中,矩陣的大小為n+1*n+1
歸一化邏輯回歸模型(regularized logistic regression)
同樣的,對於邏輯回歸模型,我們也給代價函式增加乙個歸一化的表示式,便得到了如下的表示式:
要得到這個代價函式的最小值,通過求導,得到的梯度下降演算法表示式如下:
注:只是看上去和線性回歸一樣,但是這裡面的假設函式
。
機器學習之 歸一化
之前我們討論了幾個機器學習的模型,線性回歸模型 linear regression 和邏輯回歸模型 logistic regression 這一次我們討論一下關於模型資料擬合的問題以及歸一化方法 regularization 過擬合問題 the problem of overfitting 如果我們...
線性回歸python程式,歸一化
import tensorflow as tf import numpy as np import matplotlib.pyplot as plt 使用numpy生成200個隨機點 x data np.linspace 0.5,0.5,200 np.newaxis noise np.random....
機器學習補漏之歸一化
1.只能在訓練集當中,然後應用到測試集上面。不能兩部分一起歸一化,也不能各自用自己資料歸一化。因為我們預設兩部分都有足夠的資料,並且資料分布相同。當然最重要的是,測試集是不可以偷看的,更不要說計算這些統計資料。sklearn.preprocessing.standardscaler方便把訓練集上面的...