機器學習之 歸一化線性回歸與歸一化邏輯回歸

2021-07-11 12:38:07 字數 1211 閱讀 3417

之前的部落格裡,跟大家分享了歸一化(regularization)的概念:保留所有的特徵,但是減小引數的大小(magnitude)。

這一次捏,跟大家討論討論,歸一化線性回歸模型和歸一化邏輯回歸模型。

具體的分析我們可以後續來討論,這裡就不贅述了。

歸一化線性回歸模型(regularized linear regression)

我們之前討論過,歸一化代價函式。線性回歸的代價函式和歸一化代價函式的表示式是一樣的:

如果我們使用梯度下降演算法使得這個代價函式最小,那麼我們得到的梯度下降演算法將表現為以下形式:(我們未對ø0進行歸一化)

對於上面的演算法,j=1,2,3,...,n 時,更新的表示式可以進行調整得到:

可以看出來,歸一化線性回歸的梯度下降演算法與之前的變化在於,每次在原有演算法更新規則的基礎之上都令ø的值減少了乙個額外的值。

同樣的,如果利用正規方程(normal equation)來求解歸一化線性回歸模型,表示式如下:

表示式中,矩陣的大小為n+1*n+1

歸一化邏輯回歸模型(regularized logistic regression)

同樣的,對於邏輯回歸模型,我們也給代價函式增加乙個歸一化的表示式,便得到了如下的表示式:

要得到這個代價函式的最小值,通過求導,得到的梯度下降演算法表示式如下:

注:只是看上去和線性回歸一樣,但是這裡面的假設函式

機器學習之 歸一化

之前我們討論了幾個機器學習的模型,線性回歸模型 linear regression 和邏輯回歸模型 logistic regression 這一次我們討論一下關於模型資料擬合的問題以及歸一化方法 regularization 過擬合問題 the problem of overfitting 如果我們...

線性回歸python程式,歸一化

import tensorflow as tf import numpy as np import matplotlib.pyplot as plt 使用numpy生成200個隨機點 x data np.linspace 0.5,0.5,200 np.newaxis noise np.random....

機器學習補漏之歸一化

1.只能在訓練集當中,然後應用到測試集上面。不能兩部分一起歸一化,也不能各自用自己資料歸一化。因為我們預設兩部分都有足夠的資料,並且資料分布相同。當然最重要的是,測試集是不可以偷看的,更不要說計算這些統計資料。sklearn.preprocessing.standardscaler方便把訓練集上面的...