特徵選擇問題:underfitting,overfitting
parametric learing algorithm:有固定數目的引數以用來資料擬合的演算法;
non-parametric learing algorithm:引數隨著訓練集大小線性增長;
lwr:fit \(\theta\) to minimize \(\sum_iw^(y^-\theta^tx^)^2\) where \(w^=exp(-\frac-x)^2}})\)
解得\(\theta=(x^twx)^x^twy\)
備註:每次**乙個,都需要重新建立模型;
為什麼選擇最小二乘:
assume \(y^=\theta^tx^+\varepsilon ^\)
\(p(\varepsilon ^)=\frac\sigma}exp)^2})}\) 假設為高斯分布的原因:乙個合理準確的假設(中心極限定理);數學計算的便利;
so $y|x;\theta $ ~ \(n (\theta^tx^,\sigma^2)\) 其中\(\theta\)不是隨機變數,所以用的是分號;
$\varepsilon ^s $ are iid independently identically distributed
\(l(\theta)=p(\vec y|x;\theta))=\pi_^mp(y^|x^;\theta)\)
極大似然估計:choose \(\theta\) to maximize \(l(\theta)\)
\(ll(\theta)=log l(\theta)=\sum_^mlog[\frac\sigma}exp)^2})}]=mlog\frac\sigma}+\sum_^m-\frac-\theta^tx^)^2}\)
to minimizie \(j(\theta)=\sum_^\frac-\theta^tx^)^2}\)
邏輯回歸(logistic regression)與線性回歸(linear regression)都是一種廣義線性模型(generalized linear model)。邏輯回歸假設因變數 y 服從伯努利分布,而線性回歸假設因變數 y 服從 高斯分布。
\(y\epsilon \h_\theta(x)\epsilon[0,1]\)
choose假設函式: \(h_\theta(x)=g(\theta^tx)=\frac}\) g(z)為logistic或者sigmoid函式
\(p(y=1|x;\theta)=h_\theta(x)\)
\(p(y=0|x;\theta)=1-h_\theta(x)\) ->\(p(y|x;\theta)=(1-h_\theta(x))^h_\theta(x)^y\)
決策邊界:乙個方程,分開兩個部分
在邏輯回歸中,假設函式(h=g(z))用於計算樣本屬於某類別的可能性;決策函式(h=1(g(z)>0.5))用於計算(給出)樣本的類別;決策邊界(θ^tx=0)是乙個方程,用於標識出分類函式(模型)的分類邊界。
代價函式:
\(l(\theta)=p(\vec y|x;\theta))=\pi_^m(1-h_\theta(x^))^}h_\theta(x^)^}\)
\(ll(\theta)=logl(\theta)\) 可以用梯度上公升法做,其中\(\fracll(\theta)=\sum_^m(y^-h_\theta(x^))x_j^\)
矩陣法更新公式: w=w+(y-w\(x^\) )\(x^\)
機器學習 區域性加權線性回歸
一 問題引入 我們現實生活中的很多資料不一定都能用線性模型描述。依然是房價問題,很明顯直線非但不能很好的擬合所有資料點,而且誤差非常大,但是一條類似二次函式的曲線卻能擬合地很好。為了解決非線性模型建立線性模型的問題,我們 乙個點的值時,選擇與這個點相近的點而不是所有的點做線性回歸。基於這個思想,便產...
機器學習 區域性加權線性回歸
線性回歸的乙個問題時又可能出現欠擬合現象,為了解決這個問題,我們可以採用乙個方法是區域性加權線性回歸 locally weighted linner regression 簡稱lwlr。該演算法的思想就是給帶 點附近的每乙個點賦予一定的權值,然後按照簡單線性回歸求解w的方法求解,與knn一樣,這種演...
區域性加權回歸
區域性加權緊接著上面的線性回歸中引數求解來繼續講吧。還是以上面的房屋 的 它的中心思想是在對引數進行求解的過程中,每個樣本對當前引數值的影響是有不一樣的權重的。比如上節中我們的回歸方程為 這個地方用矩陣的方法來表示 表示引數,i表示第i個樣本,h為在 引數下的 值 我們的目標是讓 最小,然後求出來 ...