理論推導
機器學習所針對的問題有兩種:一種是回歸,一種是分類。回歸是解決連續資料的**問題,而分類是解決離散資料的**問題。線性回歸是乙個典型的回歸問題。其實我們在中學時期就接觸過,叫最小二乘法。
很明顯,公式中的引數m,b,w都與i無關,簡化時可以直接提出來。
另這兩個偏導等於0:
求解方程組,解得:
這樣根據資料集中給出的x和y,我們可以求出w和b來構建簡單的線性模型來**結果。
接下來,推廣到更一般的情況:
我們假設資料集中共有m個樣本,每個樣本有n個特徵,用x矩陣表示樣本和特徵,是乙個m×n的矩陣:
用y矩陣表示標籤,是乙個m×1的矩陣:
為了構建線性模型,我們還需要假設一些引數:
(有時還要加乙個偏差(bias)也就是, 為了推導方便沒加,實際上結果是一樣的)
好了,我們可以表示出線性模型了:
h(x)表示假設,即hypothesis。通過矩陣乘法,我們知道結果是乙個n×1的矩陣。
跟前面推導單變數的線性回歸模型時一樣,列出代價函式:
這裡的1/2並無太大意義,只是為了求導時能將引數正好消掉而加上。
代價函式代表了誤差,我們希望它盡可能地小,所以要對它求偏導並令偏導數為0,求解方程。
在求偏導之前先展開一下:
接下來對 求導,先給出幾個矩陣求導的公式:
對代價函式 求關於 的偏導,並令其等於0。
求偏導。
套用前面給出的矩陣求導公式。
最後化簡得到:
好了,另這個偏導數等於0:
解得:
機器學習簡單入門筆記 線性回歸
試圖通過屬性的線性組合來進行 的函式 結果和真實結果之間存在誤差 為了找到擬合效果最好的函式,使誤差降到最低,需要引入誤差函式來判定舞茶道大小 在這裡插入描述 t 70 所以,尋找目標函式就是尋找一組權值w使得損失函式最小 方法一 正規方程 方法二 梯度下降 我們以單變數中的w0,w1為例子理解找到...
機器學習線性模型學習筆記
參考 周志華機器學習第三章 給定由d個屬性描述的示例x x1 x2 x d 其中xi是x在第i個屬性上的取值,線性模型試圖學得乙個通過屬性的線性組合來進行 函式,即 f x w 1x1 w2x2 wdx d b 一般用向量形式寫成 f x w tx b 其中w w1 w2 w d w和b學得之後,模...
機器學習 機器學習入門04 線性回歸
總的來說,分類 classification 和回歸 regression 是機器學習中的兩大類問題。它們其實都是在做同一件事情 將輸入轉化為輸出。區別在於,分類得到的輸出是離散值,例如之前的癌症問題中的良性 0 和惡性 1 而回歸的得到的輸出是連續值。本篇文章,將開始討論回歸問題。我們從最簡單的線...