2023年3月7日,學習內容:
1)什麼是線性模型:變數與變數之間的關係能夠用一次模型來表示(舉例:y=c+ax+by+cz+....),則此為線性模型,需要注意的是直線是特殊的線性模型(因為只有兩個變數時,並且這兩個變數是一元一次方程的關係,則是直線),以前一直以為線性回歸模型就是直線模型,這是錯誤認識。
2)當使用線性回歸模型時,代價函式是殘差平方和,當殘差平方和最小時求得的引數才是最合適的,但為什麼殘差平方和作為代價函式時比較合適呢:這是根據極大似然函式求最大值時而推導出來的:
2.1)概率描述了已知引數時的隨機變數的輸出結果;似然則用來描述已知隨機變數及輸出結果時,未知引數的可能取值。
2.2)已知拋硬幣出現正面的概率為0.5,我們可以問硬幣落地時十次都是正面向上的「概率」是多少;如果我們不知道拋一次硬幣出現正面的可能性是多大,我們一共做了n次試驗,在這n次中,有2/n次出現了正面。那麼我們可以說,這枚硬幣正反面對稱的「似然」程度是多大。通過某個函式去衡量這種程度的函式就是似然函式。
3)需要注意的是離散型隨機變數的似然函式與連續性隨機變數的似然函式不同。
3.1)離散隨機變數的似然函式:
3.2)連續隨機變數的似然函式(後面的f(x)為概率密度函式):
4)線性回歸:通過代價函式對所有引數求偏導數,以偏導數等於零,可以求得引數西塔向量,但有些是無法直接求出的(因為當樣本量很大時,求引數西塔的正規方程的計算量成倍增加,因為裡面涉及到矩陣相乘,所以對於樣本量很大時,正規方程並不適用),需要採用梯度下降的方式。)
學習機器學習之線性回歸的概念
在二維平面內,有一些資料集,分別對應的有x值和y值,然後x與y之間有對應的函式關係。而我們說的線性回歸,就是擬合出一條直線段,讓盡可能多的資料集在直線段附近,擬合出最好的一條線段。描述y和x之間關係的函式表示式我們可以寫為 0 1?1 2?2 如何確定好?的值,使得?盡可能接近y的值。均方誤差是回歸...
機器學習 機器學習入門04 線性回歸
總的來說,分類 classification 和回歸 regression 是機器學習中的兩大類問題。它們其實都是在做同一件事情 將輸入轉化為輸出。區別在於,分類得到的輸出是離散值,例如之前的癌症問題中的良性 0 和惡性 1 而回歸的得到的輸出是連續值。本篇文章,將開始討論回歸問題。我們從最簡單的線...
Python學習(機器學習 多變數線性回歸)
通過scale feature利用梯度下降法求theta 直接代入推導出來的theta公式 通過驗算測試引數,可以得知兩個方法 結果相同 part1 load data print loading data.n f open c python27 machinelearning ex1data2.t...