本節內容:線性回歸的概念¶
主要學習以下5個方面:
1、線性回歸的一般形式:
有資料集 ,其中, ??=(??1;??2;??3;…;???),??∈?
其中n表示變數的數量,d表示每個變數的維度。
2、線性回歸損失函式、代價函式、目標函式
損失函式(loss function):度量單樣本**的錯誤程度,損失函式值越小,模型就越好。
代價函式(cost function):度量全部樣本集的平均誤差。
目標函式(object function):代價函式和正則化函式,最終要優化的函式。
常用的損失函式包括:0-1損失函式、平方損失函式、絕對損失函式、對數損失函式等;常用的代價函式包括均方誤差、均方根誤差、平均絕對誤差等。
3、線性回歸的優化方法:梯度下降法、牛頓法、擬牛頓法
4、線性回歸的評價指標:mse、rmse、mae、r2等
5、**實踐:
import numpy as np
from sklearn.linear_model import linearregression
import matplotlib.pyplot as plt
%matplotlib inline
lr = linearregression(fit_intercept=true)
lr.fit(x,y)
print(「估計的引數值為:%s」 %(lr.coef_))
print(『r2:%s』 %(lr.score(x,y)))
x_test = np.array([2,4,5]).reshape(1,-1)
y_hat = lr.predict(x_test)
print(「**值為: %s」 %(y_hat))
《資料探勘》組隊學習打卡1
有幸在組隊最後時刻加入戰隊,開始一段新的學習旅程。目前已完成task1的學習,關於賽題理解部分,本賽題屬於比較簡單的基礎型專案,適合作為入門。檢視訓練 測試資料概況 import numpy as np import pandas as pd path data train data pd.read...
《機器學習基礎》組隊學習第二次打卡
一 學習內容 貝葉斯概率模型 二 知識點梳理 1.相關概念 生成模型 在概率統計理論中,生成模型是指能夠隨機生成觀測資料的模型,尤其是在給定某些隱含引數的條件下。它給觀測值和標註資料序列指定乙個聯合概率分布。在機器學習中,生成模型可以用來直接對資料建模 例如根據某個變數的概率密度函式進行資料取樣 也...
《機器學習基礎》組隊學習第三次打卡
概率模型有時候既含有觀測變數,又含有隱變數或潛在變數,如果概率模型的變數都是觀測變數,那麼給定資料,可以直接用極大似然估計法,或貝葉斯估計方法估計模型引數,但是當模型含有隱變數時,就不能簡單的使用這些方法,em演算法就是含有隱變數的概率模型引數的極大似然估計法,或極大後驗概率估計法 em演算法的乙個...