機器學習分類:回歸,分類
回歸:最終得到的是在乙個區間上真正(實際)的值
分類:最終得到的是個邏輯值0/1,是與不是,能與不能之類的答案
名詞解釋:
擬合:擬合就是把平面上一系列的點,用一條光滑的曲線連線起來。因為這條曲線有無數種可能,從而有各種擬合方法。擬合的曲線一般可以用函式表示,根據這個函式的不同有不同的擬合名字。
最小二乘法:最小二乘法(又稱最小平方法)是一種數學
優化技術。它通過最小化誤差的平方和尋找資料的最佳
函式匹配。利用最小二乘法可以簡便地求得未知的資料,並使得這些求得的資料與實際資料之間誤差的平方和為最小。最小二乘法還可用於
曲線擬合
。其他一些優化問題也可通過最小化能量或最大化熵用
最小二乘法
來表達回歸問題舉例:
對問題進行數學化:
x1,x2就是我們的兩個特徵值(年齡,工資),而y是最終銀行會借給我們多少錢。
需要解決的問題就是:找到一條來最好擬合我們資料的點。
最終得到的整合的h(x)主要是為了使資料看起來更加的整齊,也方便以後的矩陣運算。
誤差分析:
誤差三個特性:獨立,同分布,高斯分布
似然函式求解:
eg:簡化運算:log(ab) = loga + logb
目標函式求解:求j(0)的最小值 注意:樣本服從高斯分布且獨立,其最大似然估計就可以用最小二乘形式表示。
x,y為已知的資料,即可求得佘塔
評估方法:
來自為知筆記(wiz)
01 線性回歸
import keras import numpy as np import matplotlib.pyplot as plt from keras.models import sequential 按順序構成的模型 如一層層構成的神經網路 from keras.layers import dens...
01 線性模型 線性回歸與邏輯回歸
線性模型 試圖學得乙個屬性的線性組合來進行 的函式 f x w 1x 1 w 2x 2 w dx d b 向量模式 f x w tx b 簡單 基本 可解釋性好 可看出每部分屬性所做的貢獻 可用於分類和回歸 多個特徵 h x sum theta ix i theta tx 損失函式mse j the...
線性回歸演算法
1 有監督學習 supervised learning 不僅把訓練資料丟給計算機,而且還把分類的結果 資料具有的標籤 也一併丟給計算機分析。計算機進行學習之後,再丟給它新的未知的資料,它也能計算出該資料導致各種結果的概率,給你乙個最接近正確的結果。由於計算機在學習的過程中不僅有訓練資料,而且有訓練結...