m=training examples
x=input (feature)
y=output (target)
(x,y)代表乙個訓練樣本
ti=(xi,yi)
trainingset->training algorithm->output function h (hypothesis 假設)
h function 輸入乙個房子的面積,輸出乙個預計的房價;
h將x對映至y;
一般需要輸入多個維度的特徵值;x變成了乙個代表,代表輸入的一組(x1,x2)
事實上輸入的x是(x1,x2) , h(x)=k1+k2x1+k3x2=hk;
矩陣k=[k1,k2,k2],x=[x1,x2] ->hk=kt x
而k就是訓練得來的適應性引數;
而我們的目標是使得 1/2*(h(x)-y)^2盡量小,也就是**值盡量和實際值一致;
使用方差;
搜尋演算法
先給引數向量乙個初始值,比如零向量,然後不斷的改變引數,直到方差減小到最小值;
梯度下降
梯度,則是由函式的未知引數例如x,y的偏導數組成的向量,稱為梯度,每乙個未知數的偏導數意味著在該維度的導數,在該維度的增長速度,所以當兩個維度的數確定,可以確定在該已知的函式值和未知數構成的三維圖中從哪變化的最快,函式值增長的越快;
然後將每個k值更新為每次步長後的地方的k值,然後迭代求;一直求到函式最小值;
特徵值,那些訓練樣本;步長則是每次向量的具體標量a;
獲得演算法 k=k-a(y-h(x))x;
其中批量梯度下降使用了所有的訓練樣本,隨機梯度下降每次只使用乙個樣本;
然後最小二乘法,是將引數和特徵值化為矩陣,然後根據矩陣的特性來求的最小的函式差;
機器學習筆記 監督學習,無監督學習,半監督學習
這個問題可以回答得很簡單 是否有監督 supervised 就看輸入資料是否有標籤 label 輸入資料有標籤,則為有監督學習,沒標籤則為無監督學習。什麼是學習 learning 學習 乙個成語就可概括 舉一反三。此處以高考為例,高考的題目在上考場前我們未必做過,但在高中三年我們做過很多很多題目,懂...
機器學習日記 監督學習 無監督學習
監督學習是指 利用一組已知類別的樣本調整 分類器的 引數,使其達到所要求效能的過程,也稱為 監督訓練或有教師學習。無監督學習 現實生活中常常會有這樣的問題 缺乏足夠的 先驗知識 因此難以人工標註類別或進行人工類別標註的成本太高。很自然地,我們希望計算機能代我們完成這些工作,或至少提供一些幫助。根據類...
機器學習中的有監督學習,無監督學習,半監督學習
在機器學習 machine learning 領域,主要有三類不同的學習方法 監督學習 supervised learning 非監督學習 unsupervised learning 半監督學習 semi supervised learning 監督學習 通過已有的一部分輸入資料與輸出資料之間的對應...