在大學的時候學習了機器視覺的相關知識
但對於機器學習的認知還只停留在感念層次上
現在乘著有時間,把以前的缺漏補上~
首先來闡述下本人對於機器學習的理解:機器學習就是使機器通過 「 學習 」(也有些書籍成為 「 訓練 」)來了解某種事物的特徵,從而在人類輸入乙個未知訊號時可以 「 推理」 (有些書籍稱為 「 演算 」)出該訊號的特徵這麼乙個過程。即:機器學習=學習+推理。然而,學習的資料是我們已經提前將資料的特徵整理好了丟給機器進行學習,而深度學習則不需要。
我們可以舉乙個簡單的例子:當我們去超市買水果的時候,如何分辨得出哪些是西瓜哪些是蘋果呢?顯然,如果讓一位嬰兒來選的話肯定是選不出來的,因為嬰兒沒有識別西瓜的蘋果的經驗,而我們卻可以輕而易舉地分辨出來,為什麼?因為我們可以根據以前學習過的經驗來判斷~如可以通過水果的大小來判斷、通過水果的顏色來判斷甚至通過水果的氣味等特徵進行判斷。
而機器學習就是將機器當作乙個沒有經驗的嬰兒,需要通過學習某些東西,才能正確地分析甚至預判某種事態,有個詞本人覺得十分地貼切:工作經驗。工作的時間越長,對於某件工作就越得心應手,機器學習也是如此~
而學習是學習什麼呢?
在了解機器學習之前,我們還得了解感知機,神經網路是由許許多多的神經元組成,而神經元的原理有何感知機很像,所以一下解析皆由感知機入手,機器學習模擬的是我們大腦的學習方法,而大腦則是通過各種外部刺激神經元使得大腦做出各種反應這個乙個過程,我們可以簡單地來看下神經元接收到訊號的處理過程:
從圖中我們可以看到,當外部感官接收到資訊源時,將訊號往神經元傳送,神經元被啟用後將做出相應的反應。而輸出s有乙個經典的公式可以表示:
其中的符號x表示輸入的訊號,而符號w則表示權重,符號b表示偏置。神經元被啟用的條件通常設定為輸出的訊號s數值大於或者等於1,而小於1則表示沒有被啟用。訊號乘以權重引數表示該訊號對於整個學習過程的重要程度,而偏置則是調整了整個神經元被啟用的容易程度,比如偏置設定為-1,輸入的訊號的加權總和超過0.1就會被啟用,而偏置設定為-20,則輸入的訊號的加權總和超過20才能被啟用。
下面通過乙個例子來說明神經元的學習過程,設定西瓜和蘋果i的大小和顏色都分別設定乙個值:
再來我們假設神經元已經經過了學習,得出權重 w1 = w2 = 1 ,偏置b1 = 0 ,那麼:
而我們為什麼要取值為1和0呢?因為換了乙個值之後,結果可能就完全不一樣了。
感知機有一套訓練神經網路權重和偏置的方法:
例如上面那個例子,如果權重變成了w1=1,w2= -1 ,b=0,則西瓜的輸出為:
s= 1x1+(-1)x1 +0 =0 經過啟用函式 step(s)=0 ,識別為蘋果。錯誤了~ 所以權重和偏置不可隨意設定。
而我們可以利用感知機的學習方法來計算出權重和偏置:
我們將 e =1代入:
將新計算的權重和偏置重新計算西瓜的識別:
再嘗試蘋果:
如此,新的權重的偏置即計算完成~
《深度學習入門-基於python的理論與實現》(日)齋藤康毅. 人民郵電出版社
機器學習 機器學習目錄
注 後期有時間的話會對每乙個演算法進行講解。1 普通線性回歸 2 廣義線性模型 3 邏輯回歸 4 線性判定分析1 決策樹基本原理與構建 2 cart演算法 3 回歸決策樹 4 分類決策樹1 貝葉斯定理與樸素貝葉斯 2 高斯貝葉斯分類器 3 多項式貝葉斯分類器 4 伯努利貝葉斯分類器 5 遞增式學習1...
機器學習 機器學習概論
3 模型評估與模型選擇 4.具體應用 統計學習 是關於計算機基於 資料 構建概率統計模型並運用模型對資料進行 分析 統計學習的三要素 模型在監督學習中,模型就是所要學習的條件概率分布或決策函式。這在後面的章節中會重點介紹。策略 評價模型的標準 用損失函式和代價函式來度量 錯誤的程度。1 幾種損失函式...
機器學習 機器學習基礎
資料集劃分的api 返回值 訓練特徵,測試特徵,訓練目標,測試目標 方式1 獲取小規模的資料集 importsklearn.datasets as datasets iris datasets.load iris 提取樣本資料 feature iris data target iris target...