1
x_1x1
和x2
x_2x2
1x_1
x1的變換和輸入到x
2x_2
x2的變換,之後再用x
1x_1
x1和x
2x_2
x2來使用邏輯回歸來得到我們想要的結果。
當然,這裡有個細節就是紅框畫出來的部分,我們的分析中,作為線性變換,實際上相當於直接是讓z1=
x1′z_1=x_1'
z1=x1
′了,而這裡多了個啟用函式。這無關大雅,啟用函式分為很多種,也有最正常的不改變的函式,這裡使用啟用函式相當於是多了更多的選擇而已,有更好的普適性。
如果我們把每個做線性分類的整體看作是乙個"神經元",我們就可以看成是多層的神經元連線在了一起,從而它直接就有了個高大上的名字——神經網路。
一般來說,深度學習的定義就是,我們讓機器去學習更深層的,我們人也不好去描述出來的特徵,通過這些特徵來得到我們滿意的結果,可以說是純黑箱。而現在深度學習完全離不開神經網路,因此深度學習和神經網路這兩個概念彷彿就是姊妹一樣,兩者總是相伴的。
三個步驟說起來很簡單:找到合適的一系列函式框架,定義函式的好壞,找到這個框架中最好的引數。可以看到和最開始的機器學習是相同的,但是問題依舊是我們無法用理論來說明正確性,只能是煉丹,通過結果的好壞來說明模型的優劣。
一般在深度學習中,找到函式框架其實就是所謂的,如何去搭建神經網路了,因為神經網路本質上也是給定一組輸入,最後給出乙個輸出。使用多少神經元?使用多少種神經元?它們如何連線?內部如何計算?這一系列問題也引出了各種各樣很複雜的網路,大多是只能說一些理論的道理,反正最後結果好就完事了。
至於另外兩步,也就只能根據第一步的情況具體問題具體分析了。
全連線的意思即為,多層的神經網路,下一層的每個節點都和上一層的所有節點相連,構成乙個感知機模型。總得來說,這種全連線的網路是相對來說引數最多的神經網路。
之後根據上述所說的步驟,其實和單層的感知機就挺像的了。定義好各層的啟用函式後,模型就建立好了。然後根據是二分類,多分類還是回歸來定義損失函式,然後使用梯度下降即可。
當然,這裡的梯度下降不是很直觀,因為多層的網路看起來很複雜,引數也過多。比如中間啟用函式都sig
modsigmod
sigmod
函式的時候,式子其實如下所示。
這些將在後面的反向傳播這章總結;但總的來說,使用pytorch等框架可以讓框架自動去進行反向傳播而程式設計人員甚至完全不需要知道這個過程如何實現。
李巨集毅機器學習 學習筆記
function set就是model 機器學習3大步驟 1.定義模型 function 集合 2.指定模型 function 好壞的評價指標 3.通過演算法選擇到最佳的模型 function alphago下棋模型抽象為棋局向下一步的分類問題 減少擁有label的data用量的方法 1.semi ...
李巨集毅機器學習 Introduction
人工智慧是我們想要達到的目標,即讓機器和人一樣智慧型。而機器學習是方法,讓機器從資料中學習,從而得到智慧型的方法。智慧型是什麼呢?對於人類智慧型而言,根據霍華德 加德納的多元智慧型理論,人類的智慧型分為以下七種智慧型 這不僅涵蓋了現在人工智慧的研究領域,計算機視覺 語音識別 自然語言處理等。而且也指...
李巨集毅機器學習課程筆記 1
機器學習 自動找函式 f input output 1.regression 輸出是乙個數值 2.classification 分類 二分類 多分類 rnn 迴圈神經網路 cnn 卷積神經網路translation 繪二次元圖4.supervised learning 監督學習labeled dat...