計算機神經網路是一種模仿生物神經網路的神經中樞。神經網路由大量的神經元鏈結進行計算,大多數神經網路可以在外界的資訊基礎上改變內部結構,是一種逐漸適應學習的過程。在輸入和輸出之間複雜的關係進行建立模型,如同人類的神經元一樣,神經元與神經元之間的聯絡負責傳遞與加工資訊。
如上圖,生物神經網路則是在大腦神經系統學習之後,由視覺神經中樞來作出回應告訴大腦這是乙隻貓。
計算機神經網路則是給電腦input一張貓貓,由神經網路在進行大量資料訓練之後,判斷出這是乙隻貓而不是乙隻狗,最終output給我們訓練後較為準確的資訊。
如上圖,在隱藏層中則是計算機構建的神經網路層,具體的工作則是通過神經元節點之間進行資料交流和訓練,最終能夠實現識別,語音處理,文字處理等人工智慧的實現。
卷積神經網路最初是為解決影象識別方面的問題,為了得到更準確的結果,之後更延伸到其它應用如語音識別,文字資料等方面的研究。
最近比較熱門的alphago圍棋就是運用該項技術實現的。
例如卷積神經網路實現的影象識別,卷積就是說計算機並不是對每個畫素進行處理,而是對某一小塊區域的處理。這種做法加強了的連續性,使得神經網路能夠看清影象而不是單純的乙個點,這種做法能夠加強計算機對的理解,使得識別影象的準確率大大的提高。具體來說,卷積神經網路有乙個批量過濾器,持續不斷的在上滾動收集裡的資訊,每一次收集的時候都只是收集一小塊畫素區域,然後把收集來的資訊進行整理,這時候整理出來的資訊有了一些實際上的呈現,比如這時的神經網路能看到一些邊緣的資訊,然後在以同樣的步驟,用類似的批量過濾器掃過產生的這些邊緣資訊,神經網路從這些邊緣資訊裡面總結出更高層的資訊結構,比如說總結的邊緣能夠畫出眼睛,鼻子等等。再經過一次過濾,臉部的資訊也從這些眼睛鼻子的資訊中被總結出來。最後我們再把這些資訊套入幾層普通的全連線神經層進行分類,這樣就能得到輸入的能被分為哪一類的結果了。
下面是一張貓的,有長、寬、高 三個引數。對! 是有高度的! 這裡的高指的是計算機用於產生顏色使用的資訊。如果是黑白**的話,高的單位就只有1,如果是彩色**,就可能有紅綠藍三種顏色的資訊,這時的高度為3。我們以彩色**為例子。過濾器就是影像中不斷移動的東西,他不斷在收集小批小批的畫素塊,收集完所有資訊後,輸出的值,我們可以理解成是乙個高度更高,長和寬更小的」」。這個裡就能包含一些邊緣資訊。然後以同樣的步驟再進行多次卷積,將的長寬再壓縮,高度再增加,就有了對輸入更深的理解。將壓縮,增高的資訊巢狀在普通的分類神經層上,我們就能對這種進行分類了。
在每一次卷積的時候,神經層可能會無意地丟失一些資訊。這時,池化 (pooling) 就可以很好地解決這一問題。而且池化是乙個篩選過濾的過程,能將layer中有用的資訊篩選出來,給下乙個層分析。同時也減輕了神經網路的計算負擔 (具體細節參考)。也就是說在卷集的時候,我們不壓縮長寬,盡量地保留更多資訊,壓縮的工作就交給池化了,這樣的一項附加工作能夠很有效的提高準確性。
通過卷積一層一層的獲取有用的資訊,再通過池化功能最終能夠提高影象識別的準確性。
神經網路 卷積神經網路
這篇卷積神經網路是前面介紹的多層神經網路的進一步深入,它將深度學習的思想引入到了神經網路當中,通過卷積運算來由淺入深的提取影象的不同層次的特徵,而利用神經網路的訓練過程讓整個網路自動調節卷積核的引數,從而無監督的產生了最適合的分類特徵。這個概括可能有點抽象,我盡量在下面描述細緻一些,但如果要更深入了...
神經網路 卷積神經網路
1.卷積神經網路概覽 來自吳恩達課上一張,通過對應位置相乘求和,我們從左邊矩陣得到了右邊矩陣,邊緣是白色寬條,當畫素大一些時候,邊緣就會變細。觀察卷積核,左邊一列權重高,右邊一列權重低。輸入,左邊的部分明亮,右邊的部分灰暗。這個學到的邊緣是權重大的寬條 都是30 表示是由亮向暗過渡,下面這個圖左邊暗...
卷積神經網路 有趣的卷積神經網路
一 前言 最近一直在研究深度學習,聯想起之前所學,感嘆數學是一門樸素而神奇的科學。f g m1 m2 r 萬有引力描述了宇宙星河運轉的規律,e mc 描述了恆星發光的奧秘,v h d哈勃定律描述了宇宙膨脹的奧秘,自然界的大部分現象和規律都可以用數學函式來描述,也就是可以求得乙個函式。神經網路 簡單又...