在通過卷積獲得了特徵 (features) 之後,下一步我們希望利用這些特徵去做分類。理論上講,人們可以用所有提取得到的特徵去訓練分類器,例如 softmax 分類器,但這樣做面臨計算量的挑戰。例如:對於乙個 96x96 畫素的影象,假設我們已經學習得到了400個定義在8x8輸入上的特徵(即400個feature map,每個feature map的size為8*8),每乙個特徵和影象卷積都會得到乙個 (96 − 8 + 1) * (96 − 8 + 1) = 89*89 維的卷積特徵,由於有 400 個特徵,所以每個樣例 (example) 都會得到乙個 89*89* 400 = 3,168,400 維的卷積特徵向量。學習乙個擁有超過 3 百萬特徵輸入的分類器十分不便,並且容易出現過擬合 (over-fitting)。
為了解決這個問題,首先回憶一下,我們之所以決定使用卷積後的特徵是因為影象具有一種「靜態性」的屬性,這也就意味著在乙個影象區域有用的特徵極有可能在另乙個區域同樣適用。因此,為了描述大的影象,乙個很自然的想法就是對不同位置的特徵進行聚合統計,例如,人們可以計算影象乙個區域上的某個特定特徵的平均值 (或最大值)。這些概要統計特徵不僅具有低得多的維度 (相比使用所有提取得到的特徵),同時還會改善結果(不容易過擬合)。這種聚合的操作就叫做池化 (pooling),有時也稱為平均池化或者最大池化 (取決於計算池化的方法)。
再舉乙個進行pooling的例子,該例子可以用於說明有重疊的pooling和無重疊的pooling兩種池化方式:
總之,卷積網路的核心思想是將:區域性感受野、權值共享(或者權值複製)以及時間或空間亞取樣這三種結構思想結合起來獲得了某種程度的位移、尺度、形變不變性。
深度學習介紹
深度學習與機器學習的區別 特徵提取方面 深度學習演算法試圖從資料中學習高階功能,這是深度學習的乙個非常獨特的部分。因此,減少了為每個問題開發新特徵提取器的任務。適合用在難提取特徵的影象 語音 自然語言領域 資料量 機器學習需要的執行時間遠少於深度學習,深度學習引數往往很龐大,需要通過大量資料的多次優...
深度學習入門介紹
深度學習是一種從訓練資料出發,經過乙個端到端 end to end 的模型,然後直接輸出得到最終結果的一種新模式。一般的機器學習處理流程如下 感測器獲得資料 預處理 特徵提取 特徵選擇 推理,或識別。預處理 特徵提取 特徵選擇,概況起來就是特徵表達,良好的特徵表達,對最終演算法的準確性起了非常關鍵的...
深度學習 Pytorch學習筆記(五)
pytorch實現卷積神經網路 執行效率相對於keras慢太多 import torch import warnings import torchvision from torchvision.datasets import mnist from torch.utils.data import da...