為什麼要說線性回歸方程呢?
因為卷積神經網路的基礎是神經網路——神經網路的基礎就是線性回歸方程 !
最後得到乙個最優解, 使得用方程算的值 與 真值之間的差值(代價)最小
引申到神經網路中就是 a,b,c就是x1,x2,x3的權值 d就是偏置值
神經網路 就是通過 輸入的 x系列資料(訓練資料)和 y系列資料(訓練資料的標籤)去訓練 引數(權值 和 偏執值) ,每一次所有資料迴圈一次(迭代一次)就會算出乙個**值 然後 神經網路 會把這個 **值和你輸入的標籤 進行一次計算 ,通過 計算所的值(這個值就是看你裡真值還有多少的距離)去改變引數的大小 使引數越來越接近最優解 一直迭代到符合你的要求為止
就是線性擬合的是一條直線 去線性分布的資料可以 就如圖左資料 遇到非線性的資料 如圖右 效果就很差了
所以科學家為了解決這個問題就在計算的時候加了乙個非線性激勵函式,把線性轉為非線性(可以理解把左圖中綠色的直線變得彎曲) ——未來具體說激勵函式(等我覺得我知道了以後)
下圖就是神經網路的乙個計算單元
weight(權) bias(偏置值) activation function (激勵函式)
上圖就是計算的過程 訓練資料 乘 權值 加 偏置值 經過激勵函式 得出計算的值
下圖就是乙個計算單元在神經網路中的位置(右邊就是乙個簡單的神經網路)
就這樣經過多次迭代 計算引數 得到最優解 就是神經網路的訓練過程(一開始不要深究右圖 會讓自己混淆)
知道神經網路執行的大概流程就好
我有很多想寫 但是寫不出來—————
**於網路 如有問題可以聯絡我
深度學習 1
基本概念 訓練集,測試集 特徵值 監督學習 非監督學習 半監督徐熙 分類 回歸 概念學習 從某個布林函式的輸入輸出訓練樣例中推斷出該布林函式 例項集合x x 樣例 x 每乙個例項 c x 目標概念 學習目標 f x y 訓練集 training set data 訓練樣例training examp...
深度學習1
幾天無聊,看darknet的原始碼 1.學習率 訓練的時候看到輸出資訊沒有learning rate,進 看看,發現 network.c 裡面的get current rate net 就是獲取學習率的,列印出來的rate就是lr啦 另外,訓練densenet的時候,先burning in 1000...
深度學習1
深度學習概念理解 1.訓練集 一組資料用來訓練模型 2.驗證集 一組資料,用來調整模型引數 交叉驗證 3.測試集 與訓練集保持相同分布的一組分布,用來測試模型的好壞 不參與模型的引數調整 4.batchsize 一次用來訓練的樣本數目。太小,不收斂 太大,訓練速度下降,記憶體也可能支援不住 5.ep...