上面是前14個筆記的乙個示意圖,簡單了點,但是內容架構應該是有的,先容我再道一道,梳理下:
首先整體的第一周的課程是神經「網路」,對,通向神經網路的基礎的網路,其中講解了內容模組包括:
二分類問題簡單來說就是1和0的問題,也就是著名的cat 和 noncat問題,這個處理是靠輸入,然後計算機整合處理矩陣輸入,使用網路初等感知機進行輸出,這是乙個典型的判別網路模型
邏輯回歸問題,如果說二分類問題是分類問題的話,那麼這個可以簡單地理解成為回歸問題,對的,網路模型中基本上使用的最多的也就是分類問題(人臉識別,手寫體識別,貓識別)和回歸問題(房價預估),在這裡你要了解到的是邏輯回歸使用了最大似然估計,定義邏輯回歸函式和成本函式後,利用梯度下降進行損失最小化
梯度下降這一部分就是講解了梯度為何下降的,要清楚理解其中的權重更新,學習率,還有前後向的求導方法,可是梯度下降並不僅僅是這個乙個簡單的流程就能解決各種各樣複雜的問題,還有很多前輩們優化的方法,比如權重衰減,學習率衰減等,這個在後面會講到。
量化,這一部分其實是在教我們如何在硬體的基礎上更好的加快訓練速度和思維空間邏輯思考,它可以讓我們一次訓練多樣本,更簡單和更高效的完成訓練目標。但是python的numpy這乙個模組還是有必要去好好看下的,這也算是乙個建議了,希望下去好好努力下。
總結的稍微簡單了點,框架是有了的,希望在ai的路上有你我相伴,加油!
神經網路基礎
3.梯度下降 4.反向傳播 由線性分類 看基礎概念 邏輯回歸 線性回歸 只有一套引數,行為 是一套引數對某樣本的 值進行分類,線性分類 是由n套引數 結果有n個種類 行為 是分別對某樣本給出不同類別下的得分 使用softmax分類器後是概率 基礎損失函式 從某樣本在各類的的得分情況看損失 當正確的種...
神經網路基礎與人工神經網路
神經網路方面的研究很早就已出現,今天 神經網路 已是乙個相當大的 多學科交叉的學科領域。神經網路中最基本的成分是神經元模型。上圖中每個圓圈都是乙個神經元,每條線表示神經元之間的連線。我們可以看到,上面的神經元被分成了多層,層與層之間的神經元有連線,而層內之間的神經元沒有連線。為了理解神經網路,我們應...
神經網路基礎 迴圈神經網路RNN
在處理序列問題 如語言識別等 上,使用迴圈神經網路 recurrent neural networks,rnn 是很自然的方式 所謂迴圈神經網路,其實就是把上一時刻的資訊作為當前時刻輸入的一部分,從而實現資訊的傳遞 本文將先介紹基礎版rnn,並說明基礎版的問題,然後介紹改進版的迴圈神經網路lstm ...