本次部落格為複習線行代數知識,因為線性代數是理解神經網路必修學科。
1.線性向量空間
在我個人看來他就是滿足一定的式子的抽象概念,具體如下:
****設v是乙個非空集合,p是乙個域。若:
1.在v中定義了一種運算,稱為加法,即對v中任意兩個元素α與β都按某一法則對應於v內惟一確定的乙個元素α+β,稱為α與β的和。
2.在p與v的元素間定義了一種運算,稱為純量乘法(亦稱數量乘法),即對v中任意元素α和p中任意元素k,都按某一法則對應v內惟一確定的乙個元素kα,稱為k與α的積。
3.加法與純量乘法滿足以下條件:
α+β=β+α,對任意α,β∈v.
α+(β+γ)=(α+β)+γ,對任意α,β,γ∈v.
存在乙個元素0∈v,對一切α∈v有α+0=α,元素0稱為v的零元.
對任一α∈v,都存在β∈v使α+β=0,β稱為α的負元素,記為-α.
對p中單位元1,有1α=α(α∈v).
對任意k,l∈p,α∈v有(kl)α=k(lα).
對任意k,l∈p,α∈v有(k+l)α=kα+lα.
簡單來講,線性無關就是線性相關的對立面,所以要了解線性無關,只需要知道何為線性相關,然後給他反過來,就是線性無關唄。以下是官方給出的概念:
如果v是乙個線性空間,如果存在不全為零的係數c1, c2, …, cn∈f,使得c1v1+ c2v2+ … + cnvn= 0,那麼其中有限多個向量v1, v2, …, vn稱為線性相關的.
反之,稱這組向量為線性無關的。更一般的,如果有無窮多個向量,我們稱這無窮多個向量是線性無關的,如果其中任意有限多個都是線性無關的。
3.生成空間
如果說空間中的每個向量都能寫成該子集中向量的線性組合,那麼這個子集就能生成乙個空間。
在這裡簡單介紹一下基集的概念;由生成x的線性無關的向量所組成的集合就是x的基集。
4.正交性
在同一向量空間的兩個向量內積為零,那麼這兩個向量是正交的。
歡迎挑錯。本次部落格就複習到這啦!
神經網路學習筆記
隱含層數越多,越容易擬合複雜函式 為了擬合複雜函式需要的隱含節點數目,基本上隨著隱含層數目的增加呈現指數下降的趨勢,也就是說層數越多,神經網路所需要的隱含節點可以越少。層數越深,概念越抽象,需要背誦的知識點 神經網路的隱含節點 就越少。但是,層數越多,容易出現過擬合以及引數難以除錯以及梯度瀰散的問題...
神經網路學習筆記
sigmoid函式是一種常見的擠壓函式,其將較大範圍的輸入擠壓到 0 1 區間內,其函式的表示式與形狀如下圖所示 該函式常被用於分類模型,因為其具有很好的乙個特性f x f x 1 f x 這個函式也會被用於下面的神經網路模型中做啟用函式。生物的神經網路系統中,最簡單最基本的結構是神經元。每個神經元...
神經網路 學習筆記
神經網路是用來解決分類問題的模型。他與感知機有著緊密的聯絡。神經網路中,神經元接收到的總輸入將與神經元的閾值進行比較,然後通過 啟用函式 處理以產生神經元的輸出。最理想的啟用函式是階躍函式,但是他不連續,不光滑,所以,採用sigmoid函式來進行替代。感知機只有輸出層神經元進行啟用函式處理,即只擁有...