老早之前寫過一些深度學習框架的常識。但是太不具體了。這次出乙個系列的,今天就單獨寫keras的相關知識。
張量概念介紹
張量概念是向量概念和矩陣概念的推廣,標量是零階張量,向量是一階張量,矩陣(方陣)是二階張量,而三階張量則好比立體矩陣,
兩個張量的點積就是將a張量的最後乙個軸中的所有元素,與b張量中倒數第二個軸的所有元素對應相乘後相加的結果,也就是
dot(a, b)[i,j,k,m] = sum(a[i,j,:] * b[k,:,m])。如果有線性代數的基礎,張量的計算理解會比較簡單。
keras中常用到的工具包:
numpy----高效能計算庫,線性代數功能,max_row=np.max(a,axis=1)//1是行max_col=np.max(a,axis=0)//0是列
printf(np.argsort(a))正序排列printf(np.argsort(-a))逆序排列
matplotlib---影象繪製庫,專門寫過這個的應用部落格,不多說了
pandas----資料分析工具,head,tail方法擷取資料前後若干行,data.describe()獲取資料的屬性描述data.info()獲取資料型別和其他資訊。可以使用matplotlib的方法繪圖
scipy----科學計算庫,常用於讀取儲存matlab中的mat檔案,提供很多數理統計函式。函式插值功能,曲線擬合功能。
mark一些經典**
#使用序貫模型作為模型的容器
model = sequential()
#卷積層
model.add(conv2d(name='block1',
input_shape=(32,32,3),
filters=32,
kernel_size=3
strides=1,
activation='relu'
padding=0))
model.add(maxpool2d(name='block_1_maxpool',
pool_size=2,
stride=2,
padding=0))
#防止過擬合
model.add(dropout(rate=0.25))
下一節介紹一些pytorch 的知識。
Keras深度學習框架之損失函式
損失函式 也稱目標函式或優化評分函式 是編譯模型時所需的兩個引數之一。model.compile loss mean squared error optimizer sgd 或from keras import losses model.compile loss losses.mean square...
Keras深度學習框架配置
專案 是在windows 7上執行的,主要用到的matlab r2013a和python,其中matlab用於patch的分割和預處理,卷積神經網路搭建用到了根植於python和theano的深度學習框架keras。keras是基於theano的乙個深度學習框架,它的設計參考了torch,用pyth...
深度學習 Keras框架學習筆記
看了很多前輩對深度學習框架的介紹,雖然很多新人會用tensorflow,但是keras 更加簡單精簡,更受深度學習初學者的青睞。keras是乙個高層神經網路api,keras由純python編寫而成並基tensorflow theano以及cntk後端。keras在以下場景會大放異彩 網路層 損失函...