只會列出常見方法和常用引數
module是所有模型的父類,因此以下方法中都是各個模型的通用方法
輸出
children()
與此對應的方法是named_children():返回的是字典,還有modules(),返回包括內層
cpu()/cuda()
eval()/train()
load_state_dict(state_dict, strict=true)
從乙個state_dict載入引數到模型之中,如果strict為true,則要求key嚴格對應
輸出
state_dict()方法:乙個moudle的parameters和buffers(無需反向更新的引數)
paramters()
name_parameters():輸出為字典
sequential接受乙個*args(不限長引數)的輸入,輸入為modules,將之連線起來稱為乙個新的模型
和常規的list與dict類似,方法基本相同,元素是module,沒有forward方法
同上,元素是parameter
conv1d(in_channels, out_channels, kernel_size, stride=1, padding=0, dilation=1, groups=1, bias=true, padding_mode=『zeros』)
輸入:(n,
cin,
lin)
(n, c_,l_)
(n,cin
,li
n)
輸出:(n,
cout
,lou
t)
(n, c_, l_)
(n,cou
t,l
out
)
conv2d(in_channels, out_channels, kernel_size, stride=1, padding=0, dilation=1, groups=1, bias=true, padding_mode=『zeros』)需要注意的是二維卷積的排列使用的是nchw排列的方式,keras預設的是nhwc,但是可以依據
data_format
引數修改
還有逆卷積和滑動視窗不常用
maxpool1d(kernel_size, stride=none, padding=0, dilation=1, return_indices=false, ceil_mode=false)
輸入:(n,
c,li
n)
(n, c, l_)
(n,c,l
in)
輸出:(n,
c,lo
ut
)(n, c, l_)
(n,c,l
out
)
maxpool2d(kernel_size, stride=none, padding=0, dilation=1, return_indices=false, ceil_mode=false)其他的平均值池化等引數相同
嵌入層會將用index表示的詞語對映到d
dd維向量上去
embedding(num_embeddings, embedding_dim, padding_idx=none, max_norm=none, norm_type=2.0, scale_grad_by_freq=false, sparse=false, _weight=none)輸入: 由index組成的tensor(n,
seq_
len)
(n, seq\_len)
(n,seq
_len
)輸出: (n,
seq_
len,
d)
(n, seq\_len, d)
(n,seq
_len
,d)
rnn(input_size, hidden_size, num_layers, nonlinearity=『tanh』, bias=true, batch_first=false, dropout=0, bidirectional=false)
輸入
輸出
基本和rnn一樣
輸出
batchnorm2d(num_features, eps=1e-05, momentum=0.1, affine=true, track_running_stats=true)
輸入: (n,
c,h,
w)
(n,c,h,w)
(n,c,h
,w)輸出: (n,
c,h,
w)
(n,c,h,w)
(n,c,h
,w)
一維的批歸一化和三維的引數和輸出類似
dropout(p=0.5, inplace=false)
dropout1d,dropout2d類似
relu(inplace=false)
雲端專有網路構建與管理
01計算機網路基礎 主要介紹計算機網路基本概念 七層網路和各層常見協議與裝置,以及虛擬區域網的相關知識。02雲上網路架構 主要介紹傳統資料中心和雲資料中心對網路架構的需求,以及雲計算網路架構設計知識。03雲上專有網路與經典網路 主要介紹雲上專有網路與經典網路的相關概念 區別和使用場景。04在雲端搭建...
網路優化與超引數選擇
可以認為與網路中的可訓練引數成正比。網路中的神經單元數越多,層數越多,神經網路的擬合能力越強。但是訓練速度 難度越大,越容易產生過擬合。所謂超引數,也就是搭建神經網路中,需要我們自己如選擇 不是通過梯度下降演算法去優化 的那些引數。比如,中間層的神經元個數 學習速率。一種顯然的想法是增大網路容量 1...
yolo網路引數的解析與儲存
參考 yolo網路分析 yolo v3 解析 yolo網路結構定義的cfg檔案 yolo中的網路採用和caffe差不多的方式。都是通過乙個順序堆疊layer對神經網路結構進行定義的檔案。區別在於 yolo採用自己定義的cfg檔案格式,需要自己實現解析功能。而caffe無需自己實現解析檔案的功能,但缺...