另一種搭建神經網路的方法,並不定義類
#快速搭建乙個神經網路模組
net2=torch.nn.sequential(
#在這個括號裡面一層一層的壘神經元就好了
torch.nn.linear(2,
10),#如果中間有激勵函式,也加進來
torch.nn.relu(),
torch.nn.linear(10,
2))
等同於之前所使用的
#定義神經網路主要模組
class
net(torch.nn.module)
:def
__init__
(self,n_features,n_hidden,n_output)
:#feature 是特徵數,hidden是隱變數數
super
(net,self)
.__init__(
) self.hidden=torch.nn.linear(n_features,n_hidden)
#上為乙個隱藏層的定義,n_featrue指hidden接收的特徵數,n——hedeen為輸出的隱藏狀態數
self.predict=torch.nn.linear(n_hidden,n_output)
#**層,n_hidden為接收的隱藏層數量,n=n_output為回歸**就輸出乙個數量的數
#真正搭建神經網路在這裡
defforward
(self,x)
: x = f.relu(self.hidden(x)
) x = self.predict(x)
return x
觀察一下他們的輸出:
net(
(hidden)
: linear(in_features=
2, out_features=
10, bias=
true
)(predict)
: linear(in_features=
10, out_features=
2, bias=
true))
sequential((0
): linear(in_features=
2, out_features=
10, bias=
true)(
1): relu()(
2): linear(in_features=
10, out_features=
2, bias=
true
))
pytorch搭建神經網路入門
autograd自動求導 pytorch 是乙個基於python的科學計算包,用於代替numpy,可以利用gpu的效能進行計算 作為乙個深度學習平台。張量 tensor 類似於numpy中的ndarray,但還可以在gpu上使用,實現加速計算的效果。建立張量的幾種方式 建立乙個沒有初始化的矩陣張量 ...
PyTorch快速搭建神經網路及其儲存提取方法詳解
有時候我們訓練了乙個模型,希望儲存它下次直接使用,不需要下次再花時間去訓練 本節我們來講解一下pytorch快速搭建神經網路及其儲存提取方法詳解 一 pytorch快速搭建神經網路方法 先看實驗 import torch import torch.nn.functional as f 方法1,通過定...
pytorch搭建簡單的神經網路
主要是熟悉pytorch這個開源框架。這個網路主要是用來擬合y x 2這個函式用的 所以說很簡單啦 自己生成的訓練資料,全部用來做訓練集了。網路結構 乙個輸入的向量,一層隱藏層,一層輸出層。隱藏層用的relu啟用函式,輸出層什麼都沒加,直接線性輸出。from torch.autograd impor...