匯入所需包和模組
import torch
from torch import nn
from torch.nn import init # 初始化模組
import numpy as np
import sys
".."
)import d2lzh_pytorch as d2l
定義模型
# 定義超引數
num_inputs, num_outputs, num_hiddens =
784,10,
256net = nn.sequential(d2l.flattenlayer(),
# 改變x的形狀
nn.linear(num_inputs, num_hiddens)
, nn.relu(),
# 使用relu啟用函式
nn.linear(num_hiddens, num_outputs),)
for params in net.parameters():
init.normal_(params, mean=
0, std=
0.01
)# 初始化引數
讀取資料,訓練模型
batch_size =
256# 設定批量大小為256
train_iter, test_iter = d2l.load_data_fashion_mnist(batch_size)
loss = torch.nn.crossentropyloss(
)optimizer = torch.optim.sgd(net.parameters(
), lr =
0.5)
num_epochs =
5# 迭代週期為5
Softmax回歸練習
整個流程包括以下四部分 1 定義演算法公式,也就是神經網路的forward時的計算 y softmax w.tx b 2 定義損失函式 h y y log y 並制定優化器 梯度下降 3 迭代的對資料進行訓練 4 在測試集或驗證集上對準確率進行評測 import tensorflow as tf 匯...
SoftMax回歸詳解
損失函式 梯度下降法求引數 omega b bb 實現與 logistic 回歸的關係 重點 關係 求導的關係 重點 from sklearn import datasets import numpy as np iris datasets.load iris 載入鳶尾花資料集 x iris dat...
深度學習基礎 實現Softmax回歸
matplotlib inline import d2lzh as d2l from mxnet import gluon,init from mxnet.gluon import loss as gloss,nn 在給出 之前,先介紹一下該資料集。fashion mnist資料集是比mnist資料...