這兩天主要學習的內容如下:
task01:線性回歸;softmax與分類模型;多層感知機(1天)
task02:文字預處理;語言模型;迴圈神經網路基礎(1天)
num_epochs =
3for epoch in
range(1
, num_epochs +1)
:for x, y in data_iter:
output = net(x)
l = loss(output, y.view(-1
,1))
optimizer.zero_grad(
)# reset gradient, equal to net.zero_grad()
l.backward(
) optimizer.step(
)print
('epoch %d, loss: %f'
%(epoch, l.item())
)
對於一些重要的步驟,例如optimizer.zero_grad()
,如果之前沒有學習過相應的內容,遺漏之後會導致神經網路並沒有沿著我們想要的方向訓練。
在這一部分也留下了一些之後要學習的內容,例如
對於task02而言,分詞部分不難理解,之前也接觸過一些中文分詞的工具,例如jieba等;關於rnn的部分,確實通過pytorch中的學習又加深了對它的理解。以前嘗試過使用rnn進行時間序列**,當時是使用keras、tensorflow實現,之後可以嘗試用pytorch再實現一遍。
在這一部分留下的疑點,例如:
如果可以的話,找乙個具體的時間**問題,之後用pytorch完整比較一下標準的rnn、gru和lstm。
Datawhale組隊學習Pandas
下面直接展示內聯 片。備註內容為學習後的感想與總結 author xuxt time 2020 12 14l def my func x return 2 x for i in range 5 l.my func i print l 定義 我的函式 輸入x,返回,2x,即輸入1,2,3,4,5可以得...
元組 datawhale組隊學習python基礎
元組 定義語法為 元素1,元素2,元素n 與列表不同,元組是 列表是。t1 1 10.31 python t2 1,10.31 python print t1,type t1 1,10.31,python print t2,type t2 1,10.31,python tuple1 1 2,3 4,...
Datawhale公益AI組隊學習Task3 5
一類是模型無法得到較低的訓練誤差,我們將這一現象稱作欠擬合 underfitting 另一類是模型的訓練誤差遠小於它在測試資料集上的誤差,我們稱該現象為過擬合 overfitting 在實踐中,我們要盡可能同時應對欠擬合和過擬合。雖然有很多因素可能導致這兩種擬合問題,在這裡我們重點討論兩個因素 模型...