首先還是要感謝平台給了自己一次學習的機會。自己平常也會跟著書上的內容敲敲**,但對於理論知識還是一知半解。每節課後的習題給了自己乙個鞏固複習的機會,讓自己能夠清楚學習的重點,查漏補缺。
在這幾天的學習中,自己的收穫也很多。首先對於欠擬合和過擬合問題。在訓練模型中經常會遇到兩類典型問題:一類是模型無法得到較低的訓練誤差,我們將這一現象稱作過擬合;另一類是模型的訓練誤差遠小於它在訓練資料集上的誤差,我們稱該現象為過擬合。
在應對過擬合問題時,我們常用到正則化的方式。權重衰減等於l2範數正則化。正則化通過為模型損失函式新增懲罰項使學出的模型引數值較小,是應對過擬合的常用方式。l2範數正則化在模型原損失函式基礎上新增l2範數懲罰項,從而得到訓練所需要最小化的函式。l2範數懲罰項指的是模型權重引數每個元素的平方和與乙個正的常數的乘積。
接著,我認識到在深度模型的建立中,數值穩定性是乙個需要考慮的問題。其中的典型問題是衰減和**。當神經網路的層數較多時,模型的數值穩定性容易變差。而這時,使用批量歸一化的方式可以使增強數值穩定性。
在這幾天的學習中,也初步接觸了卷積神經網路。卷積神經網路奠定了深度學習在計算機視覺領域發展的基礎。卷積神經網路是含有卷積層的神經網路。在學習中,我明確了卷積運算與互相關運算之間的關係。學習了卷積神經網路中卷積層和池化層的工作原理,以及填充、步幅、輸入通道、輸出通道、特徵圖和感受野的含義,並且學習了幾個具有代表性的深度卷積神經網路,如alexnet等。
在本次學習中,自己又進一步了解了自然語言處理方面的知識。對於迴圈神經網路又有了更新一步的認識。但自己的基礎不是很好,對於這一部分的知識還需要自己多下功夫。這次打卡算是對自己這幾天的學習做了乙個簡單的總結。希望自己能在接下來的幾天裡繼續努力,堅持學習。
第二次打卡
主成分分析法 principal component analysis,pca 就是一種運用線性代數的知識來進行資料降維的方法,它將多個變數轉換為少數幾個不相關的綜合變數來比較全面地反映整個資料集。這是因為資料集中的原始變數之間存在一定的相關關係,可用較少的綜合變數來綜合各原始變數之間的資訊。這些綜...
學習筆記第二次打卡
讀入文字 分詞建立字典,將每個詞對映到乙個唯一的索引 index 將文字從詞的序列轉換為索引的序列,方便輸入模型 建立詞典 class vocab object def init self,tokens,min freq 0,use special tokens false counter coun...
PANDAS第二次打卡
第2章 索引 import numpy as np import pandas as pd df pd.read csv data table.csv index col id df.head school class gender address height weight math physic...