如果我們用了乙個過大的學習速率會發生什麼?
a、神經網路會收斂
b、不好說
c、都不對
d、神經網路不會收斂
正確答案是:d
解析學習率過大,會使得迭代時,越過最低點。學習率即求導梯度前的係數,若學習率過大則引數更新過大,越過最低點導致無法收斂。
在乙個神經網路中,下面哪種方法可以用來處理過擬合?
a、dropout
b、分批歸一化(batch normalization)
c、正則化(regularization)
d、都可以
正確答案是:d
解析:都可以。對於選項c,分批歸一化處理過擬合的原理,是因為同乙個資料在不同批中被歸一化後的值會有差別,相當於做了data augmentatio。
批規範化(batch normalization)的好處都有啥?
a、讓每一層的輸入的範圍都大致固定
b、它將權重的歸一化平均值和標準差
c、它是一種非常有效的反向傳播(bp)方法
d、這些均不是
- 批量歸一化(batch normalization簡稱bn,其中,normalization是資料標準化或歸一化、規範化,batch可以理解為批量,加起來就是批量標準化。解決在訓練過程中中間層資料分布發生改變的問題,以防止梯度消失或**、加快訓練速度)
我的深度搜尋和廣度搜尋的學習 題目記錄
1.數字的全排列 include include include using namespace std int a 10 這個陣列中乙個乙個放排的 int flag 10 這個陣列標記數字是否放入 int n void dfs int step 備註 乙個陣列進行標記,另乙個陣列進行放置的排列,一...
深度優先搜尋練習題目 城堡問題
總時間限制 1000ms 記憶體限制 65536kb 描述1 2 3 4 5 6 7 1 2 3 4 圖 1 wall no wall no wall 圖1是乙個城堡的地形圖。請你編寫乙個程式,計算城堡一共有多少房間,最大的房間有多大。城堡被分割成m n m 50,n 50 個方塊,每個方塊可以有0...
深度學習面試題目 1
1 二者都是整合學習演算法,都是將多個弱學習器組合成強學習器的方法。2 bagging 套袋法 從原始資料集中每一輪有放回地抽取訓練集,訓練得到k個弱學習器.對於分類 將這k個弱學習器以投票的方式得到最終的分類結果。對回歸問題 計算上述模型的均值作為最後的結果。所有模型的重要性相同 3 boosti...