往期回顧
常見的深度學習面試題及解答(一)
常見的深度學習面試題及解答(二)
1. 怎樣提公升網路的泛化能力?
從演算法調優上提公升效能:用可靠的模型診斷工具對模型進行診斷,權重的初始化,用小的隨機數初始化權重。對學習率進行調節,嘗試選擇合適的啟用函式,調整網路的拓撲結構,調節batch和epoch的大小,新增正則化的方法,嘗試使用其它的優化方法,使用早停法。
2. 什麼是 seq2seq model?
seq2seq屬於encoder-decoder 結構的一種,利用兩個rnn,乙個作為編碼,乙個作為解碼。編碼負責將輸入序列壓縮成指定長度的向量,這個向量可以看作這段序列的語義,而解碼負責根據語義向量生成指定的序列。
3. 啟用函式的作用?
啟用函式就是用來加入非線性因素的,提高神經網路對模型的表達能力,解決線性模型所不能解決的問題。
4. 梯度消失梯度**?
面試之深度學習中的梯度下降和梯度**
5. rnn容易梯度消失,怎麼解決?
梯度裁剪:既然在bp過程中會產生梯度消失(就是偏導無限接近0,導致長時記憶無法更新),那麼最簡單粗暴的方法,設定閾值,當梯度小於閾值時,更新的梯度為閾值。
lstm
6. lstm與rnn有什麼區別?
哪些細胞狀態應該被遺忘
哪些新的狀態應該被加入
根據當前的狀態和現在的輸入,輸出應該是什麼
7. 卷積層和池化層有什麼區別?
卷積層池化層
功能提取特徵
壓縮特徵圖,提取主要特徵
操作卷積操作會改變輸入特徵圖的通道數
不會改變輸入的通道數
特徵權值共享:減少引數的數量,並利用了影象目標的位置無關性
神經網路之卷積和池化(一)
神經網路之卷積和池化(二)
8. 面試之深度學習中的過擬合問題
面試之深度學習中的過擬合問題
9. cnn為什麼比dnn在影象識別更好?
dnn的輸入是向量形式,並未考慮到平面的資訊結構;cnn的輸入可以是tensor,例如二維矩陣,通過filter獲得區域性特徵,較好的保留了平面結構資訊。
10. 神經網路為什麼要用到交叉熵?
交叉熵就是用來判定實際的輸出與期望的輸出的接近程度。
常見深度學習面試題總結
目錄 最常見的幾個問題 分類 機器學習 特徵工程 深度學習 計算機視覺cv 自然語言處理nlp 推薦系統 深度之眼學習筆記 1.線性回歸與邏輯回歸區別,lr與svm區別和聯絡 2.svm原理 3.手撕svm,k means源 1.寫出全概率公式 貝葉斯公式 2.模型訓練為什麼要引入偏差 bias 和...
JAVA面試題及解答
第十六,set裡的元素是不能重複的,那麼用什麼方法來區分重複與否呢?是用 還是equals 它們有何區別?set裡的元素是不能重複的,那麼用iterator 方法來區分重複與否。equals 是判讀兩個set是否相等。equals 和 方法決定引用值是否指向同一物件equals 在類中被覆蓋,為的是...
深度學習筆試 面試題 三
1 宣告1 可以通過將所有權重初始化為0 來訓練網路。宣告2 可以通過將偏差初始化為0來很好地訓練網路 以上哪些陳述是真實的?a 1對2錯 b 1錯2對 c 1和2都對 d 1和2都錯 正確答案是 b 解析 即使所有的偏差都為零,神經網路也有可能學習。另一方面,如果所有的權重都是零 神經網路可能永遠...