一、前向神經網路
1、寫出常用啟用函式
2、神經網路是否可將引數全部初始化為0?
3、多層感知機表示異或邏輯需要多少個隱層?
4、什麼是梯度消失和梯度**?如何避免?
5、寫出多層感知機的平方誤差和交叉熵的損失函式
6、解釋卷積操作中的稀疏互動和引數共享及其作用
7、乙個隱層需要多少隱節點才能夠實現包含n元輸入的任意布林函式?
8、多個隱層實現包含n元輸入的任意布林函式需要多少個節點和網路層?
9、relu系列的啟用函式的優點是什麼?有什麼侷限性?如何改進?
10、平方誤差損失函式和交叉熵損失函式分別適合什麼場景?
11、為什麼dropout可以抑制過擬合?
12、批量歸一化的基本動機和原理是什麼?cnn如何進行歸一化?
13、常用的池化操作有哪些?池化的作用是什麼?
14、卷積神經網路如何用於文字分類?
15、resnet的提出背景和核心理論是什麼?
16、根據損失函式推導各層引數更新的梯度計算公式。
二、迴圈神經網路
迴圈神經網路與前饋神經網路相比有什麼特點?
迴圈神經網路為什麼會出現梯度消失和梯度**?
lstm如何實現長短期記憶功能?
深度學習 百面機器學習 堆排序
堆的 實現 複雜度分析 二叉堆本質上是一種完全二叉樹,它分為兩個型別 最大堆 最大堆任何乙個父節點的值,都大於等於它左右孩子節點的值。最小堆 最小堆任何乙個父節點的值,都小於等於它左右孩子節點的值。二叉堆的根節點叫做堆頂。最大堆和最小堆的特點,決定了在最大堆的堆頂是整個堆中的最大元素 最小堆的堆頂是...
深度學習中常見問題
1.cai之前遇到乙個事情就是 無論輸入的是什麼,結果都是一樣的,並且同乙個生成的多個框的類別也都是一樣的 錯誤原因 test的網路沒有進行caffemodel的初始化 之前在實驗室跑deeplab 也出現過類似問題,因為test的prototxt中有一層的名字和caffemodel中的不一樣,導致...
百面機器學習
目錄 第一章 特徵工程 1.1特徵歸一化 1.2高維組合特徵的處理 特徵工程 對原始資料進行一系列工程處理,將其提煉為特徵。作為輸入給演算法和模型使用。本質上,特徵工程是乙個表示和展現資料的過程。特徵工程旨在去除原始資料中的雜誌。結構化資料 類似於資料庫中的乙個表,每乙個行列都有清晰的定義,包含數值...