1.輸入大小為200×200,依次經過一層卷積(kernel size 5×5,padding 1,stride 2),pooling(kernel size 3×3,padding 0,stride 1),又一層卷積(kernel size 3×3,padding 1,stride 1)之後,輸出特徵圖大小是多少?
分析:
(1) 只經過一層卷積和時尺寸改變:n−
f+1 n−f
+1
,其中n n
為輸入的尺寸,
f' role="presentation">f
f為卷積核的尺寸
(2) 在邊緣填充p層之後再經過一層卷積:n+
2p−f
+1n +2
p−f+
1(3) 卷積核的步長(stride)為s:n+
2p−f
s+1 n+2
p−fs
+1
(4) pooling與卷積核對尺寸的改變相同:n−
f+1 n−f
+1
,其中n n
為輸入尺寸,
f' role="presentation">f
f為pooling核的尺寸
第一層: si
ze1=
200+2×
1−52
+1=99.5
s iz
e1
=200+2
×1−5
2+1=
99.5
這就尷尬了,怎麼會有小數?
這種情況在googlenet中遇到過,解決的辦法就是:卷積向下取整,池化向上取整。
所以經過第一層卷積之後大小為98x98。
第二層: si
ze2=
99−3+
1=97 siz
e2=99
−3+1
=97
第三層: si
ze3=
97+2×
1−3+
1=97 siz
e3=97
+2×1
−3+1
=97
2.在統計模式識分類問題中,當先驗概率未知時,可以使用(bc)?
分析:
最小最大損失準則:考慮p(c)變化的條件下,是風險最小
最小誤判概率準則, 就是判斷p(c1|x)和p(c2|x)哪個大,x為特徵向量,c1和c2為兩分類,根據貝葉斯公式,需要用到先驗知識;
最小損失準則,最小最大損失準則基礎之上,還要求出p(c1|x)和p(c2|x)的期望損失,需要先驗概率
n-p判決,即限定一類錯誤率條件下使另一類錯誤率為最小的兩類別決策,即在一類錯誤率固定的條件下,求另一類錯誤率的極小值的問題,直接計算p(x|w1)和p(x|w2)的比值,不需要用到貝葉斯公式。
3.假定某同學使用***** bayesian(nb)分類模型時,不小心將訓練資料的兩個維度搞重複了,那麼關於nb的說法中正確的是:bd
4.下列哪些方法可以用來對高維資料進行降維:
各個降維方法總結:
機器學習筆試題(一)
判別方法 由資料直接學習決策函式 y f x 或者由條件分布概率 p y x 作為 模型,即判別模型。生成方法 由資料學習聯合概率密度分布函式 p x,y 然後求出條件概率分布p y x 作為 的模型,即生成模型。由生成模型可以得到判別模型,但由判別模型得不到生成模型。常見判別模型 k近鄰 svm ...
機器學習 機器學習試題 一
在網上找的一些試題及延伸的一些問題,以選擇題為主,主要是關於基礎理論知識,同時給出自己聯想到的一些問題。當然基礎問題應當包含演算法本身的過程和某些推導過程。比如 lr svm的推導。試題1 已知座標軸中兩點a 2,2 b 1,2 求 這兩點的曼哈頓距離 l1距離 答案 7 向量ab 3,4 l1 是...
機器學習筆試
分詞方法大致可分為三大類 基於字串匹配的分詞方法 機械分詞方法 基於統計的分詞方法和基於理解的分詞方法。機械分詞方法主要有整箱最大匹配演算法 逆向最大匹配演算法 雙向最大匹配演算法和最少切分演算法。id3演算法要求特徵必須離散化 主動學習方法 有時候,有類標號的資料比較稀少而沒有類標號的資料相當豐富...