記錄一下自己的考試題目
一 選擇
1、給人臉打上標籤再讓模型進行學習訓練的方法,屬於( )
a.強化學習
b.半監督學習
c.監督學習
d.無監督學習
正確答案:c
2、下面哪幾種機器學習的分類,完全不需要人工標註資料?
a.半監督學習
b.強化學習
c.無監督學習
d.監督學習
正確答案:b.c
3、機器學習中e, t、p分別表示:
a. performance measure
b. task
c. performance
d. experience
正確答案: a, b,d
4、一般來說,在機器學習中,用計算機處理一幅的影象,維度是:
a.上萬維
b.二維
c.三維
d.一維
正確答案:a
5、向量x=[1,2,3,4,-9,0]的l1範數是多少(b)
a. 1
b. 19
c. 6
d. sqrt(111)
6、關於l1正則和l2正則 下面的說法正確的是(bd)
a. l2範數可以防止過擬合,提公升模型的泛化能力。但l1正則做不到這一點
b. l2正則化標識各個引數的平方的和的開方值。
c. l2正則化有個名稱叫「lasso regularization」
d.l1範數會使權值稀疏
7、fisher線性判別函式的求解過程是將n維特徵向量投影在 (2)中進行 。 (1)二維空間 (2)一維空間 (3)n-1維空間
8、以下描述中,對梯度解釋正確的是(ab)
a梯度是乙個向量,有方向有大小
b求梯度就是對梯度向量的各個元素求偏導
c梯度只有大小沒有方向
d梯度只有方向沒有大小
9、.標準差與方差的關係是(abc)
a標準差是方差的算術平方根
b標準差可以反映離散程度,也可以反映出樣本的量綱
c方差只能反映離散程度
d標準差的平方是方差
10、 假設你在卷積神經網路的第一層中有 5 個卷積核,每個卷積核尺寸為 7×7,具有零填充且步幅為 1。該層的輸入的維度是 224×224×3。那麼該層輸出的維度是多少?c
a. 217 x 217 x 3
b. 217 x 217 x 8
c. 218 x 218 x 5
d. 220 x 220 x 7
二 判斷題
(1)給定n個資料點,如果其中一半用於訓練,另一半用於測試,則訓練誤差和測試誤差之間的差別會隨著n的增加而減小(t)
(2)當訓練資料較少時更容易發生過擬合。(t)
(4)在核回歸中,最影響回歸的過擬合性和欠擬合之間平衡的引數為核函式的寬度。(t)
(7)梯度下降有時會陷於區域性極小值,但 em 演算法不會。(f)
(9)boosting 和 bagging 都是組合多個分類器投票的方法,二者都是根據單個分類器的正確率決定其權重。(f)
(11) 一般來說,回歸不用在分類問題上,但是也有特殊情況,比如logistic 回歸可以用來解決0/1分類問題。(t)
(13)回歸和分類都是有監督學習問題(t)
(15)在adaboost演算法中,所有被錯分的樣本的權重更新比例相同(t)
(17)增加卷積核的尺寸,一定能提高卷積神經網路的效能。(f)
(21)兩個變數相關,它們的相關係數 r 可能為 0 。(t)
三 簡答題
1 簡述模式和模式類的定義,老王和老頭分別代表什麼,哪乙個是模式,哪乙個是模式類?
2簡述判別函式的兩個影響因素
3簡述貝葉斯演算法的定義思路
4簡述pca的思路
5簡述lle的思路
四 程式填空題
kmeans演算法填空,採用matlab編寫(10個)
clear all;n=4;%設定聚類數目 (1)close all;
clc;
[m,n]=size(data);%表示矩陣data大小,m行n列
pattern=zeros(m,n+1);%生成0矩陣 (2)
center=zeros(n,n);%初始化聚類中心
pattern(:,1:n)=data(:,:);
for x=1:n
center(x,:)=data( randi(300,1),;);%第一次隨機產生聚類中心
end (3)
while 1 %迴圈迭代每次的聚類簇;
distence=zeros(1,n);%最小距離矩陣 (4)
num=zeros(1,n);%聚類簇數矩陣
new_center=zeros(n,n);%聚類中心矩陣
for x=1:m五 寫出流程for y=1:n
distence(y)=norm(data(x,:)-center(y,:));%計算到每個類的距離 (5)
end[~, temp]=min(distence);%求最小的距離 (6)
pattern(x,n+1)=temp;%劃分所有物件點到最近的聚類中心;標記為1,2,3; (7)
endk=0;
for y=1:n
for x=1:m
if pattern(x,n+1) = =y
new_center(y,:)=new_center(y,:)+pattern(x,1:n);
num(y)=num(y)+1;
endend
new_center(y,:)=new_center(y,:)/num(y);%求均值,即新的聚類中心;
if norm(new_center(y,:)-center(y,:))<0.1%檢查集群中心是否已收斂。如果是則終止。 (8)
k=k+1;
endend
if k==n
break;(9)
else
center=new_center;(10)
endend
[m, n]=size(pattern);
例: 利用遺傳演算法計算下面函式的最大值:
f(x)=xsin(10π*x)+2 -1=1.設定引數:選擇二進位制編碼,種群中個體數為40,每個種群長度為22,使用代溝為0.9,最大遺傳代數為25,交叉率為0.7,變異率為0.0017。
二進位制編碼:假設要求求解精度到6位小數,區間長度為2-(-1)=3,即需將區間分3/0.000001=3×10 等份。所以編碼的二進位制串長應為22位。
2.初始種群:
產生的方式:隨機
產生的結果:長度為22的二進位制串
1111010011100001011000
1100110011101010101110
1010100011110010000100
3.計算適應度:直接用目標函式作為適應度函式
①解碼:將個體i轉化為[-1,2]區間的實數:
i=<1000101110110101000111> → x=0.637197
②計算x的函式值(適應度):
f(x)=xsin(10πx)+2.0=2.586345
模式識別與機器學習(2)
參考部落格 隨機梯度下降 clear all x load ex2data ex2x.dat y load ex2data ex2y.dat x 1.15 1.9 3.06 4.66 6.84 7.95 10,14,16 x power x,0.5 y power x,0.5 m length y ...
模式識別與機器學習(4)
講了推理,以及主要收穫為,原來是對損失函式求導。不過公式不是很對,因為 clear x load ex4data ex4x.dat y load ex4data ex4y.dat m,n size x x ones m,1 x figure pos find y neg find y 0 plot ...
模式識別與機器學習(5)
clear x load ex5data ex5linx.dat y load ex5data ex5liny.dat x load linear regression ex2data ex2x.dat y load linear regression ex2data ex2y.dat plot x...