1、假定你用乙個線性svm分類器求解二類分類問題,如下圖所示,這些用紅色圓圈起來的點表示支援向量
如果移除這些圈起來的資料,決策邊界(即分離超平面)是否會發生改變?
ayesbno
正確答案是: b
從資料的分布來看,移除那三個資料,決策邊界不會受影響。
2、如果將資料中除圈起來的三個點以外的其他資料全部移除,那麼決策邊界是否會改變?
b不會正確答案是: b
決策邊界只會被支援向量影響,跟其他點無關。
3、關於svm泛化誤差描述正確的是
a超平面與支援向量之間距離
bsvm對未知資料的**能力
csvm的誤差閾值
正確答案是: b
統計學中的泛化誤差是指對模型對未知資料的**能力。
4、以下關於硬間隔hard margin描述正確的是
asvm允許分類存在微小誤差
bsvm允許分類是有大量誤差
正確答案是:a
硬間隔意味著svm在分類時很嚴格,在訓練集上表現盡可能好,有可能會造成過擬合。
5、訓練svm的最小時間複雜度為o(n2),那麼一下哪種資料集不適合用svm?
a大資料集
b小資料集
c中等大小資料集
d和資料集大小無關
正確答案是:a
有明確分類邊界的資料集最適合svm
6、svm的效率依賴於
a核函式的選擇
b核引數
c軟間隔引數
d以上所有
正確答案是:d
svm的效率依賴於以上三個基本要求,它能夠提高效率,降低誤差和過擬合
7、支援向量是那些最接近決策平面的資料點a對
b錯正確答案是:a
支援向量就在間隔邊界上 ????
軟間隔會不成立吧,分類錯誤的更近。
8、svm在下列那種情況下表現糟糕
a線性可分資料
b清洗過的資料
c含雜訊資料與重疊資料點
正確答案是:c
當資料中含有雜訊資料與重疊的點時,要畫出乾淨利落且無誤分類的超平面很難
9、假定你使用了乙個很大γ值的rbf核,這意味著:
a模型將考慮使用遠離超平面的點建模
b模型僅使用接近超平面的點來建模
c模型不會被點到超平面的距離所影響
d以上都不正確
正確答案是: b
svm調參中的γ衡量距離超平面遠近的點的影響。
對於較小的γ,模型受到嚴格約束,會考慮訓練集中的所有點,而沒有真正獲取到資料的模式、對於較大的γ,模型能很好地學習到模型。
10、svm中的代價引數表示:
a交叉驗證的次數
b使用的核
c誤分類與模型複雜性之間的平衡
d以上均不是
正確答案是:c
代價引數決定著svm能夠在多大程度上適配訓練資料。
如果你想要乙個平穩的決策平面,代價會比較低;如果你要將更多的資料正確分類,代價會比較高。可以簡單的理解為誤分類的代價。
乙個月刷完機器學習筆試題300題(8)
1 對於下圖,最好的主成分選擇是多少 b30c35 dcan t say 正確答案是 b 主成分選擇使variance越大越好,在這個前提下,主成分越少越好。2 資料科學家可能會同時使用多個演算法 模型 進行 並且最後把這些演算法的結果整合起來進行最後的 整合學習 以下對整合學習說法正確的是 a單個...
乙個月刷完機器學習筆試題300題(9)
1 對於下面三個模型的訓練情況,下面說法正確的是 第一張圖的訓練錯誤與其餘兩張圖相比,是最大的 最後一張圖的訓練效果最好,因為訓練錯誤最小 第二張圖比第一和第三張圖魯棒性更強,是三個裡面表現最好的模型 第三張圖相對前兩張圖過擬合了 三個圖表現一樣,因為我們還沒有測試資料集 a 1 和 3 b 1 和...
頹廢的乙個月
哎,九月末到十月末實在是太頹廢了。其實是因為不想面對一些事。但現在想想,是我自己忘記了最初的夢想,之去追求一些有的沒的的,所以才如此不精進。記得那幾天玩的也不好,每每想到自己還沒學好,還是個醬油的時候,就很煩惱。室友也說我,為什麼最近不怎麼去實驗室了?我也不知道怎麼回答。甚至可以躺床上一整天,一直躺...