a. j. smola and b. schölkopf, a tutorial on support vector regression, stat. comput. 2004, 14, 199-222.
v. d. sanchez, advanced support vector machines and kernel methods, neurocomputing 2003, 55, 5-20.
c. campbell, kernel methods: a survey of current techniques, neurocomputing 2002, 48, 63-84.
k. r. müller, s. mika, g. rätsch, k. tsuda, and b. schölkopf, an introduction to kernel-based learning algorithms, ieee trans. neural netw. 2001, 12, 181-201.
j. a. k. suykens, support vector machines: a nonlinear modelling and control perspective, eur. j. control 2001, 7, 311-327.
v. n. vapnik, an overview of statistical learning theory, ieee trans. neural netw. 1999, 10, 988-999.
b. schölkopf, s. mika, c. j. c. burges, p. knirsch, k. r. muller, g. ratsch, and a. j. smola, input space versus feature space in kernel-based methods, ieee trans. neural netw. 1999, 10, 1000-1017.
c. j. c. burges, a tutorial on support vector machines for pattern recognition, data min. knowl. discov. 1998, 2, 121-167.
kristin, p.b. and c. colin, support vector machines: hype or hallelujah? sigkdd explor. newsl., 2000. 2(2): p. 1-13.
以上部分摘自:http://www.support-vector-machines.org/svm_review.html
SVM 支援向量機 綜述
第一部分 引言 基於資料的機器學習是現代智慧型技術中的重要方面,研究從觀測資料 樣本 出發尋找規律,利用這些規律對未來資料或無法觀測的資料進行 包括模式識別 神經網路等在內,現有機器學習方法共同的重要理論基礎之一是統計學.傳統統計學研究的是樣本數目趨於無窮大時的漸近理論,現有學習方法也多是基於此假設...
SVM 經典疑問收錄
1.回顧一下,w與 i,xi,yi的關係式為 w i yi xi 其中i 1,2,3,n 我們初始化的 是乙個全為0的向量,即 1 2 3 n 0,w的值即為0.我們進行smo演算法時,每輪挑選出兩個變數 i,固定其他的 值,也就是說,那些從來沒有被挑選出來過的 值始終為0,而根據前面所學,支援向量...
經典機器學習演算法系列 svm
支援向量機是比較好的分類器。對iris資料集分類可以得到100 的準確率 資料python 如下 import numpy as np from sklearn import svm from sklearn.metrics import accuracy score a np.loadtxt ir...