**
libsvm-mat-加強工具箱介紹
歸一化函式:scaleforsvm
[train_scale,test_scale,ps]= scaleforsvm(train_data,test_data,ymin,ymax)
輸入:train_data:訓練集,格式要求與svmtrain相同。
test_data:測試集,格式要求與svmtrain相同。
ymin,ymax:歸一化的範圍,即將訓練集和測試都歸一化到[ymin,ymax],這兩個引數可不輸入,預設值為ymin=0,ymax=1,即預設將訓練集和測試都歸一化到[0,1]。
輸出:train_scale:歸一化後的訓練集。
test_scale:歸一化後的測試集。
ps:歸一化過程中的對映(方便反歸一化使用)。
pca降維預處理函式:pcaforsvm
[train_pca,test_pca] = pcaforsvm(train_data,test_data,threshold)
輸入:train_data:訓練集,格式要求與svmtrain相同。
test_data:測試集,格式要求與svmtrain相同。
threshold:對原始變數的解釋程度([0,100]之間的乙個數),通過該閾值可以選取出主成分,該引數可以不輸入,預設為90,即選取的主成分預設可以達到對原始變數達到90%的解釋程度。
輸出:train_pca:進行pca降維預處理後的訓練集。
test_pca:進行pca降維預處理後的測試集。
網格引數尋優函式(分類問題):svmcgforclass
[bestcvaccuracy,bestc,bestg]=svmcgforclass(train_label,train,cmin,cmax,gmin,gmax,v,cstep,gstep,accstep)
輸入:train_label:訓練集的標籤,格式要求與svmtrain相同。
train:訓練集,格式要求與svmtrain相同。
cmin,cmax:懲罰引數c的變化範圍,即在[2^cmin,2^cmax]範圍內尋找最佳的引數c,預設值為cmin=-8,cmax=8,即預設懲罰引數c的範圍是[2^(-8),2^8]。
gmin,gmax:rbf核引數g的變化範圍,即在[2^gmin,2^gmax]範圍內尋找最佳的rbf核引數g,預設值為gmin=-8,gmax=8,即預設rbf核引數g的範圍是[2^(-8),2^8]。
v:進行cross validation過程中的引數,即對訓練集進行v-fold cross validation,預設為3,即預設進行3折cv過程。
cstep,gstep:進行引數尋優是c和g的步進大小,即c的取值為2^cmin,2^(cmin+cstep),…,2^cmax,,g的取值為2^gmin,2^(gmin+gstep),…,2^gmax,預設取值為cstep=1,gstep=1。
accstep:最後引數選擇結果圖中準確率離散化顯示的步進間隔大小([0,100]之間的乙個數),預設為4.5。
輸出:bestcvaccuracy:最終cv意義下的最佳分類準確率。
bestc:最佳的引數c。
bestg:最佳的引數g。
網格引數尋優函式(回歸問題):svmcgforregress
[bestcvmse,bestc,bestg]=svmcgforregress(train_label,train,cmin,cmax,gmin,gmax,v,cstep,gstep,msestep)
其輸入輸出與svmcgforclass類似,這裡不再贅述。
利用pso引數尋優函式(分類問題):psosvmcgforclass
[bestcvaccuracy,bestc,bestg,pso_option]=psosvmcgforclass(train_label,train,pso_option)
輸入:train_label:訓練集的標籤,格式要求與svmtrain相同。
train:訓練集,格式要求與svmtrain相同。
pso_option:pso中的一些引數設定,可不輸入,有預設值,詳細請看**的幫助說明。
輸出:bestcvaccuracy:最終cv意義下的最佳分類準確率。
bestc:最佳的引數c。
bestg:最佳的引數g。
pso_option:記錄pso中的一些引數。
利用pso引數尋優函式(回歸問題):psosvmcgforregress
[bestcvmse,bestc,bestg,pso_option]=psosvmcgforregress(train_label,train,pso_option)
其輸入輸出與psosvmcgforclass類似,這裡不再贅述。
利用ga引數尋優函式(分類問題):gasvmcgforclass
[bestcvaccuracy,bestc,bestg,ga_option]=gasvmcgforclass(train_label,train,ga_option)
輸入:train_label:訓練集的標籤,格式要求與svmtrain相同。
train:訓練集,格式要求與svmtrain相同。
ga_option:ga中的一些引數設定,可不輸入,有預設值,詳細請看**的幫助說明。
輸出:bestcvaccuracy:最終cv意義下的最佳分類準確率。
bestc:最佳的引數c。
bestg:最佳的引數g。
ga_option:記錄ga中的一些引數。
利用ga引數尋優函式(回歸問題):gasvmcgforregress
[bestcvmse,bestc,bestg,ga_option]=gasvmcgforregress(train_label,train,ga_option)
其輸入輸出與gasvmcgforclass類似,這裡不再贅述。
enfp工具箱怎麼用 隱喻 你的工具箱
分享一些在心理諮詢中好用的隱喻。在幫助家庭學習新的溝通方式時,我喜歡 工具箱 這個隱喻。顧名思義,工具箱裡裝著各種各樣的工具,不同工具適用於不同場合。有些工具你裝備了未必用得上,但你不會嫌工具太多。學習一種新的方式,彷彿就要替換掉舊的方式。他會擔心失去一些東西,喚起取捨的焦慮。比如,教乙個人拒絕別人...
大資料 工具箱
當前,整個網際網路正在從it時代向dt時代演進,大資料技術也正在助力企業和公眾敲開dt世界大門。當今 大資料 一詞的重點其實已經不僅在於資料規模的定義,它更代表著資訊科技發展進入了乙個新的時代,代表著 性的資料資訊給傳統的計算技術和資訊科技帶來的技術挑戰和困難,代表著大資料處理所需的新的技術和方法,...
libsvm工具箱使用
libsvm工具箱安裝 讀入變數利用svmtrain訓練得模型,利用svmpredict訓練得 結果 model svmtrain x norm 6 x norm 1 5 predicted label,accuracy,decision values svmpredict y norm 6 y n...