式子7.11,7.12與線性可分支援向量機的最優化問題7.13,7.14的差別在於函式間隔γ^值的確定,原文在確定γ^時這樣描述:
函式間隔γ^的取值並不影響最優化問題的解。事實上,假設將w和b按比例改變為λw和λb,這時函式間隔成為λγ^。函式間隔的這一改變對上面最優化問題的不等式約束沒有影響,對目標函式的優化也沒有影響,也就是說,它產生乙個等價的最優化問題。此時產生乙個疑問 :為什麼函式間隔的這一改變對上面最優化問題的不等式約束沒有影響,對目標函式的優化也沒有影響?
稍微思考一下可以知道,假如γ^取γ^1時,得出的最優解為w1,b1;若此時將γ^取值為2*γ^1,則原最優解w1,b1變為2*w1,2*b1,看似最優解發生了變化,但是分離超平面的係數w,b同時倍增時,超平面是不會改變的。即兩組最優解對應同乙個分離超平面。這樣的話,就解釋清楚了為什麼函式間隔的改變對上面最優化問題的不等式約束沒有影響,對目標函式的優化也沒有影響。
統計學習方法筆記1 統計學習方法概論
統計學習是關於計算機基於資料構建概率統計模型並運用模型對資料進行 與分析的一門學科。從資料出發,提取資料的特徵,抽象出資料的模型,發現資料中的知識,又回到對資料的分析與 中去。統計學習關於資料的基本假設是同類資料具有一定的統計規律性,這是統計學習的前提。這裡的同類資料是指具有某種共同性質的資料,例如...
統計學習方法筆記
1.損失函式 期望,就是均值 極大似然估計 似然就是概率 可能性,所以也是極大可能性估計 對數損失是用於最大似然估計的。一組引數在一堆資料下的似然值,等於每一條資料的概率之積。而損失函式一般是每條資料的損失之和,為了把積變為和,就取了對數 再加個負號是為了讓 最大似然值和 最小損失對應起來 w 是w...
《統計學習方法》筆記一 統計學習方法概論
好久沒有更新部落格了,這次主要想整理一下之前學習過的機器學習和深度學習有關的知識。我本身數學專業基礎比較薄弱,另外主要做計算機視覺應用所以這個系列的文章並不會涉及很多數學理論知識,學習這些機器學習方法也主要是為了找工作而用,主要了解其中的思想和非常基礎的推導過程。一 統計學習的分類 統計學習方法是基...