真的不開學了嗎,家裡蹲一學期?頂不住了
而在學習的過程中,首先的問題就是解域
這兩個引數的解究竟在哪個範圍,確定了範圍再求出最優解
也就是在解域中求得最優解
*首先對於資料預處理,使兩類在超平面的同一側
*並行感知機和序列感知機是以樣本的給出方式劃分的,樣本一次全部給出稱為並行,乙個乙個給出稱為序列
而使用的求解w和w0的演算法類似,而且目標函式都是一致的,也就是目的都是一致的,使得被錯誤分類的樣本盡可能少
並行感知機的演算法是,目標函式對於引數求偏導,當偏導數為0,則求得極值。
當然要求目標函式是凸函式或者凹函式,不然會出現求得的值並不是最優解的情況。
而並行感知機演算法中的引數的求解使用的是梯度下降法,其中步長的選取很重要
步長小了,迭代次數很多,學習很慢,步長大了,會越過極值點,產生**。
而迭代過程的停止條件,所有訓練樣本代入判別函式,都》0
或者更新的目標函式值小於某個可以接受的誤差值
更常用的一種方法是迭代一定的次數就停止
目標函式和並行感知機相同
而演算法也類似,只是學習過程不太一致,是乙個乙個去學習樣本,調整引數
也就是前面的說的最後求出的解,究竟是極值還是最值,這邊給出了乙個判據
加入約束條件,避免要求解的引數為0
好像沒有正面,我也不懂為什麼,qwq
這個,在我的理解中,是一種不同的找出線性判據的方法而已,算是資料清洗吧,我覺得
主要就是利用一些方法進行降維,然後盡量增大類間距離(類間散度),減小類內距離(類內散度)
其中的目標函式也是根據這個思路設計的,然後求解思路還是目標函式對待求引數求偏導,差不多
大概設計用來和fisher差不多,也是增大類間散度吧,我覺得目的是相近的
但是方法有差異,支援向量機,是選兩類中距離決策邊界最大的訓練樣本,使這兩個向量距離盡可能大,來達到增大類間散度的目的。這兩個向量被稱作支援向量。
而目標函式當然就是,這個距離d。
但是還存在著約束條件,就是樣本代入判別函式,大於1(對資料和判別函式進行了處理,所以不是大於0),也就是能夠對所有樣本進行正確分類。然後就涉及到了,約束條件下的最優求解問題。
這個方法,我記得大一高數就學過,用來求解條件下的最優解
而這裡的方法是同樣的,將約束條件乘以變數,比如c
在拉格朗日問題中,可能會出現對於約束條件進行操作後,仍有約束條件的可能,也就是拉格朗日函式帶有約束條件
那麼就需要拉格朗日對偶法,進行求解
方法是求得主函式l的下界,然後求下界對約束條件係數的最大值
使用對偶函式還有另乙個優點,就是對偶函式是凹函式,可以保證區域性極值點就是全域性極值點
這一節,主要就是使用拉格朗日對偶方法對支援向量機進行求解
求得最佳的w和w0
然後就沒了,線性模型是否可以用於回歸問題
當然是可以的,但是老師沒繼續錄了,gg
機器學習 第四章 概念學習
本文為閱讀總結個人認為書裡概念性的 對本人有幫助的內容,僅供參考。邏輯模型的特點是它們均通過邏輯表示式將例項空間劃分為一組區隔,因此所構建的都是分組模型。而其目標可概括如下 針對所要解決的任務,找到可使每個區隔中的資料更為一致的例項空間劃分方案。在分類任務中我們希望找到這樣一種劃分 位於每個區隔中的...
K R學習筆記 第四章
全面系統的講解函式了。首先映入我眼簾的是一種奇怪的函式宣告方式 main 它在main函式中宣告了自己編寫的atof char 函式。至於原因是什麼,我也不得而知了。按照書上的說明,c 是不允許在乙個函式裡定義其它函式的,函式本身是external的。下面的 include int main voi...
第四章 python學習筆記
1 字典 字典是由 鍵值對 組成的無序可變序列 字典中每個元素都是乙個鍵值對 包含乙個 鍵物件 和乙個 值物件 鍵 是任意不可變資料 一般由 整數 浮點數 字串 元組 組成 鍵 在字典中是唯一的 不能重複 否則會被覆蓋 建立字典的方法 1 a 2 a dict name dafu age 18,jo...