多分類問題與多標記學習這2個概率很容易混淆,特別是2個概念放到一起時,還有就是當涉及對多分類問題使用多對多模型時,更容易頭暈,因此筆者在這裡簡單介紹一下2者相同和區別之處。
當分類是多分類(既k>2),可以把多分類問題靈活處理為普通的2分類問題,既不同類兩兩組合,如k=3時:
分類器的總個數為:k(k-1)/2=3,既從k個分類器總選擇2個。
分類器情況為(正類|負類):(類1|類2),(類1|類3),(類2|類3)
一對其他模型是把其他分類看著負類,這樣能夠減少模型個數,一對一模型數為n(n-1)/2,而一對其他模型數為n。
分類器情況為(正類|其他類都為負類):如k=3時,(類1|類2,類3),(類2|,類1,類3),(類3|類1,類2)
多對多模型是對一對其他模型的進一步改進,因為一對其他模型可能會遇到2個及以上分類器輸出為正的情況,此時,一對其他模型選擇概率最大的分類標籤給樣本,而多對多模型者把2個分類標籤都給樣本,這裡與多標記學習發生了重疊,前2個情況都比較好理解,一般情況下,我們預設討論前2個模型情況,即一對一,一對其他。只需記住這個特例就好。
多標記學習,也叫做多標籤學習。它是給一張賦予多個標記資訊。如下面的這張,它的標記可以為(樹,天空,人),
多分類問題與多標記學習相同點在於都是給樣本賦予某種標記資訊,特別是當多分類問題是多對多模型時, 多分類就可以包含多標記。
一般而言,多分類問題是選擇概率最大的分類標籤給樣本,就想以前考試做選擇題時,選擇最正確的一項給,既是單選題,而多標記學習則是多選題,選擇適合於樣本的標記資訊,既選擇適合的標記。既是多選題。
而從機器學習的角度來理解,多分類是具體的問題,多標記學習是學習框架,是一種通用的正規化,是對具體的抽象。
Tensorflow 多分類問題
import requests import numpy as np 複製 r requests.get 複製 with open iris.data w as f f.write r.text 複製 import pandas as pd 複製 data pd.read csv iris.data...
多分類學習
多分類學習的基本思路是拆解法,即將多個二分類任務拆為若干個二分類任務求解。具體地就是,先對問題進行拆分,然後為每個拆分的二分類任務訓練乙個分類器 在測試時,對這些分類器的 結果進行整合以獲得最終的多分類結果。關鍵 多分類任務如何拆分。經典的為 一對一 one vs one,ovo 一對多 one v...
機器學習 邏輯回歸 多分類問題
from sklearn.linear model import logisticregression 1 penalty 使用指定正則化項 預設 l2 2 dual n samples n features取false 預設 3 c 正則化強度,值越小正則化強度越大 4 fit intercept...