機器學習整理的一些概念:監管學習:所謂監管學習就是給定一堆樣本,每個樣本都有一組屬性和乙個類別,這些類別是事先確定的,那麼通過學習得到乙個分類器,這個分類器能夠對新出現的物件給出正確的分類。這樣的機器學習就被稱之為監督學習。
熵是資訊不確定性的乙個測度,熵越大則表示資訊的不確定程度越高
舉個例子:
**明天的天氣,如果能100%確定明天一定是晴天,那麼熵就是-1*log1
**明天的天氣,如果能100%確定明天一定是晴天,那麼熵就是-1*log1=0,也就是說不確定性為零。
**明天的天氣,如果說明天有50%概率晴天,50%概率下雨,那麼熵就是2*(-0.5)log0.5=2*(-0.5)(-1)=1,可以說不確定性為1。
**明天的天氣,如果明天有25%概率晴天,25%概率下雨, 25%概率陰天, 25%概率下雪,那麼熵就是4*(-0.25)(log0.25)=2,
也就是說隨著不確定程度的增加,熵也在不斷地增大
方差設有,1、2、3,三個數,平均數為2,方差為,
[(1-2)^2 (2-2)^2 (3-2)^2]/3 = 2/3
均方差均方差也叫標準差,就是方差開根號
也就是說:均方差的平方=方差
期望期望是基於概率基礎的,是對未知的預期
期望就是在多次實驗之後,你預期的結果。而不是你下一次,或者某次實驗的結果。
關於機器學習的一些概念
在連線主義學習中,把學習演算法分為三種型別,即非監督學習 unsupervised learning 監督學習 supervised leaning 和強化學習。強化學習 所謂強化學習就是智慧型系統從環境到行為對映的學習,以使獎勵訊號 強化訊號 函式值最大,強化學習不同於連線主義學習中的監督學習,主...
機器學習的一些常用概念
1.引數模型 parametric models 與非引數模型 non parametric models 模型是否有固定數目的引數?若是則為引數模型,若引數數目隨著訓練資料集增大而增加則為非引數模型。一般而言,引數模型更快,然而卻對資料分布特性進行了更強的假設。非引數模型則更加靈活,但是對於大資料...
一些與機器學習有關的概念
有監督學習是從標籤化訓練資料集中推斷出函式的機器學習任務。訓練資料由一組訓練例項組成。其基本思想是,我們資料集中的每個樣本都有相應的 正確答案 再根據這些樣本作出 就像房子和腫瘤的例子中做的那樣。我們還介紹了回歸問題,即通過回歸來推出乙個連續的輸出,之後我們介紹了分類問題,其目標是推出一組離散的結果...