1.k-means
k-means 是所謂的爬山演演算法,它非常依賴於你的初始集群中心所處的位置
2. slc
slc単連鎖聚類,有點像最小生成樹
把圖中黑色的點分成兩簇
3.軟聚類 soft clustering
依賴概率論
4.em演算法
em可以模擬成k-means過程,即
em演算法是軟聚類,開始時屬於乙個簇的概率很高比如0.999996,但屬於另乙個簇的也不是0。
發生的概率小,並不是0
5.非監督演算法的三個屬性
(1) richness 豐富性:任何聚類演算法來說,都有距離
(2) scale-invariance 尺度不變性:尺度距離是個正值,不改變聚類
(3) consistency 一致性:縮小簇內距離,增大簇內距離,不改變簇
看個例子:
不可能定理:這三個屬性不可能同時滿足,kleinberg 的**中已經證明
總結:
機器學習非監督學習 kmeans演算法
前面寫了分類和回歸的一些演算法,這些演算法都屬於監督學習,本篇的要講的kmeans演算法就屬於非監督學習 unsupervised learning 中聚類問題的乙個重要演算法。監督學習與非監督學習有什麼區別呢?監督學習訓練所用的資料樣例都是有類別標記 class label 的,而非監督學習所用的...
監督學習 非監督學習 半監督學習(主動學習)
統計學習通常包括監督學習 非監督學習 半監督學習以及強化學習,在機器學習的領域中前三種研究的比較多的,也是運用的比較廣泛的技術。監督學習的任務是學習乙個模型,使模型對給定的任意的乙個輸入,對其都可以對映出乙個 結果。這裡模型就相當於我們數學中乙個函式,輸入就相當於我們數學中的x,而 的結果就相當於數...
機器學習非監督分類之主成分分析(PCA)
主成分分析是非監督分類中基礎的演算法,應用於降低特徵的維度。在介紹主成分分析之前,我們要先介紹一下特徵值和特徵向量,因為在後面我們要用到。一 特徵值和特徵向量 特徵值如果有 此時 為矩陣a的特徵值,對應的x為矩陣的特徵向量。對於不相同的特徵值,其特徵向量是正交的。二 主成分分析 演算法 首先將x進行...