上大學的時候人工智慧火了一段時間(雖然現在還是虛假的繁榮現象),但是不得不說人工只能肯定是未來的發展方向,所以我們就有必要了解其基本的理論原理,當然了我寫出來的東西肯定不會和數學特別相關,因為我概率論差啊,那段時間沉迷遊戲,然後60多分飄過,所以各位肯定是比我牛逼的。我參考的書籍是《機器學習及實踐》範淼 李超編著
基礎理論:
1.logistic函式,其實就是類似於電流脈衝,只不過中間的跳變是過度的(正半軸影象類似於根號函式,0附近斜率大),上下界是+1和-1,然後就有了當x=0的時候,y=0.5,在x左邊,y很快遠小於0.5,右邊y就很快大於0.5於是就把y分成了兩類
2.支援向量機,比如在平面座標軸的第一象限裡有兩部分聚集的點,這些點可以使用一條直線y = kx +b來將這兩種點分開,那麼這種方式就叫支援向量機
3.樸素貝葉斯,概率論太差沒看懂,,,哪位給推薦比較好的概率論課啊?
4.k近鄰演算法(以點為例,紅點和藍點),就是看這個待測樣本點,如果這個點附近的k(k使我們設定的)個點都是紅點,那麼將這個點歸類為紅點,否則歸類為藍點
5.決策樹,這個好像就是資料結構裡面的樹,深究的話還有什麼特徵點的選取順序,度量方式有資訊熵和基尼不純性,不過,入門,入門,這些應該初中生都能聽得懂.
//以上是監督學習經典模型
//以下是無監督學習經典模型
1.k均值演算法比較複雜(以一維點們為例,有幾簇點),可以分為四個階段
第一階段:隨機布設k個特徵空間內容的點作為初始的聚類中心(假設有三堆點,一堆紅點,一堆藍點,一堆黃點,那麼這裡就有了三個聚類中心,這裡的k可以多找幾個)
第二階段:從k個聚類中心中找到距離最近的乙個,並且把該點標記為從屬於這個聚類中心
第三階段:在所有的資料都被標記過聚類中心後,根據這些重新分完簇的點再進行計算
2.特徵降維:聽說過降維打擊嗎???比如說乙個妹子,然後我們用二向箔將她搞到二次元,然後她就可以變成你們老婆了,嗯……所以這個特徵降維就是通過乙個函式(二向箔)將乙個高緯的物體(妹子)對映到低維(你們的二次元)的一種演算法
機器學習入門(一)
分類和回歸 均為 過程,其中分類是對離散值的 回歸是對連續值的 監督學習和無監督學習 就看輸入資料是否有標籤 label 輸入資料有標籤,則為有監督學習,沒標籤則為無監督學習 聚類 監督學習就是給輸入的無標籤資料新增標籤的過程。資料集的劃分方法 1.留出法,即把資料集分為兩部分 一般來說是8 2,8...
機器學習入門 一)
年後又開始新一輪的學習了。今天我來複習跟鞏固機器學習的基礎概念。我們將機器學習系統按他們的特點分類 是否在人類監督下訓練。例如 有監督學習,無監督學習,半監督學習,強化學習。是否簡單地將新的資料點和已知的資料點進行匹配,還是像科學家一樣,對訓練資料進行模式檢測然後建立乙個 模型。例如 基於例項的學習...
機器學習(一) 機器學習入門常識
機器學習常常劃分為三個方面 分類問題 因為有了標籤值,根據演算法,將樣本歸於哪一類。邏輯回歸,決策樹,隨機森林,svm 回歸問題 是乙個連續值,根據樣本上的一些特徵,連續值結果。聚類問題 因為沒有標籤以及明顯的劃分標準,根據樣本的相似性或者關聯關係,把類似的歸於一類 常用的一些術語 對於結構化資料,...