為什麼要學習演算法:演算法是核心,資料和計算是基礎。
離散型資料:乙個乙個點組成的資料
連續性資料:一系列連續的數(數軸上的一段)組成的資料,其y值稱為概率密度,總體積分結果為1
資料型別的不同 應用
型別不同------演算法是有區別的
監督學習:有特徵值、目標值
無監督學習:只有特徵值
1、監督學習:
分類(目標值離散)演算法:k-近鄰演算法、貝葉斯分類、決策樹與隨機森林、邏輯回歸、神經網路
回歸(目標值連續)演算法:線性回歸、嶺回歸
標註:隱馬爾可夫模型
2、無監督學習
聚類 k-means
分類:最基礎分類問題為二分類。
根據我的理解,就是已經有上述幾個模型演算法,我們只需要往模型裡面填入資料和引數(當然對於引數也有自動學習的演算法),由於每個資料都有特徵,那麼將這些特徵進行判斷並且模型進行學習。就是一步步提高機器學習的準確性。
1、原始資料:明確問題做什麼
2、資料基本處理:pandas處理資料(缺失值、合併表)
3、特徵工程(特徵進行處理)
模型:演算法+資料
4、找到合適的演算法進行**
5、模型評估 (模型評估不合格:換算法、引數、)
6、上線使用 以api形式提供模型(模型合格)
機器學習 基礎內容小結
例子 input from sklearn.linear model import linearregression model linearregression print model output linearregression copy x true,fit intercept true,n...
機器學習相關的數學基礎
finney,weir,giordano 托馬斯微積分 葉其孝,王耀東,唐兢譯.第10版.北京 高等教育出版社 2003 1 steven j.leon.線性代數 張文博,張麗靜譯.第8版.北京 機械工業出版社 william mendenhall等.統計學 梁馮珍,關靜譯.第5版.北京 機械工業出...
2 機器學習相關數學基礎
1.高等數學 1 函式 2 極限 3 導數 4 極值和最值 極值點 是在一階導數等於0的點,2階導大於0是極小值,2階導小於0是極大值.2階導等於0是拐點,不是極值點.最值 在定義域內的最大最小值 5 泰勒級數 6 梯度 7 梯度下降 2.線性代數 1 基本概念 2 行列式 3 矩陣 4 最小二乘法...