目錄01-01 機器學習
02-01 感知機
02-02 感知機原始形式(鳶尾花分類)
02-03 感知機對偶形式(鳶尾花分類)
02-04 線性回歸
02-05 scikit-learn庫之線性回歸
02-06 普通線性回歸(波斯頓房價**)+特徵選擇
02-07 多元線性回歸(波士頓房價**)
02-08 多項式回歸(波士頓房價**)
02-09 對數線性回歸(波士頓房價**)
02-10 正則化線性回歸(波士頓房價**)
02-11 ransac演算法線性回歸(波斯頓房價**)
02-12 logistic(邏輯)回歸
02-13 softmax回歸
02-14 scikit-learn庫之邏輯回歸
02-15 logistic回歸(鳶尾花分類)
02-16 k近鄰演算法
02-17 kd樹
02-18 scikit-learn庫之k近鄰演算法
02-19 k近鄰演算法(鳶尾花分類)
02-20 kd樹(鳶尾花分類)
02-21 決策樹id3演算法
02-22 決策樹c4.5演算法
02-23 決策樹cart演算法
02-24 決策樹總結
02-25 scikit-learn庫之決策樹
02-26 決策樹(鳶尾花分類)
02-27 樸素貝葉斯
02-28 scikit-learn庫之線樸素貝葉斯
02-29 樸素貝葉斯(垃圾郵件分類)
02-30 線性可分支援向量機
02-31 線性支援向量機
02-32 線性支援向量9-機(鳶尾花分類)
02-33 非線性支援向量機
02-34 非線性支援向量機(鳶尾花分類)+自定義資料分類
02-35 scikit-learn庫之支援向量機
02-36 支援向量回歸
02-37 支援向量機總結
03-01 k-means聚類演算法
04-01 整合學習基礎
04-02 adaboost演算法
04-03 scikit-learn庫之adaboost演算法
04-04 adaboost演算法**(鳶尾花分類)
04-05 提公升樹
04-06 梯度提公升樹
04-07 scikit-learn庫之梯度提公升樹
04-08 梯度提公升演算法**(鳶尾花分類)
04-09 xgboost演算法
04-10 bagging和隨機森林
04-11 隨機森林**(葡萄酒質量檢測)
04-12 scikit-learn庫之隨機森林
05-01 特徵預處理
05-02 特徵選擇
05-03 主成分分析(pca)
05-04 scikit-learn庫之主成分分析
05-05 主成分分析**(手寫數字識別)
05-06 模型選擇
06-01 deeplearning-影象識別
07-01 推薦系統常用度量指標
07-02 基於協同過濾的推薦演算法
08-00 課程習得
08-01 通過線性回歸了解演算法流程
08-02 機器學習演算法原理
08-03 細分構建機器學習應用程式的流程-流程簡介
08-04 細分構建機器學習應用程式的流程-資料收集
08-05 細分構建機器學習應用程式的流程-資料預處理
08-06 細分構建機器學習應用程式的流程-訓練模型
08-07 細分構建機器學習應用程式的流程-測試模型
08-08 細分構建機器學習應用程式的流程-模型優化
09-01 tensorflow1基本使用
09-02 tensorflow2教程
a-01 最小二乘法
a-02 梯度下降法
a-03 牛頓法和擬牛頓法
a-04 座標軸下降法
a-05 前向選擇法和前向梯度法
a-06 最小角回歸法
a-07 前向分步演算法
a-08 拉格朗日對偶性
b-微積分-sigmoid函式
b-微積分-sign(符號)函式
b-概率論-常見的概率分布模型
b-概率論-條件概率
b-概率論-極大似然估計
b-概率論-熵和資訊增益
b-概率論-貝葉斯決策
b-線性代數-矩陣轉置
b-線性代數-範數
b-線性代數-距離公式彙總
b-經濟學-基尼指數
c-01 手寫數字識別
c-02 推薦系統
pytorch從入門到放棄(目錄)
python從入門到放棄(目錄)
人工智慧從入門到放棄(目錄)
資料結構與演算法-江西師範大學865(針對考研or面試)(目錄)
十天快速入門python(目錄)
資料結構與演算法-python/c(目錄)
go從入門到放棄(目錄)
tensorflow2教程-舊(目錄)
機器學習-專案雜記(目錄)
python能幹啥-專案雜記(目錄)
大資料分析和人工智慧科普
人工智慧(機器學習)學習之路推薦
推薦書單(網課)-人生/程式設計/python/機器學習
曾python培訓講師-python開發無包裝簡歷
人工智慧從入門到精通(2)
今天主要學習tensorflow的計算模型,資料模型和執行模型 tensorflow中每乙個計算都是計算圖上的乙個節點,而節點之間的邊描述了計算之間的依賴關係。import tensorflow as tf g1 tf.graph with g1.as default v tf.get variab...
人工智慧從入門到精通(4)
損失函式的學習 深度學習兩個重要特性 多層和非線性 線性模型的輸出為輸入的加權和,解決問題的能力是有限的 如果乙個神經元的輸出通過乙個非線性函式,那麼整個神經網路的模型也就不再是線性的了。感知機模型無法解決異或問題,唯有加入隱藏層後,才能很好的解決異或問題,因為深層網路有更好的組合特徵提取的功能。分...
人工智慧從入門到精通(5)
tf.where 和tf.greater的用法 import tensorflow as tf v1 tf.constant 1.0,2.0,3.0,4.0 v2 tf.constant 4.0,3.0,2.0,1.0 sess tf.interactivesession print tf.grea...