神經網路技巧
強化學習
進化演算法
有趣的機器學習系列 | 莫煩python
監督學習(有資料有標籤)
無監督學習(有資料無標籤)
半監督學習
神經網路
生物:產生新連線
人工:誤差反向傳遞
卷積神經網路 cnn
迴圈神經網路 rnn
寫**,寫程式,作曲
序列化資料,參考以前的狀態
解決:長短期記憶 lstm
自編碼(無監督)
對輸入資料(無監督)進行壓縮 (+ 解壓)。降維
生成對抗網路 gan
generator用隨機數生成,discriminator判斷
黑盒神經層的代表特徵可以提取
遷移學習
借鑑已有經驗
梯度下降
區域性最優
神經網路技巧
檢驗神經網路
訓練資料70% + 測試資料30%
誤差曲線,精確度曲線
特徵標準化:預處理,使跨度盡量統一
好特徵:有區分度,多維特徵,避免無意義特徵,避免重複特徵,避免複雜特徵
激勵函式
處理不能用線性方程解決的問題,用激勵函式「掰彎」線性函式
過擬合解決:增加資料量,正則化,dropout
加速神經網路訓練
sgd:分塊批量
momentum,adagrad,rmsprop,adam
處理不均衡資料
更多資料,換個評判方式,重組資料,修改演算法
批正則化
讓每一層的值在有效的範圍內傳遞
l1 l2 正則化
誤差公式加項
強化學習
q learning
q表——潛在獎勵
sarsa
sarsa(lambda)
回合更新
deep q network (dqn)
策略梯度 policy gradients
actor critic
deep deterministic policy gradient (ddpg)
asynchronous advantage actor-critic (a3c)
並行運算,有效利用計算資源, 提公升訓練效用
alphago zero
進化演算法
遺傳演算法
進化策略
神經網路進化
學習小筆記 機器學習
看書的時候做點筆記,偶爾翻出來看看才能真正掌握 否則很快就遺忘了 艾賓浩斯遺忘曲線 1 整合學習bagging基於自助取樣法 給定包含 m 個樣本的資料集,我們先隨機取出乙個樣本放入取樣集中,再把該樣本放回初始資料集,使得下次取樣時該樣本仍有可能被選中,這樣,經過 m次隨機取樣操作,我們得到含 m ...
機器學習小練習
import pandas as pd from sklearn.tree import decisiontreeclassifier from sklearn.model selection import train test split from sklearn.metrics import a...
機器學習小概論
機器學習發展歷程 人類一直試圖讓機器具有智慧型,也就是人工智慧 artificial intelligence 從上世紀50年代,人工智慧的發展經歷了 推理期 通過賦予機器邏輯推理能力使機器獲得智慧型,當時的ai程式能夠證明一些著名的數學定理,但由於機器缺乏知識,遠不能實現真正的智慧型。因此,70年...