supervised learning 監督學習
unsupervised learning 無監督學習
reinforcement learning 加強學習
samples(instances,observations) 樣本
features(attributes,measurements,dimensions) 特徵
class labels(targets) 標籤
loss/cost function 損失函式
gradient descen 梯度下降
α (超引數-hyper parameter )學習率
underfitting/overfitting
sigmoid函式 :
g (x
)=11
+e−x
g(x)=\frac }
g(x)=1
+e−x
1運用邏輯回歸解決(多)分類問題:
eigenvector 特徵向量
eigenvalue 特徵值
entropy 熵
information gain 資訊增益
overfitting
Machine Learning 梯度下降
對於lost function利用梯度下降的方法實現引數調整,梯度下降在每一次迭代的過程中需要全部樣本參與,而隨機梯度法或增量梯度法在迭代中利用樣本中的乙個樣本更新引數。梯度下降達到全域性最優 include include using namespace std define maxiter 22...
安裝Machine Learning環境
公升級python版本到3.5以上。詳情參考linux公升級python版本 步驟1中也包含了安裝pip 第一批ml環境 pip install tensorflow pip install keras pip install beautifulsoup4 pip install lxml pip ...
機器學習(Machine Learning)
最近開始接觸機器學習,簡稱ml。ml 可以這樣理解,從一堆資料中提煉出特徵值。首先,我們需要在計算機中儲存歷史的資料。接著,我們將這些 資料通過機器學習演算法進行處理,這個過程在機器學習中叫做 訓練 處理的結果可以被我們用來對新的資料進行 這個結果一般稱之為 模型 對新資料 的 過程在機器學習中叫做...