orthogonalization
(正交化)
乙個調整只帶來乙個方面的影響
評價標準
1 optimizing
n-1 satisficing
training set
dev set
test set
dev開發集和test測試集來自同樣的分布
樣本劃分
小樣本100~10000 70%~30% 或者 60%~20%~20%
大樣本 1million 98%~1%~1%
不需要zhin
貝葉斯誤差
貝葉斯最優誤差:理論上的最優誤差(通常用human-level error來估計)
模型表現不如人工識別時,可以通過一些技術改善:
1.人工標記
2.insight from manal error analysis
3.analysis of bias/variance
以貝葉斯誤差為基準,分析偏差/方差大小,確定下一步優化方向
吳恩達deep learning筆記 week1
我們從下圖可以得到一些答案 如圖,橫軸是資料量的大小,軸承是模型的表現 我們可以看到,傳統的機器學習模型在資料量較小時,隨著資料量的增加,效能會快速得到提公升,但是當資料量超過一定量時,再提公升幾乎對效果不再有任何提公升。而神經網路模型,隨著資料量的繼續加大,當傳統機器學習模型失效時,它的效果仍然在...
吳恩達deeplearning資源彙總帖
學習機器學習,離不開好的資源的支援,吳恩達的相關資源堪稱經典。就算有了相關資源,如果沒有人及時解惑以及答疑,學起來也會異常的吃力。學習過後,如果不用筆記及時輸出驗證,那學習效果也會打折。做作業的時候直接看答案會沒有效果,但一直卡在某個細節也不利於學習。coursera 第一課 coursera 第二...
Deep Learning(吳恩達) 神經網路基礎
結局變數為乙個二元離散分類變數的時候,是乙個二元分類問題。比如適用於本專題的分類,判定乙個是否含有貓,則這個結局變數為有 沒有。而反映在資料上是解析度上的紅綠藍三通道的畫素值大小,如果解析度為64 64則共有的變數為64 64 3。在模型識別和機器學習中,代表乙個樣本 object 常用乙個特徵向量...