根據訓練資料是否有標籤,機器學習可以分為監督學習、半監督學習和無監督學習
從演算法輸出形式上分,可以分為分類問題和回歸問題,這兩類都屬於監督學習的範疇
分類問題:指的是模型的輸出值為離散值
回歸問題:指的是模型的輸出值為連續值
?平方損失函式
衡量模型**結果與標籤之間的平方差,常用於回歸類問題
?交叉熵損失函式
交叉熵(cross entropy)損失常用於分類問題中
?梯度下降演算法原理:首先計算所有資料上的損失,然後再進行梯度下降
這種方式在資料規模比較大時是比較低效的。主要體現在兩個方面,一是資料規模比較大時,模型計算所有樣本的時間增加;二是隨著資料規模維度的增加,梯度計算的複雜度也會增加。這種基於所有樣本計算梯度值,並進行引數更新的方法稱為批梯度下降(batch gradient descent)
?隨機梯度下降(stochastic gradient,sgd):如果不使用全量的樣本來計算梯度,而使用單一的樣本來近似估計梯度,就能極大地減少計算量,提高計算效率。
小批量隨機梯度下降(mini-batch sgd),每次使用多個樣本來估計梯度,這樣可以減小不確定性,提高收斂速率,其中每次迭代選取的樣本數量稱為批大小(batch size)。
學習筆記一
lisp 最重要的一種執行模式之一 repl that endless cycle of reading,evaluating,and printing is why it s called the read eval print loop or repl.第乙個lisp程式 在repl模式下執行l...
學習筆記 一
什麼是seo?搜尋引擎優化 search engine optimization,簡稱seo 是一種利用搜尋引擎的搜尋規則來提高目的 在有關搜尋引擎內的排名的方式。深刻理解是 通過seo這樣一套基於搜尋引擎的營銷思路,為 提供生態式的自我營銷解決方案,讓 在行業內佔據領先地位,從而獲得品牌收益。研究...
學習筆記一
今天兩節課,也就是兩個問題的分析裝配線排程問題和矩陣鏈相乘ai,j中的 i,j 分別表示的是第 i 條線路的第 j 個步驟,每個線路每條步驟都有不同的用時,還有t i j中的 i,j 表示的就是從第 i 條線路第 j 步到達另外一條線路的第 j 1 步要用的時間,我們可以用如下 表示每一步花費的時間...