這個看起來高大上的系列註解文章,到這個階段便是最重要的部分了。有人說,人工智慧就是概率論與統計學,實際上我也認為差不多,**只是實現人工智慧的工具,內部的原理是概率論的知識。
科普篇 | 推薦系統之矩陣分解模型
原理篇 | 推薦系統之矩陣分解模型
實踐篇 | 推薦系統之矩陣分解模型
1.1 殘差
1.2 殘差平方和
在平時我們求回歸方程的時候,不會每乙個點都在回歸方程上,因為我們需要用連續的平滑曲線模擬趨勢,從而將座標上的離散點聯絡起來。也因此,我們將離散點看做真實值,將回歸曲線上的點看做**值,**值與真實值的差的平方就是殘差平方,再將他們加起來,最終得到的結果就是殘差平方和。
用矩陣形式表示的殘差平方和為:
一組資料的殘差平方和越小,說明該曲線擬合程度越高
2.1 最小二乘法
最小二乘法是一種方法,用於由已知求未知,並且這些求得的資料與實際資料之間的誤差平方和最小。根據我們上述說的,其實也就是求殘差平方和最小的方法。
如何理解最小二乘法
2.2 交替最小二乘法
交替最小二乘法是用在矩陣計算中的一種演算法。由於矩陣的計算量幾乎完全依賴於矩陣的階數,因此在計算矩陣的時候,能把矩陣分解成更小階的矩陣的最好。
交替最小二乘法需要將乙個低階稀疏矩陣分解成兩個小矩陣相乘,然後交替對兩個小矩陣使用最小二乘法,便可以估算出稀疏矩陣缺失的值。
總的來說,交替最小二乘法是一種逼近演算法。通過對低階矩陣使用此方法,我們可以擬合出矩陣中的空元素,從而對矩陣進行填充。本文作為對矩陣推薦的注釋文,不對交替最小二乘法的演算法進行描述。如果想知道演算法具體實現,請移步:交替最小二乘法的演算法與實戰
推薦系統ALS矩陣分解
思想類似線性回歸做 大致如下 定義乙個 模型 數學公式 然後確定乙個損失函式,將已有資料作為訓練集,不斷迭代來最小化損失函式的值,最終確定引數,把引數套到 模型中做 矩陣分解的 模型是 損失函式是 我們就是要最小化損失函式,從而求得引數q和p。矩陣分解模型的物理意義 我們希望學習到乙個p代表user...
DAY 1(推薦系統之矩陣分解)
給出如上乙個打分矩陣r 5,4 表示未打分,n行m列,n表示user個數,m表示item個數 問題是 如何得到未打分的商品進行有效的 矩陣分解的思想可以解決這個問題,其實這種思想可以看作是有監督的機器學習問題 回歸問題 矩陣r可以近似表示為p與q的乘積 r n,m p n,k q k,m 將原始的評...
推薦系統例項 基於矩陣分解
使用matlab嘗試了隨機梯度下降的矩陣分解方法,實現了乙個比較簡單的推薦系統的原理。常用推薦系統的方法有協同過濾,基於物品內容過濾等等。這次是用的矩陣分解模型屬於協同過濾的一種方法,大致原理是通過一定數量的因子來描述各個使用者的喜好和各個物品的屬性。通過隨機梯度下降法分解後得到兩個矩陣,乙個是使用...