als是alternating least squares的縮寫 , 意為交替最小二乘法;而als-wr是alternating-least-squares with weighted-λ -regularization的縮寫,意為加權正則化交替最小二乘法。該方法常用於基於矩陣分解的推薦系統中。例如:將使用者(user)對商品(item)的評分矩陣分解為兩個矩陣:乙個是使用者對商品隱含特徵的偏好矩陣,另乙個是商品所包含的隱含特徵的矩陣。在這個矩陣分解的過程中,評分缺失項得到了填充,也就是說我們可以基於這個填充的評分來給使用者最商品推薦了。
als
由於評分資料中有大量的缺失項,傳統的矩陣分解svd(奇異值分解)不方便處理這個問題,而als能夠很好的解決這個問題。對於r(m×n)的矩陣,als旨在找到兩個低維矩陣x(m×k)和矩陣y(n×k),來近似逼近r(m×n),即:
其中xu(1×k)表示示使用者u的偏好的隱含特徵向量,yi(1×k)表示商品i包含的隱含特徵向量, rui表示使用者u對商品i的評分, 向量xu和yi的內積xu
tyi是使用者u對商品i評分的近似。
損失函式一般需要加入正則化項來避免過擬合等問題,我們使用l2正則化,所以上面的公式改造為:
其中λ是正則化項的係數。
到這裡,協同過濾就成功轉化成了乙個優化問題。由於變數xu和yi耦合到一起,這個問題並不好求解,所以我們引入了als,也就是說我們可以先固定y(例如隨機初始化x),然後利用公式(2)先求解x,然後固定x,再求解y,如此交替往復直至收斂,即所謂的交替最小二乘法求解法。
具體求解方法說明如下:
其中ru(1×n)是r的第u行,ri(1×m)是r的第i列, i是k×k的單位矩陣。
als-wr
上文提到的模型適用於解決有明確評分矩陣的應用場景,然而很多情況下,使用者沒有明確反饋對商品的偏好,也就是沒有直接打分,我們只能通過使用者的某些行為來推斷他對商品的偏好。比如,在電視節目推薦的問題中,對電視節目收看的次數或者時長,這時我們可以推測次數越多,看得時間越長,使用者的偏好程度越高,但是對於沒有收看的節目,可能是由於使用者不知道有該節目,或者沒有途徑獲取該節目,我們不能確定的推測使用者不喜歡該節目。als-wr通過置信度權重來解決這些問題:對於更確信使用者偏好的項賦以較大的權重,對於沒有反饋的項,賦以較小的權重。als-wr模型的形式化說明如下:
ii = cui, ci
ii = cii。
具體實現待補充。
本文參考:
[1]
[2]
協同過濾演算法
3種形式的協同過濾 collaborative filtering 演算法 1 user based 相同 相似 使用者的喜好相同 2 item based 能夠引起使用者興趣的專案,必定與其之前評分高的專案相似 3 model based 先用歷史資料得到乙個模型,再用此模型進行 參考 這個位址是...
協同過濾演算法
1.表示使用者行為矩陣,即統計使用者購買某種商品型別的數量 public double getnumbycustomer customer customer return vectore 2.用余弦距離計算每個使用者與其它使用者的行為相似度 下面 是兩個使用者之間的相似度,進行遍歷就可以獲取全部相似...
協同過濾演算法
乙個人想看電影的時候常常會思考要看什麼電影呢。這個時候他可能會問周圍愛好的人求推薦。現在社會每天都會產生海量的資訊。面對這麼多資訊好多人都不知道什麼資訊是自己需要的。推薦系統正是起了這麼乙個作用。推薦系統的應用隨處可見。網路購物是乙個典型的例子,電子商務的運營商往往會根據使用者在 的行為推薦使用者可...