标签:方法 svd lte 融合 缺点 地方 set 数据 优化
摘要:
以前的推荐使用用户的明确反馈,我们使用隐反馈;
文中方法优化过程和数据量呈线性关系;可以很好地和已有系统融合;
我们讲给出一个方法的解释。
1、介绍
1)电子商务对推荐要求很大
2)传统的推荐方法:
一、基于内容,缺点:数据不好搜集
二、协同过滤:优点:领域无关,可以捕获基于内容难以获得的信息,精度高
缺点:冷启动,基于内容的无此问题
3)推荐系统的数据类型:
一、显性数据:评分,赞同/反对(thumbs-up/down),可用数据少
二、隐性数据:购买、浏览、搜索等,数据多
4)隐性反馈数据的特点:
一、没有负反馈
二、数据有噪声:可能不是出于自己的需求发生行为(送礼);买了不喜欢;观看热门视频
三、显性数值特征反应偏好,隐性特征反应信心
四、度量标准不好确定:显性反馈用MSE,隐性不知道
2、基础设置
u,v表示用户;i,j表示item;r(u,i)表示行为or打分;没有行为记为0分。
3、之前的工作
1)邻域模型:先有user-base,后有item-base;item-base效果更好,原因是item反应用户偏好;而相似用户估计不准
item-cf在显性反馈中用的也多,并且可以使用用户和item bias优化;但是隐性反馈使用诸如频次这样的数据,不适合;
item-cf不好的地方在于无法区分用户偏好
2)LFM:pLSA,nn,LDA,SVD
svd用于显性数据;优于cf
本文核心是用svd于隐性数据
4、建模
1)模型:带权重的svd,权重项表示confidence
2)数据量级太大,sgd难以计算,使用als计算;als在大量miss值时好计算,在dense情况下不好算
3)基于ALS的优化,使时间复杂度降低为线性时间(推导没看懂)
4)建模变形:p(u,i)和c(u,i)的变化
5、模型解释
和模型推导一样,没看明白
6、
【论文阅读-CTR】<<Collaborative Filtering for Implicit Feedback Datasets>>阅读
标签:方法 svd lte 融合 缺点 地方 set 数据 优化
原文地址:http://www.cnblogs.com/ai1024/p/6883792.html