码迷,mamicode.com
首页 > 数据库 > 详细

【论文阅读-CTR】<<Collaborative Filtering for Implicit Feedback Datasets>>阅读

时间:2017-05-21 09:48:32      阅读:269      评论:0      收藏:0      [点我收藏+]

标签:方法   svd   lte   融合   缺点   地方   set   数据   优化   

摘要:

以前的推荐使用用户的明确反馈,我们使用隐反馈;

文中方法优化过程和数据量呈线性关系;可以很好地和已有系统融合;

我们讲给出一个方法的解释。

 

1、介绍

1)电子商务对推荐要求很大

2)传统的推荐方法:

     一、基于内容,缺点:数据不好搜集

     二、协同过滤:优点:领域无关,可以捕获基于内容难以获得的信息,精度高

                         缺点:冷启动,基于内容的无此问题

3)推荐系统的数据类型:

    一、显性数据:评分,赞同/反对(thumbs-up/down),可用数据少

    二、隐性数据:购买、浏览、搜索等,数据多

4)隐性反馈数据的特点:

    一、没有负反馈

    二、数据有噪声:可能不是出于自己的需求发生行为(送礼);买了不喜欢;观看热门视频

    三、显性数值特征反应偏好,隐性特征反应信心

    四、度量标准不好确定:显性反馈用MSE,隐性不知道

2、基础设置

    u,v表示用户;i,j表示item;r(u,i)表示行为or打分;没有行为记为0分。

3、之前的工作

1)邻域模型:先有user-base,后有item-base;item-base效果更好,原因是item反应用户偏好;而相似用户估计不准

    item-cf在显性反馈中用的也多,并且可以使用用户和item bias优化;但是隐性反馈使用诸如频次这样的数据,不适合;

    item-cf不好的地方在于无法区分用户偏好

2)LFM:pLSA,nn,LDA,SVD

     svd用于显性数据;优于cf

     本文核心是用svd于隐性数据

4、建模
1)模型:带权重的svd,权重项表示confidence

2)数据量级太大,sgd难以计算,使用als计算;als在大量miss值时好计算,在dense情况下不好算

3)基于ALS的优化,使时间复杂度降低为线性时间(推导没看懂)

4)建模变形:p(u,i)和c(u,i)的变化

5、模型解释

和模型推导一样,没看明白

6、

 

【论文阅读-CTR】<<Collaborative Filtering for Implicit Feedback Datasets>>阅读

标签:方法   svd   lte   融合   缺点   地方   set   数据   优化   

原文地址:http://www.cnblogs.com/ai1024/p/6883792.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!