【论文学习】基于内容和用户偏好学习的个性化商品推荐模型(浙江大学计算机科学硕士毕业论文)bpr模型

基于内容和用户偏好学习的个性化商品推荐模型(浙江大学计算机科学硕士毕业论文)bpr模型


文章链接:待上传

一、主要贡献

(1)提出一种基于内容的混合采样策略的BPR改进算法BPRConBPR_{Con}
现有算法没有考虑噪声样本对模型准确率和收敛速度的影响,这里考虑商品对信息值、商品信息以及用户潜在喜好三个因素进行模型训练。
(2)提出一种基于内容和用户偏好学习的个性化商品推荐算法ConSetBPR
提出一种基于内容和用户偏好学习的个性化商品推荐算法,利用异构隐式反馈、商品信息以及用户网购行为特点对用户偏好定义,为用户偏好添加相应置信度,并将BPRConBPR_{Con}采用策略结合到模型中尽心推荐。
实验结果表明模型能够达到更高的推荐精度以及更稳定快速的收敛状态。

二、相关工作

2.1 基于隐式反馈的推荐算法

隐式反馈中只有 户有/ 为的 元数据,所以 基於单物品的协同过滤算法 先要解决的就是如何从 元的隐式反馈数据中挖 掘出 户的 同偏好程度。为 解决这个问题, 种最简单的 式就是将所有 户没有过 为的 户.物品对当成负反馈[^8](All MissingAs Negative,AMAN)。 这种 方式假设用户只会对物品总量中的小部分感兴趣,即在用户没有行为的物品 中,绝大多数的确是 户不感兴趣的负反馈样本。但这种处理方式未考虑到:第 一,用户没有过行为的物品中可能夹杂着一部分用户感兴趣的物品;第二,用户行为矩阵过大导致算法计算复杂度过大。
针对上述问题,基於单物品的协同过滤主要通过两种 式来解决:
1 ) 样本置信度。
Hu等人[^9]针对视频
推荐网站,根据 户观看频率为每个样本添加预先定义好的置信度。于是他们将观看 频率作为样本置信度的衡 标准,为每个样本添加置信度cui=1+αruic_{ui} = 1 + \alpha*r_{ui}。其中α\alpha是根据场景调整的参数,然后利用矩阵分解模型预测的用户u对视频i的偏好R^ui\hat{R}_{ui}.模型的损失函数为:
在这里插入图片描述
第二种思路是为缺失样本添加相应权 。Pan[^8]等人通过构造样本权重矩阵W。对所有用户的正反馈样本赋予权重WijW_{ij}=1 ,对于缺失样本,他们定义 3种不同的负反馈样本权重分布:

  • 随机分布:对于一个缺失样本,它对所有用户而言是负反馈样本的可能性完全一致。
  • 面向用户的分布:对于一个缺失样本中的用户u,如果u对很多物品又过消费行为,那么他没有过行为的物品时负反馈样本的可能性越大.
  • 面向物品的分布:对于一个缺失样本中的物品i,如果i杯很少的用户有过行为,那么它是负反馈样本的可能性越大。
    2)负样本采样策略
    通过不同负反馈样本采样分布为用户选取出合适的负反馈样本,再与用户的正反馈样本一起构建用户-物品训练矩阵,从而利用传统协同过滤技术进行推荐。
    Pan[^8]等人提出了三种负反馈样本采样分布:
  • 随机分布:从该用户没有过行为的物品中均匀的采样出部分物品作为负反馈样本
  • 面向用户的分布:从该用户没有过行为的物品中采样出与正样本数量相当的物品作为负反馈样本。如果一个用户时活跃用户,那么他没有过行为的物品是负反馈样本的可能性越大。
  • 面向物品的分布:从该用户没有过行为的物品中采样出那些不热门的物品作为负样本。一个物品越不流行,那么这个物品时没有过行为的用户的负反馈样本的可能性更大。

2.2 基于物品对的协同过滤算法

2.2.1 bpr基本框架结构

看另外一个blog

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章