隐式反馈数据的协同过滤与知识图谱嵌入优化
立即解锁
发布时间: 2025-08-22 02:14:44 阅读量: 2 订阅数: 17 

### 隐式反馈数据的协同过滤与知识图谱嵌入优化
在当今的信息时代,推荐系统和知识图谱技术在各个领域都发挥着至关重要的作用。推荐系统能够根据用户的历史行为和偏好,为用户提供个性化的推荐,而知识图谱则可以将各种实体和它们之间的关系进行结构化表示,帮助我们更好地理解和处理信息。本文将围绕隐式反馈数据的协同过滤方法以及知识图谱嵌入的优化展开讨论。
#### 隐式反馈数据的协同过滤
在推荐系统中,隐式反馈数据是一种常见的数据类型,它不像显式反馈数据(如评分)那样直接表达用户的喜好,但同样包含了丰富的信息。为了处理隐式反馈数据,研究人员提出了一种名为 CoF(Conformative Filtering)的新方法。
##### 不同推荐器的性能比较
研究人员在两个真实世界的数据集(Ta - feng 和 Movielens20M)上对 CoF 与多种基线方法进行了广泛的实验比较。在召回率(recall@R)方面,Ocular 与 BPR 和 WRMF 表现相当,但 WRMF 和 BPRMF 在较大的截断值(cutoff values)下表现更好。有趣的是,GBPR 在 Ta - feng 数据集上的性能优于所有基线方法,但在 Movielens20M 数据集上,尽管进行了大量的参数调整,其表现仍不尽如人意。这可能是因为 GBPR 倾向于关注流行项目,而 Ta - feng 是一个杂货数据集,某些常见物品(如面包)几乎出现在每个客户的购物篮中,关注这些物品可能会导致较高的召回率;而电影领域则更加个性化,关注流行项目可能无法满足用户的不同口味。
在 AUC(Area Under the Curve)指标方面,CoF 在两个数据集上都优于基线方法。这表明 CoF 能够识别出“真正的”负样本,并将它们排在排名列表中低于用户感兴趣物品的位置。BPRMF 在两个数据集上的 AUC 表现排名第二,这是因为 BPRMF 是针对 AUC 进行优化的。此外,虽然 WRMF 在 recall@R 方面表现优于 BPRMF,但在 AUC 方面的表现较低,这进一步证明了前 R 指标的得分与评估整个列表的指标可能不相关,因此应根据推荐目标选择合适的指标。在实验中,SLIM 在所有指标上的表现最低,值得注意的是,实验设置(按时间分割数据)和使用的指标与通常评估 SLIM 的实验条件不同。具体的 AUC 数据如下表所示:
| 推荐器 | Ta - feng | ML - 20M |
| ---- | ---- | ---- |
| BPRMF | 0.74977 | 0.87289 |
| WRMF | 0.71316 | 0.85258 |
| CoF | 0.7793 | 0.88816 |
| Ocular | 0.63653 | 0.84879 |
| SLIM | 0.68321 | N.A |
| GBPR | 0.71117 | 0.80367 |
##### CoF 参数的影响
CoF 首先运行 HLTA(Hierarchical Latent Tree Analysis)来学习一个层次模型,然后使用该模型进行物品推荐。它有两个参数:第一个参数 l 决定使用层次结构的哪一层,l 越大,用户口味组的数量就越少;第二个参数 H 决定在表征用户组时使用的消费历史量。虽然这两个参数都是通过验证来选择的,但了解它们如何影响 CoF 的性能是很有趣的。
在 Ta - feng 数据集上,当 l = 1 时,recall@20 分数随 H 的变化曲线先上升后下降,在 H = 20 时达到最大值。这是因为当 H 太小时,用于表征用户口味组的数据包含的信息太少;而当 H 太大时,包含的历史信息过多,数据无法反映用户组的当前兴趣。AUC 分数随 H 的变化也呈现类似的趋势,但 H 对 AUC 的影响不如对 recall@20 的影响明显。此外,CoF 对参数 l 的选择或多或少是稳健的,无论选择哪一层,性能几乎相同,这有点出乎意料,因为随着 l 的增加,口味变得更加通用,人们原本预计性能会下降。
下面是 CoF 参数影响的简单流程图:
```mermaid
graph LR
A[开始] --> B[设置 l = 1]
B --> C[改变 H 值]
C -->
```
0
0
复制全文
相关推荐





