统一知识图学习和推荐:更好地理解用户偏好Unifying Knowledge Graph Learning and Recommendation

摘要:

将知识图(KG)引入推荐系统,可以提高推荐的准确性和可解释性。然而,现有的方法在很大程度上假定KG是完整的,并且只是在实体原始数据或嵌入的浅层次上传输KG中的“知识”。这可能导致性能不够理想,因为实际的KG几乎不可能完成,而且通常KG缺少事实、关系和实体。因此,我们认为在将KG引入推荐系统时,考虑其不完全性是非常重要的。

     在本文中,我们共同学习了推荐模型和知识图补全。与以往基于KG的推荐方法不同,我们将关系信息以KG的形式传递,从而了解用户喜欢某件商品的原因。例如,如果用户观看了由(关系)对于同一个人(实体),我们可以推断出导演关系在用户决策时起着至关重要的作用,从而有助于在较好的粒度上理解用户的偏好。

     从技术上讲,我们提出了一种新的基于翻译的推荐模型,该模型特别考虑了用户对某项翻译的各种偏好,然后结合多种转换方案,用KG完成模型对其进行联合训练。在两个基准数据集上的大量实验表明,我们的方法优于最先进的基于kg的推荐方法。
进一步的分析验证了联合训练对推荐任务和KG完成任务的积极作用,以及我们的模型在理解用户偏好方面的优势。

统一知识图学习和推荐:更好地理解用户偏好Unifying Knowledge Graph Learning and Recommendation

本文采用的是联合训练。

以下是个人理解,欢迎大家指错:

本文主要解决的问题:item推荐和kg完整性(completion)两个任务

解决思路:是利用联合嵌入的方法,利用kg中的facts作为辅助信息;基于user-item的模拟,填补kg中facts的缺失。

提出的模型:TUP和KTUP

                    TUP(Translation-based User Preference):联合KG学习,并利用user-item之间的多重隐性关系,揭示用户的偏好。为了使偏好具有明确的语义,将它们与KG中的关系对齐,项目属性的类型在用户决策过程中扮演着至关重要的角色。

                    KTUP(Knowledge-enhanced TUP):将学习到的关系嵌入和实体嵌入进行了从KG迁移到TUP,同时训练KG的完整性和推荐任务。联合学习user、items、实体和关系的表示。将TUP和TransH进行联合学习。

下面具体介绍这两个模型:

TUP: 主要考虑偏好诱导和基于超平面的转化

  •      偏好诱导:设计了两种偏好诱导策略:一种是从P个偏好中选择一个的Hard Strategy和一种将所有偏好与注意力结合起来的soft Strategy。

            Hard Strategy:推荐有效的单一偏好,利用得分函数(点积)

            soft Strategy:通过注意力机制(attention mechanism)来联合多重偏好。

  •      基于超平面的转化:为了解决一个用户同时喜欢2个items,那么这两个Items的用户嵌入就很接近。