推荐系统论文阅读(三十五)-亚马逊:多样性互补商品的召回算法
发布网友
发布时间:2023-05-05 17:31
我来回答
共1个回答
热心网友
时间:2023-10-09 16:03
论文 :
论文题目:《P-Companion: A Principled Framework for Diversified Complementary Proct Recommendation 》
地址:https://dl.acm.org/doi/pdf/10.1145/3340531.3412732
前面一篇文章里面我已经提到了商品的可替代性和互补性这两个关系,亚马逊这篇文章着重介绍了如何在保持多样性的前提下利用好商品之间的互补关系。
互补产品推荐(CPR)旨在提供经常一起购买的商品的推荐,以满足共同的需求,形成了电子商务服务的重要组成部分,但是,现有方法远非最佳。对于一种产品,如何推荐其不同类型的互补产品是我们在这项工作中要解决的关键问题。
在我们之前的第34篇文章中所提到的,我们认为共同购买的商品就是互补的,但是这边文章提出了co-purchase的物品并不一定是互补的,举个简单的例子吧,如果用户购买了两种不同品牌的口红那么当然说这两个口红不是互补的商品,但是可以说他们是相似的物品。如果说用户购买了*手机壳,那么手机壳就是手机的互补商品,但是反过来就不行了,因为用户不会因为先把购买了手机壳再去找与之相匹配的手机。
更具体的来看下面的例子:
在图1中,我们显示了一个比较示例,详细阐述了生成高质量“一起购买”推荐的要求。以网球拍作为“查询产品”,我们比较了三组推荐列表。列表1包含其他三个类似的网球拍。清单2包含三个网球,清单3包含一个网球,一个球拍套和一个头带。当然,我们认为列表1通常更倾向于替代产品,并且不太可能在列表1中一起购买。虽然列表2和3都可以被视为合理的推荐,但我们认为列表3是更好的选择,因为它提出了三种不同类型的产品共同更好地满足了客户对网球运动的需求。该示例说明,理想的补充生产推荐解决方案应同时考虑相关性和多样性,以满足客户的需求。
在以前的工作中,我们会更倾向于去建模商品之间的相似度,如协同过滤或者一些item2vec的方法,但是建模物品之间的相似度遇到了一下几个挑战:
C1:互补关系不是对称的,并且互补推荐不仅仅基于相似性度量。例如,网球拍和头带在文字或图像特征上根本不相似。而且,SD卡可以是相机的补充产品,但不能相反。这些事实排除了大多数基于相似性的方法,并需要使用不同的机制来建立互补关系的模型。
C2:互补推荐需要考虑多样性。这些推荐通常是一组具有不同类别和功能的商品,可以满足客户的需求。如图1所示,包含三种类型的网球相关产品的多元化推荐列表要优于仅一种类型的推荐列表。
C3:互补推荐在冷启动项目中受挫。也就是说,在电商领域中,相似度推荐难以解决冷启动问题。
带着这几个挑战,我们来看看亚马逊是怎么解决这些问题的。
I:item 的集合
B ∈ I × I ,代表从客户的历史行为收集的成对商品之间的三个关系(即,共同购买 ,共同浏览 和浏览后购买 )。
C𝑖表示商品i的类别特征(例如,产品类别,类型,标题和描述)
,表示proct type,也就是代表产品本身的功能特征。
互补商品推荐问题表述如下:
给定商品类别特征C(包括标题,项目类型等)和用户行为数据B作为输入,我们想要学习推荐模型M,M能在给定查询item i以及item类别 和多样性程度𝐾的条件下,M会先预测𝐾个不同的互补商品类型{ },然后根据每种预测的互补商品类型生成𝐾个商品集{ }。
在共同浏览,共同购买和浏览后购买的不同组合的对比中,我们观察到仅在共同购买记录中包含产品对的 对MTurk投票得分最高,这比未经处理的共同购买的信号对高30%,所以亚马逊采用这部分数据进行训练。
先来看一下模型里面的一些符号的定义:
模型图:
这里采用的是GAT的方法,具体的细节可以去看GAT这篇论文,这里就不再详细介绍来。
其中, ,FFN是前馈神经网络,z是attention求得的分数,Ni是邻居节点,是训练的时候的正样本, 是负样本,y的定义为:
其中正样本的y定义为:
负样本的y定义为:
的计算为:
f(.)度量学习的函数,𝜆是区分𝑁𝑖和𝑁ˆi的距离,而 是边距。 上面那个优化的目的是迫使𝜃𝑖与 之间的距离小于𝜆 − 𝜖,同时让𝜃𝑖和 的距离至少为𝜖 + 𝜆。
损失函数其实就是hinge loss。
这里就是我们之前所说的如何来解决多样性问题的地方,主要是根据查询item和这个item的类型,来生成多个多个跟这个item相关的类型。
给定查询item i和候选item j,我们有他们之间的类型对{ },还有标签 ,文章采用encoder-decoder模型建模:
首先先把item i的类别的w映射成 ,然后用度量学习的方式来学习。
其他的符号定义,可以参考前面的表,这里不再进行详细描述了,这个优化的目标主要是让co-purchase的商品之间的类别的embedding之间更相近。
这部分是整个论文的最为关键的地方,不仅定义了如何通过度量学习的方式来进行互补商品的推荐,还在多种不同类别的条件下进行学习。
首先我们选取跟查询item的类别embedding相近的几个类别的embedding,然后我们把item本身的embedding 映射到对应的类别中。
这里跟之前的度量学习的方式一样,只不过我们这里要优化的是我们映射后的item embedding跟候选item j之间的距离的度量。
这部分主要是为了让我们3.2和3.3中的两个度量优化函数进行加权,加权系数是
这部分主要讲的是几个超参数的设置,比如L=64,d=128等等参数的设置。
以及,我们要知道在模型进行end-2-end学习完毕后该如何进行预测,也就是怎么来生成候选item,这里我们在问题定义的时候已经说了,从直观上来看就是先生成top-k个最相近的类别,然后在每个类别中运用3.3中的方法来生成候选的item,具体而言:
我们在有了
就可以就行推荐了,直接去取跟这个向量最相近的item就可以。
每个类别的取法都一样,这样我们就可以生成具有多个类别的多样性推荐列表了。