文章链接:https://arxiv.org/pdf/1808.09781
机构:UCSD
发布时间:2018
Copyright (c) Wang-Luning. All Rights Reserved.
SASRec(Self-Attentive Sequential Recommendation,2018)利用Transformer来高效地捕捉完整历史序列中的重要依赖信息。其将用户行为序列视为一个句子来处理,自动学习序列中每个物品与序列中其他物品的相关性,然后基于这些相关性预测用户下一个可能交互的物品。
通过一个Embedding矩阵
接下来通过若干个Attn-FFN层,其中Attn层采用的是单向因果注意力。最后一个block输出的第
设
作者同样尝试了将用户画像embedding加到输出表征
综上可见,SASRec本质上是把Transformer当做了一个序列建模工具,相当于双塔模型中的用户塔,通过建模用户的历史行为序列,来抽象出表征用户兴趣的向量,而做召回时仍然使用的ANN策略,使用用户向量和物品向量做匹配。如果要从生成式的视角来看的话,也可以看做模型生成的是“下一个物品的表征向量”(因为学习目标就是让生成的向量和ground truth物品向量尽可能相似),因此这么看的话勉强也可以称作“生成式召回”,但这和后边TIGER那种真的直接生成下一个物品的SID的范式是不同的,因为无论如何它还是需要传统的ANN来召回物品。