生成式排序 —— HLLM 精读笔记

文章链接:https://arxiv.org/pdf/2409.12740

机构:字节

发布时间:2024.09

Copyright (c) Wang-Luning. All Rights Reserved.

HLLM(Hierarchical LLM)架构用于增强序列推荐系统,是将LLM引入推荐系统的早期尝试,并没有像HSTU那样针对推荐情境做复杂的模型架构/序列建模方面的改进,主要是为了初步探索预训练LLM在推荐情境中的应用潜力。

具体而言,其包含2个LLM,分为Item LLM和User LLM两部分,前者用于从一个item的文字描述中提取其内容特征并压缩到一个embedding中,后者则利用这些特征基于用户交互历史来预测用户未来的兴趣

 

在传统的基于ID的序列建模模型中,embedding参数通常很大,而真正用于计算的模型参数较小,但相对浅层的神经网络难以建模复杂多样的用户兴趣。

而将LLM引入推荐系统后,早期工作通常将用户行为序列以文本的方式输入LLM中,由于通常需要若干文字tokens才能描述一个item,且预测一个item需要decode若干个文字tokens,这就造成序列长度过长,而且每预测一个新item就要forward很多次。另外,将用NLP数据预训练的、具备了世界知识的LLM微调后迁移到推荐系统中,相比于从头拿推荐数据训练的模型是否存在优势?以及scaling law是否在推荐系统中成立?这些问题都还没有定论。

因此,HLLM首先使用一个Item LLM作为特征提取器来将物品文字描述压缩为一个简单的embedding向量,使得每个物品都可以用一个“token”来表示,然后再将用户交互历史中每个物品的token组成的序列输入另一个User LLM中,实现对用户历史的建模并预测下一个物品。其重点在于:1)将(Item)LLM作为一个特征提取器来通过物品的文字描述生成一个简洁的embedding,然后再用于后续的用户历史建模,相比于传统ID-based的方法在训练和推理上效率更高;2)尝试将预训练好的LLM迁移到推荐系统中使用,观察模型的世界知识是否对推荐任务(Item LLM的特征提取和User LLM的序列建模与预测)也有帮助。

image-20260217161216244

对于用户u,设其历史交互物品序列为U={I1,I2,,In},目标是想预测下一个物品In+1。每个物品Ii具有ID以及一些文字描述信息(如title、tag、description)。

HLLM既可以用作生成式推荐也可以用作判别式推荐:

具体的训练过程分为3步:

实验结论中,基于预训练LLM做微调的效果优于从头开始训练。模型规模有1B和7B两种(7B是把Baichuan2-7B分别用做User和Item LLM)。