Bendi新闻
>
当推荐系统遇见大语言模型:通往未来的三条路径

当推荐系统遇见大语言模型:通往未来的三条路径

6月前

©作者 | 张月鹏

单位 | 得物

研究方向 | 搜推算法



前言

自从大语言模型爆火之后,大家对大语言模型(LLM)如何成功应用在推荐系统进行了不少尝试。个人一直觉得 LLM 在工业界推荐系统大部分情况还是离线应用,生成一些特征或者文本。


至于其直接用作召回和排序模块,个人对这块的观点一直是比较悲观的。出于两点考虑:1)推理耗时问题,大模型的推理耗时难以满足推荐系统快速响应的体验要求;2)基于 ID 和用户行为推荐体系是语言模型难以学习的。


但是,Meta 的《Actions Speak Louder than Words: Trillion-Parameter Sequential Transducers for Generative Recommendations》第一次在大规模工业系统打败传统推荐系统的召回和排序模块。未来已来~



首先想讲清楚几个概念和基本思路:


  • 大模型,这里的大模型指的类似 Transfomer 结构,基于 attention 的方式的计算密集型大模型。因为如果只考虑参数量的话,推荐系统早已有千亿参数规模的大模型,只不过大部分参数都集中在 embedding 层,属于存贮密集型。

  • 如上图,推荐系统借鉴大模型的经验主要有两条路在走。第 1 条路直接利用 GPT 等大语言模型的能力,包括直接进行排序,获取用户和内容的特征等等。第 2 条路借鉴大模型的结构,这里其实早就有 BERT4REC 等推荐模型借鉴了 Transfomer 的 self attention。然后借鉴大语言模型的思路在原有基础上变大。第 3 条路直接将传统搜推模型变大。

  • 大语言模型相比传统推荐系统的优势在于模型包含了广泛的开放世界知识和推理能力。


大语言模型在推荐系统的应用(第1条路)

A Survey on Large Language Models for Recommendation

https://arxiv.org/abs/2305.19860

文章主要的贡献还是总结和分类已有的在推荐系统利用大模型的方法。相关文献作者整理到 github:

https://github.com/WLiK/LLM4Rec-Awesome-Papers/tree/main


至于论文中提高的一些发现,基本都是老生常谈的发现,熟悉大语言模型的应该都有所了解。下面展开说下文中的两种分类体系。

第一种分类体系,按照利用 LLM 方式的不同分为 3 类:第一类:利用 LLM 产出的 embedding 增强推荐系统;第二类:利用 LLM 产出的 token 增强推荐系统;第三类:直接使用 LLM 作为推荐系统的某个模块,比如召回和排序等。


第二种体系。分为判别式和生成式,然后根据是否 tuning 和 tuning 方式进行细分,如上图。


How Can Recommender Systems Benefit from Large Language Models: A Survey

https://arxiv.org/abs/2306.05817


相比《A Survey on Large Language Models for Recommendation》这篇综述,本篇文章更加站在工业界应用的角度进行综述,个人觉得看综述看这篇更有参考意义。

如上体,文章主要将文献按照应用在什么阶段(WHERE)和如何应用(HOW)进行分类。应用在推荐系统的阶段主要包括特征工程、特征编码、模型预估、用户交互、流程控制 5 个阶段。如何应用,主要在训练阶段是否微调,在推理阶段是否结合传统推荐系统,分为了 4 类。


文章分析了 LLM 在推荐系统应用的发展脉络。阶段 1:利用小规模语言模型的微调结合传统推荐模型;阶段 2:利用大语言模型不微调,直接作为推荐系统;阶段 3:将大语言模型进行微调或者结合传统推荐系统模型,或者既微调又结合传统推荐模型。


NoteLLM: A Retrievable Large Language Model for Note Recommendation

https://arxiv.org/abs/2403.01744

主要思路就是使用 LLaMA 2 产出 note 的 embedding,并同时生成 note 的类别和标签。方式就是通过构造 prompt 模板来产出对应的 embedding 和生成类别和标签;


embedding 使用特征 token 最后一层的隐向量加一层 MLP 输出。然后和传统推荐系统一样通过 note 的共现构造正样本,负样本为 batch 内负采样,做一个对比学习的任务。


生成的类别和标签,和真实类别标签,做一个微调的 loss。


对比学习任务和生成任务是同时训练的。论文发现生成任务,能帮助提升 embedding 的质量,提升 i2i 召回效果。但是看数据提升并不大。


Recommendation as Language Processing (RLP): A Unified Pretrain, Personalized Prompt & Predict Paradigm (P5)

https://arxiv.org/abs/2203.13366

如上图,文章主要就是把各种推荐方式,变成一种 token 生成的统一方式,来利用语言模型进行训练。

文章引入了 Whole-word embedding 来让一个用户(例如 user_324)和一个 item(例如:item_68293)在分为 token 之后还会共享同一个 Whole-word embedding。这样能不引入大量 ID 特征的基础上,更好的保持个性化能力。


文章整体都是离线的调研实验类的,目前个人看不到工业实践可能性。


Prompt Learning for News Recommendation

https://arxiv.org/abs/2304.05263


文章数据直接利用 LLM 进行排序的方式。

文章使用完形填空的方式,通过设计和训练 prompt(prompt learning),完成利用 LLM 预测 [MASK] 的词汇。具体词汇是一个二分类的词比如 yes/no、good/bad 对应是否点击。


文章不具备大规模工业界利用的能力。一方面全文都是离线训练和离线实验,无法应对线上 inference。一方面文章只在新闻推荐这个领域有效,因为其只利用了 LLM 的语言能力,在文本较少的视频或者商品推荐上必然效果一般。


M6-Rec: Generative Pretrained Language Models are Open-Ended Recommender Systems

https://arxiv.org/abs/2205.08084


主要思路是将推荐任务全部转化成文本。用户特征用文本描述,物料也用文本描述。然后,最后产出一个向量用作召回,或者产出一个向量叠加一个 softmax 用作排序,或者直接生成文本。 


文章主要的点还是工程上如何做训练和推理优化,比如 late nteraction、option tuning(改进的 promot tuning) 等。


TALLRec: An Effective and Efficient Tuning Framework to Align Large Language Model with Recommendation

https://arxiv.org/abs/2305.00447


文章没干货,仅仅利用指令微调(微调方式是 LoRA)的方式,让开放的大语言模型更实验推荐场景,而且只有一种微调指令和方式。如下:


CTRL: Connect Collaborative and Language Model for CTR Prediction

https://arxiv.org/abs/2306.02841


文章通过两阶段的训练,来将 LLM 的知识注入排序模型,线上推理还是原来的排序模型,这样不会引入额外的耗时。第一阶段对齐传统模型和 LLM 对样本的 embedding 表示,而传统模型的样本会通过人工模板转换 LLM 对应的样本,具体 prompt 构造的示例,如下图。第二阶段就是传统的监督学习。

关于这篇文章的结构,个人觉得还是不适合大规模工业系统的。因为大规模系统每天增量产生大量样本。这样两阶段的训练,每天增量的预训练和监督训练,会让模型无法专注学习到第二阶段的预估任务。而且数据量变大后,这样的知识注入效率应该很低。因为,高频的id特征不需要注入,低频的 id 特征这种结构也无法充分学习好先验知识。


Text Is All You Need: Learning Language Representations for Sequential Recommendation

https://arxiv.org/abs/2305.13731


这篇文章严格意义上不能算 LLM 在推荐系统的应用。应该算是 transfomer 结构和文本 token 在推荐系统的应用。把所有 item 用文本表示,那么用户的点击历史,多个 item 也可以表示成文本。在这样的文本上产生用户的 embedding 和 item 的 embedding,用于召回或者排序。

如上图所示,将 item 或者 user 文本输入 transfomer 结构,然后用【CLS】作为 item 或者 user 的 embedding。embedding 的表示上额外引入了 token type embedding(表示属于特征域文本还是属于特征值文本,比如特征域文本是 brand,那么特征值文本可能是 Apple 等)和 item pos embedding(表示用户交互的第几个 item, 如果是要获取 item 的 embedding,那这里长度就对应为 1)。



基于大模型的生成式推荐(第2条路)

Actions Speak Louder than Words: Trillion-Parameter Sequential Transducers for Generative Recommendations

https://arxiv.org/abs/2402.17152


论文的代码已开源,见:

https://github.com/facebookresearch/generative-recommenders


关于论文的细节这里不再展开了,已经有更好的地方参考。见:如何评价 Meta 最新的推荐算法论文:统一的生成式推荐第一次打败了分层架构的深度推荐系统?,这个提问下,有不少大佬以及论文作者的一些回答。如果你要详读这篇论文。除了论文本身外,建议参考这个提问。


如果不确认是否要详读这篇论文。这里给出几点参考:


  • 论文相对来说是晦涩难懂的,一方面里面的一些符号和定义需要结合正文和附录来回翻看。另外一方面论文里面涉及较多的工程细节,算法同学看起来相对吃力。

  • 工程上看,论文把模型做大了,最大的模型算力接近 GPT3。但是不确定 Meta 做到线上的有多大。论文介绍了如何在训练和预估的时候节省算力。训练阶段包括随机长度和样本采样逻辑的优化,inference 阶段主要是批量预估的逻辑。

  • 算法上看,论文虽然是借鉴 transfomer 模型的,但是与 BERT4REC 和SASRec 等有较大区别。第 1 点:经典的序列建模通常只建模一条同质的序列,比如,基于点击的内容序列建模。而本文利用的序列包含多个异质序列,比如融合点击内容和关注作者等等。第 2 点:以往的序列生成式建模无法与 target 进行交互,这里实现了和 target 的交互。第 3 点:模型结构借鉴了推荐排序模型常用的特征交叉思路,来优化 attention 过程。

  • 整体来看,这个工作值得 follow。但是一方面需要强大的工程团队支持优化,一方面这里的模型还是无法支持传统搜推模型的大量人工特征,效果打平的难度不小。可能只有大厂核心业务有人力和资源支持这个工作的 follow。 


传统搜推模型变大(第3条路)

Wukong: Towards a Scaling Law for Large-Scale Recommendation

https://arxiv.org/abs/2403.02545


论文的主要思路就是把模型变大,展现出可扩展的 Scaling Law。这里的变大指的非 embedding 层的变大。

论文主要的模型结构如上:第一步:获取 embedding,和传统推荐思路类似;第二步:堆叠多层 wukong layer,这里的 wukong layer 至于基于 FM 和 MLP 构建;第三步:最后接一个 MLP 作为输出。


论文只是在 meta 的数据集上做了离线实验,没有线上的 AB 实验。考虑这里主要是线上 inference 的耗时问题。



总结

Meta的《Actions Speak Louder than Words: Trillion-Parameter Sequential Transducers for Generative Recommendations》,大模型直接作排序是十分有前景的方向,但是需要工程和算力的不断进化,来变为后续的标准范式。


像小红书《NoteLLM: A Retrievable Large Language Model for Note Recommendation》和华为《CTRL: Connect Collaborative and Language Model for CTR Prediction》一样,离线使用 LLM 产出一些特征或者增强数据,还是比较简单实用的方向。



更多阅读



#投 稿 通 道#

 让你的文字被更多人看到 



如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。


总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 


PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。


📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算


📬 投稿通道:

• 投稿邮箱:[email protected] 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿


△长按添加PaperWeekly小编



🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧


·
·
·

微信扫码关注该文公众号作者

来源:PaperWeekly

相关新闻

澜舟科技周明:赌上半生积累创业 探索大模型落地的第三条路径“5.20元送一朵花”:Kimi试水打赏收费,AI大模型应用的商业化有了新路径?零一万物李谋:当大模型推理遇到算力瓶颈,如何进行工程优化?现身说法,AI小白的大模型学习路径10+AI 系列专题,拆解从 0 到 1 构建大模型架构平台的实现路径|ArchSummit当消费遇上AI:大模型如何成为行业“网红”?字节扣子搭建大模型擂台:匿名PK效果,用户当裁判,跑分时代要结束了汽车芯片大变局,本土厂商的突围新路径:ADC+MCU“双轮驱动”沉迷《幻兽帕鲁》的年轻人:白天大厂搬砖,晚上当赛博老板STEM专业留美新路径:在大厂裁员背景下探索H-1B之外的机会对话联想创投宋春雨:相信万亿参数、多模态是通往 AGI 的最佳路径昨天墨尔本36人被捕!光天化日,男子竟当街抱着人腿生啃!专家:这就是澳洲的未来!我在百度大模型应用升级里,找到了企业增收提效的最佳路径在你的人生中,你习惯当主角还是配角?多项研究表明:成为生活的主角可以提高你的幸福感,拥有较强自尊心的人或具有更强的免疫系统当大模型开始「考上」一本端到端模型:当AI开始掌握驾驶艺术当大模型公司都在卷大参数,面壁智能却在尽可能把参数做小1979-2010:当中国遇见世界 |《鲜活历史》主创谈离婚5年的马伊琍:当妈的都该拥有尽兴的人生!时代的眼泪,集体的回忆:当建筑成为“中式梦核”的载体…吴军博士:当下一代大概率难以超越父母,如何走好教育之路?一位妈妈的自白:当妈十年,依然常常怀疑自己是否是个合格的妈妈被误解的焦虑:当你感到焦虑时,试试这么做赵丽颖终于晒娃了!4岁儿子合照曝光,网友:当妈的太不容易了
logo
联系我们隐私协议©2024 bendi.news
Bendi新闻
Bendi.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Bendi.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。