本项目是一个持续的过程,以日拱一卒的态度去学习 AI 开源项目,通过实践真实项目,结合 AI 工具,提升解决复杂问题的能力。并且记录。 notion List
I. 执行摘要
报告概述: 本报告深入剖析了现代推荐系统的现状与发展趋势,重点关注人工智能(AI),特别是大型语言模型(LLM)在其中扮演的变革性角色。推荐系统已从传统的协同过滤和基于内容的方法,演变为能够进行更深层次语义理解、具备更强上下文感知能力、并支持更丰富交互模式的个性化引擎。
核心发现: 分析表明,当前的最佳实践涉及对用户和内容的深度语义理解,通常借助 LLM 生成的嵌入向量实现。匹配与排序策略正朝着融合协同过滤知识与 LLM 能力的方向发展,同时强化学习(RL)被用于优化长期用户价值。LLM 在实现对话式推荐、处理冷启动问题以及提升推荐解释性方面展现出巨大潜力。然而,有效管理用户短期兴趣与长期偏好、确保推荐的多样性与公平性、以及构建高效的反馈优化循环(如基于人类反馈的强化学习 RLHF)仍然是关键挑战。Prompt 推荐,特别是结合检索增强生成(RAG)的技术,正在开辟新的交互范式。
最佳实践概要: 构建先进的 AI 推荐系统需要综合运用多种技术:利用 LLM 进行用户和内容的语义嵌入,采用多阶段召回与排序架构,融合协同过滤信号与语义理解,通过多臂老虎机(MAB)或 RL 策略平衡探索与利用,实施 RLHF 以对齐人类偏好,并借助 A/B 测试进行持续迭代优化。强大的工程实践,包括高效的向量数据库、MLOps 流程和可观测性,对于部署和维护这些复杂系统至关重要。
报告范围与结构: 本报告将首先回顾推荐系统的演进历程,随后深入探讨用户理解、内容智能、匹配与排序、时间动态处理、Prompt 推荐、探索与多样性、反馈与优化等核心环节的技术与实践。最后,报告将综合提炼最佳实践、关键工具与工程蓝图,并展望未来发展方向。
II. 推荐系统的演进:从协同过滤到 AI 原生系统
推荐系统的发展历程反映了信息处理和机器学习技术的不断进步,其目标始终是连接用户与他们可能感兴趣的信息或商品,缓解信息过载问题 1。
早期阶段:协同过滤(CF)与基于内容(Content-Based)的方法
推荐系统的早期基石是协同过滤和基于内容的方法。协同过滤的核心思想是利用用户群体行为模式进行推荐,主要分为基于用户的协同过滤(User-User CF)和基于物品的协同过滤(Item-Item CF)2。User-User CF 找到与目标用户兴趣相似的用户群体,推荐这些相似用户喜欢的物品;Item-Item CF 则推荐与用户过去喜欢的物品相似的其他物品 2。基于内容的方法则根据物品自身的属性(如文本描述、分类标签)和用户过去的偏好记录,推荐与用户偏好内容相似的物品 1。
矩阵分解(Matrix Factorization, MF)是协同过滤中的一个经典且强大的技术,它将高维稀疏的用户-物品交互矩阵分解为低维的用户和物品潜在特征向量(嵌入),通过向量内积预测用户对物品的偏好 3。这些早期方法在特定场景下效果显著,但普遍面临数据稀疏性(用户交互数据远少于所有可能交互)、冷启动(难以推荐新用户或新物品)以及对内容语义理解有限等挑战 1。
深度学习革命
随着深度学习的兴起,深度神经网络(DNNs)被广泛应用于推荐系统,以捕捉用户与物品之间复杂的非线性交互关系,并学习更有效的特征表示 1。诸如 Wide & Deep 4 结合了用于记忆(Memorization)的宽线性模型和用于泛化(Generalization)的深度神经网络,能够同时利用低阶和高阶特征交互。DeepFM 4 等模型则通过因子分解机(Factorization Machine)的思想自动学习特征之间的交互,避免了手动设计特征交叉。
这些深度学习模型显著提升了推荐性能,尤其是在处理大规模稀疏特征方面 3。然而,许多早期的深度学习推荐模型仍然严重依赖离散的 ID 特征(如用户 ID、物品 ID)及其对应的嵌入向量 6。虽然这些 ID 嵌入能有效捕捉协同过滤信号,但它们难以充分利用丰富的文本、图像等多模态内容信息,对语义的理解相对浅层 1。
LLM 范式转移
大型语言模型(LLM)的出现标志着推荐系统研究的又一次范式转移 4。基于 Transformer 架构并在海量文本数据上预训练的 LLM,具备强大的自然语言理解、生成和推理能力 1。将 LLM 引入推荐系统带来了诸多优势:
- 增强的语义理解: LLM 能够深刻理解用户查询、物品描述、用户评论等文本信息的语义和上下文 8。
- 利用世界知识: LLM 预训练过程中编码了广泛的世界知识和常识,有助于进行推荐推理,尤其是在处理冷启动场景时(对新用户或新物品进行推荐)4。
- 新的交互范式: LLM 的对话能力催生了对话式推荐系统,用户可以通过自然语言与系统交互,表达更复杂的偏好和意图 13。
- 统一表示: LLM 有潜力将用户行为、物品内容等不同模态的信息统一编码到语义空间中 4。
LLM 可以通过多种方式赋能推荐系统,例如,利用 LLM 生成的嵌入来初始化或增强用户/物品表示 6,直接使用 LLM 进行零样本或少样本推荐 4,或者针对推荐任务对 LLM 进行微调 4。
融合与混合:演进的现实路径
观察推荐系统的演进,一个重要的现象是技术并非简单的线性替代,而是呈现出融合与混合的趋势。深度学习模型吸收了协同过滤的思想(如利用交互数据学习嵌入),而当前许多研究并非试图用 LLM 完全取代现有模型,而是探索如何将 LLM 的语义理解能力与传统推荐模型的协同过滤优势相结合 4。
协同过滤在处理大规模稀疏 ID 交互方面依然具有优势,而这恰恰是 LLM 直接建模的难点 4。因此,研究者们提出了多种融合策略:例如,SeLLa-Rec 模型通过对比学习将协同过滤知识与 LLM 的语义空间对齐 4;一些工作探索将 CF 嵌入和内容嵌入(可能来自 LLM)作为输入融合到 LLM 中,以生成更丰富的推荐叙述或进行更精准的排序 14;LEARN 框架则利用 LLM 作为物品编码器,将其产生的语义嵌入投影到协同知识域,以适应工业级推荐任务 8。这种协同作用表明,未来的先进推荐系统很可能是结合了多种技术优势的混合体,而非单一技术的垄断。
III. 掌握用户理解:建模偏好、意图与细微差别
精准的用户理解是推荐系统有效性的核心。这需要系统不仅知道用户是谁、喜欢什么,还要理解用户在特定情境下的即时需求和更细微的偏好特征。
基础:利用静态与行为数据
用户建模的基础始于利用两类核心数据:
- 静态特征: 包括用户的基本画像信息,如年龄、性别、地理位置、职业等。这些信息通常相对稳定,为用户偏好提供基础背景。
- 行为数据: 指用户与系统交互产生的动态数据,如点击、浏览、购买、收藏、分享、评论、停留时长等 1。这些数据直接反映了用户的兴趣和意图,是构建个性化推荐的关键。
在传统的协同过滤和早期的深度学习模型中,这些数据通常被用来构建用户-物品交互矩阵或作为模型的输入特征。
捕捉时间动态:短期上下文 vs. 长期偏好
用户的兴趣并非一成不变,既有长期稳定的偏好,也有随时间和情境变化的短期兴趣。例如,一个长期喜欢阅读科幻小说的用户,可能因为最近看了一部纪录片而短暂地对历史类内容产生兴趣。推荐系统需要能够区分并建模这两种不同时间尺度的兴趣。
为了捕捉用户的短期兴趣和意图变化,序列推荐(Sequential Recommendation)模型应运而生。这类模型旨在根据用户最近的行为序列预测其下一步可能感兴趣的物品。早期的序列模型采用马尔可夫链或循环神经网络(RNN),而近年来,基于 Transformer 架构的模型(如 SASRec 4、BERT4Rec 12)因其强大的序列建模能力和对长距离依赖的捕捉能力,在序列推荐任务上取得了显著进展 4。这些模型能够更好地理解用户在当前会话(session)中的上下文意图。
高级用户表示:嵌入、深度学习与 LLM 驱动的用户模型
随着技术发展,用户表示方法也日益复杂和精细:
- 用户嵌入(User Embeddings): 将用户表示为低维稠密向量(嵌入)是常用技术。这些嵌入向量通常通过矩阵分解 3、因子分解机或深度学习模型从用户行为数据中间接学习得到,能够捕捉用户在潜在兴趣空间中的位置以及用户之间的相似性 3。
- 深度用户建模: 更高级的深度学习模型被设计用来更精细地刻画用户兴趣。例如,深度兴趣网络(Deep Interest Network, DIN)4 引入了注意力机制,可以根据目标物品动态地计算用户历史行为中不同行为的相关性权重,从而更准确地捕捉用户针对特定物品的多样化兴趣。
- LLM 用于用户建模: 大型语言模型为用户建模开辟了新途径。通过处理与用户相关的文本数据(如用户评论、搜索查询、社交媒体帖子)或将用户的行为序列转化为自然语言描述,LLM 能够构建更丰富、更具语义的用户表示 4。
- 嵌入初始化/增强: 使用 LLM 生成的语义嵌入来初始化或补充传统的用户 ID 嵌入 6。研究表明,这种方法可以显著提升推荐性能指标(如 MRR, Recall, NDCG)6。
- 模型微调: 针对特定任务(如用户兴趣预测)对 LLM 进行微调,使其更好地理解用户偏好 6。
- 用户画像生成: 利用 LLM 的生成能力,根据用户的行为历史直接生成结构化或非结构化的用户画像描述(如兴趣标签、偏好主题等)11。例如,GENRE 利用 ChatGPT 根据用户行为推断其偏好主题和地域,生成的画像可作为下游推荐模型的特征 11。
- 理解“语气空间”: 用户查询中提到的“语气空间”(Tone Space),可以理解为捕捉用户偏好中更细微的风格、情绪、态度甚至个性特征。例如,用户可能偏好某种特定写作风格的书籍,或者在评论中表现出某种一贯的情绪倾向。LLM 凭借其强大的自然语言理解能力,特别适合从用户的文本表达或隐含在行为选择模式中的信息来推断这些细微特征 11。
用户建模技术比较分析
不同的用户建模技术各有优劣,适用于不同的场景和数据条件。下表对几种主要技术进行了比较:
表 1: 用户建模技术比较
技术 | 核心思想 | 数据输入 | 优点 | 缺点 | 冷启动处理 | 语义理解 | 关键研究/示例 |
---|---|---|---|---|---|---|---|
静态特征 | 利用用户基本画像信息 | 年龄、性别、地点等 | 简单、易获取 | 信息量有限,无法捕捉动态兴趣 | 较差 | 无 | - |
CF 嵌入 (如 MF) | 从用户-物品交互中学习用户/物品潜在向量 | 用户行为历史 (点击、评分等) | 有效捕捉协同信号,处理稀疏数据 3 | 难以利用内容信息,冷启动问题 3 | 较差 | 有限 | MF 3, Factorization Machines 3 |
序列模型 (RNN/Transformer) | 建模用户行为序列,捕捉短期/上下文兴趣 | 用户行为序列 | 捕捉时间动态性,上下文感知 6 | 可能忽略长期偏好,对极长序列处理有挑战 | 较差 | 有限 (ID 基础) | SASRec 4, BERT4Rec 12 |
LLM 驱动的用户模型 | 利用 LLM 处理文本/行为序列,生成语义丰富的用户表示/画像 | 用户文本数据、行为序列 (文本化) | 强大的语义理解,利用世界知识 10,处理冷启动 10 | 计算成本高,需要大量数据进行微调,表示有效性评估复杂 17 | 较好 10 | 强 | LLM Embeddings 6, UQABench 17, SeLLa-Rec 4, GENRE 11 |
LLM 用户模型评估的挑战
尽管 LLM 在用户建模方面展现出巨大潜力,能够捕捉更深层次的语义和细微差别 6,但如何有效评估这些由 LLM 生成的用户表示(无论是嵌入向量还是生成的画像)的真实质量和下游任务效用,是一个新兴且重要的挑战。传统的推荐系统评估指标,如 NDCG、Recall@k 等,主要衡量排序的准确性,可能无法完全反映 LLM带来的在个性化深度、兴趣理解准确性或用户体验方面的提升 6。一些研究开始关注这个问题,例如 UQABench 17 提出通过个性化的问答任务来评估用户嵌入在驱动 LLM 进行个性化响应方面的有效性,这超越了传统的推荐评估范式。这表明,我们需要新的评估方法和基准来全面衡量 LLM 在用户建模方面的价值,特别是在交互式和对话式场景中。
用户与内容理解的共生关系
高级的用户建模,尤其是利用 LLM 进行的建模,其效果在很大程度上依赖于对物品内容的同等深入理解。当系统不仅能理解用户的细微偏好(例如,“喜欢带有哲学思辨且基调乐观的科幻作品”),也能理解物品内容的深层语义(例如,“这本书是探讨超人类主义的哲学性科幻,带有积极的展望”)时,推荐的精准度和相关性才能实现质的飞跃。仅仅依赖协同信号或粗粒度的分类标签,难以实现如此精妙的匹配。许多先进的混合推荐模型 4 的成功,实际上都隐含地依赖于用户理解和内容理解这两个方面的协同进步。这强调了在发展推荐系统时,需要同步提升对用户和内容的双重智能。
IV. 深度内容智能:物品的语义理解
与用户理解相辅相成,对推荐内容(物品、文章、视频等)的深度理解是实现精准匹配的关键。仅仅依赖物品 ID 或简单的元数据已不足以满足现代推荐系统对语义相关性和上下文感知的需求 8。
超越元数据:语义表示的需求
传统的基于内容的方法主要依赖物品的元数据,如 ID、类别、标签、作者等。虽然这些信息有一定价值,但它们往往无法捕捉内容的深层含义、细微差别或上下文信息 8。例如,两本同属“科幻”类别的小说,其主题、风格、思想可能截然不同。依赖 ID 的嵌入方法虽然能捕捉协同过滤信号,但也忽略了物品本身丰富的语义信息 8。因此,推荐系统需要转向能够理解内容“讲了什么”以及“如何讲”的语义表示方法。
提取意义:NLP、知识图谱与 LLM 内容嵌入
为了实现对内容的深度理解,多种技术被应用于从物品信息中提取语义特征:
- 传统 NLP 技术: 早期的自然语言处理(NLP)技术,如 TF-IDF(词频-逆文档频率)、主题模型(如 LDA)以及词嵌入(Word2Vec, GloVe)和句嵌入方法,被用来从物品的文本描述(标题、摘要、评论等)中提取关键词、主题分布或基础的语义向量 13。
- 知识图谱 (Knowledge Graphs, KGs): KGs 通过节点和边来表示物品的属性、特征以及物品之间的关系(如“导演”、“属于系列”、“包含元素”等)。利用 KG,系统可以进行推理,发现物品间更复杂的联系,并利用这些关系进行推荐,补充用户交互数据之外的信息 2。
- LLM 嵌入: 大型语言模型(LLM)在内容表示方面带来了革命性突破。利用预训练的 LLM(如 BERT 8、Sentence-BERT、GPT 系列模型或专门的嵌入 API)处理物品的文本内容,可以生成高质量的语义嵌入向量 6。这些嵌入能够捕捉文本的深层语义、上下文依赖、甚至细微的风格和情感信息,远超传统方法。LLM 强大的理解和推理能力使其成为内容表示的有力工具 8。
内容嵌入策略:稳定性、可扩展性与公平性
在应用 LLM 等先进技术生成内容嵌入时,需要考虑几个关键问题:
- 应对 ID 不稳定性: 在拥有海量动态商品库(如电商、新闻)的工业级推荐系统中,传统的基于 ID 的嵌入面临严峻挑战:ID 数量极其庞大(高基数)、ID 空间动态增长、用户交互高度倾斜(少数热门 ID 占据大部分流量)、以及 ID 自然生命周期导致的漂移 7。随机哈希(Random Hashing)虽然能处理高基数问题,但会导致哈希冲突和表示不稳定,尤其对于交互稀疏的长尾物品效果不佳 7。语义嵌入提供了一种更稳定的替代方案。例如,“Semantic ID” 7 提出基于物品内容(文本、图像等)的语义相似性构建层次化聚类,从而生成固定的、具有语义意义的 ID 空间,解决了 ID 漂移和随机哈希带来的嵌入不稳定性问题,并有助于改善对长尾物品的建模 7。
- 计算效率考量: 为数百万甚至数十亿的物品生成 LLM 嵌入可能带来巨大的计算开销。实践中需要采取策略来平衡效果和成本,例如:
- 选择计算效率更高的嵌入模型。
- 在下游推荐任务训练时冻结 LLM 参数,利用其预训练知识作为特征提取器,避免灾难性遗忘,并降低训练成本 8。
- 采用模型蒸馏等技术将大型 LLM 的知识迁移到更小的模型中。
- 嵌入中的公平性: 预训练语言模型可能从训练数据中习得并放大社会偏见(如性别、种族偏见)18。这些偏见会传递到生成的文本嵌入中,进而导致推荐系统产生不公平或歧视性的结果 18。因此,研究和实践中越来越关注文本嵌入的公平性。相关工作包括提出新的公平性度量(如内容条件独立性 18),设计去偏算法(如投影方法、对抗训练),以及利用 LLM 本身通过指令进行公平的数据增强来缓解训练数据不足的问题 18。目标是在保持嵌入效用的同时提升公平性 18。
处理多模态内容
现代推荐场景往往涉及多种内容形式,如图像、视频、音频等。内容理解技术也需要扩展到多模态领域。利用像 CLIP 9 这样的视觉-语言预训练模型或专门的图像/视频编码器(如 MoCo 9),可以将多模态信息也编码为语义嵌入,与文本嵌入融合,实现更全面的内容理解 9。
内容特征工程的最佳实践
当前的趋势倾向于采用“LLM-to-Rec”的策略 8,即将强大的 LLM 作为内容编码器,提取物品的语义信息(嵌入),然后将这些来自“开放世界”的知识适应并整合到推荐系统的“协同知识”域中。这种方法旨在克服直接将推荐数据适配给 LLM 进行微调(“Rec-to-LLM”)可能遇到的问题,如领域鸿沟和灾难性遗忘 8。选择合适的文本来源(如标题、描述、用户评论、属性等)来生成嵌入至关重要 16。
语义丰富性与协同信号的张力
虽然 LLM 能够提供卓越的语义内容理解,但这些语义嵌入本身并不直接包含协同过滤信息——即哪些物品倾向于被同一群用户一起消费或喜欢。仅仅用 LLM 内容嵌入替代传统的 ID 嵌入可能丢失宝贵的协同信号 4。因此,最有效的系统往往需要将基于内容的语义理解与基于用户行为的协同信号进行融合或对齐。例如,SeLLa-Rec 4 通过对比学习对齐两者;一些架构将 CF 嵌入和内容嵌入共同作为 LLM 的输入 14;LEARN 框架则将 LLM 内容嵌入投影到协同域 8。这表明简单的替换并非最优解,关键在于如何有效地结合这两种强大的信息来源。
内容嵌入作为可解释性与新交互的基础
语义丰富的物品内容嵌入,特别是来自 LLM 的嵌入,为推荐系统的可解释性和交互性提供了新的可能性。由于 LLM 理解并能生成自然语言,它可以利用这些语义嵌入(或其背后的原始文本)来生成关于推荐理由的自然语言解释,帮助用户理解推荐结果 6。此外,对物品内容的深刻理解是构建智能对话式推荐系统的基础,使得系统能够与用户就物品的属性、特点进行有意义的讨论,而不仅仅是提供一个列表 13。这显示了内容嵌入的价值超越了匹配本身,是解锁更高级推荐能力(如解释、对话)的关键赋能技术。
V. 核心引擎:先进的匹配与排序策略
推荐系统的核心引擎负责从海量内容库中高效地筛选出用户可能感兴趣的少数几个项目,并进行精准排序。工业界广泛采用多阶段架构来平衡效率和效果 2。
多阶段推荐漏斗:召回、排序与重排
典型的推荐流程通常包含以下几个阶段:
- 召回 (Recall) / 匹配 (Matching) / 候选生成 (Candidate Generation): 这是推荐漏斗的第一层,目标是从庞大的物品库(可能包含数百万甚至数十亿物品)中快速、粗粒度地筛选出一个相对较小的候选集(通常为几百到几千个),确保潜在相关的物品尽可能被包含在内。此阶段的核心是高召回率和低延迟 2。
- 排序 (Ranking): 召回阶段产生的候选集会被送入排序模型。排序模型通常更复杂,会利用更丰富的用户特征、物品特征以及上下文信息,对每个候选物品进行精准打分,并按分数高低生成一个有序列表。此阶段的核心是高精度(Precision)2。
- 重排 (Re-ranking): 在排序之后,有时还会有一个重排阶段。该阶段会对排序列表进行调整,以优化除相关性之外的其他目标,例如提升推荐结果的多样性、新颖性、公平性,或者满足特定的业务规则(如推广、去重等)21。
这种多阶段设计允许系统在不同阶段使用复杂度不同的模型,在保证最终推荐质量的同时,满足在线服务的低延迟要求。
现代召回技术:超越传统 CF
随着技术发展,召回阶段的方法也日益多样化:
- 基于嵌入的相似度检索: 这是目前主流的召回方法之一。通过训练模型(如双塔模型、矩阵分解等)得到用户和物品的嵌入向量,然后在向量空间中查找与用户向量(或用户近期交互物品的向量)最相似的物品向量。为了处理大规模向量检索,通常采用近似最近邻(Approximate Nearest Neighbor, ANN)搜索技术和库(如 FAISS, ScaNN)来加速查询 4。
- 基于图的方法: 利用图神经网络(GNN)如 LightGCN 2 在用户-物品交互图上进行信息传播,可以捕捉更高阶的协同信号,用于生成候选物品。
- LLM 驱动的召回: LLM 可以在召回阶段发挥作用。例如,使用 LLM 生成的物品语义嵌入进行相似度检索(LLMSeqSim 12),或者利用 LLM 理解用户查询的语义来进行更精准的语义匹配 6。直接让 LLM 生成候选物品 ID 或描述在召回阶段尚不普遍,主要受限于成本和延迟。
- 多路召回融合: 实际生产系统往往会并行运行多个召回通道,每个通道采用不同的策略(如基于嵌入的协同过滤、基于内容的语义匹配、基于地理位置、基于热门度、基于社交关系等),然后将各路召回的结果合并,送入排序阶段 2。
最先进的排序模型:深度学习架构
排序阶段是决定最终推荐列表质量的关键环节,深度学习模型在此扮演核心角色:
- 特征交互模型: Wide & Deep 4 和 DeepFM 4 等模型擅长处理推荐场景中常见的大量稀疏类别特征和连续数值特征,能够自动学习特征之间复杂的交互关系,提升排序精度。
- 序列感知排序: 考虑到用户行为的序列性,基于 Transformer 的模型(如 DIN 4, DIEN, 以及用于排序任务的 BERT4Rec 12)被引入排序阶段。这些模型利用自注意力机制捕捉用户历史行为序列中的上下文信息,实现更动态和个性化的排序。
- LLM 在排序中的应用: LLM 可以作为强大的特征提取器(如编码文本特征),其生成的语义特征可以输入到排序模型中。也可以将 LLM 作为排序模型的一个组件,甚至进行端到端的排序(可能需要微调)4。融合协同知识与 LLM 的架构(如 SeLLa-Rec 4,融合 CF 与内容嵌入的 LLM 14)是当前研究的热点,旨在结合两者的优势。
- 强化学习 (RL) 优化排序: 强化学习提供了一种直接优化长期累积奖励(如用户参与度、满意度、留存率)的范式,而不是仅仅预测单次交互的概率(如点击率 CTR)4。将 RL 应用于排序策略优化,有望带来更好的长期用户体验。然而,RL 在推荐中的应用面临奖励函数设计、探索策略、样本效率等方面的挑战。
匹配与排序算法比较
下表概述了推荐系统中常用的匹配和排序算法:
表 2: 匹配与排序算法概览
表 2: 匹配与排序算法概览
算法/模型 | 典型阶段 | 核心思想 | 优点 | 缺点 | 复杂度/成本 | 关键研究/示例 |
---|---|---|---|---|---|---|
ItemCF / UserCF | 召回 | 基于物品/用户相似度的协同过滤 | 简单、可解释性好 | 数据稀疏性、冷启动、无法利用内容 | 较低 | 2 |
MF (矩阵分解) | 召回/排序 | 学习用户/物品潜在因子 | 处理稀疏数据,个性化 | 冷启动,难以融合上下文/内容 | 中等 | 3 |
ANN (基于嵌入) | 召回 | 在向量空间中进行高效近似最近邻搜索 | 快速检索语义/协同相似项,可扩展性好 | 依赖嵌入质量,ANN 自身有精度损失 | 中等 (索引构建/查询) | FAISS, ScaNN 4 |
LightGCN | 召回 | 在用户-物品图上传播信息,捕捉高阶协同信号 | 建模高阶关系,性能优越 | 计算复杂度较高,对图结构敏感 | 较高 | 2 |
Wide & Deep / DeepFM | 排序 | 结合线性模型与 DNN / 自动学习特征交互 | 平衡记忆与泛化 / 自动特征交叉,处理稀疏特征 | 需要大量特征工程 / 对超参数敏感 | 中等 | 4 |
Transformers (SASRec/DIN) | 排序 | 利用自注意力机制建模用户行为序列/动态兴趣 | 捕捉序列依赖和上下文,动态兴趣建模 4 | 计算量大,对长序列处理有挑战 | 较高 | 4 |
RL 驱动的排序器 | 排序 | 将排序视为策略优化问题,最大化长期奖励 | 直接优化长期目标 (如用户留存) | 奖励设计难,训练不稳定,需要在线探索 | 高 | 4 |
LLM 融合模型 | 排序/召回 | 将 LLM 的语义理解与协同信号/其他模型融合 | 结合语义与协同优势,提升理解力 4 | 模型复杂,训练/推理成本高,融合策略是关键 | 高 | SeLLa-Rec 4, Fusion Architectures 14, LEARN 8 |
高效检索的重要性日益凸显
随着模型(尤其是基于 LLM 的模型)能够为用户和物品生成维度更高、语义更丰富的嵌入向量 6,召回阶段的效率,特别是 ANN 搜索的效率,变得至关重要。向量数据库和 ANN 算法的进步,是支撑这些先进表示方法在大规模生产环境中部署的关键工程基础。如果无法快速、准确地从海量向量中检索出候选集,那么再强大的嵌入模型也难以发挥作用。这凸显了模型研究与底层系统工程之间紧密的依赖关系。
排序目标向长期价值转变
虽然预测点击率(CTR)等短期交互指标仍然是排序任务的常见目标 4,但一个明显的趋势是,业界和学界越来越关注优化更长期的用户价值指标,如用户满意度、留存率、会话时长、探索多样性或用户生命周期价值。强化学习 4 和更先进的反馈机制(如 RLHF 22)为此提供了技术手段。对信息茧房、公平性等问题的担忧 24 也促使系统设计者超越短视的点击最大化目标。这标志着排序阶段的优化目标正在发生战略性转变,从追求即时互动转向培养可持续的用户参与和价值。
VI. 跨越时间视野:整合短期与长期用户记忆
有效的个性化推荐需要在用户的长期稳定偏好与即时的、上下文相关的短期需求之间取得平衡。系统需要记住用户的历史兴趣,同时对他们当前会话中的行为和意图做出快速响应。
挑战所在
核心挑战在于如何设计系统架构,使其能够同时利用这两种不同时间尺度的信息。过度依赖长期偏好可能导致推荐僵化,无法适应用户当前的需求变化;而过度关注短期信号则可能使推荐变得短暂和缺乏深度,忽略了用户更持久的兴趣。
序列推荐架构
如前所述,序列推荐模型(基于 RNN、Transformer 等)是捕捉短期用户动态和会话上下文的主要工具 4。这些模型通过分析用户最近的行为序列来预测其下一步的交互,天然地侧重于短期和上下文信息。
融合短期会话与长期画像的机制
为了结合长期和短期信息,实践中采用了多种策略:
- 特征拼接/融合: 一种常见做法是将代表长期偏好的用户嵌入(可能来自 MF 或用户画像模型)与代表短期兴趣的会话嵌入(可能来自序列模型)进行拼接或通过注意力机制进行融合,然后将融合后的表示输入到最终的排序模型中。
- LLM 的统一处理: 大型语言模型理论上提供了一种更统一的方式来处理不同时间尺度的信息。可以通过构建包含用户长期画像信息(可能是摘要形式)和近期交互序列的 Prompt,让 LLM 在一个统一的上下文中进行理解和推理 17。然而,如何有效组织 Prompt 以平衡长期和短期信息,以及处理 LLM 有限的上下文窗口长度,是需要解决的问题。
动态用户表示的存储与更新策略
用户表示(无论是嵌入向量还是画像特征)需要被存储并在用户行为发生后进行更新,以反映其最新的状态。这涉及到重要的工程决策:
- 存储:
- 传统的用户画像特征可能存储在键值存储或关系型数据库中。
- 用户嵌入向量,特别是需要进行相似度搜索的向量,越来越多地存储在专门的向量数据库中,这些数据库优化了高维向量的存储和检索效率。
- 更新机制:
- 批处理更新 (Batch Update): 定期(如每天)批量处理过去一段时间的用户行为数据,重新计算并更新用户表示。这种方式相对简单,但用户表示的更新存在延迟。
- 在线/实时更新 (Online/Real-time Update): 当用户产生新的交互行为时,实时或近实时地更新其表示。这种方式能更快地反映用户兴趣的变化,提供更具时效性的推荐,但对系统架构和计算资源的要求更高。
- 混合更新: 结合批处理(更新长期稳定部分)和在线更新(更新短期动态部分)。
选择哪种存储和更新策略取决于应用的具体需求,如对推荐新鲜度的要求、用户量和行为频率、系统复杂度和成本预算等。
“记忆”架构的关键作用
一个推荐系统如何存储、更新以及融合短期和长期用户信息的机制,构成了其“记忆”架构。这不仅仅是技术细节,而是核心的架构决策,对个性化质量、系统延迟、计算成本和整体复杂性有着深远影响。例如,一个需要对用户情绪或即时需求做出快速反应的应用(如新闻推荐),可能更倾向于采用实时更新和侧重短期信号的融合策略;而一个侧重于发现用户深度兴趣的应用(如图书推荐),可能更依赖于稳定的长期画像和批处理更新。不存在唯一的“最佳”记忆架构,选择必须依据具体的业务场景和约束条件。这凸显了用户状态管理在现代推荐系统设计中的核心地位。
VII. 对话前沿:基于 Prompt 和交互式推荐
大型语言模型(LLM)的崛起正在推动推荐系统从传统的单向推送模式向更自然、更具交互性的对话范式演进。
LLM 作为对话式推荐器
LLM 天然的语言理解和生成能力使其非常适合构建对话式推荐系统 1。在这类系统中,用户可以通过自然语言与系统进行多轮对话,表达自己的需求、偏好、约束条件,并获得推荐结果和相关解释 13。例如,用户可以说“我想找一本类似于《三体》但结局更积极的科幻小说”,系统需要理解这种复杂的语义并给出合适的建议。Chat-Rec 5 等研究范式探索了如何利用 LLM 实现这种交互式推荐体验。
Prompt 工程与推荐策略
在利用 LLM 进行推荐时,如何设计有效的 Prompt(提示)至关重要 10。Prompt 是用户与 LLM 交互的接口,其质量直接影响 LLM 的输出效果。
- Prompt 设计策略:
- 零样本 (Zero-shot): 直接向 LLM 提出推荐请求,不提供任何示例 4。
- 少样本 (Few-shot): 在 Prompt 中提供少量推荐示例,引导 LLM 理解任务格式和期望输出 10。
- 指令微调 (Instruction Tuning): 使用包含明确指令和对应输出的样本对 LLM 进行微调,使其更好地遵循推荐任务的特定要求 4。TALLREC 4 是一个例子。
- 思维链 (Chain-of-Thought, CoT): 引导 LLM 在生成最终推荐前,先进行一步步的推理或解释,提高推荐的逻辑性和准确性 11。
- Prompt 推荐系统: 甚至出现了专门帮助用户或开发者生成更优 Prompt 的系统或工具 26。这些系统可以根据用户输入或上下文推荐有效的 Prompt 模板或关键词,以提升下游 LLM 的表现。TextVision 26 界面就包含了 Prompt 设计和推荐的功能。
利用检索增强生成 (RAG) 提升推荐
检索增强生成(Retrieval-Augmented Generation, RAG)是一种将信息检索与 LLM 生成相结合的技术架构,非常适用于推荐场景 26。其基本流程是:
- 接收用户输入(如自然语言查询或对话)。
- 利用该输入从外部知识库(如物品数据库、用户历史记录、评论库、甚至通用知识库)中检索相关信息片段。
- 将检索到的信息与原始输入一起注入到 LLM 的 Prompt 上下文中。
- LLM 基于增强后的上下文生成更准确、更具信息量、更个性化的推荐结果或回复。
RAG 能够有效缓解 LLM 存在的知识陈旧(Knowledge Cutoff)和幻觉(Hallucination)问题,通过引入实时、相关的外部信息来“锚定”LLM 的生成过程,从而提升推荐的可靠性、相关性和事实准确性 30。例如,在推荐商品时,RAG 可以检索最新的价格、库存信息和用户评论,供 LLM 参考。
迈向个性化 LLM 推荐
为了让 LLM 提供真正个性化的推荐,需要将其与用户的个人信息(尤其是长期偏好和历史行为)有效结合。实现方式包括:
- 上下文填充 (Context Stuffing): 将用户的画像摘要、偏好标签或近期行为序列直接包含在每次请求的 Prompt 中 17。这是最直接的方法,但受限于 LLM 的上下文窗口长度。
- 模型微调 (Fine-tuning): 针对特定用户或用户群体,使用他们的交互数据对 LLM(或其部分参数,如使用 LoRA 9 等适配器技术)进行微调 4。这可以使 LLM 的行为更符合用户的个性化偏好,但可能面临单个用户数据稀疏和计算成本高昂的挑战。
- 嵌入注入 (Embedding Injection): 将预先学习好的用户嵌入向量作为“软提示”(Soft Prompt)或条件信号输入给 LLM,引导其生成个性化的内容 14。这种方法试图在不修改 LLM 主体参数的情况下实现个性化。
Prompting:LLM 推荐系统的新型特征工程
在 LLM 驱动的推荐系统中,特别是对话式推荐场景下,Prompt 的设计扮演着极其关键的角色。如何将用户的个人信息(画像、历史)、候选物品信息、任务指令以及对话上下文等有效组织并呈现给 LLM,其重要性不亚于传统机器学习模型中的特征工程。一个精心设计的 Prompt 能够引导 LLM 准确理解用户意图、利用相关知识并生成高质量的推荐,而一个糟糕的 Prompt 则可能导致模型输出混乱或偏离目标。Prompt 推荐工具的出现 26 进一步印证了 Prompt 设计本身已成为一项需要专门技术和优化的工程任务。
RAG:弥补 LLM 在推荐场景的关键短板
标准 LLM 存在知识更新不及时和可能生成不实信息(幻觉)的问题,这对于需要准确、可靠信息的推荐任务来说是致命弱点。RAG 架构通过在生成前检索相关、实时的数据(如物品当前状态、用户最新行为、相关评论或知识片段),为 LLM 提供了必要的“接地气”信息,显著提升了其在推荐场景中的可靠性和实用性。它允许 LLM 基于最新的事实进行推荐和解释,而不是仅仅依赖其内部可能过时或不准确的知识。RAG 因此被视为将 LLM 有效应用于严肃推荐任务的关键技术之一 30。
VIII. 超越准确性:确保探索、多样性与公平性
虽然推荐准确性至关重要,但一个优秀的推荐系统还需要考虑其他目标,如帮助用户发现新兴趣(探索)、提供多样化的选择以及确保结果的公平性。过度优化准确性可能导致“过滤气泡”或“信息茧房”效应,即用户反复看到与其已知偏好高度相似的内容,从而限制视野,降低长期满意度 24。
应对过滤气泡:战略性探索的需求
推荐系统天然存在的反馈循环(用户点击什么,系统就推荐更多类似的)容易将用户锁定在狭窄的兴趣范围内 24。为了打破这种循环,系统需要主动进行探索(Exploration),即推荐一些用户过去可能没有表现出兴趣,但潜在可能喜欢的新颖内容。适度的探索有助于发现用户的潜在兴趣、提升惊喜感,并维持用户对平台的长期参与度 24。
算法途径:多臂老虎机 (MAB) 与基于 RL 的探索
多种算法被用于在推荐中实现探索与利用(Exploitation,即推荐已知的优质内容)的平衡:
- 多臂老虎机 (Multi-Armed Bandits, MAB): MAB 是一类经典的在线学习算法,用于在不确定性下做决策。常用策略包括:
- Epsilon-Greedy: 以 1−ϵ 的概率选择当前最优选项(利用),以 ϵ 的概率随机选择一个选项(探索)。
- UCB (Upper Confidence Bound): 选择不仅估计回报高,而且不确定性也高的选项,倾向于探索信息不足的臂。
- Thompson Sampling (汤普森采样): 根据每个选项是当前最优选项的后验概率进行采样选择,是一种贝叶斯方法 32。 MAB 算法常被应用于推荐系统的重排阶段,或用于优化特定推荐模块(如首页 Banner、信息流中的探索性内容插入)24。
- 基于强化学习 (RL) 的探索: 更高级的 RL 算法,如 Bootstrapped DQN 32 或基于后验采样(Posterior Sampling, PSRL)的方法 32,通过对价值函数或模型参数进行随机化,实现更深层次、更长时间维度的探索(Deep Exploration)。这些方法试图更智能地评估探索的长期价值,而不仅仅是进行随机尝试。
促进新颖性、惊喜度与多样性的技术
除了探索未知,提升推荐结果的整体质量还需要关注以下几个方面:
- 新颖性 (Novelty): 推荐用户以前不知道或很少接触的物品。
- 惊喜度 (Serendipity): 推荐那些用户意想不到但又恰好喜欢、感觉惊喜的物品。
- 多样性 (Diversity): 确保推荐列表中的物品种类、风格、主题等具有一定的差异性,避免内容过于单一。
实现这些目标的常用技术包括:在推荐逻辑中有意识地引入“冷启动”物品或“长尾”物品(即那些流行度不高但可能优质的内容);在重排阶段使用多样性优化算法(如 Maximal Marginal Relevance, MMR),该算法在选择下一个推荐物品时,会同时考虑其与用户兴趣的相关性以及与已选物品的差异性;或者将多样性指标直接纳入排序模型的优化目标中 24。
曝光与推荐结果的公平性考量
推荐系统的公平性是一个日益受到关注的伦理问题。除了要避免对不同用户群体产生歧视性推荐外,还需要考虑对物品或内容提供者的公平性,特别是在推荐结果直接影响其收入或曝光机会的场景(如电商平台、音乐流媒体、新闻聚合器等)24。系统可能无意中将大量流量集中到少数热门物品上,导致长尾物品或新进入者难以获得曝光。
研究者们正在探索解决曝光不公平(Disparate Exposure)问题的方法,例如:设计能够量化和优化曝光公平性的算法;在排序时引入公平性约束;或者根据用户的个性化需求调整公平性与相关性的权衡(一些用户可能更愿意接受随机性以换取更公平的曝光分布)24。这与之前讨论的嵌入公平性 18 共同构成了推荐系统中公平性问题的两个重要维度。
探索:一项着眼长远的投资
领域内的认知正在发生转变,不再将探索仅仅视为对短期准确性的牺牲。越来越多的研究和实践开始从长期价值的角度看待探索。先进的探索算法(如基于 RL 的方法)和 LLM 的引入(利用其世界知识推荐新领域内容 24)使得探索更加智能化。对探索长期价值进行量化评估 24 的尝试也表明,探索被认为是维持用户长期兴趣、防止偏好固化、提升平台整体活力的关键投资,即使短期指标可能略有下降,其长期回报也值得追求。
公平性:从用户群体扩展至物品曝光
推荐系统公平性的内涵正在扩展。早期关注点主要在于避免算法对受保护的用户群体(如基于性别、种族)产生偏见。而现在,公平性的讨论越来越多地延伸到物品或内容提供者层面,关注曝光机会的公平分配 24。这种转变要求推荐系统在优化用户体验的同时,也要考虑对整个生态系统的影响,平衡用户效用、平台目标以及内容提供者的利益,这无疑增加了系统设计的复杂性和需要权衡的因素。
IX. 持续改进:反馈循环与优化周期
推荐系统并非一成不变,它们需要不断地从用户交互中学习、适应变化并持续优化,才能保持其有效性。构建一个强大的反馈学习循环是现代推荐系统成功的关键。
为学习而架构:在线学习系统
为了快速响应用户行为的变化和内容库的更新,推荐系统越来越多地采用在线学习(Online Learning)或近实时学习的架构。与传统的批处理训练(Batch Training)模式(例如,每天或每周更新一次模型)相比,在线学习允许模型根据实时流入的用户交互数据进行频繁甚至连续的更新。这使得系统能够更快地捕捉到新兴趋势、适应用户短期兴趣的变化,并及时调整推荐策略。
利用用户反馈:隐式信号与显式判断
推荐系统的学习依赖于各种形式的用户反馈:
- 隐式反馈 (Implicit Feedback): 这是最常见也是最大量的反馈来源,包括用户的点击、浏览、观看时长、购买、跳过、收藏等行为 31。这些信号虽然丰富,但通常带有噪声,用户的点击并不总代表真正的喜欢,不点击也未必是不喜欢。
- 显式反馈 (Explicit Feedback): 用户主动提供的明确评价,如评分(例如 1-5 星)、点赞/点踩、或者更复杂的偏好比较(例如,在两个选项中选择更喜欢的那个)23。显式反馈信号质量高,但通常比较稀疏。
有效的推荐系统需要能够结合利用这两种反馈信息。
对齐用户:实践中的人类反馈强化学习 (RLHF)
基于人类反馈的强化学习(Reinforcement Learning from Human Feedback, RLHF)是一种强大的技术,尤其适用于优化那些难以用简单指标衡量的目标,例如用户满意度、推荐的有用性、安全性或与人类价值观的对齐度 22。RLHF 在微调大型语言模型方面取得了巨大成功,也被越来越多地应用于推荐系统。
典型的 RLHF 流程包含三个主要步骤 23:
- 收集人类偏好数据: 人类评估员对模型生成的两个或多个推荐结果进行比较,并指出哪个更好。
- 训练奖励模型 (Reward Model): 利用收集到的偏好数据训练一个模型,该模型的目标是预测人类评估员会更偏好哪个推荐结果。这个奖励模型充当了人类偏好的代理。
- 通过强化学习优化策略: 将推荐模型(或 LLM)视为 RL 中的策略(Policy),使用奖励模型给出的分数作为奖励信号,通过 PPO 33 等 RL 算法对策略进行微调,使其生成的推荐能够最大化奖励模型预测的人类偏好得分。
RLHF 使得模型能够学习那些难以通过隐式反馈捕捉的细微偏好和主观感受 23。例如,它可以帮助推荐系统生成更符合用户语境、更有帮助、更安全的推荐解释或对话 22。一些研究还探索了迭代式的在线 RLHF,即定期收集新的反馈数据,持续更新奖励模型和策略模型 33。
然而,RLHF 的实施也面临挑战,包括收集高质量偏好数据的成本、奖励模型可能存在的偏差或不准确性、以及 RL 训练过程的复杂性和稳定性 31。一些研究如 MA-RLHF 33 试图通过引入宏观动作等方式提高 RLHF 的效率和稳定性。Rec-R1 22 则提出直接使用现有推荐模型的黑盒反馈(如 NDCG 指标)作为奖励信号来优化 LLM,避免了构建专门的奖励模型。
A/B 测试:验证与部署改进的黄金标准
无论离线评估指标或 RLHF 的奖励模型表现如何,最终验证新算法、模型或功能改进效果的金标准仍然是在线 A/B 测试。通过将用户随机分流到不同的实验组(例如,一组使用旧模型,一组使用新模型),比较各组在真实业务指标(如点击率、转化率、用户留存率、满意度调查等)上的表现,A/B 测试能够提供关于模型实际影响的最可靠证据,是决定是否将改动全面部署到生产环境的关键依据。
RLHF:连接离线指标与在线表现的桥梁
推荐系统领域长期存在一个痛点:离线评估指标(如 NDCG, Recall@k, MAP 等)的提升往往不能保证在线 A/B 测试效果的提升,两者之间存在鸿沟。RLHF 提供了一种有潜力弥合这一鸿沟的途径。通过训练一个能够模拟人类偏好的奖励模型,RLHF 试图直接优化一个更接近真实用户满意度的代理目标,而不是依赖那些可能与用户真实感受关联较弱的传统离线指标。理论上,优化一个更准确反映人类偏好的奖励模型,更有可能带来在线 A/B 测试指标的提升 22。Rec-R1 22 的思路更进一步,直接用下游推荐任务的性能指标作为反馈,试图实现更直接的对齐。
反馈循环:日益复杂化与深度集成
推荐系统的反馈循环正在经历深刻的演变。它已从过去简单的记录用户点击行为用于后续批处理训练,发展到包含实时信号处理、在线学习模型更新、以及像 RLHF 这样深度整合人类判断或下游任务性能的复杂机制。现代反馈循环不仅处理更丰富的信号(超越点击),而且反馈路径更短(在线学习),反馈的“语义”也更深(RLHF 的偏好信号)。这种日益复杂和深度集成的反馈循环,是驱动推荐系统不断逼近真正理解并满足用户需求的强大引擎。
X. 综合:最佳实践、工程蓝图与未来展望
构建和运维一个先进的 AI 驱动的推荐系统是一项复杂的系统工程,涉及算法、数据、基础设施和流程的方方面面。本节将综合前述分析,提炼关键的最佳实践,勾勒工程蓝图,并展望未来的发展趋势。
贯穿推荐生命周期的最佳实践
- 用户与内容理解:
- 拥抱语义: 优先使用基于 LLM 的语义嵌入来表示用户兴趣和物品内容,以捕捉深层含义。
- 融合信号: 将语义信息与传统的协同过滤信号(如 ID 嵌入、交互模式)有效结合,取长补短。
- 捕捉动态: 采用序列模型(如 Transformer)来建模用户的短期兴趣和会话上下文。
- 匹配与排序:
- 多阶段架构: 坚持召回-排序(-重排)的多阶段漏斗设计,平衡效率与效果。
- 高效召回: 利用 ANN 技术(如 FAISS, ScaNN)和向量数据库实现快速、可扩展的候选集检索。
- 先进排序: 采用深度学习模型(如 Wide & Deep, DeepFM, Transformer)进行精准排序,考虑特征交互和序列信息。
- 优化长期价值: 探索使用强化学习(RL)等方法,将优化目标从短期点击转向长期用户满意度或留存率。
- 交互范式:
- 探索对话式: 考虑利用 LLM 和 RAG 技术构建对话式推荐界面,提供更自然、更丰富的用户交互体验。
- Prompt 很关键: 将 Prompt 工程视为 LLM 推荐系统中的核心环节,精心设计以引导模型行为。
- 超越准确性:
- 主动探索: 实施 MAB 或 RL 策略,有意识地进行探索,避免过滤气泡,发现用户潜在兴趣。
- 关注多样性与公平性: 在重排阶段或优化目标中考虑多样性,并关注嵌入和曝光的公平性问题。
- 优化与迭代:
- 构建反馈闭环: 建立强大的反馈机制,结合在线学习和 RLHF,使系统能够持续学习和对齐用户偏好。
- 依赖 A/B 测试: 将在线 A/B 测试作为验证模型和功能改进效果的最终标准。
关键工具与工程模式
支撑上述最佳实践需要强大的技术栈和工程能力:
- 推荐框架: TensorFlow Recommenders (TFRS), PyTorch Geometric (PyG) (用于图模型), LightFM 等。
- 向量数据库: Milvus, Pinecone, Qdrant 27, Weaviate, 以及 FAISS 等 ANN 库,用于高效存储和检索海量嵌入向量。
- LLM 相关: Hugging Face Transformers 库, OpenAI API, Anthropic API, Google AI API 等 LLM 服务接口,以及用于模型微调(如 LoRA)和部署的平台。
- MLOps (机器学习运维): 用于管理整个机器学习生命周期的平台和工具,涵盖特征存储 (Feature Store)、模型训练、模型注册、自动化部署、在线/离线监控、A/B 测试框架等(如 Kubeflow, MLflow, TFX, SageMaker)。
- 大数据处理: Apache Spark, Apache Flink 等分布式计算框架,用于处理海量的用户行为日志和内容数据。
- 在线服务架构: 高并发、低延迟的微服务架构,用于处理实时推荐请求。
典型开发流程与组织考量
- 迭代开发: 遵循“提出假设 -> 离线评估(使用历史数据和指标)-> 在线 A/B 测试(小流量实验)-> 全量部署/回滚”的迭代循环。
- 跨职能团队: 需要机器学习工程师、数据科学家、软件工程师、产品经理、领域专家等紧密协作。
- 监控与可观测性: 建立完善的监控系统,实时跟踪系统性能、模型表现和业务指标,及时发现和解决问题。
- 伦理审查: 建立流程,对推荐算法可能带来的偏见、公平性、隐私等伦理风险进行评估和缓解。
未来趋势展望
推荐系统领域仍在快速发展,未来值得关注的方向包括:
- 推荐基础模型 (Foundation Models for RecSys): 探索构建能够适应多种推荐任务和场景的、参数规模巨大的预训练基础模型,减少针对特定任务的重复开发 8。
- 多模态推荐: 更深入地融合文本、图像、视频、音频等多模态信息,提供更全面、更沉浸的推荐体验 9。
- 因果推断推荐: 从仅仅关注用户行为与推荐结果之间的相关性,转向理解推荐行为对用户行为的因果效应,做出更有效的干预。
- 可信赖 AI (Trustworthy AI): 持续提升推荐系统的可解释性 6、公平性 18、鲁棒性、隐私保护和用户可控性 20。
- 边缘计算推荐: 将部分推荐计算(如模型推理)部署到用户设备(边缘端),以降低延迟、保护隐私。
- AI 智能体 (AI Agents): 利用自主的 AI 智能体来执行更复杂的推荐任务,例如主动为用户规划购物清单或旅行计划 37。
系统复杂性的急剧增加
一个不容忽视的趋势是,现代推荐系统的复杂性正在急剧增加。融合 LLM、RLHF、RAG、多模态理解、公平性约束以及复杂的在线学习和反馈循环,使得系统的设计、实现、部署和维护难度远超以往的协同过滤或简单 DNN 模型。这要求团队具备更强的工程能力、更成熟的 MLOps 实践以及对系统整体架构的深刻理解。构建和运维这些系统已成为一项高度专业化的挑战。
“推荐”定义的拓宽
随着 LLM 和对话式界面的引入,“推荐系统”的定义和功能边界正在变得模糊和扩展。系统不再仅仅是提供一个物品列表,而是越来越多地扮演着解释者(解释推荐理由 6)、对话伙伴(与用户讨论需求)、需求挖掘者(帮助用户澄清模糊的意图)甚至内容创作者(生成与推荐相关的叙述或摘要 14)的角色。未来的推荐系统可能会成为更智能、更主动、更融入用户工作流和生活场景的个性化信息助手。
XI. 参考文献
6 Guided Embedding Refinement for Sequential Recommendation Systems using Large Language Models. arXiv:2504.11658.
17 UQABench: A Benchmark for User Embeddings in Prompting Large Language Models for Personalization. arXiv:2502.19178v1.
4 SeLLa-Rec: Serving Large Language Models for Recommendation via Fusing Collaborative Knowledge. arXiv:2504.10107v1.
3 A Survey on Embedding Techniques for Recommender Systems. arXiv:2310.18608v2.
25 Large Language Models for Recommendation: A Survey. arXiv:2401.04997v1.
12 Leveraging Large Language Models for Sequential Recommendation. arXiv:2309.09261.
10 A Survey on Large Language Models for Recommendation. OpenReview preprint.
1 Recommender Systems in the Era of Large Language Models (LLMs). arXiv:2307.02046.
11 Large Language Models for User Modeling: A Survey. arXiv:2312.11518.
7 Semantic ID Ngram for Stable Recommendation Modeling. arXiv:2504.02137v1.
13 Semi-Structured Conversational Recommendation Systems Using Large Language Models. IJIRT Vol 11 Issue 2.
19 Fair Text Embeddings via Conditional Independence. arXiv:2402.14208v1.
14 Beyond Retrieval: Generating Narratives in Conversational Recommender Systems. arXiv:2410.16780v2.
15 Beyond Retrieval: Generating Narratives in Conversational Recommender Systems. ResearchGate Publication 385140022.
8 LEARN: Llm-driven knowlEdge Adaptive RecommeNdation. arXiv:2405.03988.
18 Fair Text Embeddings via Content Conditioned Debiasing and Augmentation. arXiv:2402.14208v3.
16 LEARN: Llm-driven knowlEdge Adaptive RecommeNdation. arXiv:2405.03988v1.
9 LEARN: Llm-driven knowlEdge Adaptive RecommeNdation. arXiv:2405.03988 PDF.
2 Graph Neural Networks for Recommender Systems: A Survey. arXiv:2311.06323.
20 AI for Web Advertising Workshop @ The WebConf 2023. Website.
21 Revisit Recommender System in the Permutation Prospective. ResearchGate Publication 349583533.
37 Awesome AI Agents. GitHub Repository.
38 Neural Cross-Lingual Information Retrieval and Ranking. UMass ScholarWorks Doctoral Dissertations.
26 TextVision: Enhancing Human-AI Interaction in Scientific Workflows. UoL PDF.
30 Freelancer Job Search: Restrict access website outside united states. Web Page Snippet.
27 Enhancing Text-to-Image AI: Prompt Recommendation System for Stable Diffusion Using Qdrant Vector Search and RAG. Dev.to Post.
28 Dev.to Tag: rag, page 24. Web Page Snippet.
39 Forem Tag: stablediffusion. Web Page Snippet.
29 Freelancer Job Search: Harvard extra recommendation letters. Web Page Snippet.
32 Deep Exploration via Bootstrapped DQN. ResearchGate Publication 301846299.
24 Long-Term Value of Exploration: Measurements, Findings, and Algorithms. ResearchGate Publication 378719843.
22 Rec-R1: Reinforcement Learning from Recommendation Models for Language Generation. arXiv:2503.24289v1.
31 Large Language Models as Controlled Recommenders. arXiv:2504.05522v2.
23 Reinforcement Learning from Human Feedback for Enterprise Applications: Techniques, Ethical Considerations, and Future Directions for Scalable AI Systems. ResearchGate Publication 383849573.
33 MA-RLHF: Reinforcement Learning from Human Feedback with Macro Actions. ResearchGate Publication 384630542.
34 Reinforcement Learning from Code-Change Human Feedback. AAAI Proceedings.
5 Integrating Large Language Models with Recommender Systems: A Survey. Stanford CS224n Final Report.
35 Iterative Preference Learning from Human Feedback: Bridging Theory and Practice for RLHF under KL-constraint. Simons Institute Slides.
40 Recommender Systems with Generative Retrieval. Cornell CS Publication.
36 Evaluating Large Language Models as Zero-Shot Recommenders. University of Louisville ETD.
Obras citadas
- Recommender Systems in the Era of Large Language Models (LLMs) - arXiv, fecha de acceso: abril 22, 2025, https://arxiv.org/pdf/2307.02046
- arXiv:2311.06323v1 [cs.IR] 10 Nov 2023, fecha de acceso: abril 22, 2025, https://arxiv.org/pdf/2311.06323
- Embedding in Recommender Systems: A Survey - arXiv, fecha de acceso: abril 22, 2025, https://arxiv.org/html/2310.18608v2
- Enhancing LLM-based Recommendation through Semantic-Aligned Collaborative Knowledge - arXiv, fecha de acceso: abril 22, 2025, https://arxiv.org/html/2504.10107v1
- Leverage Augmented Large Language Models to build Hyper Personalized Recommendation Systems - Stanford University, fecha de acceso: abril 22, 2025, https://web.stanford.edu/class/cs224n/final-reports/256980295.pdf
- Improving LLM Interpretability and Performance via Guided Embedding Refinement for Sequential Recommendation - arXiv, fecha de acceso: abril 22, 2025, http://www.arxiv.org/pdf/2504.11658
- Enhancing Embedding Representation Stability in Recommendation Systems with Semantic ID - arXiv, fecha de acceso: abril 22, 2025, https://arxiv.org/html/2504.02137v1
- LEARN: Knowledge Adaptation from Large Language Model to Recommendation for Practical Industrial Application - arXiv, fecha de acceso: abril 22, 2025, https://arxiv.org/html/2405.03988
- arXiv:2405.03988v3 [cs.IR] 26 Dec 2024, fecha de acceso: abril 22, 2025, https://arxiv.org/pdf/2405.03988
- arXiv:2305.19860v4 [cs.IR] 18 Aug 2023 - OpenReview, fecha de acceso: abril 22, 2025, https://openreview.net/pdf?id=esNvQAZz6m
- User Modeling in the Era of Large Language Models: Current Research and Future Directions - arXiv, fecha de acceso: abril 22, 2025, https://arxiv.org/pdf/2312.11518
- Leveraging Large Language Models for Sequential Recommendation - arXiv, fecha de acceso: abril 22, 2025, https://arxiv.org/pdf/2309.09261
- Leveraging Large Language Models for Semi- Structured Conversational Recommendations - IJIRT, fecha de acceso: abril 22, 2025, https://ijirt.org/publishedpaper/IJIRT174220_PAPER.pdf
- Beyond Retrieval: Generating Narratives in Conversational Recommender Systems - arXiv, fecha de acceso: abril 22, 2025, https://arxiv.org/html/2410.16780v2
- (PDF) Beyond Retrieval: Generating Narratives in Conversational Recommender Systems, fecha de acceso: abril 22, 2025, https://www.researchgate.net/publication/385140022_Beyond_Retrieval_Generating_Narratives_in_Conversational_Recommender_Systems
- Knowledge Adaptation from Large Language Model to Recommendation for Practical Industrial Application - arXiv, fecha de acceso: abril 22, 2025, https://arxiv.org/html/2405.03988v1
- UQABench: Evaluating User Embedding for Prompting LLMs in Personalized Question Answering - arXiv, fecha de acceso: abril 22, 2025, https://arxiv.org/html/2502.19178v1
- LLM-Assisted Content Conditional Debiasing for Fair Text Embedding - arXiv, fecha de acceso: abril 22, 2025, https://arxiv.org/html/2402.14208v3
- Content Conditional Debiasing for Fair Text Embedding - arXiv, fecha de acceso: abril 22, 2025, https://arxiv.org/html/2402.14208v1
- AAAI 2023 Workshop AI for Web Advertising, fecha de acceso: abril 22, 2025, https://ai4webads2023.github.io/
- Revisit Recommender System in the Permutation Prospective - ResearchGate, fecha de acceso: abril 22, 2025, https://www.researchgate.net/publication/349583533_Revisit_Recommender_System_in_the_Permutation_Prospective
- Rec-R1: Bridging Generative Large Language Models and User-Centric Recommendation Systems via Reinforcement Learning - arXiv, fecha de acceso: abril 22, 2025, https://arxiv.org/html/2503.24289v1
- (PDF) Reinforcement Learning from Human Feedback for Enterprise Applications: Techniques, Ethical Considerations, and Future Directions for Scalable AI Systems - ResearchGate, fecha de acceso: abril 22, 2025, https://www.researchgate.net/publication/383849573_Reinforcement_Learning_from_Human_Feedback_for_Enterprise_Applications_Techniques_Ethical_Considerations_and_Future_Directions_for_Scalable_AI_Systems
- Long-Term Value of Exploration: Measurements, Findings and Algorithms - ResearchGate, fecha de acceso: abril 22, 2025, https://www.researchgate.net/publication/378719843_Long-Term_Value_of_Exploration_Measurements_Findings_and_Algorithms
- Prompting Large Language Models for Recommender Systems: A Comprehensive Framework and Empirical Analysis - arXiv, fecha de acceso: abril 22, 2025, https://arxiv.org/html/2401.04997v1
- TextVision: A more efficient way to work with research, fecha de acceso: abril 22, 2025, https://uol.de/f/2/dept/informatik/download/lehre/PGs/PG-AIM-2025.pdf?v=1743511041
- Stablediffusion - DEV Community, fecha de acceso: abril 22, 2025, https://dev.to/t/stablediffusion
- Rag Page 24 - DEV Community, fecha de acceso: abril 22, 2025, https://dev.to/t/rag/page/24
- Harvard extra recommendation letters Kerja, Pekerjaan | Freelancer, fecha de acceso: abril 22, 2025, https://www.my.freelancer.com/job-search/harvard-extra-recommendation-letters
- Trabajos, empleo de Restrict access website outside united states - Freelancer, fecha de acceso: abril 22, 2025, https://www.freelancer.com.pe/job-search/restrict-access-website-outside-united-states/40/
- User Feedback Alignment for LLM-powered Exploration in Large-scale Recommendation Systems - arXiv, fecha de acceso: abril 22, 2025, https://arxiv.org/html/2504.05522v2
- Deep Exploration via Bootstrapped DQN - ResearchGate, fecha de acceso: abril 22, 2025, https://www.researchgate.net/publication/301846299_Deep_Exploration_via_Bootstrapped_DQN
- MA-RLHF: Reinforcement Learning from Human Feedback with Macro Actions, fecha de acceso: abril 22, 2025, https://www.researchgate.net/publication/384630542_MA-RLHF_Reinforcement_Learning_from_Human_Feedback_with_Macro_Actions
- When to Show a Suggestion? Integrating Human Feedback in AI-Assisted Programming - AAAI Publications, fecha de acceso: abril 22, 2025, https://ojs.aaai.org/index.php/AAAI/article/view/28878/29669
- Iterative Preference Learning for Large Language Model Post Training, fecha de acceso: abril 22, 2025, https://simons.berkeley.edu/sites/default/files/2024-09/xiong%20wei%20MPG24-1%20slides.pdf
- Evaluating chatGPT for recommendation: how does the ability to converse impact recommendation? - ThinkIR, fecha de acceso: abril 22, 2025, https://ir.library.louisville.edu/cgi/viewcontent.cgi?article=5496&context=etd
- jim-schwoebel/awesome_ai_agents: A comprehensive list of 1500+ resources and tools related to AI agents. - GitHub, fecha de acceso: abril 22, 2025, https://github.com/jim-schwoebel/awesome_ai_agents
- Neural Approaches for Language- Agnostic Search and Recommendation - ScholarWorks@UMass, fecha de acceso: abril 22, 2025, https://scholarworks.umass.edu/bitstreams/6460bf02-25f7-4f59-8209-ca90aea7d351/download
- Stablediffusion - Forem, fecha de acceso: abril 22, 2025, https://forem.com/t/stablediffusion
- End-to-end Training for Recommendation with Language-based User Profiles - CS@Cornell, fecha de acceso: abril 22, 2025, https://www.cs.cornell.edu/people/tj/publications/gao_etal_24b.pdf