📓
Study
  • README
  • Application
    • Contest
      • 竞赛trick
  • Basic Know
    • 半监督学习
    • 贝叶斯
      • 朴素贝叶斯分类器
    • 对抗训练
    • 概率图模型
      • CRF
      • HMM
      • 概率图模型
    • 关联分析
    • 归纳偏置
      • [什么是 Inductive bias(归纳偏置)?](BasicKnow/归纳偏置/什么是 Inductive bias(归纳偏置)?.md)
    • 聚类
    • 决策树
    • 绿色深度学习
    • 树模型&集成学习
      • 提升树
      • Ada Boost
      • [集成学习]
    • 特征工程
      • 数据分桶
      • 特征工程概述
      • 特征选择
      • LDA
      • PCA
    • 线性模型
      • 感知机
      • 最大熵模型
      • SVM
        • SVM支持向量机
      • 逻辑回归
      • 线性回归
    • 优化算法
      • 拉格朗日对偶性
      • 牛顿法
        • 牛顿法&拟牛顿法
      • 梯度下降法
        • 梯度下降算法
      • 优化算法
    • 预处理
      • [1-1]正则表达式
      • [1-2]文本预处理
      • [1-3]词性
      • [1-4]语法分析
      • [1-6]文本分类
      • [1-7]网络爬取
      • 【备用】正则表达式
      • 7.re模块
      • 词典匹配
      • 分词
      • 子表达式
      • Todo
    • 主题模型
      • LDA
    • Deep Learning
      • 反向传播
      • 梯度消失&梯度爆炸
      • Batch Size
      • 1.DLbasis
      • 小概念
      • MLstrategy
      • CNN
      • RNN及其应用
      • 关于深度学习实践
      • 神经网络概述
      • Batch Normalization
      • Program CNN
      • Program D Lbasis
      • Program DN Nimprove
      • Program Neural Style Transfer
      • Summer DL
    • EM算法
    • GAN
      • Gans In Action Master
    • GNN
      • 搜广推之GNN
      • Representation Learning
        • Anomalydetection
        • Conclusion
        • Others
        • Papernotes
        • Recommadation
    • k近邻法
      • K近邻
    • Language Model
      • 语言模型解码采样策略
      • [1-1][语言模型]从N-gram模型讲起
      • [1-2][语言模型]NNLM(神经网络语言模型)
      • [1-3][语言模型]基于RNN的语言模型
      • [1-4][语言模型]用N-gram来做完形填空
      • [1-5][语言模型]用KenLM来做完形填空
    • Loss Function
      • 常用损失函数
      • Focal Loss
      • softmax+交叉熵
    • Machine Learning
      • [基础]概念
      • 待整合
      • 交叉验证
      • 无监督学习
      • 优缺点
      • ML Yearning
      • SVD
    • Statistics Math
      • 程序员的数学基础课
      • 数学基础
      • 统计&高数
      • 统计题目
      • 线性代数
      • 组合数学
      • Discrete Choice Model
      • Nested Choice Model
  • Course Note
    • 基于TensorFlow的机器学习速成课程
      • [Key ML Terminology](CourseNote/基于TensorFlow的机器学习速成课程/Key ML Terminology.md)
    • 集训营
      • 任务说明
      • 算法实践1.1模型构建
      • 算法实践1.2模型构建之集成模型
      • 算法实践2.1数据预处理
    • 李宏毅机器学习
      • 10DNN训练Tips
        • Chapter 18
      • 16无监督学习
        • Chapter 25
    • 贪心NLP
      • 贪心NLP笔记
    • Cs 224 N 2019
      • [A Simple But Tough To Beat Baseline For Sentence Embeddings](CourseNote/cs224n2019/A Simple but Tough-to-beat Baseline for Sentence Embeddings.md)
      • [Lecture 01 Introduction And Word Vectors](CourseNote/cs224n2019/Lecture 01 Introduction and Word Vectors.md)
      • [Lecture 02 Word Vectors 2 And Word Senses](CourseNote/cs224n2019/Lecture 02 Word Vectors 2 and Word Senses.md)
      • [Lecture 03 Word Window Classification Neural Networks And Matrix Calculus](CourseNote/cs224n2019/Lecture 03 Word Window Classification, Neural Networks, and Matrix Calculus.md)
      • [Lecture 04 Backpropagation And Computation Graphs](CourseNote/cs224n2019/Lecture 04 Backpropagation and Computation Graphs.md)
      • [Lecture 05 Linguistic Structure Dependency Parsing](CourseNote/cs224n2019/Lecture 05 Linguistic Structure Dependency Parsing.md)
      • [Lecture 06 The Probability Of A Sentence Recurrent Neural Networks And Language Models](CourseNote/cs224n2019/Lecture 06 The probability of a sentence Recurrent Neural Networks and Language Models.md)
      • Stanford NLP
    • Deep Learning Book Goodfellow
      • Books
        • Deep Learning Book Chapter Summaries Master
      • 提纲
      • C 5
      • C 6
      • [Part I Applied Math And Machine Learning Basics](CourseNote/Deep-Learning-Book-Goodfellow/Part I - Applied Math and Machine Learning basics.md)
    • Lihang
    • NLP实战高手课
      • 极客时间_NLP实战高手课
    • 工具&资料
    • 机器学习、深度学习面试知识点汇总
    • 七月kaggle课程
    • 算法工程师
    • 贪心科技机器学习必修知识点特训营
    • 唐宇迪机器学习
    • 语言及工具
    • AI技术内参
    • Suggestions
  • Data Related
    • 数据质量
      • 置信学习
    • 自然语言处理中的数据增广_车万翔
      • 自然语言处理中的数据增广
    • Mixup
    • 数据不均衡问题
    • 数据增强的方法
  • Knowledge Graph
    • Information Extraction
      • 联合抽取
        • PRGC
      • Code
        • BERT微调
      • NER
        • 阅读理解做NER
          • MRC
        • FLAT
        • Global Pointer
        • 命名实体识别NER
    • Keyword Extraction
      • 关键词抽取
    • 小米在知识表示学习的探索与实践
    • KG
  • Multi Task
    • EXT 5
      • Ex T 5
  • NLG
    • Dailogue
      • 比赛
        • 对话评估比赛
          • [simpread-DSTC10 开放领域对话评估比赛冠军方法总结](NLG/Dailogue/比赛/对话评估比赛/simpread-DSTC10 开放领域对话评估比赛冠军方法总结.md)
      • 任务型对话
        • DST
          • DST概述
        • NLG
          • NLG概述
        • NLU
          • NLU概述
        • 任务型对话概述
        • simpread-任务型对话系统预训练最新研究进展
      • 问答型对话
        • 检索式问答
          • 基于预训练模型的检索式对话系统
          • 检索式文本问答
        • 业界分享
          • 低资源场景下的知识图谱表示学习和问答_阿里_李杨
          • QQ浏览器搜索智能问答
        • 问答型对话系统概述
      • 闲聊型对话
        • 闲聊型对话系统概述
      • 业界分享
        • 人工智能与心理咨询
        • 腾讯多轮对话机器人
        • 微软小冰
        • 小布助手闲聊生成式算法
        • 美团智能客服实践_江会星
        • 去哪儿智能客服探索和实践
        • 实时语音对话场景下的算法实践_阿里_陈克寒
        • 智能语音交互中的无效query识别_小米_崔世起
        • UNIT智能对话
      • 主动对话
      • EVA
        • EVA分享
        • EVA模型
      • PLATO
      • RASA
    • Machine Translation
      • 业界分享
        • 爱奇艺台词翻译分享
      • Paper
        • Deep Encoder Shallow Decoder
    • RAGRelated
    • Text 2 SQL
      • M SQL
        • [M SQL 2](NLG/Text2SQL/M-SQL/M-SQL (2).md)
      • [Text2SQL Baseline解析](NLG/Text2SQL/Text2SQL Baseline解析.md)
      • Text 2 SQL
    • Text Summarization
      • [文本摘要][paper]CTRLSUM
      • 文本摘要
  • Pre Training
    • 业界分享
      • 超大语言模型与语言理解_黄民烈
        • 超大语言模型与语言理解
      • 大模型的加速算法_腾讯微信
        • 大模型的加速算法
      • 孟子轻量化预训练模型
      • 悟道文汇文图生成模型
      • 悟道文澜图文多模态大模型
      • 语义驱动可视化内容创造_微软
        • 语义驱动可视化内容创造
    • Base
      • Attention
      • Mask
        • NLP中的Mask
      • Position Encoding
        • 位置编码
    • BERT
      • ALBERT
      • Bert
        • Venv
          • Lib
            • Site Packages
              • idna-3.2.dist-info
                • LICENSE
              • Markdown-3.3.4.dist-info
                • LICENSE
              • Tensorflow
                • Include
                  • External
                    • Libjpeg Turbo
                      • LICENSE
                  • Unsupported
                    • Eigen
                      • CXX 11
                        • Src
                          • Tensor
              • Werkzeug
                • Debug
                  • Shared
                    • ICON LICENSE
        • CONTRIBUTING
        • Multilingual
      • Ro BER Ta
      • BERT
      • BERT面试问答
      • BERT源码解析
      • NSP BERT
    • BERT Flow
    • BERT Zip
      • Distilling The Knowledge In A Neural Network
      • TINYBERT
      • 模型压缩
    • CPM
    • CPT
      • 兼顾理解和生成的中文预训练模型CPT
    • ELECTRA
    • EL Mo
    • ERNIE系列语言模型
    • GPT
    • MBART
    • NEZHA
    • NLG Sum
      • [simpread-预训练时代下的文本生成|模型 & 技巧](Pre-training/NLGSum/simpread-预训练时代下的文本生成|模型 & 技巧.md)
    • Prompt
      • 预训练模型的提示学习方法_刘知远
        • 预训练模型的提示学习方法
    • T 5
      • Unified SKG
      • T 5
    • Transformer
    • Uni LM
    • XL Net
    • 预训练语言模型
    • BERT变种
  • Recsys
    • 多任务Multi-task&推荐
    • 推荐介绍
    • 推荐系统之召回与精排
      • 代码
        • Python
          • Recall
            • Deep Match Master
              • Docs
                • Source
                  • Examples
                  • FAQ
                  • Features
                  • History
                  • Model Methods
                  • Quick Start
    • 业界分享
      • 腾讯基于知识图谱长视频推荐
    • 召回
    • Sparrow Rec Sys
    • 深度学习推荐系统实战
    • 推荐模型
    • Deep FM
  • Search
    • 搜索
    • 业界分享
      • 爱奇艺搜索排序算法实践
      • 语义搜索技术和应用
    • 查询关键字理解
    • 搜索排序
    • BM 25
    • KDD21-淘宝搜索中语义向量检索技术
    • query理解
    • TFIDF
  • Self Supervised Learning
    • Contrastive Learning
      • 业界分享
        • 对比学习在微博内容表示的应用_张俊林
      • Paper
      • R Drop
      • Sim CSE
    • 自监督学习
  • Text Classification
    • [多标签分类(Multi-label Classification)](TextClassification/多标签分类(Multi-label Classification)/多标签分类(Multi-label Classification).md)
    • Fast Text
    • Text CNN
    • 文本分类
  • Text Matching
    • 文本匹配和多轮检索
    • CNN SIM
    • Word Embedding
      • Skip Gram
      • Glove
      • Word 2 Vec
    • 文本匹配概述
  • Tool
    • 埋点
    • 向量检索(Faiss等)
    • Bigdata
      • 大数据基础task1_创建虚拟机+熟悉linux
      • 任务链接
      • Mr
      • Task1参考答案
      • Task2参考答案
      • Task3参考答案
      • Task4参考答案
      • Task5参考答案
    • Docker
    • Elasticsearch
    • Keras
    • Numpy
    • Python
      • 可视化
        • Interactivegraphics
        • Matplotlib
        • Tkinter
        • Turtle
      • 数据类型
        • Datatype
      • python爬虫
        • Python Scraping Master
          • phantomjs-2.1.1-windows
        • Regularexp
        • Scrapying
        • Selenium
      • 代码优化
      • 一行代码
      • 用python进行语言检测
      • Debug
      • Exception
      • [Features Tricks](Tool/python/Features & Tricks.md)
      • Fileprocess
      • Format
      • Functional Programming
      • I Python
      • Magic
      • Math
      • Os
      • Others
      • Pandas
      • Python Datastructure
      • Python操作数据库
      • Streamlit
      • Time
    • Pytorch
      • Dive Into DL Py Torch
        • 02 Softmax And Classification
        • 03 Mlp
        • 04 Underfit Overfit
        • 05 Gradient Vanishing Exploding
        • 06 Text Preprocess
        • 07 Language Model
        • 08 Rnn Basics
        • 09 Machine Translation
        • 10 Attention Seq 2 Seq
        • 11 Transformer
        • 12 Cnn
        • 14 Batchnorm Resnet
        • 15 Convexoptim
        • 16 Gradientdescent
        • 17 Optim Advance
    • Spark
      • Pyspark
        • pyspark之填充缺失的时间数据
      • Spark
    • SQL
      • 数据库
      • Hive Sql
      • MySQL实战45讲
    • Tensor Flow
      • TensorFlow入门
  • Common
  • NLP知识体系
Powered by GitBook
On this page
  • 召回
  • 粗排
  • 参考资料

Was this helpful?

  1. Recsys

推荐介绍

Previous多任务Multi-task&推荐Next推荐系统之召回与精排

Last updated 2 years ago

Was this helpful?

主流推荐系统架构

推荐系统细分四阶段:召回+粗排+精排+ReRanker

  • 召回:待计算的候选集合大、计算速度快、模型简单、特征较少,尽量让用户感兴趣的物品在这个阶段能够被快速召回,即保证相关物品的召回率。常用的有多路召回(即多种策略进行召回),embedding向量召回

  • 精排:首要目标是得到精准的排序结果。需要处理的物品数量少,可以利用较多的特征,使用比较复杂的模型

  • 重排:为了避免排序阶段的结果趋于同质化,让用户有更好的体验,这里对排序的结果进行多样化考虑,提高用户的使用体验

召回

召回的目的:从千万级别的item中为每个用户抽取数千、百个item进行推荐。

召回计算方式:离线 凌晨计算,定时更新召回列表。

召回工具:spark hive flink(实时召回)。

召回方式:多路召回。算法层面上分为基于规则的,基于协同过滤的,基于向量召回的算法。

召回列表存储: 线上hbase、redis。

多路召回:策略为主,不同业务场景召回路线不一样,每一路的召回数量也不一样。

为什么要多路召回:让物品从不同来源被召回,满足用户兴趣的多样性,以及推荐结果的完备性。

  • 兴趣标签召回:在用户注册信息的时候很多app都有询问用户兴趣的选项。此时需要的是从物品的自身标签中去计算与用户兴趣标签的匹配度,然后进行topk个召回。

  • 兴趣topic召回:对用户兴趣进行打分,比如用户兴趣有90%时间在阅读军事,10%在阅读政治。

  • 兴趣实体召回:兴趣实体指的是由算法分析用户历史浏览,对其关注的人、物体进行算法抽取,抽取最感兴趣的topk个实体。然后当新的物品来之后,看物品与用户兴趣实体是否匹配。

  • 基于协同过滤:分为基于用户的协同过滤和基于物品的协同过滤两条召回路。

  • 热度召回:根据新闻的曝光量,点击量,已经点击率做筛选,三者均满足要求的新闻进入新闻热度池,作为热度召回的来源,热度池需要实时维护更新(flink, streaming)。

  • 基于模型的召回:youtube、dssm、fm、grapsage。为什么引入模型召回:综合更多信息。每一路相当于一个单特征模型。

基于向量的召回算法算是大量需要深度学习的一个召回算法的流派了,其主要可以分为一下流派:

  • I2I:计算item-item相似度,用于相似推荐、相关推荐、关联推荐

  • U2I:基于矩阵分解,直接给用户推荐item

  • U2U2I:基于用户的协同过滤,先找相似用户,再推荐相似用户喜欢的item

  • U2I2I:基于物品的协同过滤,先统计用户喜爱的item,再推荐他喜欢的item

  • U2TAG2I:基于标签偏好推荐,先统计用户偏好的tag,然后匹配所有的item;其中tag一般是item的标签、分类、关键词等。

  • X2X2X2X:......

其中这里用的最多的就是I2I和U2I这两类算法,其中基于I2I的召回算法大致有如下两个流派:

  • Item-Item相似度可以通过内容理解来生产Item向量,通过向量相似度来度量

  • Item-Item相似度可以通过图表示学习/GNN来生产Item向量,通过向量相似度来度量

这里的I2I向量召回的核心就是通过某种算法生产出Item的向量表征,然后通过向量的相似度来进行召回。计算向量的相似度可以用Faiss,它可以帮助我们快速的在大规模向量中找出和Query向量最相似的Top-K个向量,这就解决了我们向量召回计算效率的问题。

基于U2I的召回算法大致有如下两个流派:

  • 输入User特征和Item特征,直接对齐User与Item的向量表征

  • 通过User的历史序列提取User的向量表征,然后和Item的表征对齐

这里第一种方法通过对齐User和Item特征的向量空间的方法一般是一些双塔模型,例如:DSSM 第二种方法通过提取用户的序列特征来生产User的向量表征,然后将User的向量在全部的Item向量中进行召回,这就是序列召回,其实核心就在两个点:

  • 序列信息的利用以及系列特征的提取

  • 如何通过序列构建User的向量表征

粗排

粗排融合:当多路召回结束后,每一路都会召回若干物品,且都有顺序。

目的:如何将多路召回结果,融合为一个有序列表?

策略:

1.业务重要度排序:实时>CB>模型 那么要排4个:(c、d、e、b)

2.加权平均:比如基于专家定义:实时:0.5,cb:0.3,模型:0.2。 $score(c)=0.50.5+0.30.5+0.2*0.9/(0.5+0.3+0.2)$

3.动态加权法:每隔一段时间动态更新每一路的权重。

第一天是:实时:0.5,cb:0.3,模型:0.2。

第二天是:实时:0.4,cb:0.5,模型:0.1。

4.模型打分:离线基于模型计算好各路的召回权重,然后一样做加权召回。

多路融合存在的问题:

1.多路的权重不好确定

2.多路的召回数量不好确定

3.多路召回的并发先后顺序

4.单路特征召回==单特征模型

5.每一路的衡量指标怎么确定

是否有一个大一统的方法,直接将物品塞入一个黑盒,就可以得到最终的物品列表。且最终列表自动做了权重、数量。——基于模型的召回。

youtube 模型召回工程:

需要在百万量级的视频规模下对用户进行个性化推荐。

考虑到在线推理延迟问题,对特别复杂的网络尤其是深度学习进行推荐就是一个难题。因此将整个网络构建分为两个流程:

1.用候选生成模型完成快速视频筛选,相当于召回。

2.用该模型更换目标完成精排序。

粗排阶段不足之处:

  • 排序不够精确,没有引入更多的side info。

  • 粗排阶段基本都是离线算好的,对用户的即时性捕捉不到位。

  • 粗排使用推荐系统初期,当海量数据来临,需要靠精排做更个性化的排序,增加用户粘性。

精排要干什么:

  • 用到更多特征,你能想到业务特征都可以做。

  • 精排模型可以用复杂的深度学习算法 。

  • 精排离线训练,在线排序。

LR、xgb阶段:大量的人工特征,此时属于推荐系统精排的机器学习阶段。

引入fm、ffm等自动交叉、filed交叉自动构建特征塞入模型。

从wide&deep开启深度学习与推荐的道路。deepfm、DCN、pnn....主要增加特征的高阶交叉,使得模型可以拟合更高阶特征。

着重建模在用户兴趣、行为捕捉模型、多任务、多模态的模型中。din、dien、bst、mmoe、essm...

精排模型如何上线

  • 召回 :离线召回后,不经过粗排直接去重存入hbase、redis中。实时召回:通过flink等实时召回存hbase、redis。

  • 模型离线训练 :固定一天的凌晨,增量训练或者重新训练模型,用于第二天的业务支持。

  • 开启模型服务 :基于模型预测服务开启,监听模型更新文件是否更新,打日志更新模型文件。

  • 模型在线推理 :当模型中包含了用户实行为序列后,就需要用户在线推理了,从redis中直接基于用户id拿用户近期行为历史,然后进行预测。此处为了减小服务端压力,如果模型比较小,可以将模型每天部署到客户端。

1.pmml 上线

当模型离线训练好后,提供pmml文件,可以实现跨平台小模型(10mb以内)上线。

**2.**模型拆解

加模型用户侧

物品测最上层emb拆解,离线存特征,线上实现lr等轻量级模型。

3.tfserving

基于tf写的模型,可以用Docker建立serving的api,进行线上推理。

**4.**自研模型

基于java、cpp复现模型,实现在线推理部分。

精排训练策略及部署

召回:离线训练,离线召回。也存在部分实时召回。

精排: 根据训练的时间间隔分为离线训练、近线训练、在线学习(ftrl 在线凸优化 冯杨)。

离线训练:

模型可以复杂、天\周 级别训练、一般天级别的训练,需要等今天的数据落地后进行加工、训练,这个过程一般随时数据量越大持续时间越长,需要做好时间的把控。

近线训练:

小时级别的训练。工程性要求很强。模型不易太复杂。特征拼接尽量简单。

1.一般是增量学习。

2.做好离线评估,始终保证auc最高的上线。

3.小心计算堆积。

4.提前算好数据训练时间。

在线学习:

模型始终在训练

FTRL

1.线上特征别做大规模的join操作。提前备好特征存入redis中。

2.防止模型飘逸。

3.小心计算堆积。

4.提前算好数据训练时间。

参考资料

https://github.com/jpmml/
https://github.com/Angel-ML/angel/blob/master/docs/algo/ftrl_lr_spark.md
小白都能懂的推荐算法入门(三)FM、类别特征以及Embedding
详解 Wide & Deep 结构背后的动机
工业推荐场景的深度学习排序模型实践
image-20211127144421128