📓
Study
  • README
  • Application
    • Contest
      • 竞赛trick
  • Basic Know
    • 半监督学习
    • 贝叶斯
      • 朴素贝叶斯分类器
    • 对抗训练
    • 概率图模型
      • CRF
      • HMM
      • 概率图模型
    • 关联分析
    • 归纳偏置
      • [什么是 Inductive bias(归纳偏置)?](BasicKnow/归纳偏置/什么是 Inductive bias(归纳偏置)?.md)
    • 聚类
    • 决策树
    • 绿色深度学习
    • 树模型&集成学习
      • 提升树
      • Ada Boost
      • [集成学习]
    • 特征工程
      • 数据分桶
      • 特征工程概述
      • 特征选择
      • LDA
      • PCA
    • 线性模型
      • 感知机
      • 最大熵模型
      • SVM
        • SVM支持向量机
      • 逻辑回归
      • 线性回归
    • 优化算法
      • 拉格朗日对偶性
      • 牛顿法
        • 牛顿法&拟牛顿法
      • 梯度下降法
        • 梯度下降算法
      • 优化算法
    • 预处理
      • [1-1]正则表达式
      • [1-2]文本预处理
      • [1-3]词性
      • [1-4]语法分析
      • [1-6]文本分类
      • [1-7]网络爬取
      • 【备用】正则表达式
      • 7.re模块
      • 词典匹配
      • 分词
      • 子表达式
      • Todo
    • 主题模型
      • LDA
    • Deep Learning
      • 反向传播
      • 梯度消失&梯度爆炸
      • Batch Size
      • 1.DLbasis
      • 小概念
      • MLstrategy
      • CNN
      • RNN及其应用
      • 关于深度学习实践
      • 神经网络概述
      • Batch Normalization
      • Program CNN
      • Program D Lbasis
      • Program DN Nimprove
      • Program Neural Style Transfer
      • Summer DL
    • EM算法
    • GAN
      • Gans In Action Master
    • GNN
      • 搜广推之GNN
      • Representation Learning
        • Anomalydetection
        • Conclusion
        • Others
        • Papernotes
        • Recommadation
    • k近邻法
      • K近邻
    • Language Model
      • 语言模型解码采样策略
      • [1-1][语言模型]从N-gram模型讲起
      • [1-2][语言模型]NNLM(神经网络语言模型)
      • [1-3][语言模型]基于RNN的语言模型
      • [1-4][语言模型]用N-gram来做完形填空
      • [1-5][语言模型]用KenLM来做完形填空
    • Loss Function
      • 常用损失函数
      • Focal Loss
      • softmax+交叉熵
    • Machine Learning
      • [基础]概念
      • 待整合
      • 交叉验证
      • 无监督学习
      • 优缺点
      • ML Yearning
      • SVD
    • Statistics Math
      • 程序员的数学基础课
      • 数学基础
      • 统计&高数
      • 统计题目
      • 线性代数
      • 组合数学
      • Discrete Choice Model
      • Nested Choice Model
  • Course Note
    • 基于TensorFlow的机器学习速成课程
      • [Key ML Terminology](CourseNote/基于TensorFlow的机器学习速成课程/Key ML Terminology.md)
    • 集训营
      • 任务说明
      • 算法实践1.1模型构建
      • 算法实践1.2模型构建之集成模型
      • 算法实践2.1数据预处理
    • 李宏毅机器学习
      • 10DNN训练Tips
        • Chapter 18
      • 16无监督学习
        • Chapter 25
    • 贪心NLP
      • 贪心NLP笔记
    • Cs 224 N 2019
      • [A Simple But Tough To Beat Baseline For Sentence Embeddings](CourseNote/cs224n2019/A Simple but Tough-to-beat Baseline for Sentence Embeddings.md)
      • [Lecture 01 Introduction And Word Vectors](CourseNote/cs224n2019/Lecture 01 Introduction and Word Vectors.md)
      • [Lecture 02 Word Vectors 2 And Word Senses](CourseNote/cs224n2019/Lecture 02 Word Vectors 2 and Word Senses.md)
      • [Lecture 03 Word Window Classification Neural Networks And Matrix Calculus](CourseNote/cs224n2019/Lecture 03 Word Window Classification, Neural Networks, and Matrix Calculus.md)
      • [Lecture 04 Backpropagation And Computation Graphs](CourseNote/cs224n2019/Lecture 04 Backpropagation and Computation Graphs.md)
      • [Lecture 05 Linguistic Structure Dependency Parsing](CourseNote/cs224n2019/Lecture 05 Linguistic Structure Dependency Parsing.md)
      • [Lecture 06 The Probability Of A Sentence Recurrent Neural Networks And Language Models](CourseNote/cs224n2019/Lecture 06 The probability of a sentence Recurrent Neural Networks and Language Models.md)
      • Stanford NLP
    • Deep Learning Book Goodfellow
      • Books
        • Deep Learning Book Chapter Summaries Master
      • 提纲
      • C 5
      • C 6
      • [Part I Applied Math And Machine Learning Basics](CourseNote/Deep-Learning-Book-Goodfellow/Part I - Applied Math and Machine Learning basics.md)
    • Lihang
    • NLP实战高手课
      • 极客时间_NLP实战高手课
    • 工具&资料
    • 机器学习、深度学习面试知识点汇总
    • 七月kaggle课程
    • 算法工程师
    • 贪心科技机器学习必修知识点特训营
    • 唐宇迪机器学习
    • 语言及工具
    • AI技术内参
    • Suggestions
  • Data Related
    • 数据质量
      • 置信学习
    • 自然语言处理中的数据增广_车万翔
      • 自然语言处理中的数据增广
    • Mixup
    • 数据不均衡问题
    • 数据增强的方法
  • Knowledge Graph
    • Information Extraction
      • 联合抽取
        • PRGC
      • Code
        • BERT微调
      • NER
        • 阅读理解做NER
          • MRC
        • FLAT
        • Global Pointer
        • 命名实体识别NER
    • Keyword Extraction
      • 关键词抽取
    • 小米在知识表示学习的探索与实践
    • KG
  • Multi Task
    • EXT 5
      • Ex T 5
  • NLG
    • Dailogue
      • 比赛
        • 对话评估比赛
          • [simpread-DSTC10 开放领域对话评估比赛冠军方法总结](NLG/Dailogue/比赛/对话评估比赛/simpread-DSTC10 开放领域对话评估比赛冠军方法总结.md)
      • 任务型对话
        • DST
          • DST概述
        • NLG
          • NLG概述
        • NLU
          • NLU概述
        • 任务型对话概述
        • simpread-任务型对话系统预训练最新研究进展
      • 问答型对话
        • 检索式问答
          • 基于预训练模型的检索式对话系统
          • 检索式文本问答
        • 业界分享
          • 低资源场景下的知识图谱表示学习和问答_阿里_李杨
          • QQ浏览器搜索智能问答
        • 问答型对话系统概述
      • 闲聊型对话
        • 闲聊型对话系统概述
      • 业界分享
        • 人工智能与心理咨询
        • 腾讯多轮对话机器人
        • 微软小冰
        • 小布助手闲聊生成式算法
        • 美团智能客服实践_江会星
        • 去哪儿智能客服探索和实践
        • 实时语音对话场景下的算法实践_阿里_陈克寒
        • 智能语音交互中的无效query识别_小米_崔世起
        • UNIT智能对话
      • 主动对话
      • EVA
        • EVA分享
        • EVA模型
      • PLATO
      • RASA
    • Machine Translation
      • 业界分享
        • 爱奇艺台词翻译分享
      • Paper
        • Deep Encoder Shallow Decoder
    • RAGRelated
    • Text 2 SQL
      • M SQL
        • [M SQL 2](NLG/Text2SQL/M-SQL/M-SQL (2).md)
      • [Text2SQL Baseline解析](NLG/Text2SQL/Text2SQL Baseline解析.md)
      • Text 2 SQL
    • Text Summarization
      • [文本摘要][paper]CTRLSUM
      • 文本摘要
  • Pre Training
    • 业界分享
      • 超大语言模型与语言理解_黄民烈
        • 超大语言模型与语言理解
      • 大模型的加速算法_腾讯微信
        • 大模型的加速算法
      • 孟子轻量化预训练模型
      • 悟道文汇文图生成模型
      • 悟道文澜图文多模态大模型
      • 语义驱动可视化内容创造_微软
        • 语义驱动可视化内容创造
    • Base
      • Attention
      • Mask
        • NLP中的Mask
      • Position Encoding
        • 位置编码
    • BERT
      • ALBERT
      • Bert
        • Venv
          • Lib
            • Site Packages
              • idna-3.2.dist-info
                • LICENSE
              • Markdown-3.3.4.dist-info
                • LICENSE
              • Tensorflow
                • Include
                  • External
                    • Libjpeg Turbo
                      • LICENSE
                  • Unsupported
                    • Eigen
                      • CXX 11
                        • Src
                          • Tensor
              • Werkzeug
                • Debug
                  • Shared
                    • ICON LICENSE
        • CONTRIBUTING
        • Multilingual
      • Ro BER Ta
      • BERT
      • BERT面试问答
      • BERT源码解析
      • NSP BERT
    • BERT Flow
    • BERT Zip
      • Distilling The Knowledge In A Neural Network
      • TINYBERT
      • 模型压缩
    • CPM
    • CPT
      • 兼顾理解和生成的中文预训练模型CPT
    • ELECTRA
    • EL Mo
    • ERNIE系列语言模型
    • GPT
    • MBART
    • NEZHA
    • NLG Sum
      • [simpread-预训练时代下的文本生成|模型 & 技巧](Pre-training/NLGSum/simpread-预训练时代下的文本生成|模型 & 技巧.md)
    • Prompt
      • 预训练模型的提示学习方法_刘知远
        • 预训练模型的提示学习方法
    • T 5
      • Unified SKG
      • T 5
    • Transformer
    • Uni LM
    • XL Net
    • 预训练语言模型
    • BERT变种
  • Recsys
    • 多任务Multi-task&推荐
    • 推荐介绍
    • 推荐系统之召回与精排
      • 代码
        • Python
          • Recall
            • Deep Match Master
              • Docs
                • Source
                  • Examples
                  • FAQ
                  • Features
                  • History
                  • Model Methods
                  • Quick Start
    • 业界分享
      • 腾讯基于知识图谱长视频推荐
    • 召回
    • Sparrow Rec Sys
    • 深度学习推荐系统实战
    • 推荐模型
    • Deep FM
  • Search
    • 搜索
    • 业界分享
      • 爱奇艺搜索排序算法实践
      • 语义搜索技术和应用
    • 查询关键字理解
    • 搜索排序
    • BM 25
    • KDD21-淘宝搜索中语义向量检索技术
    • query理解
    • TFIDF
  • Self Supervised Learning
    • Contrastive Learning
      • 业界分享
        • 对比学习在微博内容表示的应用_张俊林
      • Paper
      • R Drop
      • Sim CSE
    • 自监督学习
  • Text Classification
    • [多标签分类(Multi-label Classification)](TextClassification/多标签分类(Multi-label Classification)/多标签分类(Multi-label Classification).md)
    • Fast Text
    • Text CNN
    • 文本分类
  • Text Matching
    • 文本匹配和多轮检索
    • CNN SIM
    • Word Embedding
      • Skip Gram
      • Glove
      • Word 2 Vec
    • 文本匹配概述
  • Tool
    • 埋点
    • 向量检索(Faiss等)
    • Bigdata
      • 大数据基础task1_创建虚拟机+熟悉linux
      • 任务链接
      • Mr
      • Task1参考答案
      • Task2参考答案
      • Task3参考答案
      • Task4参考答案
      • Task5参考答案
    • Docker
    • Elasticsearch
    • Keras
    • Numpy
    • Python
      • 可视化
        • Interactivegraphics
        • Matplotlib
        • Tkinter
        • Turtle
      • 数据类型
        • Datatype
      • python爬虫
        • Python Scraping Master
          • phantomjs-2.1.1-windows
        • Regularexp
        • Scrapying
        • Selenium
      • 代码优化
      • 一行代码
      • 用python进行语言检测
      • Debug
      • Exception
      • [Features Tricks](Tool/python/Features & Tricks.md)
      • Fileprocess
      • Format
      • Functional Programming
      • I Python
      • Magic
      • Math
      • Os
      • Others
      • Pandas
      • Python Datastructure
      • Python操作数据库
      • Streamlit
      • Time
    • Pytorch
      • Dive Into DL Py Torch
        • 02 Softmax And Classification
        • 03 Mlp
        • 04 Underfit Overfit
        • 05 Gradient Vanishing Exploding
        • 06 Text Preprocess
        • 07 Language Model
        • 08 Rnn Basics
        • 09 Machine Translation
        • 10 Attention Seq 2 Seq
        • 11 Transformer
        • 12 Cnn
        • 14 Batchnorm Resnet
        • 15 Convexoptim
        • 16 Gradientdescent
        • 17 Optim Advance
    • Spark
      • Pyspark
        • pyspark之填充缺失的时间数据
      • Spark
    • SQL
      • 数据库
      • Hive Sql
      • MySQL实战45讲
    • Tensor Flow
      • TensorFlow入门
  • Common
  • NLP知识体系
Powered by GitBook
On this page
  • Transformer-XL
  • XLNet
  • fastBERT
  • RoBERTa
  • ALBERT
  • 总结
  • 参考资料

Was this helpful?

  1. Pre Training

BERT变种

Transformer-XL

买衣服都知道XL是比large更大一号,所以Transformer-XL也是比Bert更大一号。 大在哪呢?

Bert的模型默认是长度512的输入,如果是QA匹配问题, 那一个句子只有256个空间,还不算各种token占位。

而这种复杂模型用来训练这么少的输入,属实可惜。 如果扩充输入,那就是扩充参数量,而参数量就是钱,参数太多是训练不起的。

所以Transformer-XL说Bert小,然后给自己起名XL。它解决了输入长度的限制问题。

假如用Bert给2000长度的句子做序列标注: 1.训练。 Bert需要把句子切成4份再单独训练。 2.预测。 Bert先输入[0:512]个token,再输入[1:513]个token,一点点挪着预测出标注。 缺点很明显,训练时句子切完语义就不连贯了,预测时一个一个挪很费时间。

Transformer-XL这样改进:

该切还是切,但我要求

训练时,模型能把i-1段的信息加入i段的训练中。但反向传播时,因为被切割了,所以训练i时不给i − 1段做训练。计算Multi-head时,只对k和v用拼接后的参数,而q因为代表本身的query,所以只用本身的参数。

预测时,很明显能看出重新计算是有缺陷的。只要保存上一段的状态,下一段是可以整段直接算出来的,就像训练时一样。

实际上,你可以不只保存i − 1段,多往前保存几段更好了,只要缓存够用。

XLNet

这个是融合了GPT和Bert两家的模型。

GPT是自编码模型, 通过双向LSTM编码提取语义。

Bert是自回归模型,不分前后,一坨扔进去,再用attention加强提取语义的效果。

XLNet融合了Bert的结构和GPT的有向预测,具体做法有点抽象,请耐心。

首先,XLNet觉得Bert给的任务太简单了。Bert是Mask language model,举例说明,假如Bert顺序输入abcd四个词,Bert会随机mask掉一部分词,假设mask成了ab[mask]d,接下来Bert要根据这个mask序列预测mask位置的词"c"。

XLNet认为不该一下子把所有词都告诉网络,可以先告诉网络第一个词是a,然后预测一下,再告诉网络一二位置的词是ab,再预测一下,最后告诉网络一二四位置的词是abd,再预测一下。这样力求网络能以最少的信息预测出结果。更有甚者,可能先告诉b,再告诉bd,再告诉abd.

为了实现上面的训练方式,XLNet这样做:

对于序列abcd,先给其加上position embedding. 文字不好表述,就是加了一维位置向量。

随机打散,可能变成bcda, 可能变成adbc. 这里以adbc为例。

根据a->d->b->c这个序列,我们预测a时什么都看不到,预测d时能看到a,预测b时能看到ad,预测c时能看到adb。我们调换一下顺序:a:None,b:ad,c:abd,d:a。这四种情况就对应了上述在分别mask掉a、b、c、d时的某一种情况。我们完全可以根据原始的输入"abcd"再加上01的掩码获得上述情况下的各种输入,即a位置掩盖所有,b位置掩盖c,c位置不掩盖,d位置掩盖bc。如果是自监督学习,就自己掩盖自己,如果是任务学习,就不掩盖自己。

总之,使用这种掩码机制可以等效为mask机制+序列预测的难度加强版。因为掩码机制使用矩阵,看着很像attention,就蹭个热度。又加之网络本身有自己的标准attention,故得名“双流attention”.

通过掩码机制,可以省略添加mask标记的过程,而众所周知mask标记会些许干扰语义模型的表示,所以XLNet算是解决了这个问题。

fastBERT

你是否纠结于Bert的层数太多,输出耗时太长?普通的知识蒸馏又会损失精度?

试试fastBERT吧。

众所周知,Bert的decoder有很多层,但可以肯定,有些问题肯定不需要那么多层,可能只需要浅层的decode特征就足以获得结果。

以分类任务举例,fastBERT这样做:

获取某一版的Pre-training Bert.

最后一层加上任务所需的分类网络,对Bert进行fine-tune。

开始蒸馏,固定Bert主干的参数。在每一层decoder后都加上分类网络,注意这些网络是不共享参数的,各分各的。利用最后一层输出的分类概率,作为中间每一层分类的目标分布,利用KL散度或JS散度做分布拟合。

为什么不用真实标签而是最后一层的输出当目标呢?

因为loss变了,而且此时可以使用没标签的数据做蒸馏。

使用时,将数据输入,先获得第一层decoder,计算分类的不确定度Uncertainty(具体计算公式去找论文)。如果不确定度达标,就以这一层的结果为输出,否则再计算下一层。论文里用“speed”代表不确定性阈值,阈值越大网络更容易在低层就输出。

RoBERTa

这个模型还是Bert,但改了训练目标和参数。

Bert当初训练的时候有俩任务,一个是MLM,另一个是NSP,next sentence prediction,具体做法是输入时输入句对(A,B),判断B是不是A的下一句话。

现在发现,nsp没啥卵用,就把nsp任务删了。

Bert训练MLM是选择句子里15%的词mask,且80%替换为[mask]标记,10%不变,10%替换为其他词。但这15%的词选中就不变了。

RoBERTa说不行。他把数据复制了10份,分别做mask,并保持总训练epoch不变,即每份数据训练原先epoch数的10%。

RoBERTa还借鉴了机器翻译中的trick,提高batch-size能提高模型优化效率和模型性能。

ALBERT

ALBERT是紧跟着RoBERTa出来的,也是针对Bert的一些调整,重点在减少模型参数,对速度倒是没有特意优化。

word embedding太大

不需要花哨的解释,word embedding设置多大见仁见智,适当就好。ALBERT试验发现原先的300确实没必要,可以适当缩减,对网络没影响。

但尴尬的是在SST-2数据集上768比256尺寸效果好得有点多,这就有点打脸了。

参数共享

在Bert里encoder可以共享层参数,也可以共享attention。

ALBERT选择全都共享。自身比较来看带共享会降2%的准确率。与Bert相比,无论是base还是large,xlarge,效果都要低一点。值得注意的是Bert在xlarge时效果下降很大,因为模型震荡很厉害,ALBERT因为参数共享,震荡的空间不大,所以准确率随着模型增大依然能稳步上升。

新任务SOP(sentence-order prediction句子语序预测)

RoBERTa已经给NSP任务判死刑了。

NSP任务是输入两个连续的句子,判断他们是不是连续的,而负例是将后一句换成其他文章里的任意句子。如果是这么个负例产生方法, 与其说这个任务是判断连续性,还不如说是先判断俩句子是一个主题(即一个文章),再判断是句子连续。这么一拆,就可以发现,判断主题相同是极简单的任务,且MLM就有类似的功能,所以不需要学习。而判断句子连续倒是有价值。

所以ALBERT为了只学习句子连续性,就重新设计了任务SOP:正例依然是一篇文章的连续语句,负例却是将两句调换位置。

数据显示,NSP任务提升模型0.2%,SOP任务提升了1.1%。

移除dropout

我在之前分析过dropout的功能。神经网络相比于机器学习模型,优点在于可回归的空间很大,模型的自由度很高,这就让网络可以把自己变得很复杂以最小化loss。因为模型复杂,所以少哪一个神经元都是对模型的致命打击。针对这点设计出dropout,就是告诉模型,不要把自己变复杂,否则用上dropout之后效果比简单模型还要糟糕。 但这叫做打压式教育,不提倡。既然过拟合的本质是模型过于自由,那就限制自由好了。ALBERT的第2点:参数共享,大大减小了参数量,本身就极大限制了模型的发挥空间,所以既然已经达到了抑制过拟合的目的,也就不需要画蛇添足地加上dropout了。

总结

  • 用于预训练的高质量数据多多益善;如RoBERTa增加英文语料,BaiduERNIE增加中文百科语料等(数据高质量是前提,T5验证了引入不过滤带噪声数据后效果降低)

  • 增加模型复杂度,提高模型参数量;如Large模型层数深度增加,隐层向量纬度增宽等;

  • 提升预训练任务难度,包括Masking机制和句子纬度任务;如wwm/span/dynamic masking, SOP/句子序/ERNIE2.0多任务等;

  • 更加充分的训练过程,包括增大训练步数,加大训练batch等;

除上面所列BERT变体外,针对生成任务NLG还有UniLM、MASS、BART等预训练模型

参考资料

Previous预训练语言模型NextRecsys

Last updated 10 months ago

Was this helpful?

通过对比部分Bert系列变体,可以看到基于Bert预训练模型主要的优化集中在三个方面:一是改进Masking机制;二是增强预训练任务;三是增大数据量和充分预训练;参考张俊林老师《》对预训练总结如下:

乘风破浪的PTM:两年来预训练模型的技术进展
BERT及其变种们
图表总结预训练BERT系列模型