📓
Study
  • README
  • Application
    • Contest
      • 竞赛trick
  • Basic Know
    • 半监督学习
    • 贝叶斯
      • 朴素贝叶斯分类器
    • 对抗训练
    • 概率图模型
      • CRF
      • HMM
      • 概率图模型
    • 关联分析
    • 归纳偏置
      • [什么是 Inductive bias(归纳偏置)?](BasicKnow/归纳偏置/什么是 Inductive bias(归纳偏置)?.md)
    • 聚类
    • 决策树
    • 绿色深度学习
    • 树模型&集成学习
      • 提升树
      • Ada Boost
      • [集成学习]
    • 特征工程
      • 数据分桶
      • 特征工程概述
      • 特征选择
      • LDA
      • PCA
    • 线性模型
      • 感知机
      • 最大熵模型
      • SVM
        • SVM支持向量机
      • 逻辑回归
      • 线性回归
    • 优化算法
      • 拉格朗日对偶性
      • 牛顿法
        • 牛顿法&拟牛顿法
      • 梯度下降法
        • 梯度下降算法
      • 优化算法
    • 预处理
      • [1-1]正则表达式
      • [1-2]文本预处理
      • [1-3]词性
      • [1-4]语法分析
      • [1-6]文本分类
      • [1-7]网络爬取
      • 【备用】正则表达式
      • 7.re模块
      • 词典匹配
      • 分词
      • 子表达式
      • Todo
    • 主题模型
      • LDA
    • Deep Learning
      • 反向传播
      • 梯度消失&梯度爆炸
      • Batch Size
      • 1.DLbasis
      • 小概念
      • MLstrategy
      • CNN
      • RNN及其应用
      • 关于深度学习实践
      • 神经网络概述
      • Batch Normalization
      • Program CNN
      • Program D Lbasis
      • Program DN Nimprove
      • Program Neural Style Transfer
      • Summer DL
    • EM算法
    • GAN
      • Gans In Action Master
    • GNN
      • 搜广推之GNN
      • Representation Learning
        • Anomalydetection
        • Conclusion
        • Others
        • Papernotes
        • Recommadation
    • k近邻法
      • K近邻
    • Language Model
      • 语言模型解码采样策略
      • [1-1][语言模型]从N-gram模型讲起
      • [1-2][语言模型]NNLM(神经网络语言模型)
      • [1-3][语言模型]基于RNN的语言模型
      • [1-4][语言模型]用N-gram来做完形填空
      • [1-5][语言模型]用KenLM来做完形填空
    • Loss Function
      • 常用损失函数
      • Focal Loss
      • softmax+交叉熵
    • Machine Learning
      • [基础]概念
      • 待整合
      • 交叉验证
      • 无监督学习
      • 优缺点
      • ML Yearning
      • SVD
    • Statistics Math
      • 程序员的数学基础课
      • 数学基础
      • 统计&高数
      • 统计题目
      • 线性代数
      • 组合数学
      • Discrete Choice Model
      • Nested Choice Model
  • Course Note
    • 基于TensorFlow的机器学习速成课程
      • [Key ML Terminology](CourseNote/基于TensorFlow的机器学习速成课程/Key ML Terminology.md)
    • 集训营
      • 任务说明
      • 算法实践1.1模型构建
      • 算法实践1.2模型构建之集成模型
      • 算法实践2.1数据预处理
    • 李宏毅机器学习
      • 10DNN训练Tips
        • Chapter 18
      • 16无监督学习
        • Chapter 25
    • 贪心NLP
      • 贪心NLP笔记
    • Cs 224 N 2019
      • [A Simple But Tough To Beat Baseline For Sentence Embeddings](CourseNote/cs224n2019/A Simple but Tough-to-beat Baseline for Sentence Embeddings.md)
      • [Lecture 01 Introduction And Word Vectors](CourseNote/cs224n2019/Lecture 01 Introduction and Word Vectors.md)
      • [Lecture 02 Word Vectors 2 And Word Senses](CourseNote/cs224n2019/Lecture 02 Word Vectors 2 and Word Senses.md)
      • [Lecture 03 Word Window Classification Neural Networks And Matrix Calculus](CourseNote/cs224n2019/Lecture 03 Word Window Classification, Neural Networks, and Matrix Calculus.md)
      • [Lecture 04 Backpropagation And Computation Graphs](CourseNote/cs224n2019/Lecture 04 Backpropagation and Computation Graphs.md)
      • [Lecture 05 Linguistic Structure Dependency Parsing](CourseNote/cs224n2019/Lecture 05 Linguistic Structure Dependency Parsing.md)
      • [Lecture 06 The Probability Of A Sentence Recurrent Neural Networks And Language Models](CourseNote/cs224n2019/Lecture 06 The probability of a sentence Recurrent Neural Networks and Language Models.md)
      • Stanford NLP
    • Deep Learning Book Goodfellow
      • Books
        • Deep Learning Book Chapter Summaries Master
      • 提纲
      • C 5
      • C 6
      • [Part I Applied Math And Machine Learning Basics](CourseNote/Deep-Learning-Book-Goodfellow/Part I - Applied Math and Machine Learning basics.md)
    • Lihang
    • NLP实战高手课
      • 极客时间_NLP实战高手课
    • 工具&资料
    • 机器学习、深度学习面试知识点汇总
    • 七月kaggle课程
    • 算法工程师
    • 贪心科技机器学习必修知识点特训营
    • 唐宇迪机器学习
    • 语言及工具
    • AI技术内参
    • Suggestions
  • Data Related
    • 数据质量
      • 置信学习
    • 自然语言处理中的数据增广_车万翔
      • 自然语言处理中的数据增广
    • Mixup
    • 数据不均衡问题
    • 数据增强的方法
  • Knowledge Graph
    • Information Extraction
      • 联合抽取
        • PRGC
      • Code
        • BERT微调
      • NER
        • 阅读理解做NER
          • MRC
        • FLAT
        • Global Pointer
        • 命名实体识别NER
    • Keyword Extraction
      • 关键词抽取
    • 小米在知识表示学习的探索与实践
    • KG
  • Multi Task
    • EXT 5
      • Ex T 5
  • NLG
    • Dailogue
      • 比赛
        • 对话评估比赛
          • [simpread-DSTC10 开放领域对话评估比赛冠军方法总结](NLG/Dailogue/比赛/对话评估比赛/simpread-DSTC10 开放领域对话评估比赛冠军方法总结.md)
      • 任务型对话
        • DST
          • DST概述
        • NLG
          • NLG概述
        • NLU
          • NLU概述
        • 任务型对话概述
        • simpread-任务型对话系统预训练最新研究进展
      • 问答型对话
        • 检索式问答
          • 基于预训练模型的检索式对话系统
          • 检索式文本问答
        • 业界分享
          • 低资源场景下的知识图谱表示学习和问答_阿里_李杨
          • QQ浏览器搜索智能问答
        • 问答型对话系统概述
      • 闲聊型对话
        • 闲聊型对话系统概述
      • 业界分享
        • 人工智能与心理咨询
        • 腾讯多轮对话机器人
        • 微软小冰
        • 小布助手闲聊生成式算法
        • 美团智能客服实践_江会星
        • 去哪儿智能客服探索和实践
        • 实时语音对话场景下的算法实践_阿里_陈克寒
        • 智能语音交互中的无效query识别_小米_崔世起
        • UNIT智能对话
      • 主动对话
      • EVA
        • EVA分享
        • EVA模型
      • PLATO
      • RASA
    • Machine Translation
      • 业界分享
        • 爱奇艺台词翻译分享
      • Paper
        • Deep Encoder Shallow Decoder
    • RAGRelated
    • Text 2 SQL
      • M SQL
        • [M SQL 2](NLG/Text2SQL/M-SQL/M-SQL (2).md)
      • [Text2SQL Baseline解析](NLG/Text2SQL/Text2SQL Baseline解析.md)
      • Text 2 SQL
    • Text Summarization
      • [文本摘要][paper]CTRLSUM
      • 文本摘要
  • Pre Training
    • 业界分享
      • 超大语言模型与语言理解_黄民烈
        • 超大语言模型与语言理解
      • 大模型的加速算法_腾讯微信
        • 大模型的加速算法
      • 孟子轻量化预训练模型
      • 悟道文汇文图生成模型
      • 悟道文澜图文多模态大模型
      • 语义驱动可视化内容创造_微软
        • 语义驱动可视化内容创造
    • Base
      • Attention
      • Mask
        • NLP中的Mask
      • Position Encoding
        • 位置编码
    • BERT
      • ALBERT
      • Bert
        • Venv
          • Lib
            • Site Packages
              • idna-3.2.dist-info
                • LICENSE
              • Markdown-3.3.4.dist-info
                • LICENSE
              • Tensorflow
                • Include
                  • External
                    • Libjpeg Turbo
                      • LICENSE
                  • Unsupported
                    • Eigen
                      • CXX 11
                        • Src
                          • Tensor
              • Werkzeug
                • Debug
                  • Shared
                    • ICON LICENSE
        • CONTRIBUTING
        • Multilingual
      • Ro BER Ta
      • BERT
      • BERT面试问答
      • BERT源码解析
      • NSP BERT
    • BERT Flow
    • BERT Zip
      • Distilling The Knowledge In A Neural Network
      • TINYBERT
      • 模型压缩
    • CPM
    • CPT
      • 兼顾理解和生成的中文预训练模型CPT
    • ELECTRA
    • EL Mo
    • ERNIE系列语言模型
    • GPT
    • MBART
    • NEZHA
    • NLG Sum
      • [simpread-预训练时代下的文本生成|模型 & 技巧](Pre-training/NLGSum/simpread-预训练时代下的文本生成|模型 & 技巧.md)
    • Prompt
      • 预训练模型的提示学习方法_刘知远
        • 预训练模型的提示学习方法
    • T 5
      • Unified SKG
      • T 5
    • Transformer
    • Uni LM
    • XL Net
    • 预训练语言模型
    • BERT变种
  • Recsys
    • 多任务Multi-task&推荐
    • 推荐介绍
    • 推荐系统之召回与精排
      • 代码
        • Python
          • Recall
            • Deep Match Master
              • Docs
                • Source
                  • Examples
                  • FAQ
                  • Features
                  • History
                  • Model Methods
                  • Quick Start
    • 业界分享
      • 腾讯基于知识图谱长视频推荐
    • 召回
    • Sparrow Rec Sys
    • 深度学习推荐系统实战
    • 推荐模型
    • Deep FM
  • Search
    • 搜索
    • 业界分享
      • 爱奇艺搜索排序算法实践
      • 语义搜索技术和应用
    • 查询关键字理解
    • 搜索排序
    • BM 25
    • KDD21-淘宝搜索中语义向量检索技术
    • query理解
    • TFIDF
  • Self Supervised Learning
    • Contrastive Learning
      • 业界分享
        • 对比学习在微博内容表示的应用_张俊林
      • Paper
      • R Drop
      • Sim CSE
    • 自监督学习
  • Text Classification
    • [多标签分类(Multi-label Classification)](TextClassification/多标签分类(Multi-label Classification)/多标签分类(Multi-label Classification).md)
    • Fast Text
    • Text CNN
    • 文本分类
  • Text Matching
    • 文本匹配和多轮检索
    • CNN SIM
    • Word Embedding
      • Skip Gram
      • Glove
      • Word 2 Vec
    • 文本匹配概述
  • Tool
    • 埋点
    • 向量检索(Faiss等)
    • Bigdata
      • 大数据基础task1_创建虚拟机+熟悉linux
      • 任务链接
      • Mr
      • Task1参考答案
      • Task2参考答案
      • Task3参考答案
      • Task4参考答案
      • Task5参考答案
    • Docker
    • Elasticsearch
    • Keras
    • Numpy
    • Python
      • 可视化
        • Interactivegraphics
        • Matplotlib
        • Tkinter
        • Turtle
      • 数据类型
        • Datatype
      • python爬虫
        • Python Scraping Master
          • phantomjs-2.1.1-windows
        • Regularexp
        • Scrapying
        • Selenium
      • 代码优化
      • 一行代码
      • 用python进行语言检测
      • Debug
      • Exception
      • [Features Tricks](Tool/python/Features & Tricks.md)
      • Fileprocess
      • Format
      • Functional Programming
      • I Python
      • Magic
      • Math
      • Os
      • Others
      • Pandas
      • Python Datastructure
      • Python操作数据库
      • Streamlit
      • Time
    • Pytorch
      • Dive Into DL Py Torch
        • 02 Softmax And Classification
        • 03 Mlp
        • 04 Underfit Overfit
        • 05 Gradient Vanishing Exploding
        • 06 Text Preprocess
        • 07 Language Model
        • 08 Rnn Basics
        • 09 Machine Translation
        • 10 Attention Seq 2 Seq
        • 11 Transformer
        • 12 Cnn
        • 14 Batchnorm Resnet
        • 15 Convexoptim
        • 16 Gradientdescent
        • 17 Optim Advance
    • Spark
      • Pyspark
        • pyspark之填充缺失的时间数据
      • Spark
    • SQL
      • 数据库
      • Hive Sql
      • MySQL实战45讲
    • Tensor Flow
      • TensorFlow入门
  • Common
  • NLP知识体系
Powered by GitBook
On this page
  • StudySum
  • 机器学习模型
  • 线性回归
  • 逻辑回归
  • 最大熵模型
  • 感知机
  • SVM支持向量机
  • K近邻
  • 朴素贝叶斯分类器
  • 决策树
  • AdaBoost
  • 提升树
  • EM算法
  • 概率图模型
  • 聚类
  • 关联分析
  • 主题模型
  • 生成模型与判别模型
  • 深度学习模型
  • 反向传播
  • CNN
  • RNN
  • BatchSize
  • BatchNormalization
  • LayerNormalization
  • 激活函数
  • 损失函数
  • 词嵌入
  • 预训练模型
  • 特征工程
  • 问题解决
  • 过拟合/欠拟合
  • 梯度消失&梯度爆炸
  • 数据不均衡问题
  • 数据增强的方法
  • GAN
  • GNN
  • 强化学习
  • 对比学习
  • NLP方向
  • 对话
  • 信息抽取
  • 知识图谱
  • 机器翻译
  • Text2SQL
  • 文本匹配概述
  • 文本摘要
  • 搜索
  • 推荐

Was this helpful?

README

NextApplication

Last updated 3 years ago

Was this helpful?

StudySum

学习过程中的笔记梳理与总结

可以在gitbook中观看,效果更佳:

gitbook教程:

https://blog.csdn.net/weixin_41024483/article/details/100090621

http://self-publishing.ebookchain.org/3-%E5%A6%82%E4%BD%95%E6%89%93%E9%80%A0%E8%87%AA%E5%B7%B1%E7%9A%84%E5%B9%B3%E5%8F%B0%EF%BC%9F/1-Summary%E7%9A%84%E5%AE%89%E8%A3%85.html

book sm自动生成目录

手动整理的目录

[TOC]

机器学习模型

  • 决策函数:$f(x) = w^T x + b$

  • 损失函数:均方误差

  • 基于均方误差最小化来进行模型求解的方法称为"最小二乘法"。

  • 或者用求解无约束优化问题的梯度下降法

  • 形式简单、易于建模,可解释性强

  • 广义线性模型:$y=g^{-1}(w^Tx+b)$,g(.)是单调可微函数

  • 对数线性回归是广义线性模型在g(.)=ln(.)时的特例。

  • 线性回归的值域是实数域,通过逻辑斯蒂回归模型的定义式可以将线性函数转换为概率$P(Y=1|x)=\frac{exp(w^Tx)}{1+exp(w^Tx)}$

  • 输出Y=1的对数几率是由输入x的线性函数表示的模型:$log\frac{P(Y=1|x)}{(1-P(Y=1|x))}=w^Tx$

  • 一个事件的几率(odds)是指该事件发生的概率与该事件不发生的概率的比值。

  • 极大似然估计法估计模型参数,等价于最小化交叉熵损失函数,用梯度下降法及拟牛顿法学习

  • 优点

    • 直接对分类可能性进行建模,无需实现假设数据分布,这样就避免了假设分布不准确所带来的问题;

    • 不是仅预测出“类别”,而是可得到近似概率预测,这对许多需利用概率辅助决策的任务很有用;

    • 对数函数是任意阶可导的凸函数,有很好的数学性质,现有的许多数值优化算法都可直接用于求取最优解。

  • LR中的连续特征为什么要离散化

    • 离散特征的增加和减少都很容易,易于模型的快速迭代。

    • 稀疏向量内积乘法运算速度快,计算结果方便存储,容易扩展;

    • 离散化后的特征对异常数据有很强的鲁棒性,比如年龄300岁,不离散化的话wx的值就会很大,离散化之后如果训练数据没有这个特征,那么特征的权重为0,即使测试数据出现也无效

    • 逻辑回归属于广义线性模型,表达能力受限;单变量离散化为N个后,每个变量有单独的权重,相当于为模型引入了非线性,能够提升模型表达能力,加大拟合

    • 离散化后可以进行特征交叉,假如特征A 离散化为M个值,特征B离散为N个值,那么交叉之后会有M*N个变量,进一步引入非线性,提升表达能力;

    • 特征离散化后,模型会更稳定,比如如果对用户年龄离散化,20-30作为一个区间,不会因为一个用户年龄长了一岁就变成一个完全不同的人。当然处于区间相邻处的样本会刚好相反,所以怎么划分区间是门学问;按区间离散化,划分区间是非常关键的。

    • 特征离散化以后,起到了简化了逻辑回归模型的作用,降低了模型过拟合的风险。

    • 可以将缺失作为独立的一类带入模型;

    • 将所有的变量变换到相似的尺度上。

  • 条件熵:

  • 最大熵原理认为,学习概率模型时, 在所有可能的概率模型(分布)中,熵最大的模型是最好的模型。通常用约束条件来确定概率模型的集合,所以,最大熵原理也可以表述为在满足约束条件的模型集合中选取熵最大的模型。

  • 最大熵原理是统计学习的一般原理,将它应用到分类得到最大熵模型。

  • 二类分类的线性分类模型

  • 输入为实例的特征向量,输出为实例的类别,取+1和-1二值

  • 判别模型

  • 旨在求出将训练数据进行线性划分的分离超平面,导入基于误分类的损失函数,利用梯度下降法对损失函数进行极小化,求得感知机模型。

  • 模型简单而易于实现,分为原始形式和对偶形式

  • SVM是结构风险最小化,基于最大间隔的思想。

  • 由简至繁的模型:线性可分支持向量机、线性支持向量机以及非线性支持向量机

  • 感知机利用误分类最小的策略,求得分离超平面,不过这时的解有无穷多个。线性可分支持向量机利用间隔最大化求最优分离超平面,这时,解是唯一的。

  • 函数间隔和几何间隔,支持向量和间隔边界

  • 判别模型,- 一种基本的分类与回归方法

  • k值的选择、距离度量及分类决策规则是k近邻法的三个基本要素,给定三要素,其结果是唯一确定的

  • 对于给定的训练数据集,首先基于特征条件独立假设学习输入输出的联合概率分布;然后基于此模型,对给定的输入x, 利用贝叶斯定理求出后验概率最大的输出y 。

  • 决策树学习通常包括3 个步骤:特征选择、决策树的生成和决策树的修剪。

  • 主要优点是模型具有可读性,分类速度快。

概率图模型

设有联合概率分布P(Y),由无向图G表示,结点表示随机变量,边表示随机变量之间的依赖关系。如果联合概率分布P(Y)满足成对、局部或全局马尔可夫性,就称此联系和概率分布为概率无向图模型,或马尔可夫随机场。

  • 成对马尔可夫性:u和v是两个没有边连接的结点,其他所有结点为O。给定随机遍历组Yo的条件下随机变量Yu和Yv是条件独立的

  • 局部马尔可夫性:W是与v有边连接的所有结点,O是其他结点。给定随机变量组Yw的条件下随机变量Yv与随机变量组Yo是独立的

  • 全局马尔可夫性:结点集合A,B是在无向图G中被结点集合C分开的任意结点集合。给定随机变量组Yc条件下随机变量组YA和YB是条件独立的

  • 成对的、局部的、全局的马尔可夫性定义是等价的。

更关心如何求其联合概率分布,希望将整体的联合概率写成若干子联合概率的乘积的形式(因子分解)。

概率无向图模型的联合概率分布可以写作图中所有最大团C上的函数的乘积形式。

  • 生成式有向图模型

  • 隐马尔可夫模型:隐藏的马尔可夫链随机生成不可观测的状态随机序列,再由各个状态生成一个观测从而产生观测随机序列

  • 由初始概率分布(向量π)、状态转移概率分布(矩阵A)以及观测概率分布(矩阵B)确定。A,B,π称为HMM的三要素

  • 两个基本假设:齐次马尔可夫性假设(t的状态只依赖于t-1的状态),观测独立性假设(t的观测只依赖于t的状态)

  • 可以用于标注,状态对应着标记。标注问题是给定观测的序列预测其对应的标记序列。可以假设标注问题的数据是由隐马尔可夫模型生成的。这样我们可以利用隐马尔可夫模型的学习与预测算法进行标注。

  • 3个基本问题:

    • 概率计算问题:给定模型$\lambda$和观测序列O,计算$P(O|\lambda)$

      • 前向算法

      • 后向算法

    • 学习问题:已知观测序列O,估计模型参数$\lambda$,使得$P(O|\lambda)$最大,即用极大似然估计法估计

      • 监督学习方法(极大似然估计,计算样本中的转移概率,观测概率)

      • 无监督学习方法

        • Baum-Welch算法(用EM算法学习参数)

    • 预测问题(解码问题):已知模型$\lambda$和观测序列O,求最大的P(I|O),即最有可能的状态序列。

      • 近似算法:在每个时刻t选择该时刻最有可能出现的状态

      • 维特比算法:动态规划求概率最大路径

  • 判别式无向图模型

  • 可看作给定观测值的马尔可夫随机场,也可看作对率回归的扩展。

  • 条件随机场和马尔可夫随机场均使用团上的势函数定义概率,两者在形式上没有显著区别;但条件随机场处理的是条件概率,而马尔可夫随机场处理的是联合概率。

  • 缺点:训练代价大、复杂度高

HMM、MEMM vs CRF

  • HMM是有向图模型,是生成模型;HMM有两个假设:一阶马尔科夫假设和观测独立性假设;但对于序列标注问题不仅和单个词相关,而且和观察序列的长度,单词的上下文,等等相关。HMM的一个最大的缺点就是由于其输出独立性假设,导致其不能考虑上下文的特征,限制了特征的选择。

  • MEMM(最大熵马尔科夫模型)是有向图模型,是判别模型;MEMM打破了HMM的观测独立性假设,MEMM考虑到相邻状态之间依赖关系,且考虑整个观察序列,因此MEMM的表达能力更强;但MEMM会带来标注偏置问题:由于局部归一化问题,MEMM倾向于选择拥有更少转移的状态。这就是标记偏置问题。

  • 与HMM比较。CRF没有HMM那样严格的独立性假设条件,因而可以容纳任意的上下文信息。特征设计灵活(与ME一样)

  • 与MEMM比较。由于CRF计算全局最优输出节点的条件概率,它还克服了最大熵马尔可夫模型标记偏置(Label-bias)的缺点。

  • 与ME比较。CRF是在给定需要标记的观察序列的条件下,计算整个标记序列的联合概率分布,而不是在给定当前状态条件下,定义下一个状态的状态分布.

https://zhuanlan.zhihu.com/p/33397147 #td

主题模型

生成模型与判别模型

深度学习模型

反向传播

RNN

  • 在神经网络中, 数据分布对训练会产生影响。由于激活函数的存在,神经网络会对那些比较大的 x 特征范围不敏感。即比较大的x特征已经出在激活函数的饱和阶段,x再增大,输出值还是没什么变化(比如都是接近1)。 需要对输入做normalization,使得变化范围不会太大。

  • 在训练期间,随着前一层的参数发生变化,每层的输入分布都会发生变化。所以每层的输入都要标准化。

  • 在激活函数之前使用BN

  • 每个batch均值方差归一化,最后还有一个扩展和平移的操作,对应参数gamma和beta。这样神经网络就能自己慢慢琢磨出前面的 normalization 操作到底有没有起到优化的作用, 如果没有起到作用, 我就使用 gamma 和 beta来抵消一些 normalization 的操作.

优点

  • 减轻了对参数初始化的依赖,这是利于调参的朋友们的。

  • 训练更快,可以使用更高的学习率。

  • BN一定程度上增加了泛化能力,dropout等技术可以去掉。

缺点

  • batch normalization依赖于batch的大小,当batch值很小时,计算的均值和方差不稳定。

不适合以下场景

  • batch非常小,比如训练资源有限无法应用较大的batch,也比如在线学习等使用单例进行模型参数更新的场景。

  • rnn,因为它是一个动态的网络结构,同一个batch中训练实例有长有短,导致每一个时间步长必须维持各自的统计量,这使得BN并不能正确的使用。

LayerNormalization

激活函数

损失函数

词嵌入

Word2vec

  • 如果是用一个词语作为输入,来预测它周围的上下文,那这个模型叫做『Skip-gram 模型』

  • 而如果是拿一个词语的上下文作为输入,来预测这个词语本身,则是 『CBOW 模型』

  • 在cbow方法中,是用周围词预测中心词,从而利用中心词的预测结果情况,使用GradientDesent方法,不断的去调整周围词的向量。

  • 在skip-gram中,会利用周围的词的预测结果情况,使用GradientDecent来不断的调整中心词的词向量

  • skip-gram进行预测的次数是要多于cbow的:因为每个词在作为中心词时,都要使用周围词进行预测一次。这样相当于比cbow的方法多进行了K次(假设K为窗口大小),因此时间的复杂度为O(KV),训练时间要比cbow要长。

  • 但是在skip-gram当中,每个词都要收到周围的词的影响,每个词在作为中心词的时候,都要进行K次的预测、调整。因此, 当数据量较少,或者词为生僻词出现次数较少时, 这种多次的调整会使得词向量相对的更加准确。

  • skip-gram是 1个学生 VS K个老师,cbow是 1个老师 VS K个学生

预训练模型

位置编码

Attention

Transformer

  • Transformer由且仅由self-Attenion和Feed Forward Neural Network组成。

  • Encoder:6层,每一层有2个sublayer:多头自注意力机制和position-wise FCFN。LayerNorm(x + Sublayer(x))。所有sublayer和embedding layer是输出维度都是512

  • Decoder:6层,每一层有3个sublayer,比encoder多了个基于encoder层输出的多头注意力层+LN。且decoder的self-attention做了mask,防止attend to序列后面的位置。

BERT

  • 12 个 Transformer Encoder 层

  • 输入:token embedding、segment embedding、position embedding

  • 任务:遮蔽语言模型(Masked Language Model(MLM))和句子预测任务(Next Sentence Prediction(NSP))

Roberta

与BERT相比

  • 更大的模型参数量

  • 更大batch size

  • 更多的训练数据

  • 去掉NSP任务

  • 动态掩码:每次向模型输入一个序列时都会生成新的掩码模式。

  • 文本编码:原版的 BERT 实现使用字符级别的 BPE 词汇,大小为 30K。roberta用更大的 byte 级别 BPE 词汇表来训练 BERT,这一词汇表包含 50K 的 subword 单元,且没有对输入作任何额外的预处理或分词。

XLNET

  • 看作将序列的联合概率分布按照打乱的顺序重新因式分解,其将LM的顺序拆解推广到随机拆解,token之间的自回归关系不再是基于在天然序列中的前后顺序,而是基于打乱后的序列中的前后顺序。

ALBERT

在BERT的基础上

  • Factorized embedding parameterization:VxH变成VxE+ExH

  • Cross-layer parameter sharing:多个层使用相同的参数

  • NSP任务改成SOP任务(句子顺序交换),因为原来的任务不仅有句子连贯性差异,还有句子话题的差异

Electra

提出了新的预训练任务和框架,把生成式的Masked language model(MLM)预训练任务改成了判别式的Replaced token detection(RTD)任务,判断当前token是否被语言模型替换过。

该模型由两部分组成,分别是generator以及discriminator,两个都是transformer的encoder结构,只是两者的size不同

  • 随机选择15%的词替换成mask,训练生成器去预测masked token。训练目标是MLM

  • 判别器接收生成器的输出,分辨每个token是original还是replaced,注意:如果generator生成的token和原始token一致,那么这个token仍然是original的。训练目标是序列标注。计算所有token的loss,而不只是被mask的token

Prompt

构建适当的Prompt,使得下游任务的形式跟预训练任务更贴近

Prompt的做法,从任务形式来说可以分为两种:

  1. 续写Prefix:用在GPT2-3那种单向LM预训练模型上,输入「好好学习,翻译成英文:」,输出「good good study」

  2. 完形填空:用在BERT那种MLM式预训练模型上,比如情感分类任务可以输入「这个饼不错,太X了」,输出「棒」

特征工程

问题解决

过拟合/欠拟合

过拟合的解决方法

  • 使用更简单的模型结构

  • 正则化

  • 更多的数据

  • dropout

  • Bootstrap/Bagging

  • ensemble

  • early stopping

  • utilize invariance

  • Bayesian

欠拟合的解决方法

  • 增加特征

  • 增加模型复杂度

https://zhuanlan.zhihu.com/p/72038532

  • 梯度消失

    • 深层网络;

    • 不合适的激活函数:如果使用sigmoid作为损失函数,其梯度是不可能超过0.25的,初始化的网络权值通常都小于1,这样经过链式求导之后,很容易发生梯度消失。tanh稍微好一些,但是导数仍然小于1

    • 解决:改成relu;batchnorm;resnet;lstm

  • 梯度爆炸

    • 深层网络;

    • 权值初始化值太大

    • 解决:梯度裁剪;权重正则化;改成relu

  • 重采样:包括对少样本的过采样和多样本的欠采样。

    • 过采样容易使得minor classes过拟合,泛化能力差;

    • 欠采样容易造成major class严重的信息损失,可能导致欠拟合

  • 数据合成

    • 对少样本加随机高斯噪声

    • SMOTE。对任意选取的一个少类的样本,用K近邻选取其相似的样本,通过对样本的线性插值得到新样本。

    • mixup

  • 重加权:对不同类别(甚至不同样本)分配不同权重,主要体现在重加权不同类别的loss来解决长尾分布问题。

  • 迁移学习:对多类样本和少类样本分别建模,将学到的多类样本的信息/表示/知识迁移给少类别使用。

  • 度量学习

  • 元学习/域自适应:分别对头部和尾部的数据进行不同处理,可以去自适应的学习如何重加权,或是formulate成域自适应问题

  • 解耦特征和分类器

  • 词汇替换

    • 同义词典

    • word-embedding相近的替换

    • 使用一个预先训练好的 BERT 模型,然后对文本的某些部分进行 Mask,让 BERT 模型预测被 Mask 的词语。

    • TF-IDF 分数较低的单词不能提供信息,因此可以在不影响句子的基本真值标签的情况下替换它们**。**

  • 回译

  • Text Surface Transformation:比如it is 变为it's

  • Random Noise Injection:在文本中注入噪声,来生成新的文本

    • 随机单词的拼写错误

    • 模拟在 QWERTY 键盘布局上打字时由于键之间非常接近而发生的常见错误

    • 使用从 unigram 频率分布中采样的单词进行替换。

    • 占位符标记替换一些随机单词。

    • 将训练样本中的句子打乱

    • 从句子中随机选择一个不是停止词的词。然后,我们找到它对应的同义词,并将其插入到句子中的一个随机位置。

    • 在句子中随机交换任意两个单词。

    • 概率 p 随机删除句子中的每个单词。

  • Instance Crossover Augmentation:一条 tweet 被分成两半,然后两个相同情绪类别(正/负)的 tweets 各自交换一半的内容。

  • Syntax-tree Manipulation:解析并生成原始句子的依赖树,使用规则对其进行转换来对原句子做复述生成。

  • MixUp for Text

    • wordMixup:在一个小批中取两个随机的句子,它们被填充成相同的长度;然后,他们的 word embeddings 按一定比例组合,产生新的 word embeddings 然后传递下游的文本分类流程,交叉熵损失是根据原始文本的两个标签按一定比例计算得到的。

    • sentMixup:在这种方法中,两个句子首先也是被填充到相同的长度;然后,通过 LSTM/CNN 编码器传递他们的 word embeddings,我们把最后的隐藏状态作为 sentence embedding。这些 embeddings 按一定的比例组合,然后传递到最终的分类层。交叉熵损失是根据原始文本的两个标签按一定比例计算得到的。

  • 生成式的方法:prompt

  • 对抗增强:在词向量上添加扰动并进行对抗训练。 #td

GAN

GNN

强化学习

对比学习

NLP方向

对话

信息抽取

机器翻译

搜索

推荐

熵度量了事物的不确定性,越不确定的事物,它的熵就越大。H(X)=−∑i=1npilogpiH(X)=-\sum_{i=1}^np_ilogp_iH(X)=−∑i=1n​pi​logpi​

联合熵:H(X,Y)=−∑i=1np(xi,yi)logp(xi,yi)H(X,Y)=-\sum_{i=1}^np(x_i,y_i)logp(x_i,y_i)H(X,Y)=−∑i=1n​p(xi​,yi​)logp(xi​,yi​)

H(Y∣X)=−∑i=1np(xi,yi)logp(yi∣xi)=∑i=1np(xi)H(Y∣xi)=−∑i=1np(xi)∑j=1mp(yj∣xi)logp(yj∣xi)\begin{aligned} H(Y|X) &=-\sum_{i=1}^np(x_i,y_i)logp(y_i|x_i) \\ &=\sum_{i=1}^np(x_i)H(Y|x_i) \\ &=-\sum_{i=1}^np(x_i)\sum_{j=1}^mp(y_j|x_i)logp(y_j|x_i) \end{aligned}H(Y∣X)​=−i=1∑n​p(xi​,yi​)logp(yi​∣xi​)=i=1∑n​p(xi​)H(Y∣xi​)=−i=1∑n​p(xi​)j=1∑m​p(yj​∣xi​)logp(yj​∣xi​)​

Introduction - Study (gitbook.io)
SUMMARY
线性回归
逻辑回归
最大熵模型
感知机
SVM支持向量机
K近邻
朴素贝叶斯分类器
决策树
AdaBoost
提升树
EM算法
HMM
CRF
聚类
关联分析
CNN
BatchSize
BatchNormalization
梯度消失&梯度爆炸
数据不均衡问题
数据增强的方法
命名实体识别NER
知识图谱
Text2SQL
文本匹配概述
文本摘要