📓
Study
  • README
  • Application
    • Contest
      • 竞赛trick
  • Basic Know
    • 半监督学习
    • 贝叶斯
      • 朴素贝叶斯分类器
    • 对抗训练
    • 概率图模型
      • CRF
      • HMM
      • 概率图模型
    • 关联分析
    • 归纳偏置
      • [什么是 Inductive bias(归纳偏置)?](BasicKnow/归纳偏置/什么是 Inductive bias(归纳偏置)?.md)
    • 聚类
    • 决策树
    • 绿色深度学习
    • 树模型&集成学习
      • 提升树
      • Ada Boost
      • [集成学习]
    • 特征工程
      • 数据分桶
      • 特征工程概述
      • 特征选择
      • LDA
      • PCA
    • 线性模型
      • 感知机
      • 最大熵模型
      • SVM
        • SVM支持向量机
      • 逻辑回归
      • 线性回归
    • 优化算法
      • 拉格朗日对偶性
      • 牛顿法
        • 牛顿法&拟牛顿法
      • 梯度下降法
        • 梯度下降算法
      • 优化算法
    • 预处理
      • [1-1]正则表达式
      • [1-2]文本预处理
      • [1-3]词性
      • [1-4]语法分析
      • [1-6]文本分类
      • [1-7]网络爬取
      • 【备用】正则表达式
      • 7.re模块
      • 词典匹配
      • 分词
      • 子表达式
      • Todo
    • 主题模型
      • LDA
    • Deep Learning
      • 反向传播
      • 梯度消失&梯度爆炸
      • Batch Size
      • 1.DLbasis
      • 小概念
      • MLstrategy
      • CNN
      • RNN及其应用
      • 关于深度学习实践
      • 神经网络概述
      • Batch Normalization
      • Program CNN
      • Program D Lbasis
      • Program DN Nimprove
      • Program Neural Style Transfer
      • Summer DL
    • EM算法
    • GAN
      • Gans In Action Master
    • GNN
      • 搜广推之GNN
      • Representation Learning
        • Anomalydetection
        • Conclusion
        • Others
        • Papernotes
        • Recommadation
    • k近邻法
      • K近邻
    • Language Model
      • 语言模型解码采样策略
      • [1-1][语言模型]从N-gram模型讲起
      • [1-2][语言模型]NNLM(神经网络语言模型)
      • [1-3][语言模型]基于RNN的语言模型
      • [1-4][语言模型]用N-gram来做完形填空
      • [1-5][语言模型]用KenLM来做完形填空
    • Loss Function
      • 常用损失函数
      • Focal Loss
      • softmax+交叉熵
    • Machine Learning
      • [基础]概念
      • 待整合
      • 交叉验证
      • 无监督学习
      • 优缺点
      • ML Yearning
      • SVD
    • Statistics Math
      • 程序员的数学基础课
      • 数学基础
      • 统计&高数
      • 统计题目
      • 线性代数
      • 组合数学
      • Discrete Choice Model
      • Nested Choice Model
  • Course Note
    • 基于TensorFlow的机器学习速成课程
      • [Key ML Terminology](CourseNote/基于TensorFlow的机器学习速成课程/Key ML Terminology.md)
    • 集训营
      • 任务说明
      • 算法实践1.1模型构建
      • 算法实践1.2模型构建之集成模型
      • 算法实践2.1数据预处理
    • 李宏毅机器学习
      • 10DNN训练Tips
        • Chapter 18
      • 16无监督学习
        • Chapter 25
    • 贪心NLP
      • 贪心NLP笔记
    • Cs 224 N 2019
      • [A Simple But Tough To Beat Baseline For Sentence Embeddings](CourseNote/cs224n2019/A Simple but Tough-to-beat Baseline for Sentence Embeddings.md)
      • [Lecture 01 Introduction And Word Vectors](CourseNote/cs224n2019/Lecture 01 Introduction and Word Vectors.md)
      • [Lecture 02 Word Vectors 2 And Word Senses](CourseNote/cs224n2019/Lecture 02 Word Vectors 2 and Word Senses.md)
      • [Lecture 03 Word Window Classification Neural Networks And Matrix Calculus](CourseNote/cs224n2019/Lecture 03 Word Window Classification, Neural Networks, and Matrix Calculus.md)
      • [Lecture 04 Backpropagation And Computation Graphs](CourseNote/cs224n2019/Lecture 04 Backpropagation and Computation Graphs.md)
      • [Lecture 05 Linguistic Structure Dependency Parsing](CourseNote/cs224n2019/Lecture 05 Linguistic Structure Dependency Parsing.md)
      • [Lecture 06 The Probability Of A Sentence Recurrent Neural Networks And Language Models](CourseNote/cs224n2019/Lecture 06 The probability of a sentence Recurrent Neural Networks and Language Models.md)
      • Stanford NLP
    • Deep Learning Book Goodfellow
      • Books
        • Deep Learning Book Chapter Summaries Master
      • 提纲
      • C 5
      • C 6
      • [Part I Applied Math And Machine Learning Basics](CourseNote/Deep-Learning-Book-Goodfellow/Part I - Applied Math and Machine Learning basics.md)
    • Lihang
    • NLP实战高手课
      • 极客时间_NLP实战高手课
    • 工具&资料
    • 机器学习、深度学习面试知识点汇总
    • 七月kaggle课程
    • 算法工程师
    • 贪心科技机器学习必修知识点特训营
    • 唐宇迪机器学习
    • 语言及工具
    • AI技术内参
    • Suggestions
  • Data Related
    • 数据质量
      • 置信学习
    • 自然语言处理中的数据增广_车万翔
      • 自然语言处理中的数据增广
    • Mixup
    • 数据不均衡问题
    • 数据增强的方法
  • Knowledge Graph
    • Information Extraction
      • 联合抽取
        • PRGC
      • Code
        • BERT微调
      • NER
        • 阅读理解做NER
          • MRC
        • FLAT
        • Global Pointer
        • 命名实体识别NER
    • Keyword Extraction
      • 关键词抽取
    • 小米在知识表示学习的探索与实践
    • KG
  • Multi Task
    • EXT 5
      • Ex T 5
  • NLG
    • Dailogue
      • 比赛
        • 对话评估比赛
          • [simpread-DSTC10 开放领域对话评估比赛冠军方法总结](NLG/Dailogue/比赛/对话评估比赛/simpread-DSTC10 开放领域对话评估比赛冠军方法总结.md)
      • 任务型对话
        • DST
          • DST概述
        • NLG
          • NLG概述
        • NLU
          • NLU概述
        • 任务型对话概述
        • simpread-任务型对话系统预训练最新研究进展
      • 问答型对话
        • 检索式问答
          • 基于预训练模型的检索式对话系统
          • 检索式文本问答
        • 业界分享
          • 低资源场景下的知识图谱表示学习和问答_阿里_李杨
          • QQ浏览器搜索智能问答
        • 问答型对话系统概述
      • 闲聊型对话
        • 闲聊型对话系统概述
      • 业界分享
        • 人工智能与心理咨询
        • 腾讯多轮对话机器人
        • 微软小冰
        • 小布助手闲聊生成式算法
        • 美团智能客服实践_江会星
        • 去哪儿智能客服探索和实践
        • 实时语音对话场景下的算法实践_阿里_陈克寒
        • 智能语音交互中的无效query识别_小米_崔世起
        • UNIT智能对话
      • 主动对话
      • EVA
        • EVA分享
        • EVA模型
      • PLATO
      • RASA
    • Machine Translation
      • 业界分享
        • 爱奇艺台词翻译分享
      • Paper
        • Deep Encoder Shallow Decoder
    • RAGRelated
    • Text 2 SQL
      • M SQL
        • [M SQL 2](NLG/Text2SQL/M-SQL/M-SQL (2).md)
      • [Text2SQL Baseline解析](NLG/Text2SQL/Text2SQL Baseline解析.md)
      • Text 2 SQL
    • Text Summarization
      • [文本摘要][paper]CTRLSUM
      • 文本摘要
  • Pre Training
    • 业界分享
      • 超大语言模型与语言理解_黄民烈
        • 超大语言模型与语言理解
      • 大模型的加速算法_腾讯微信
        • 大模型的加速算法
      • 孟子轻量化预训练模型
      • 悟道文汇文图生成模型
      • 悟道文澜图文多模态大模型
      • 语义驱动可视化内容创造_微软
        • 语义驱动可视化内容创造
    • Base
      • Attention
      • Mask
        • NLP中的Mask
      • Position Encoding
        • 位置编码
    • BERT
      • ALBERT
      • Bert
        • Venv
          • Lib
            • Site Packages
              • idna-3.2.dist-info
                • LICENSE
              • Markdown-3.3.4.dist-info
                • LICENSE
              • Tensorflow
                • Include
                  • External
                    • Libjpeg Turbo
                      • LICENSE
                  • Unsupported
                    • Eigen
                      • CXX 11
                        • Src
                          • Tensor
              • Werkzeug
                • Debug
                  • Shared
                    • ICON LICENSE
        • CONTRIBUTING
        • Multilingual
      • Ro BER Ta
      • BERT
      • BERT面试问答
      • BERT源码解析
      • NSP BERT
    • BERT Flow
    • BERT Zip
      • Distilling The Knowledge In A Neural Network
      • TINYBERT
      • 模型压缩
    • CPM
    • CPT
      • 兼顾理解和生成的中文预训练模型CPT
    • ELECTRA
    • EL Mo
    • ERNIE系列语言模型
    • GPT
    • MBART
    • NEZHA
    • NLG Sum
      • [simpread-预训练时代下的文本生成|模型 & 技巧](Pre-training/NLGSum/simpread-预训练时代下的文本生成|模型 & 技巧.md)
    • Prompt
      • 预训练模型的提示学习方法_刘知远
        • 预训练模型的提示学习方法
    • T 5
      • Unified SKG
      • T 5
    • Transformer
    • Uni LM
    • XL Net
    • 预训练语言模型
    • BERT变种
  • Recsys
    • 多任务Multi-task&推荐
    • 推荐介绍
    • 推荐系统之召回与精排
      • 代码
        • Python
          • Recall
            • Deep Match Master
              • Docs
                • Source
                  • Examples
                  • FAQ
                  • Features
                  • History
                  • Model Methods
                  • Quick Start
    • 业界分享
      • 腾讯基于知识图谱长视频推荐
    • 召回
    • Sparrow Rec Sys
    • 深度学习推荐系统实战
    • 推荐模型
    • Deep FM
  • Search
    • 搜索
    • 业界分享
      • 爱奇艺搜索排序算法实践
      • 语义搜索技术和应用
    • 查询关键字理解
    • 搜索排序
    • BM 25
    • KDD21-淘宝搜索中语义向量检索技术
    • query理解
    • TFIDF
  • Self Supervised Learning
    • Contrastive Learning
      • 业界分享
        • 对比学习在微博内容表示的应用_张俊林
      • Paper
      • R Drop
      • Sim CSE
    • 自监督学习
  • Text Classification
    • [多标签分类(Multi-label Classification)](TextClassification/多标签分类(Multi-label Classification)/多标签分类(Multi-label Classification).md)
    • Fast Text
    • Text CNN
    • 文本分类
  • Text Matching
    • 文本匹配和多轮检索
    • CNN SIM
    • Word Embedding
      • Skip Gram
      • Glove
      • Word 2 Vec
    • 文本匹配概述
  • Tool
    • 埋点
    • 向量检索(Faiss等)
    • Bigdata
      • 大数据基础task1_创建虚拟机+熟悉linux
      • 任务链接
      • Mr
      • Task1参考答案
      • Task2参考答案
      • Task3参考答案
      • Task4参考答案
      • Task5参考答案
    • Docker
    • Elasticsearch
    • Keras
    • Numpy
    • Python
      • 可视化
        • Interactivegraphics
        • Matplotlib
        • Tkinter
        • Turtle
      • 数据类型
        • Datatype
      • python爬虫
        • Python Scraping Master
          • phantomjs-2.1.1-windows
        • Regularexp
        • Scrapying
        • Selenium
      • 代码优化
      • 一行代码
      • 用python进行语言检测
      • Debug
      • Exception
      • [Features Tricks](Tool/python/Features & Tricks.md)
      • Fileprocess
      • Format
      • Functional Programming
      • I Python
      • Magic
      • Math
      • Os
      • Others
      • Pandas
      • Python Datastructure
      • Python操作数据库
      • Streamlit
      • Time
    • Pytorch
      • Dive Into DL Py Torch
        • 02 Softmax And Classification
        • 03 Mlp
        • 04 Underfit Overfit
        • 05 Gradient Vanishing Exploding
        • 06 Text Preprocess
        • 07 Language Model
        • 08 Rnn Basics
        • 09 Machine Translation
        • 10 Attention Seq 2 Seq
        • 11 Transformer
        • 12 Cnn
        • 14 Batchnorm Resnet
        • 15 Convexoptim
        • 16 Gradientdescent
        • 17 Optim Advance
    • Spark
      • Pyspark
        • pyspark之填充缺失的时间数据
      • Spark
    • SQL
      • 数据库
      • Hive Sql
      • MySQL实战45讲
    • Tensor Flow
      • TensorFlow入门
  • Common
  • NLP知识体系
Powered by GitBook
On this page

Was this helpful?

  1. Course Note

Suggestions

PreviousAI技术内参NextData Related

Last updated 2 years ago

Was this helpful?

学习方法三板斧:

  • 记笔记——开博客

  • 写代码——存到Github

  • 看高水平的论文及其代码

反哺式学习,学习的目的是学懂并且讲给别人听

如何做好一个AI项目,如何避免做不好一个AI项目:

  • 手握锤子,看哪都是钉子——知识面窄,需要建立知识体系

  • 太注重硬件配置,不追求算法效率

  • 不求甚解,不会分析错误,只会问,不会分析,误差大还是方差大

先尝试,不需要先把所有理论搞懂

AI

所需要的数学理论

1.优化理论,AI中的部分应用包括:SVM、深度学习BP、决策树等等

2.线性代数与矩阵分析,AI中的部分应用包括:PCA、ICA、推荐系统等等

3.概率与统计,AI中的部分应用包括:朴素贝叶斯等等

4.AI中的各种算法基本上是优化理论、线性代数与矩阵分析和概率与统计的高度融合

应该怎么学?

1.以实际应用反推,工程学角度引入。

2.区块化。环环相扣,然后融合。

3.实际应用反复强化。

python的help命令

github:查看相关的案例资料

kaggle:掌握每个算法的基本概念之后,使用kaggle的案例数据进行训练

kettle?

练习复习学习

时间比金钱更重要

最少必要知识

坚持是要不得的想法

论文

三大会议是 NIPS、ICML、ICLR。其他会议还包括 AAAI、IJCAI、UAI。每个分支学科也有自己的会议。计算机视觉方面有 CVPR、ECCV、ICCV;自然语言方面,有 ACL、EMNLP、NAACL;机器人方面,有 CoRL(学习)、ICAPS(规划,包括但不限于机器人)、ICRA、IROS、RSS;对于更理论性的研究,有 AISTATS、COLT、KDD。会议是目前论文发表的主要渠道,但是也有一些期刊。JAIR 和 JMLR 是该领域最厉害的两种期刊。偶尔一些论文也会出现在科学期刊上,如 Nature 和 Science。

深度&机器学习

Geoffrey Hinton

多看论文,但是不要看太多论文,开始自己思考创造,坚持自己觉得正确的想法 永远不要停止编程

理解底层技术原理,尝试自己实现

Pieter Abbeel

lan Goodfellow

将机器学习应用到感兴趣的领域,或利用已有公开数据

Yoshua Bengio

林元庆

Andrej Karpathy

不要一开始就用TensorFlow等框架,先尝试自己实现,了解底层原理。

Ruslan Salakhutdinov

尝试不同的事情,不要害怕新事物

强化学习,推理和自然语言处理等领域

Yann Lecun

主要陷阱

1 假设你的代码没有 bug

机器学习,特别是深度学习和强化学习模型很难进行调试。为了让你了解无数的犯错方式,你可以看看 Andrej Karpathy 发的推文:https://twitter.com/karpathy/status/1013244313327681536

如果你的默认假设是代码可能有问题,那么你将会更加仔细地检索 bug。一行一行地检查代码,并仔细检查中间输出。如果可能的话,将它们进行可视化呈现。张量的形状是否合适?它们是否被正确地初始化、克隆或分离?在模型训练期间监控梯度并注意 NaN。通过设置随机数生成的种子对编写单元测试并使实验结果复现可能有所帮助。

有关神经网络调试的更多小贴士,请参阅 Goodfellow 等人所著的《Deep Learning》一书中第 11.5 章节:Debugging Strategies(调试策略)(http://www.deeplearningbook.org/contents/guidelines.html)

2 只看最终的评估指标

虽然你的项目的目标可能只是实现某些评估指标上的改进,但更重要的是,你应该充分了解模型的工作原理以及取得改进的原因。尤其是在项目的早期阶段,最终评估指标包含的信息很少,但这些信息对迭代和开发算法或者模型却非常有用。

相反,要提出更为深入的问题,并开发出有用的信息诊断方法。如果你已经引入了门控(gating)或注意力机制(attention mechanism),你的模型是否真的利用了它?在你所提出的模型创新中,哪些实际上有助于整体性能的提高?你做过消融研究(ablation study)吗?你的模型需要多少训练样本或轮数(epoch)才能达到合理的性能?和你使用的基线有何区别?你的模型在哪些测试实例上表现良好或很差?它们是否存在系统差异?你的结果对于超参数的变化有多稳健?能够从模型的隐藏状态来预测重要特征吗?

请牢记这一点:你的研究和项目报告并非是要让研究社区了解你所做的一切与先前最先进的技术相比的一些微小的改进,而是要帮助我们来理解这个领域。这个领域的其他人会想知道哪些是有效的,哪些是无效的,以及你的哪些发现可以应用于他们的问题。

3 尝试随机变化且无清晰的预期

在当前的深度学习库中,通过添加更多组件、层和优化技巧,很容易使模型变得更加复杂。但是,当你对代码或模型进行更改时,你至少应该对为何这些更改有用有一个直觉。同样,当你进行实验时,你也应该对这个实验结果有清晰的预期。你期望绘制的结果是什么样子的,它们会告诉你什么呢?当你发现自己的模型没有按照预期的方式进行时,这一点就显得尤为重要了。

那么,你现在更有可能看到 bug 的症状,因此,扩展你的模型并不能有助于找到这个 bug,甚至可能使隔离问题变得更加困难。在使你的模型变得更为复杂之前,请先深入了解它可能存在的问题。此外,请记住,在你的报告中必须证明你所做的是正确的。评估你的报告的人,对理解你的思考过程会有兴趣的。

如果你不能制定一个研究假设,并向自己解释为何你做所的事情应该起作用,那么其他任何人很有可能也不能复现你的项目结果。

4 过于复杂

应该要扪心自问:应该起作用的最小的东西是什么?模型能学会记住一个小数据集吗?如果只使用几个参数时,它能学到什么?在单个训练实例而不是批量实例进行训练时,代码是否有效?我们期望看到的最简单的泛化形式是什么?我们期望失败的简单基线是什么?什么是基线的最小扩展才能使它工作?

5 迭代太慢

在短期项目的过程中,不要过早地陷入缓慢的迭代周期是很重要的。使用简单的环境来调试你的模型,并实现对你的想法进行概念验证,这些都可以在个人计算机上运行。

有时一个简单的矩阵游戏或网格世界实验都可以提供有用的想法验证。有时你还可使用 MDP 的精确值函数来测试算法思想,而不必纠缠于梯度估计、Actor-Critic 训练等等。在进行大规模实验时,要简化启动实验和检查结果的流程。在实验完成全部过程之前检查这些结果,看看性能是否平稳。在基础设施上投资,在开始时可能会耗费大量时间,但在项目结束时会有所回报。在分析结果时,要渴望得到有用的信息。

一些建议

1 在项目开始之前先了解背景和相关工作

我们通常会在正式开始的日期前几个月就分发项目。其原因是:

  • 三个月对于了解背景和相关工作而言是非常短的时间;

  • 三个月对于项目的实施和实验而言也是非常短的时间;

  • 三个月对于撰写一份好的报告而言也是非常短的时间。

另外还有一个原因是,我们通常会提出一些研究项目,如果这个项目取得成功,我们有可能会在机器学习领域发表相关论文。虽然我们知道学生在一个学期内会有很多事情要去做,但我们通常都会鼓励你们至少提前开始阅读相关文献。理想情况下,当你开始为项目全职工作时,你应该知道要做什么,它如何与现有方法相关联,并且知道如何做到这一点。这也是熟悉你所选择的机器学习框架的好时机

2 使用版本控制

作为学生,你可以得到免费的私人存储库(https://education.github.com/pack)

3 使用随机重复进行评估

在学术界,你不可能在项目期间访问多个 GPU。然而,尤其是在深度强化学习中,重要的是不要从单个或几个实验中得出聒噪的结论。理想情况下,你希望多次进行实验,并如前所述,得到不同初始条件和超参数的健壮性的感觉。

4 在整个项目中尽早开始写作并始终如一

如果你正在进行一个硕士项目,你的工作将会基于你的书面报告进行评估,而不是基于你已做出但没有足够时间来写清楚的杰出工作。尽早开始写作,不要低估传播你的研究成果的努力。

清晰的陈述你的目标、假设和贡献,让读者跟随你的思路。解释你设计选择并清晰地讨论你的发现。理想情况下,你应该在项目过程中始终如一地编写报告。这样,你就会强迫自己去考虑接下来的步骤,当截止日期临近时,你就不大可能会忘记项目中任何重要的信息。

5 当你需要帮助时,要积极主动寻求帮助

千万不要因为遇到问题,因为不敢寻求帮助而陷入困境,以致无法参加下次会议,记住,当你需要帮助的时候,请尽管找你的老板。你要积极、主动安排好会议并准备好你想要提前讨论的结果、代码或报告。

NLP

叉烧

NLP

启蒙阶段

  • 《统计学习方法》不仅在于里面的方法,还有里面的计算思想,正则化,极大似然估计,梯度下降等,所以理论搞懂,会为你以后的进步打下基础,欠的账迟早要还。

  • 注意除了学方法,还要学实现,我当时欠了这块的账,在后续才补了回来,**自己找个数据集玩玩(鸢尾花)**之类的,做一遍就好

  • Python是这块的基操,没有不会的理由。

入门阶段

  • 别老说没灵感,艺术家如此,科研也如此,灵感来源于你的积累,积累从哪里来,论文。

  • 动手查,动手做,多查资料,百度、论文、github,道理都懂,但是为啥还有很多人会问我百度就能知道的问题呢?

  • 不是宣扬独立战斗,团队应该有团队的样子,但是你应该有独立解决问题的能力,否则团队要你干吗?会求助是好事,但是要问到别人手把手教你的层次,那就是个巨婴了。

  • 综述是个好东西,带survey、review的多半是,看看会对研究现状有清晰的了解,近期的关键论文基本都被引在里面了,你也省去很多找论文和鉴别论文的时间。

  • 《统计自然语言处理》最好看看,虽然里面谈的方法不多,但是引文很全,甚至建议引文都看看,简单过一遍至少你知道文本分析和自然语言处理的差别在哪里,别老是炒概念。

  • 从最简单的开始,先做一个初步的,然后开始慢慢加大难度,这应该是一个正常的学习历程。

进阶阶段

  • 根据实际遇到的问题持续通过多种渠道学习

推荐资料

  • 百度、淘宝、github、论文,最快捷、扎实的学习路径

  • 机器学习:《统计学习方法》、雷明的《机器学习与应用》,塞巴斯蒂安的《python机器学习》,sklearn的API文档建议自己多看看查查

  • 深度学习:黄文坚《tensorflow实战》、tensorflow技术解析与实战、《keras深度学习实践》、TF和keras的官方文档

  • 自然语言处理:《统计自然语言处理》、刘兵的《情感分析》、《基于深度学习的自然语言处理》。个人还是建议多看看博客、公众号等,经常提到的模型才是最好的,目前大部分书都只是浮于表面,这只与NLP这块的发展现状有关,博客多看自己也多动手

  • 其他:《数据挖掘导论》,《机器学习实践指南》、《python数据分析与挖掘实战》、《精通数据科学》

从我的视角,这些书能够看完并且能够理解,超过60%-70%的人没问题,关键就看你能不能看下来,目前我还有坚持每天看书和看论文的习惯。

学习建议

  • 扎实基础,无论是数学还是编程开发,不要想着避开,出来混总是要还的

  • 不要老是抱怨自己没有资料,只是你没找过而已,甚至是百度淘宝都是有的

  • 不一定要系统学习,前沿知识很难有体系,所以一方面平时要接受信息,另一方面坚持去查资料看

  • 多阅读工具给的文档,英文?翻译软件能帮到你

其他建议

  • 这个领域对数学和技术都具有一定要求,门槛其实很高,当然赚的不少,但是有没有媒体说的那么好呢,我的答案是否,所以大家要谨慎,别就顾着炒概念和涌入,泡沫破了代价很大。

  • 技术扎实是安身立命之本,裁员也裁水平不够的对吧

  • 多!看!论!文!没灵感了看论文,实验不会做了参考论文,文章格式不会拉的时候看论文。

  • 尽量尝试自己把问题解决,问别人之前多问问自己,百度了没,谷歌了没,看过论文没,都是怎么说的,我还没解决的点在那里,绝对比问一个人“在吗”然后抖着腿等高效多了

数学

  • 看得懂公式

  • 能把具体的模型演绎理解后转化为代码

  • 在一定条件下你可能要下手改进,以更好地解决你的问题

  • 必要的沟通交流,写论文也好,文档也好,需要公式支持你的解释

建议

  • 跟着课本的样子去推导(不是抄书!要理解理论细节)

  • 应试,就需要背点定理、做点题目

  • 记住的难度很大,时间长就忘记,如果你硬是要记住,那就用吧,找些渠道用,例如学点更加深度的东西

  • 尤其是做算法开发的,虽然工作需要你调包就能完事,但是还是建议多看看资料,论文博客之类的,不要跳过理论部分,否则你迟早会忘记(前几天我居然忘了特征值和特征向量怎么求)

  • 多换几本书看,有时候一本书不够,你就多看几本书比对着看

  • 针对数学类本身,个人其实不太建议开视频,看书会比视频效果好。原因有下面几个:

  • 讲的快慢影响个人理解的节奏,书能自己控速

  • 讲过了就过了,很难照着他的样子做,会产生“你已经会了”的错觉

  • 有时候有些人会因为自己会了而用“显然”跳过正好你不知道的部分

  • 数学敏感性没起来之前,尽量找集中的大块时间去学习,足够的时间才能够让你有一些突破性理解,而数学需要经历那个突破的过程

往后说,对于做算法的同学,尤其是已经入了行的,我其实不建议单独花时间恶补数学,而是面向需求看,他不会为你的工作进展带来困难时,其实必要性不大,除非是这几种情况:

  • 找工作,需要了解自己平时调的包的具体细节,但自己受限于数学能力,需要提升

  • 模型创新时,需要读懂别人的论文时

至于做科研的同学,尤其是奔着顶会去的同学,建议建议好好扎实数学:

  • 别人的论文你要看懂

  • 你的模型具体怎么计算,一来知道过程,二来要知道表达方式,来举个栗子吧

  • 写出卷积计算的表达式(评论看看有多少人第一反应写不出来)

所以综合起来,最好是根据自己的需求来补充即可,除非你真的学不下去,看不懂,否则不建议从头开始补,成本高收益小。

  • 数学决定了上限,计算机能力决定了下限,两个都很重要,如果希望持续进步,那数学关迟早要破。

  • 看什么材料,都要看完!!行百里者半九十,能看完,你就有质变

  • 材料一方面,多找一些是另一方面,不要做伸手党,自己多在各个领域里面查,最适合自己的才是最好的

  • 不要害怕,迎难而上,不难的东西,大家都会,那还能分出高下吗

NLP.TM | 我的NLP学习之路
做算法?数学专业的我教你突破数学关
心法利器[65] | 一些技术和成长的讨论【答读者问】