前置知识
1、NLP任务
根据判断主题的级别, 将所有的NLP任务分为两种类型:
- token-level task: token级别的任务. 如完形填空(Cloze), 预测句子中某个位置的单词; 或者实体识别; 或是词性标注; SQuAD等.
- sequence-level task: 序列级别的任务, 也可以理解为句子级别的任务. 如情感分类等各种句子分类问题; 推断两个句子的是否是同义等.
2、BERT
3、zero-shot one-shot
zero-shot:利用训练集数据训练模型,使得模型能够对测试集的对象进行分类,但是训练集类别和测试集类别之间没有交集;期间需要借助类别的描述,来建立训练集和测试集之间的联系,从而使得模型有效。zero-shot
one-shot:
4、BERT四大下游任务
- 句子对分类任务
- 单句子分类任务
- 问答任务
- 单句子标注任务
5、几个标记
- [CLS] 标志放在第一个句子的首位,经过 BERT 得到的的表征向量 C 可以用于后续的分类任务。
- [SEP] 标志用于分开两个输入句子,例如输入句子 A 和 B,要在句子 A,B 后面增加 [SEP] 标志。
- [UNK]标志指的是未知字符
- [MASK] 标志用于遮盖句子中的一些单词,将单词用 [MASK] 遮盖之后,再利用 BERT 输出的 [MASK] 向量预测单词是什么。
- 例如给定两个句子 “my dog is cute” 和 “he likes palying” 作为输入样本,BERT 会转为 “[CLS] my dog is cute [SEP] he likes play ##ing [SEP]”。BERT 里面用了 WordPiece 方法,会将单词拆成子词单元 (SubWord),所以有的词会拆出词根,例如 “palying” 会变成 “paly” + “##ing”。
6、语言模型 language modeling
- 标准定义:对于语言序列
,语言模型就是计算该序列的概率,即
。
- 从机器学习的角度来看:语言模型是对语句的概率分布的建模。
- 通俗解释:判断一个语言序列是否是正常语句,即是否是人话,例如
。
https://zhuanlan.zhihu.com/p/52061158
7、prompt learning
prompt是提示的意思,也就是说需要提示模型我们想让它干什么。通常在GPT-3中,我们输入一段描述,再加上“翻译”或者“问答”的prompt,那么GPT-3会生成相应的结果。最近该玩法在NLU中也得到了应用,比如情感分类任务,给定一句话“I missed the bus today.”,在其之后添加一个prompt:“I felt so __”,之后让语言模型用一个情感类的词进行完型填空,再将填空的词语映射到标签,这样一来就能够解决分类任务了。
8、GPT模型
生成式的预训练
9、Prompt Tuing
自动构建模板
10、几个预训练的语言模型(Pre-trained language models)
- seq2seq
- transformer
- GPT
11、前向传播算法和反向传播算法
- Forward propagation
- Back propagation
12、微调
https://www.cnblogs.com/xiaoyh/p/11735686.html
13、实体粒度
https://blog.csdn.net/weixin_33022901/article/details/112106575