0.前言:
Bert的学习资料比较搜集,会陆续更新下去
1.入门资料
1.1.如何将Bert进行动态量化
BERT,或者说Transformers的双向嵌入表示法,是一种预训练语言表示法的新方法,可以在许多流行的自然语言处理(NLP)任务(例如问题解答,文本分类)
PyTorch中的动态量化支持将浮点模型转换为具有静态int8或float16数据类型的权重和动态量化激活的量化模型。当权重量化为int8时,激活(每批)动态量化为int8。在PyTorch中,我们有torch.quantization.quantize_dynamic API,该API用仅动态权重的量化版本替换指定的模块,并输出量化的模型。
1.2.Pytorch版本的BERT使用学习笔记
1.3.BERT使用详解(实战)
1.4.NLP(二十)利用BERT实现文本二分类
2.transformers中GLUE各个任务所用的评估方法
https://blog.csdn.net/m0_37531129/article/details/102055853
BERT的精神是预训练语言表示形式,然后以最小的任务相关参数对各种任务上的深层双向表示形式进行微调,并获得最新的结果。在本教程中,我们将专注于使用预训练的BERT模型进行微调,以对MRPC任务上的语义等效句子对进行分类。
3.扩展知识
多分类交叉熵