NEZHA & TinyBERT预训练LM,华为诺亚方舟出品

github链接:

https://github.com/huawei-noah/Pretrained-Language-Model

NEZHA & TinyBERT预训练LM,华为诺亚方舟出品

NEZHA & TinyBERT预训练LM,华为诺亚方舟出品

开源代码

NEZHA

  • NEZHA是当前基于华为诺亚方舟实验室开发的BERT的中文预训练语言模型。

  • 请注意,此代码用于在普通GPU集群上训练NEZHA,与我们训练华为云提供的NEZHA ModelArts所使用的代码不同。

  • 为了方便重现我们的结果,此代码是在NVIDIA代码和Google代码的早期版本的基础上进行了修订,并整合了我们采用的所有技术。

NEZHA & TinyBERT预训练LM,华为诺亚方舟出品

TinyBERT

TinyBERT比BERT的小7.5倍,速度快9.4倍,并且在自然语言处理任务中具有竞争优势。它在预训练和任务特定的学习阶段都进行了变压器蒸馏。TinyBERT学习的概述如下所示:

NEZHA & TinyBERT预训练LM,华为诺亚方舟出品

NEZHA & TinyBERT预训练LM,华为诺亚方舟出品

NEZHA & TinyBERT预训练LM,华为诺亚方舟出品

* 凡来源非注明“机器学习算法与Python学习原创”的所有作品均为转载稿件,其目的在于促进信息交流,并不代表本公众号赞同其观点或对其内容真实性负责。

推荐阅读

疯了!一个rm-rf把公司整个数据库删没了...

下载 | 207页《 神经网络与深度学习 中文版 PDF 》

封装了一些 python 爬虫技巧,开箱即用

GitHub万星热榜 | 这个用Python做交互式图形的项目火爆了

NEZHA & TinyBERT预训练LM,华为诺亚方舟出品