[论文笔记]NEZHA
最佳答案 问答题库898位专家为你答疑解惑
引言
今天带来华为诺亚方舟实验室提出的论文NEZHA,题目是 针对中文中文语言理解神经网络上下文表示(NEural contextualiZed representation for CHinese lAnguage understanding),为了拼出哪吒。
预训练语言模型由于具有通过对大型语料库进行预训练来捕获文本中深层上下文信息的人能力,因此在各种自然语言理解任务中均取得了巨大成功。然而,对中文预训练模型BERT仍然存在很大的优化空间。
本篇工作提出在中文语料库上进行预训练的语言模型NEZHA,针对BERT在中文数据集上的不足进行了优化,包括作为有效位置编码方法的功能相对位置编码(Functional )、全词掩码策略(Whole Word Masking strategy,WWM)、混合精度训练(Mixed Precision Training,MPT)和用于训练模型的LAMB优化器。
总体介绍
现存的预训练语言模型大多数基于英文语料(BooksCorpus和英文维基百科)训练,也有一些专门为中文语言训练的尝试,包括谷歌的Bert-chinese、ERNIE-Baidu和BERT-WWM。所有的这些模型都基于Transformer,通过两个无监督学习任务训练:MLM和NSP。在中文模型中主要的区别之一在于MLM任务中的掩码策略。谷歌的BERT屏蔽每个中文字符或WordPiece标记。ERNIE-Baidu进一步通过屏蔽实体或短语,每个实体或短语可能包含多个字符或标记。BERT-WWM采用了类似的策略,称为整词掩码(While Word Masking
99%的人还看了
相似问题
- 黄金比例设计软件Goldie App mac中文版介绍
- 多协议数据库管理软件 Navicat Premium 16 mac中文版功能
- 媒体格式转换软件Permute 3 mac中文版软件特点
- 图片降噪软件 Topaz DeNoise AI mac中文版功能
- 图数据库Neo4J 中文分词查询及全文检索(建立全文索引)
- 打印工具HandyPrint Pro Mac中文版软件特点
- Android开发:(AndroidStudio模拟器)如何将模拟器语言设置为中文 模拟器输入法更改为中文输入 键盘输入中文
- kali中文输入法
- 文件传输客户端 SecureFX mac中文版支持多种协议
- linux 安装中文字体
猜你感兴趣
版权申明
本文"[论文笔记]NEZHA":http://eshow365.cn/6-23787-0.html 内容来自互联网,请自行判断内容的正确性。如有侵权请联系我们,立即删除!