第一句子大全,网罗天下好句子,好文章尽在本站!

百度开源自然语言理解模型 ERNIE 2.0 16 个 NLP 任务中碾压 BERT 和 XLNet!

时间:2016-12-05

这个中英文对话的 AI 框架不仅获得了最优的SOTA结果,并且在 16 个 NLP 任务中表现出优于 BERT 和最近的 XLNet 的高水准

友情提示:本文共有 1671 个字,阅读大概需要 4 分钟。

雷锋网 AI 科技评论按:7 月 30 日,百度发布了 ERNIE(Enhanced Representation through kNowledge IntEgration)的优化版本——ERNIE 2.0 自然语言理解框架。这个中英文对话的 AI 框架不仅获得了最优的(SOTA)结果,并且在 16 个 NLP 任务中表现出优于 BERT 和最近的 XLNet 的高水准。目前,ERNIE 2.0 代码和英文预训练模型已开源。

ERNIE 2.0 的由来

近年来,类似于 BERT,XLNet 的无监督预训练自然语言表达模型在各种自然语言理解任务中取得了重大突破,包括语言推断、语义相似度、命名实体识别、情感分析等。这也表明了基于大规模数据的无监督预训练技术能够在自然语言处理中发挥至关重要的作用。

SOTA 预训练模型(如 BERT,XLNet 和 ERNIE 1.0)的预训练系统核心是基于几个简单的任务来模拟单词或句子的共现。例如,BERT 构建了掩码模型和下一个句子预测任务,从而捕获单词和句子的共现信息;XLNet 则构造了一种全排列的语言模型,并采用了自回归的方式来捕获单词的共现信息。

然而除了共现之外,训练语料库中还包含语法、语义信息等更多有价值的信息。例如:命名实体(名称、位置和组织),则可以包含概念信息、句子之间的顺序和距离关系等结构知识;而文档层面的语义相似性或句子之间的话语关系,则能够训练模型学习语义感知表示。假设模型能够经过训练从而不断学习更多类型的任务,是否这样可以进一步提高模型的效果呢?

ERNIE 2.0 ——可持续学习语义理解框架

ERNIE 2.0 介绍

基于这一理念,百度提出了一种持续学习的语义理解预训练框架 ERNIE 2.0,它可以通过持续的多任务学习,逐步学习和建立预训练任务。

该框架支持增量引入词汇 (lexical)、语法 (syntactic) 、语义 (semantic) 等 3 个层次的自定义预训练任务,并通过多任务学习对其进行训练,实现全面捕捉训练语料中的词法、语法、语义等潜在信息。而且每当引入新任务时,该框架在递增地训练分布式表示的同时,还会记住先前任务的信息。

新发布的 ERNIE 2.0 模型的结构

ERNIE 2.0 与 BERT 或 XLNet 等经典预训练方法的不同之处在于,它并不是在少量的预训练任务上完成的,而是通过不断引入大量预训练任务,从而帮助模型高效地学习词汇、句法和语义表征。作为一种全新的语言理解持续预训练框架,ERNIE 2.0 不仅实现了 SOTA 效果,而且为开发人员构建自己的 NLP 模型提供了可行的方案。

ERNIE 2.0 测试效果

百度将 ERNIE 2.0 模型的性能与英文数据集 GLUE 和 9 个流行的中文数据集的现有 SOTA 预训练模型进行了比较。结果表明,ERNIE 2.0 在 7 种 GLUE 语言理解任务上优于 BERT 和 XLNet,并在所有 9 种中文 NLP 任务上击败 BERT,例如:基于 DuReader 数据集的阅读理解,情感分析和问答。

模型在 9 项常规中文 NLP 任务中的结果;模型结果均为五次实验结果的中位数,粗体字表示 SOTA 结果

实际上根据 GLUE 数据集的测试结果,无论是基本模型还是大型模型,我们能够观察到 ERNIE 2.0 在英语任务上优于 BERT 和 XLNET。此外,ERNIE 2.0 大型模型还实现了最佳性能,并为中文 NLP 任务创造了新的最优性能的结果。

模型在 GLUE 上的结果,其中开发集上的结果是五次实验结果的中位数,测试集结果根据 GLUE 评估服务完成

原文地址:http://research.baidu.com/Blog/index-view?id=121模型论文地址:https://arxiv.org/abs/1907.12412Github 项目地址:https://github.com/PaddlePaddle/ERNIE

雷锋网 AI 科技评论 雷锋网

本文如果对你有帮助,请点赞收藏《百度开源自然语言理解模型 ERNIE 2.0 16 个 NLP 任务中碾压 BERT 和 XLNet!》,同时在此感谢原作者。

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。
相关阅读
百度发布语义理解框架ERNIE 2.0 中英文任务超BERT和XLNet

百度发布语义理解框架ERNIE 2.0 中英文任务超BERT和XLNet

...英语GLUE基准测试和各种中文语言任务)上优于Google的Bert和XLnet。Ernie2.0应用了多任务学习和一系列的预训练任务,如大写字母预测(因为大写单词通常包含专有名词)以及学习句子之间关系或提供语义理解等任务。而其所有的预训练...

2023-12-22 #经典句子

AAAI 2020论文分享:持续学习语义理解框架ERNIE 2.0

AAAI 2020论文分享:持续学习语义理解框架ERNIE 2.0

...ERNIE 2.0在自然语言理解数据集GLUE的7个任务上超过了BERT和XLNet。中文上,ERNIE 2.0在阅读理解、情感分析、问答等不同类型的9个数据集上超越了BERT,并刷新了最优效果。ERNIE 2.0 在英文任务上的效果ERNIE 2.0模型在GLUE数据集上的性能...

2023-05-22 #经典句子

了解XLNet在语言建模中优于BERT的原因

了解XLNet在语言建模中优于BERT的原因

XLNet震惊了NLP领域,这种语言建模的新方法在20个NLP任务上的表现优于强大的BERT,并且在18个任务中获得了最先进的结果。XLNet可能会改变语言建模,这就是为什么它是任何NLP从业者的重要补充。在本文中,我们将讨论XLNet背后的...

2023-06-01 #经典句子

理解神奇的BERT:自然语言处理的游戏规则改变者?

理解神奇的BERT:自然语言处理的游戏规则改变者?

...来了启发,比如说谷歌的TransformerXL, OpenAI’sGPT-2, ERNIE2.0, XLNet, RoBERTa等等。让我们一起来了解一下BERT,及其在转换自然语言处理方面的潜力。什么是BERT?BERT(Bidirectional EncoderRepresentations from Transformers)是由谷歌的研究者于2018年...

2023-05-18 #经典句子

平安人寿SemEval冠军方案详解:长距离语义捕捉技术攻克关系抽取

平安人寿SemEval冠军方案详解:长距离语义捕捉技术攻克关系抽取

...到每个token对应的embedding vector。共享参数层可以是BERT,XLNET,ALBERT,ROBERTA等预训练模型,如果基模型采用XLNET,这里就是经过多层transformers-xl模型,最后送入特定任务网络层。对于实体标注任务,我们在最后一层使用CRF模型来学...

2022-11-27 #经典句子

Transformer预训练模型已经变革NLP领域 一文概览当前现状

Transformer预训练模型已经变革NLP领域 一文概览当前现状

...在 NLP 领域取得了巨大的成功,这类模型包括 GPT-1、BERT、XLNet、RoBERTa、ELECTRA、T5、ALBERT、BART 和 PEGAUSUS。在更早期,NLP 系统大都采用了基于规则的方法,之后取而代之的是机器学习模型。机器学习模型需要特征工程,而特征工程...

2023-12-14 #经典句子

百度NLP主任架构师全面讲解百度语义表示技术及最新进展

百度NLP主任架构师全面讲解百度语义表示技术及最新进展

...训练模型。该模型在共计16个中英文任务上超越了BERT 和XLNet,取得了SOTA 效果。二、语义匹配1、文本语义匹配及挑战语义匹配在工业界具有非常大的技术价值,它是一个很基础的问题,很多产品、应用场景都会用到它。很多问题...

2023-12-23 #经典句子

从通用型到业务型 中文大模型时代下NLP预训练的创新与实践

从通用型到业务型 中文大模型时代下NLP预训练的创新与实践

...参与学习的位置编码方式;相对位置编码的代表则是在 XLNET 与 T5 中采用的编码方式。总体来说,绝对位置编码比函数式编码有相对较好的效果,但由于是预先定好总的编码长度,因此在下游任务上使用时对序列长度有限制,而...

2023-01-29 #经典句子