百度ERNIE是百度自主研发的一系列基于知识增强的预训练语言模型,以下是其详细介绍:

发展历程

  • 2019年11月,百度发布ERNIE语义理解开发套件 。
  • 2020年7月,提出知识增强视觉-语言预训练模型ERNIE-ViL 。
  • 2021年12月8日,联合鹏城实验室发布全球首个知识增强千亿大模型——鹏城-百度·文心(模型版本号:ERNIE 3.0 Titan) 。
  • 2022年5月,发布融合任务相关知识的千亿大模型ERNIE 3.0 Zeus 。
  • 2023年3月,在ERNIE及PLATO系列模型基础上研发发布文心一言 。
  • 2024年4月16日,百度正式发布文心大模型4.0工具版 。
  • 2024年6月28日,百度正式发布文心大模型4.0Turbo 。

技术原理

  • 全局目标语言模型:通过构建全局目标语言模型,使模型能够观察到整个句子的上下文信息,相比传统的局部建模方法,提高了模型对于长文本的理解能力 。

  • 知识蒸馏:在预训练阶段引入知识蒸馏技术,将不同领域的知识注入到模型中,使模型具备更广泛的语义理解和推理能力 。

主要模型及特点

  • ERNIE 3.0:自回归和自编码网络融合进行预训练,自编码网络采用ERNIE 2.0的多任务学习增量式构建预训练任务,自回归网络基于Transformer-XL结构支持长文本语言模型建模。多范式的统一预训练模式使其在理解、生成和零样本学习任务上表现出色,可支持智能创作、摘要生成、问答等各类自然语言理解和生成任务 。

  • ERNIE-ViLG 2.0:是全球首个知识增强的AI作画大模型,也是目前全球参数规模最大的AI作画大模型。能根据一句话或者一段描述文本,快速理解其含义和场景,并在几十秒内生成媲美人类作画水平的图像,且可同时生成数百张风格各异的画作。

  • ERNIE-Search:使用预训练阶段细粒度交互向粗粒度交互蒸馏的策略,通过在训练过程中进行自蒸馏,提高了模型在检索领域的效果,节省了传统方法中训练教师模型的开销 。

  • ERNIE-M:面向多语言建模的预训练-微调框架,基于回译机制,从单语语料中学习语言间的语义对齐关系,显著提升包括跨语言自然语言推断、语义检索、语义相似度、命名实体识别、阅读理解在内的5种典型跨语言理解任务效果 。

  • ERNIE-Code:首个多自然语言多编程语言代码大模型,支持100多种自然语言和15种编程语言,采用多语言多任务联合训练的方式,在代码补全、代码搜索、代码摘要、代码修复等任务上取得领先效果 。

应用场景

  • 自然语言处理任务:如文本分类、命名实体识别、关系抽取等,ERNIE通过有效融合领域知识,提升了这些任务的准确性和性能 。

  • 内容创作领域:可用于生成剧本、故事、诗歌、新闻报道等各种文本内容,为创作者提供灵感和素材。

  • 智能客服与对话系统:能够理解用户问题的意图,提供准确的回答和解决方案,提升客户体验。

  • 代码智能场景:用于代码补全、代码搜索、代码生成、代码摘要、代码翻译、代码修复、缺陷检测、克隆检测等任务。

  • 跨语言交流场景:如ERNIE-M可帮助不同语言的用户进行交流,辅助语言学家和考古学家理解濒危或失传的语言。