当前位置: 首页 > news >正文

做新闻门户网站需要什么专业做网站平台

做新闻门户网站需要什么,专业做网站平台,沈阳网站备案查询,wordpress首页固定页面LLM系列相关文章#xff0c;针对《AN OVERVIEW OF LANGUAGE MODELS: RECENT DEVELOPMENTS AND OUTLOOK》的翻译。 语言模型综述#xff1a;近年来的发展与展望 摘要1 引言2 语言模型的类型2.1 结构化LM2.2 双向LM2.3 置换LM 3 语言单元3.1 字符3.2 单词和子单词3.2.1 基于统…LLM系列相关文章针对《AN OVERVIEW OF LANGUAGE MODELS: RECENT DEVELOPMENTS AND OUTLOOK》的翻译。 语言模型综述近年来的发展与展望 摘要1 引言2 语言模型的类型2.1 结构化LM2.2 双向LM2.3 置换LM 3 语言单元3.1 字符3.2 单词和子单词3.2.1 基于统计的字词向量化3.2.2 基于语言学的字词向量化 3.3 短语3.4 句子 4 语言模型结构4.1 N元模型4.2 最大熵模型4.3 前向神经网络模型4.4 循环神经网络模型4.5 Transformer 5 预训练语言模型5.1 预训练5.2 微调适配器调整和提示调整 6 模型评估6.1 内部评价6.2 外部评价6.3 内部评价与外部评价之间的关系6.4 LM评估的超越单一变量 7 文本生成中的语言模型7.1 解码方法7.2 对话系统7.3 自动语音识别7.4 机器翻译7.5 生成文本检测 8 高效模型8.1 数据使用8.2 模型大小8.3 推断延迟 9 未来研究方向9.1 LM和KG的集成9.2 增量学习9.3 轻量模型9.4 通用模型与领域特定模型9.5 可解释模型9.6 机器生成的文本检测 10 结论 摘要 语言建模研究文本串上的概率分布。它是自然语言处理中最基本的任务之一。它已被广泛用于文本生成、语音识别、机器翻译等。传统的语言模型CLM旨在以因果方式预测语言序列的概率而预训练语言模型PLM涵盖了更广泛的概念可用于因果序列建模和下游应用的微调。PLM有自己的训练范式通常是自我监督的并作为现代NLP系统的基础模型。本文从语言单元、结构、训练方法、评估方法和应用五个方面介绍了CLM和PLM。此外我们还讨论了CLM和PLM之间的关系并阐明了预训练时代语言建模的未来方向。 1 引言 语言建模研究一系列语言单元如单词上的概率分布。它是自然语言处理中最基本的任务和长期存在的研究课题之一。所开发的语言模型在许多计算语言学问题中得到了应用如文本生成、机器翻译、语音识别、自然语言生成、问答系统等。 语言建模有两种主要方法1基于相对较小语料库集的统计方法以及2基于明显较大语料库集的数据驱动方法。传统的语言模型以因果方式预测语言序列的概率。它们可以通过两种语言建模方法来学习。数据驱动方法已成为当今的主流。它利用大量的语料库来训练神经网络模型从而产生预训练语言模型PLM。然后使用特定任务的数据集和下游应用程序的目标对PLM进行微调。在这篇综述文章中我们将CLM定义为以因果方式预测语言序列概率的语言模型。相比之下PLM指的是针对广泛的语言任务和目标预先训练的语言模型。需要注意的是这两个概念并非排他性的。一个LM可以分为两类。例如GPT模型可以以因果方式预测语言序列的概率。他们还接受了各种下游任务的预先训练。我们对CLM和PLM进行了概述并从五个角度对其进行了研究1语言单元2架构3训练方法4评估方法和5应用。最后我们指出了未来的几个研究方向。 CLM的目标是对语言单元序列上的概率分布进行建模 P ( u 1 , u 2 , ⋯ , u t ) , \begin{equation}P(u_1,u_2,\cdots,u_t), \end{equation} P(u1​,u2​,⋯,ut​),​​ 其中 u i u_i ui​可以是字符、单词、短语或其他语言单位。CLM试图在给定其先前上下文的情况下预测文本序列中的下一个语言单元 P ( u t ∣ u t ) , \begin{equation}P(u_t|u_{t}), \end{equation} P(ut​∣ut​),​​ CLM也称为自回归语言模型因为单位是以因果方式预测的。如等式(1)所示估计文本序列的概率直接遇到数据稀疏性问题。CLM通常通过将文本序列分解成更小的单元来估计文本序列的联合概率。例如CLM利用链式规则和条件概率来估计以下形式的联合概率 P ( u 1 , u 2 , ⋯ , u t ) P ( u 1 ) P ( u 2 ∣ u 1 ) P ( u 3 ∣ u 1 , u 2 ) ⋯ P ( u t ∣ u 1 , u 2 , ⋯ , u t − 1 ) . \begin{equation}P(u_1,u_2,\cdots,u_t)P(u_1)P(u_2|u_1)P(u_3|u_1,u_2)\cdots P(u_t|u_1,u_2,\cdots,u_{t-1}). \end{equation} P(u1​,u2​,⋯,ut​)P(u1​)P(u2​∣u1​)P(u3​∣u1​,u2​)⋯P(ut​∣u1​,u2​,⋯,ut−1​).​​ 在预训练时代之前CLM通常是用训练语料库从头开始训练的然后通过各自的应用预测文本序列的概率。代表性模型包括N-gram LM、指数LM和早期神经LM。CLM为在现实世界中频繁出现的自然文本序列提供了很高的概率。因此它们在文本生成、语音识别和机器翻译中发挥着基本作用直到PLM的出现。如今高性能PLM是许多NLP系统的主干。它们不限于CLM的因果预测功能并提供更多不同类型的LM。 预训练时代之前的CLM和PLM之间的差异可以总结如下。 训练方法。随着深度学习的发展具有神经网络结构的PLM通过大量未标记语料库的集合进行预训练以学习通用知识然后通过特定任务的微调将其转移到下游任务。因果关系约束。PLM在预测语言单位时不一定遵循CLM如等式2所示。例如双向LM通过概率估计使用先前和后续上下文来预测缺失的语言单元 P ( u t ∣ u t , u t ) . \begin{equation}P(u_t|u_{t},u_{t}). \end{equation} P(ut​∣ut​,ut​).​​ 双向LMs不遵循等式(3)中的因果关系约束和链式规则访问文本序列的概率这使其与CLM本质上不同。token表示。除了训练范式和概率建模的差异外PLM对称为token的基本单元采用了不同的表示。PLM通过将它们嵌入到高维连续空间中来表示token例如单词嵌入和句子嵌入。新的表示提供了一个灵活而强大的工具使PLM能够处理广泛的任务。 本概述文章有两个目的。一方面我们的目标不是只关注最近开发的PLM而是全面概述LM的基本概念、从CLM到PLM的过渡、LM的最新发展以及对该领域初学者的应用。另一方面我们希望阐明未来的研究方向并向NLP领域经验丰富的工程师和研究人员提供我们的展望。例如我们在调查中涵盖了大型LMs因为由于ChatGPT提供的新服务人们对LLM的兴趣越来越大。此外我们将高效LM作为一个新兴的主题因为人们越来越担心LLM的大模型规模和高训练成本。 论文的其余部分组织如下。我们在第2节中介绍了几种超越CLM的LMs并在第3节中概述了将文本序列分解为较小语言单元的常见方法。第4节介绍了不同的模型体系结构。我们在第5节中讨论了LMs的训练程序。第6节介绍了常见的评估方法包括内在评估方法和外在评估方法。第7节讨论了LMs在文本生成中的应用。我们在第8节中评论了LMs的冗余问题并分析了高效LMs的技术。第9节指出了未来有希望的研究方向。结论见第10节。 2 语言模型的类型 CLM通常指的是自回归模型该模型在给定先前上下文的情况下预测下一个语言单元如等式2所示。LM可以使用链式规则来访问文本序列的概率。CLM的目标是以因果方式解码文本序列的概率。在本节中我们将介绍更多超越CLM的LM。 2.1 结构化LM 结构LM不是按顺序或反向顺序预测语言单元而是基于预定义的语言结构如依赖或成分解析树预测语言单元。结构LMs利用语言结构使语言相关的上下文更接近要预测的语言单元。例如给定一个解析树结构结构LM可以将 u t u_t ut​的祖先上下文 A ( u t ) A(u_t) A(ut​)定义为从根节点到 u t u_t ut​的父节点的序列。例如单词“strong”的祖先序列是图1中的{“bicatears”、“saw”、root}。然后结构LM使用树中的祖先上下文来预测下一个语言单元为 P ( u t ∣ A ( u t ) ) , \begin{equation}P(u_t|A(u_t)), \end{equation} P(ut​∣A(ut​)),​​ 其中 A ( u t ) A(u_t) A(ut​)是语言单元 u t u_t ut​的祖先上下文。与CLM类似结构LMs被设计用于对文本序列的概率进行建模。不同的是结构LMs按照其合成结构的顺序解码序列概率。它已成功应用于句子补全和语音识别。 2.2 双向LM 双向LMs不是使用因果上下文来进行预测而是使用来自两个方向的上下文如等式4所示。掩蔽LM是一种代表性的双向LM。它屏蔽了文本序列中的语言单元然后对其前后上下文进行编码以预测被屏蔽的语言单元。形式上预测可以定义为对以下条件概率的估计 P ( u m ∣ S ˉ ) , \begin{equation}P(u_m|\bar S), \end{equation} P(um​∣Sˉ),​​ 其中 u m u_m um​是掩蔽的语言单元 S ˉ \bar S Sˉ是通过用[MASK]符号替换一定数量的语言单元而损坏的文本序列。双向LMs的目标是以无监督的方式学习语言单元之间的内部依赖关系。训练后的模型可以继承大规模未标记语料库的语义。与旨在对文本序列的生成概率进行建模的CLM不同在各种下游应用中预训练的双向LMs被用作通过进一步微调来传递所学知识的骨干。 2.3 置换LM CLM和掩蔽LMs有各自的优点和缺点。掩码LM需要创建诸如[mask]之类的人工token这些token从不出现在下游任务中而CLM仅以前面的上下文为条件。置换LM是最近提出的LM它利用了CLM和掩蔽LM。给定语言单元的输入序列排列LMs将输入语言单元的顺序随机化并构造输入序列的不同排列。图2显示了给定输入文本序列的不同排列的示例。设 Z \mathbb{Z} Z是所有可能排列的集合。置换LMs预测序列的一个置换 Z Z Z中的下一个语言单元 u t u_t ut​基于 P ( u t ∣ u t Z ) , Z ∈ Z . \begin{equation}P(u_t|u^Z_{t}),Z\in\mathbb{Z}. \end{equation} P(ut​∣utZ​),Z∈Z.​​ 3 语言单元 为了估计文本序列的概率LM将文本序列划分为小的语言单元如字符、单词、短语或句子。这个过程被称为标记化。由此产生的语言单位被称为token。不同的语言和模型可能具有不同的适当标记化方法。在这里我们关注英语并将其作为一个例子。在本节中我们将根据单元大小检查语言建模中使用的典型标记化方法。 3.1 字符 LM可以基于字符对文本序列概率进行建模。与其他语言学单元相比使用字符的词汇量要小得多导致离散空间和模型大小更小。另一方面预测下一个角色也很有挑战性。通常它需要一个长期的历史背景。这使得字符级LMs的性能比单词级LMs差。此外输入和输出长度必须更长才能准确地对字符分布进行建模。这导致更高的计算成本特别是对于自回归解码。几种LM方法使用单词和字符的组合来缓解这个问题。 3.2 单词和子单词 英语最自然的标记化是通过空格将文本序列分解为单词。许多LM应用单词标记化。然而朴素的单词标记化存在几个问题。第一个问题是词汇外OOV问题。因为LM具有预定义的词汇表大小不能任意大。不太频繁的单词和具有字符级错误的单词可能不会存储在预定义的词汇表中。因此它们无法从字典中检索到。尽管可以扩展词汇大小来缓解这个问题但它会增加模型大小并且仍然无法处理所有可能的单词。 超过单词级别的LM仍然存在OOV问题而单个字符本身就没有语义意义。最近研究人员倾向于将字典中没有的单词分解为子单词。这为OOV问题提供了一个灵活有效的解决方案。为了提高LMs的性能开发了几种子词分割算法。它们在单词级模型的良好性能和字符级模型的灵活性之间取得了平衡。下面介绍了两种基于统计学和语言学的子词分割方法。 3.2.1 基于统计的字词向量化 基于统计的子词标记器纯粹基于语料库生成子词词汇。相关的方法是从压缩的角度推导出来的。它们的工作原理是用当前词汇表中不存在的新符号单词替换常见的字符序列。那么信息传输所需的字节就更少了。 字节对编码BPE。BPE是一种简单的数据压缩技术它递归地用一个未使用的字节替换序列中最常见的一对字节。采用它来解决分词问题。也就是说频繁字符或字符序列被合并以生成子字。BPE也被一些高级PLM使用如GPT-2和RoBERTa并使用以下算法称为BPE合并操作。 1.准备一个训练语料库并定义子词词汇的大小。2.将所有单词拆分成字符。3.通过合并具有最高频率的一对字符或子字来生成新的子字。4.重复步骤3直到达到所需的词汇量。 图3给出了在一个小字典上进行的BPE合并操作的说明。 WordPiece。WordPiece是另一种数据驱动的子字算法。WordPiece和BPE之间的区别在于如果A和B在每个迭代步骤中具有最高分数 P ( A B ) / P ( A ) P ( B ) P(AB)/P(A)P(B) P(AB)/P(A)P(B)而不是最高频率 P ( A B ) P(AB) P(AB)。例如WordPiece合并图3中的“u”和“g”对只有当它们与其他对相比具有最高值 P ( ′ u g ′ ) / P ( ′ u ′ ) P ( ′ g ′ ) P(ug)/P(u)P(g) P(′ug′)/P(′u′)P(′g′)时。在BERT、DistilBERT和Electra中WordPiece被用作标记化方法。 还有其他基于统计的子词标记器如Unigram。SentencePiece、Huggingface标记器和OpenNMT都是流行的标记器。它们的实现包含基于统计的子词标记化。研究了不同的子词标记器及其性能比较。 3.2.2 基于语言学的字词向量化 基于语言学的子词标记器利用语言学知识将单词分解为更小的语法单元如语素或音节。这种子词标记器广泛用于不同语言之间的机器翻译和语音识别。例如在机器翻译中通过复合、词缀或屈折形成的单词可以通过分别翻译语素来方便地翻译。然而由于语言分解的复杂性和基于规则的性质基于语言学的子词标记器不如基于统计的子词标记器受欢迎。 3.3 短语 一个单词的语义可能由于上下文和搭配的不同而模糊不清。由于语言学词典没有超越单词层面因此忽略了单词间的依赖关系。短语级别的LMs用短语取代常见的和有凝聚力的单词序列。短语级别的LMs适用于某些应用。例如在[58]中观察到在自动语音识别ASR中音节较少的短单词比长单词更容易被误认。由于短语提供的电话序列比其组成部分更长因此它们对ASR的识别错误更具鲁棒性。 3.4 句子 具有较小语言单元例如字符、单词、子单词和短语的自回归LM依赖于条件概率来估计文本序列的概率如等式3所示。句子级别的LMs避免使用链式规则。它们生成句子特征然后直接对句子概率进行建模。这是因为直接对句子概率进行建模比等式3中的建模更方便。在对句子级信息进行编码时。对语句间信息例如对话流中先前话语的效果进行编码也更容易。 4 语言模型结构 在本节中我们对几种常见的架构进行了调查以对文本序列的概率分布进行建模。它们是N-gram、最大熵和神经网络模型。虽然还有其他LM架构如高斯混合LMs和隐马尔可夫LMs但由于它们在研究界很受欢迎我们将重点放在上述架构上。此外LMs可以在不同级别的语言单元上运行。为了与最近的文献保持通用性和一致性在本文的其余部分中我们使用“token”一词来指代不同LMs所使用的所有语言单位。 4.1 N元模型 一个N-gram由一个文本序列中的N个连续标记组成。N-gram LM假设一个token的概率仅取决于其前面的N-1个token并且它独立于其他上下文。这就是所谓的马尔可夫假设。因此N元LMs不使用所有历史上下文而是仅使用先前的N-1个token来预测当前token即 P ( u t ∣ u t ) P ( u t ∣ u t − N 1 : t − 1 ) . \begin{equation}P(u_t|u_{t})P(u_t|u_{t-N1:t-1}). \end{equation} P(ut​∣ut​)P(ut​∣ut−N1:t−1​).​​ N-gram LMs通过计算给定训练语料库的N-gram的出现时间来计算条件概率 P ( u t ∣ u t − N 1 : t − 1 ) C ( u t − N 1 : t ) C ( u t − N 1 : t − 1 ) . \begin{equation}P(u_t|u_{t-N1:t-1})\frac{C(u_{t-N1:t})}{C(u_{t-N1:t-1})}. \end{equation} P(ut​∣ut−N1:t−1​)C(ut−N1:t−1​)C(ut−N1:t​)​.​​ N-gram LMs简化了基于先前N-1个token的token概率计算但它们遇到了两个稀疏性问题。首先如果训练语料库中从未出现N-gram ( u t − N 1 : t ) (u_{t-N1:t}) (ut−N1:t​)则下一个token为 u t u_t ut​的概率为零。其次如果分母中的N-1gram ( u t − N 1 : t − 1 ) (u_{t-N1:t-1}) (ut−N1:t−1​)从未发生我们就无法计算任何token的概率。这些稀疏性问题可以通过平滑技术来缓解。一种简单的平滑方法称为加法平滑是在每N-gram的计数上加一个小值以避免等式9中分子和分母为零。然而这种简单的平滑仍然是不足的因为它为训练语料库中从未出现的N-grams分配了相同的概率。 有更先进的平滑技术如后退和插值可以实现更好的概率估计。在退避中如果没有出现高阶N-gram则使用低阶N-gram进行概率估计。例如如果 C ( u t − 3 : t − 1 ) 0 C(u_{t-3:t-1})0 C(ut−3:t−1​)0则我们回退到计算 P ( u t ∣ u t − 2 : t − 1 ) P(u_t|u_{t-2:t-1}) P(ut​∣ut−2:t−1​)。在插值中条件概率计算考虑了不同的N-grams。从数学上讲N-gram概率由 P ( u t ∣ u t − N 1 : t − 1 ) λ N P ( u t ∣ u t − N 1 : t − 1 ) λ N − 1 P ( u t ∣ u t − N : t − 1 ) λ N − 2 P ( u t ∣ u t − N − 1 : t − 1 ) ⋯ λ 1 P ( u t ) . \begin{gather}P(u_t|u_{t-N1:t-1})\lambda_NP(u_t|u_{t-N1:t-1})\lambda_{N-1}P(u_t|u_{t-N:t-1}) \notag \\ \lambda_{N-2}P(u_t|u_{t-N-1:t-1})\cdots\lambda_1P(u_t). \end{gather} P(ut​∣ut−N1:t−1​)λN​P(ut​∣ut−N1:t−1​)λN−1​P(ut​∣ut−N:t−1​)λN−2​P(ut​∣ut−N−1:t−1​)⋯λ1​P(ut​).​​ 其中 λ i \lambda_i λi​是每一个n-gram的权重同时 ∑ i 1 N λ i 1. \sum^N_{i1}\lambda_i1. ∑i1N​λi​1. 4.2 最大熵模型 最大熵模型也称为指数模型使用以下形式的特征函数来估计文本序列的概率 P ( u ∣ h ) e x p ( a T f ( u , u t ) ) ∑ u ′ e x p ( a T f ( u ′ , u t ′ ) ) , \begin{equation}P(u|h)\frac{exp(a^Tf(u,u_{t}))}{\sum_{u}exp(a^Tf(u,u_{t}))}, \end{equation} P(u∣h)∑u′​exp(aTf(u′,ut′​))exp(aTf(u,ut​))​,​​ 其中 f ( u , u t ) f(u,u_{t}) f(u,ut​)是特征函数生成token u u u的特征和它的历史上下文 u t u_{t} ut​ ∑ u ′ e x p ( a T f ( u ′ , u t ′ ) ) \sum_{u}exp(a^Tf(u,u_{t})) ∑u′​exp(aTf(u′,ut′​))是归一化因子同时 a a a是通过广义迭代缩放算法导出的参数向量。这些特征通常是由N-grams生成的。 4.3 前向神经网络模型 即使使用先进的平滑技术N-gram模型的离散性也是其性能瓶颈。神经LMs采用连续嵌入空间分布式表示来克服数据稀疏性问题。前馈神经网络FNNLMs是早期的神经网络模型之一。 FNN LM以历史上下文为输入并输出token的概率分布。如图4所示前面上下文中的每个token都通过投影层即嵌入矩阵表示为向量。token的这些向量被发送到具有H个隐藏单元的隐藏层随后是非线性激活。然后使用softmax函数来获得候选token的后验概率 P ( u t i ∣ u t − N − 1 : t − 1 ) P(u_ti|u_{t-N-1:t-1}) P(ut​i∣ut−N−1:t−1​)其是给定由语言模型预测的特定历史的token的概率。 FNN LM使用固定窗口来收集固定长度的上下文。它本质上是N-gram LMs的神经版本。FNN-LM通过将token投影到连续空间中而比N-gram LM具有几个优点。首先它可以通过将每个token表示为具有密集向量空间的N-gram来处理看不见的N-gram。其次它是存储高效的因为它不需要计算和存储传统N-gram模型的转移概率。 4.4 循环神经网络模型 使用固定长度的历史上下文来预测下一个token显然是不够的。与N-gram、最大熵和FNN LMs中使用的有限历史上下文相反递归神经网络RNNLMs可以利用任意长的历史来预测下一个token。 朴素RNN LM的结构如图5所示。位置 i i i中的token u ( i ) u(i) u(i)首先被转换为独热表示 u ^ ( i ) \hat u(i) u^(i)。然后使用先前的隐藏状态 h ( i ) h(i) h(i)和token u ( i ) u(i) u(i)的独热表示 u ^ ( i ) \hat u(i) u^(i)来计算当前的隐藏状态 h ( i 1 ) h(i1) h(i1) h ( i 1 ) f ( W u ^ ( i ) U h ( i ) ) , \begin{equation}h(i1)f(W\hat u(i)Uh(i)), \end{equation} h(i1)f(Wu^(i)Uh(i)),​​ 其中 f ( ⋅ ) f(\cdot) f(⋅)是非线性激活函数W是从输入层到隐藏层的连接的权重矩阵U分别是先前和当前隐藏层之间的连接。通过迭代计算隐藏状态RNN LMs可以对不同长度的历史上下文进行编码。最后输出层给出了toekn y ( t ) g ( V h ( t ) ) y(t)g(Vh(t)) y(t)g(Vh(t))的条件概率其中V是连接隐藏层和输出层的权重矩阵 g ( ⋅ ) g(\cdot) g(⋅)是softmax激活函数。 在理论上RNN LMs不需要马尔可夫假设。他们可以使用所有先前的历史来预测下一个token。然而RNN固有的梯度消失问题阻碍了模型的学习。由于梯度在长距离内可能会变得非常小因此在实践中模型权重实际上是由附近的上下文更新的。通常RNN LMs无法了解当前token与其遥远的历史上下文之间的依赖关系。尽管可以在RNN中引入注意力机制来缓解这个问题。RNN固有的顺序性使其不如具有自注意机制的基于Transformer的LMs强大。 4.5 Transformer Transformer架构可以通过利用自注意机制来捕获长期依赖关系和重要的序列分量。与RNN的递归结构不同transformer在训练和推理中都很容易并行化。其结构如图6所示。它由一个编码器和一个解码器组成。在被发送到编码器之前输入文本序列首先通过嵌入层加上位置嵌入被转换为嵌入。 多头注意力是多种自我注意力机制的集合使Transformer能够在token之间捕获更稳健和多样化的注意力。Transformer编码器中的其他部分包括前馈层、残差连接和归一化层。Transformer编码器和解码器之间的区别在于Transformer解码器具有额外的掩蔽多头注意力层。掩码确保解码器只能访问当前token的先前token这使得解码器自回归。 基于不同的目的Transformer有仅编码器、仅解码器和编码器-解码器三种变体如表1和图7所示。仅编码器模型可以访问给定输入的所有位置并利用双向上下文来预测token。它们适用于需要理解完整句子的任务例如文本分类。仅Transformer解码器模型只能使用以前的token来预测当前token即自回归模型。他们擅长文本生成任务例如故事生成。Transformer编码器-解码器模型可以在编码阶段访问所有token在解码阶段访问当前token之前的token。它们适用于按顺序执行的任务如翻译和摘要。 5 预训练语言模型 预训练语言模型PLM目前在NLP领域占据主导地位。随着深度学习的发展与传统的统计LMs相比PLM的训练和使用发生了很大变化。在应用于现实世界的任务之前PLM首先在大量语料库集合上进行预训练以便它们学习携带句法和语义知识的通用表示。在预训练之后PLM针对下游任务进行微调以便将获得的知识转移到不同的任务中。在下文中我们首先在第5.1节中解释预训练目标然后在第5.2节中讨论如何通过微调使PLM适应各种感兴趣的任务。还值得指出几篇关于PLM的好的综述论文例如[232425]。 5.1 预训练 最常用的预训练任务是“缺失token预测”。还有其他用于不同目的的预训练任务例如下一个句子预测这允许LM学习句子关系。 Token预测。自回归语言LM被训练为使用先前的token来预测下一个token。而双向LM屏蔽样本中的token子集并学习使用上下文的其余部分来预测这种屏蔽的token。对于后者最流行的目标是BERT中提出的掩蔽语言模型MLM目标。MLM的目标是预测掩蔽token时的交叉熵损失。它随机屏蔽掉15%的输入token然后预测屏蔽的token。基于实验验证屏蔽token的数量设置为15%。如果掩蔽率太小则模型仅从有限数量的掩蔽token中学习。另一方面如果它太大就没有足够的上下文来进行合理的预测模型也无法很好地学习。 其他预训练任务。还有其他的预训练任务可以让LMs学习更好的语言知识比如句子关系。例如在BERT中下一句预测被用作预训练任务。下一个句子预测被形式化为二元预测任务该任务决定两个句子是否是两个连续的句子。这样PLM可以用于需要理解两句之间关系的下游任务例如问答QA和自然语言推理NLI。BART采用了其他预训练目标。它们包括token删除、文本填充、句子排列和文档旋转以破坏原始序列进行重建。在T5中使用无序token来增加学习表示的鲁棒性。 5.2 微调适配器调整和提示调整 PLM在预训练阶段学习非特定任务的语言知识。微调对模型进行特定任务的调整以便将其应用于不同的下游任务。模型参数在微调阶段进行更新。一种方法是基于不同标签空间和不同下游任务中的损失来设计特定任务的头然后更新整个模型和特定任务的头部。例如GPT和BERT在他们的原始论文中添加了一个额外的线性输出层作为特定任务的头部并对PLM中的整个参数集和各种下游任务的头部进行了微调如自然语言推理、问答、语义相似性和文本分类。为了使微调机制更具参数效率可以选择仅更新LM的某些层和任务专用头。 适配器调整被提出与仅更新PLM的最后一层相比使微调更加有效。它将额外的紧凑层称为适配器注入到原始的PLM中。然后新的适配器层被更新而原始PLM的参数在适配器调优期间被冻结。这样原始PLM的参数可以由不同的下游任务共享。 PLM通过一个或多个预训练目标进行预训练然后应用于不同的下游任务。预训练任务和下游任务特定微调之间的差距可能很大。提示调整用于通过在微调或推理阶段模拟预训练目标来发现PLM的潜力。随着PLM变得越来越强大它们可以在没有任何梯度更新或微调的情况下通过查看一些示例来处理各种下游任务。这是通过基于提示的微调或者简称为提示微调来实现的。 提示分为离散提示也称为硬提示和连续提示也称软提示。离散提示是一种自然文本模板可以由人类手动设计或自动方法。相反连续提示是嵌入空间中的连续向量与真实文本不对应。它牺牲了可解释性但放松了离散提示约束因为提示应该是真实的文本。 图8显示了MLM的预训练任务、微调和离散提示调整的示例。在预训练中MLM被训练来预测掩蔽的token。假设下游任务是影评的情绪分析。在标准微调中我们在PLM的顶部训练一个新的头并预测情绪标签。原始输入附加了一个设计好的提示比如“It was”然后发送到PLM。PLM必须为设计的答案分配概率这些答案可以是“伟大的”也可以是“可怕的”。如果“伟大”的概率更高那么输入的标签将是正的反之亦然。通过这种方式提示调整将不同的下游任务转换为token预测任务以缩小预训练和微调阶段之间的差距。 6 模型评估 LM评价有两种类型内在评价和外在评价。内在评估考察LM的内部特性而外在评估研究其在下游任务中的表现。 6.1 内部评价 自回归LM。LM估计文本序列的概率。好的LM为自然文本序列分配更高的概率为不真实或随机文本序列分配更低的概率。困惑是一个常见的评估指标。给定一个测试文本序列困惑由P P L表示被定义为通过token数量归一化的序列的逆概率。从数学上讲我们有 P P L ( S ) 1 P ( u 1 u 2 ⋯ u N ) , N \begin{equation}PPL(S)\sqrt[N]{\frac{1}{P(u_1u_2\cdots u_N)},} \end{equation} PPL(S)NP(u1​u2​⋯uN​)1​, ​​​ 其中 S u 1 u 2 ⋯ u N Su_1u_2\cdots u_N Su1​u2​⋯uN​是测试文本序列。困惑度可以被重写为 P P L ( S ) ∏ i 1 N 1 P ( u i ∣ u 1 ⋯ u i − 1 ) . N \begin{equation}PPL(S)\sqrt[N]{\prod^N_{i1}\frac{1}{P(u_i|u_1\cdots u_{i-1})}.} \end{equation} PPL(S)Ni1∏N​P(ui​∣u1​⋯ui−1​)1​. ​​​ 一个好的LM应该最大化文本集的概率。这相当于最大限度地减少了困惑。困惑越低LM越好。 双向语言模型。为了计算等式13中的逆概率自回归LM可以使用条件概率序列。然而这种方法不适用于双向LMs或屏蔽LMs。已经为双向LMs提出了几个内在的评估指标。伪对数似然分数PLL定义为 P P L ( S ) ∑ i 1 ∣ S ∣ log ⁡ P ( u i ∣ S \ i ) , \begin{equation}PPL(S)\sum^{|S|}_{i1}\log P(u_i|S_{\backslash i}), \end{equation} PPL(S)i1∑∣S∣​logP(ui​∣S\i​),​​ 其中 log ⁡ P ( u i ∣ S \ i ) \log P(u_i|S_{\backslash i}) logP(ui​∣S\i​)是句子S中的token u i u_i ui​与所有剩余token的条件概率。一个好的双向LM应该在给定其他token的情况下最大化文本序列中每个token的概率而不是最大化整个文本序列的联合概率。基于PLLs语料库C的伪困惑PPPL定义为 P P P L ( C ) e x p ( − 1 N ∑ S ∈ C P L L ( S ) ) . \begin{equation}PPPL(C)exp(-\frac{1}{N}\sum_{S\in C}PLL(S)). \end{equation} PPPL(C)exp(−N1​S∈C∑​PLL(S)).​​ PLL和PPPL都为双向LM提供了测量句子自然度的有效手段。例如[105]中显示PLL和PPPL与LM在下游任务如自动语音识别和机器翻译上的性能密切相关。 6.2 外部评价 LMs的任何下游任务都可以用于外部评估。有几个常见的下游任务被选为外部评估基准。两个流行的是GLUE通用语言理解评估和SuperGLUE。GLU是自然语言理解的一个评估基准。它包括单句任务、相似和转述任务以及推理任务。SuperGLUE是GLUE的增强版。它包括一组新的更具挑战性的语言理解任务、更多样的任务格式、改进的资源和公共排行榜。 6.3 内部评价与外部评价之间的关系 如果LM的困惑程度较低这是否意味着它也可以在下游任务中表现良好换句话说预训练任务基于token预测和下游任务之间是否存在相关性关于这个问题的实证研究很多但理论研究很少。 实证研究。研究人员设计实验来了解LM从预训练任务中学到了什么样的知识。实例包括。他们使用词性标注、成分标注和依赖性标注来衡量句法知识学习的程度并命名实体标注、语义角色标注和语义原型角色来测试语义知识。实证研究表明预训练任务有助于LMs学习语法和语义角色等语言知识。然而这些实验结果只能用作支持token预测任务有利于下游任务的证据。它们无法解释潜在的机制。 理论研究。一些研究人员试图从数学上建立LM的困惑与其在下游任务中的表现之间的联系。文本分类任务在中进行了研究。他们首先假设并验证了文本分类任务可以重新表述为句子完成任务。由于LM预训练任务本质上是一个句子补全任务它确实有助于文本分类下游任务。然后他们从数学上量化了这种联系并表明在日志困惑中实现 ϵ \epsilon ϵ优化的LMs特征可以线性地解决具有 O ( ϵ ) \mathcal{O}(\sqrt\epsilon) O(ϵ ​)误差的文本分类任务。[115]中使用了一个潜在的生成模型来显示预训练任务和下游任务之间的关系。目前的理论研究是有限的因为只考虑了一个特定的下游任务比如文本分类任务并且证明在某些条件下成立。 6.4 LM评估的超越单一变量 除了在标准评估测试集上评估LM的性能外LM在其他方面的性能在现实世界的应用中也很重要如效率、偏差、鲁棒性、可解释性和逻辑一致性。在本节中我们讨论了对效率、偏差和稳健性的评估以提供对评估方面的全面回顾。 LMs的效率可以从几个方面进行评估如推理时间、计算复杂度、能耗、模型大小和训练数据大小。一些工作计算了训练PLM的计算复杂性、近似财务和环境成本。他们还提出了减少NLP研究和应用费用的实际步骤。[118]中对最近开发的PLM的模型尺寸进行了讨论。在本文的第8节中我们还讨论了实现高效LMs的几种方法。表2显示了最近开发的LMs的参数数量、训练数据、成本和时间。 NLP中的偏见是指由于种族主义、性别歧视和能力歧视等错误假设而对模型产生的系统偏见。偏见反映在PLM中因为它们是在大量的真实单词数据上训练的。一些研究已经检验了PLM中的偏见。句子编码器关联测试SEAT是在[120]中提出的用于研究BERT中的偏见。[122]中创建了一个数据集用于测量多个PLM中对性别、职业、种族和宗教的偏见包括BERT、RoBERTa、XLNet和GPT-2。[123]中证明GPT-3在各种任务中始终表现出显著的反穆斯林偏见。[121]中的工作调查了146篇关于NLP中偏见的论文并为分析NLP系统中的偏见提出了建议。 LMs的稳健性是指当面对不应影响系统输出的输入变化例如打字错误和拼写错误时它们能够有效且一致地执行。换句话说健壮的LM不应该轻易被对抗性文本所欺骗。最近的研究创建了一组字符或单词级别的扰动以模拟LMs在现实世界场景中可能遇到的各种类型的噪声。他们研究了最近开发的PLM的稳健性包括BERT、RoBERTa和XLNets。结果表明输入扰动即使是微小的改变也会损害这些LMs的性能。此外鲁棒性Gym、WildNLP和TextFlint是为鲁棒性评估而设计的工具。 7 文本生成中的语言模型 LMs最重要的应用之一是文本生成它旨在根据输入数据生成单词序列。由于目的和输入的不同有许多文本生成任务。例如自动语音识别ASR任务要求输入是语音序列而输出是相应的文本序列。机器翻译任务基于输入文本序列和目标语言生成翻译文本序列。故事生成是一个主题到文本的生成任务。在本节中我们介绍了文本生成中使用的常见技术然后解释了如何在每个具有代表性的任务中应用LM。 7.1 解码方法 解码决定生成文本的下一个输出语言单元。一个好的解码方法应该在给定上下文的情况下生成相干延拓。随着LMs变得越来越复杂解码方法发挥了越来越重要的作用。如图9所示即使使用强大的LM不足的解码方法也会导致生成的文本不好。文本生成有两种主要的解码方法。 基于最大化的解码。这是最常用的解码目标。假设该模型将更高的概率分配给更接近人类书写的基本事实的更高质量的文本则基于最大化的解码策略搜索具有最高概率的token作为生成的文本。贪婪搜索以贪婪的方式选择具有最高概率的token作为下一个token。波束搜索在每个时间步长保持一定数量的最有可能的token并最终选择具有总体最高概率的生成的token序列。它避免了丢失不具有最高概率的合理token。最近提出了可训练的解码算法。可训练贪婪解码是一种基于神经的解决方案作为神经机器翻译解码器的一部分。它利用强化学习来找到最大化解码目标的翻译。 基于采样的解码。它从一组采样的token中选择下一个token。由于基于最大化的解码高度依赖于潜在的模型概率并且会产生退化的重复因此基于采样的解码通过随机采样增加了生成文本的多样性。然而简单的纯采样可以选择具有低概率的token来自不可靠的尾部分布作为下一个生成的token。因此生成的文本可能与前缀无关从而导致语无伦次的胡言乱语。最近提出了Top-k采样和Nucleus采样来解决这个问题。Top-k采样和Nucleus采样均来自截断的LM分布即从最可能的token采样。多样波束搜索是一种基于波束搜索的可训练采样随机解码算法。它使用强化学习来确定不同输入或任务的波束分集参数。 7.2 对话系统 对话系统旨在模拟与人类用户交谈时的人类反应。最近的对话系统如ChatGPT和LaMDA由于其作为交互式聊天机器人系统的卓越性能在生成人工智能领域引起了很多关注。对话系统可分为面向任务系统和开放领域系统。前者是为特定任务而设计的例如在线购物的客户服务。后者也被称为聊天机器人。大多数现代对话系统都是生成性语言的微调版本。以ChatGPT为例ChatGPT是基于一个具有1750亿个参数的生成LM GPT-3构建的。通过对标记数据的监督学习和强化学习对其进行了进一步的微调。 LMs在对话系统中发挥着重要作用尤其是在其自然语言理解NLU和自然语言生成NLG组件中。NLU负责理解和识别用户的意图。如今对于编码器-解码器PLM’编码器为NLU提供信息表示而相关的解码器负责生成适当的响应。后者包括构建回应文本选择合适的单词并确定正确的措辞和语气。对对话任务中PLM表示的有效性进行了研究。PLM评估目标包括BERT和GPT-2。[147]中评估了PLM在NLU和NLG等对话任务中的小样本能力。总的来说对话系统中的LMs在理解用户的输入和产生适当和自然的反应方面发挥着关键作用。 7.3 自动语音识别 自动语音识别ASR是一种语音到文本的生成任务旨在将原始音频输入转换为相应的文本序列。LM在ASR系统中起着至关重要的作用。首先它有助于解决声学上模棱两可的话语。其次它可以通过将搜索空间约束在一组概率较高的单词中来降低计算成本。传统的ASR系统包含两个独立的模型一个声学模型和一个语言模型它们通过以下互相关联 P ( w o r d ∣ s o u n d ) ∝ P ( s o u n d ∣ w o r d ) P ( w o r d ) . \begin{equation}P(word|sound)\propto P(sound|word)P(word). \end{equation} P(word∣sound)∝P(sound∣word)P(word).​​ 声学模型以电话 P ( s o u n d ∣ w o r d ) P(sound|word) P(sound∣word)为条件而LM给出由 P ( w o r d ) P(word) P(word)表示的单词分布。LMs有助于在识别过程中搜索单词假设。在ASR中已经探索了不同类型的LM如N-gram、FFNN、RNN和Transformer。 随着深度学习技术的发展端到端E2EASR系统已成为当今该领域的主导方法。E2E ASR系统不独立地训练声学模型和语言模型而是使用单个网络架构。例如Listen,Attend and SpellLAS模型包含编码器、解码器和注意力网络它们被联合训练以预测输出文本序列。E2E ASR系统中的LM分量是从转录的语音数据中隐式学习的。为了解决LM训练的有限转录语音数据的挑战一种解决方案是使用LM集成来集成在广泛的文本语料库上训练的外部语言模型。浅融合在解码阶段考虑来自E2E ASR模型和外部LM的分数之间的对数线性插值。深度融合通过融合外部LM和E2E ASR模型的隐藏状态来整合它们。与分别训练E2E ASR模型和外部LM的浅融合和深融合不同冷融合和分量融合联合训练E2E ASR模型和外部LM。 7.4 机器翻译 机器翻译是一种文本到文本的生成任务将源语言的文本翻译成目标语言的文本。机器翻译所采用的LMs是以源句和先前的部分翻译为条件的。E2E机器翻译模式已成为当今的主流。语言模型是通过E2E训练隐式学习的。最近基于Transformer的模型在机器翻译方面取得了巨大成功。与ASR的进步类似通过LM集成技术可以将由大量单语语料库训练的外部LM合并到E2E机器翻译模型中。此外尽管许多PLM从未受过源语言和目标语言之间翻译并行数据的明确训练但它们在机器翻译方面表现出了小样本或零样本的能力。 7.5 生成文本检测 随着LMs的性能越来越接近甚至超过人类LMs的滥用如假新闻和假产品评论的生成已经成为一个严重的问题。检测机器生成的文本的能力很重要。有两种类型的检测问题1人工编写与机器生成以及2恶意与真实。大多数数据集例如都是为第一种类型收集的。第二类问题比第一类问题要困难得多因为需要将生成的文本与事实联系起来这需要高级知识推理能力。 下面介绍了检测机器生成文本的两种常见方法。一种是利用LM的概率分布。如果与已知的机器生成文本相比文本序列的概率分布更接近人类书写文本的概率分布则该文本序列被归类为人类书写。另一种是通过监督学习来训练分类器。它将分布转换为有监督的二进制分类任务。关于机器生成文本检测的更多细节读者可以参考两篇综述论文。 8 高效模型 随着最近的PLM变得越来越强大它们的模型大小、训练成本和对训练数据的需求都急剧增加。它们需要高计算资源和高能耗限制了它们在现实世界中的应用。表2显示了最近开发的LM的模型大小、训练数据、成本和时间。这个问题引起了许多人的关注高效LMs的构建也受到了关注。 8.1 数据使用 预训练数据大小。PLM训练的一个关键问题是需要多少数据。[174]中研究了预训练数据大小对RoBERTa模型的影响。作为预训练数据集大小的函数的四个模型性能度量的学习曲线如图10所示。当数据大小在100M到1B单词之间时三条学习曲线逐渐趋于平稳这意味着LMs编码了大多数句法和语义特征。然而LMs需要大量的数据来获得足够的常识知识和其他技能以在下游NLU任务中获得更好的性能。 高效的预训练。已经提出了几种方法来更有效地使用预训练数据。在掩蔽LMs的预训练中一定百分比的token被掩蔽并且需要通过上下文来推断。这种方法产生了大量的计算成本因为网络只从被屏蔽的特定百分比的token中学习。为了提高训练效率[46]中的工作使用了“替换的token检测”而不是“屏蔽的token预测”作为预训练任务。如图11所示训练生成器来执行掩蔽LM并预测掩蔽token。然后主模型作为一个鉴别器称为ELECTRA它学习决定原始或替换的token。通过这种方式对所有token而不是屏蔽token的一小部分执行预训练任务。从所有输入位置学习导致ELECTRA比采用掩蔽token预测的BERT训练得快得多。此外ELECTRA在完全训练的情况下在下游任务上实现了更高的准确性。后来在[175]中提出了一种使用基于能量的模型的新的预训练任务该任务与ELECTRA密切相关。 衔接预训练和下游任务。一个典型的预训练任务是token预测它通常与下游任务有很大的差距。为了缓解预训练和下游任务之间的差距中对提示调整进行了研究。如图8所示头部被训练来预测掩蔽LMs中的掩蔽token。对于下游情绪分析任务在传统的微调中头部被训练来预测正面或负面标签。模板例如“It was”及其预期的文本响应例如“great”和“可怕”用于提示调整。通过这种方式预训练和提示调优共享相同的“token预测”目标。 8.2 模型大小 除了提高训练效率外高效的LM还专注于设计更小尺寸的模型。研究了许多方法来减小模型大小从而可以在计算资源有限的移动或边缘设备上实现模型。模型压缩是一个广泛研究的课题。压缩方法首先训练一个大LM然后将其压缩成目标大小。示例包括模型修剪、知识蒸馏、低秩矩阵近似和参数共享。 8.3 推断延迟 推理效率对LM非常重要尤其是在实时应用中。在相同的设置下较小尺寸的模型通常具有更快的推理速度。可以采用知识蒸馏、修剪和低秩矩阵近似来实现更快的推理时间同时减小模型大小。例如DistilBERT是BERT的蒸馏版本与原始模型相比其推理速度提高了60%。[177]中通过修剪PLM实现了超过2倍的推理加速。 快速的推理速度也可以通过快速的解码方法来实现。非自回归生成NAG模型同时预测每个token。由于并行计算它们的推理速度比自回归模型更快。另一方面NAG模型的性能通常比自回归模型差因为它们没有考虑输出文本中token之间的前向或后向依赖关系。 9 未来研究方向 在本节中我们描述了语言建模中几个有前途的未来研究方向。 9.1 LM和KG的集成 知识图谱KG提供了人类知识的结构化表示。由于其能够表示实体之间的关系它已被广泛用于许多NLP应用如问答和文本摘要。人们对评估在PLM中学习的知识越来越感兴趣其中不同语义单元之间的关系被捕获在嵌入空间和自注意层中。中提出了一些想法以利用KGs进行LM训练。因此在模型中学习的知识可以得到极大的改进。因此值得仔细研究将KGs与LMs结合起来并了解它们是如何相互作用的。 看来KG可以作为LMs查询的信息数据库。LMs在自然语言理解和生成方面具有强大的功能而KGs可以组织和存储从训练语料库中提取的知识信息。换句话说我们可以将知识源分解为语义和句法两个部分这两个部分可以分别由KGs和LMs处理。 具体来说大多数推理都是由KGs处理的因此预测是基于事实的是可以解释的。另一方面LM作为理解和解释语言输入的接口提高语言输出的流畅性、全面性、简洁性等。中提出了类似的概念。在训练阶段基于从训练语料库中提取的信息构建KG并且可以同时训练LM。在推理阶段LM可以作为人类和以KGs形式表示的知识数据库之间的接口。将语义和句法处理任务分别分配给KGs和LM是有优势的。例如解耦促进了增量学习允许更小的模型大小并提高了可解释性。它们将在下文进一步阐述。 9.2 增量学习 增量学习旨在整合新信息而无需完全重新训练现有模型。[205]中指出了与神经网络模型相关的灾难性遗忘问题。也就是说当使用新信息进行训练时模型已经学习到的信息可能会逐渐被遗忘。这个问题对大型LMs来说尤其关键因为新信息不断出现。[206]中提出了一种解决灾难性遗忘的方法。它试图通过放慢对与先前重要任务更相关的权重的学习来记住这些任务。然而很难定义LMs中的重要任务。此外使用旧数据和新数据重新训练大型LM的成本太高。LMs的终身学习是容纳新数据以更新LMs中知识的另一种解决方案。它值得进一步探索。 为LMs开发一个令人满意的增量学习解决方案的重要性再怎么强调也不为过。增量学习对神经网络来说是一项挑战。然而KGs很容易通过添加或删除事实三元组来向现有数据库添加新数据或从中删除旧数据。很明显KGs中的当前信息不会被新收集的数据覆盖。数据库中的信息以递增方式更新。为此KGs和LMs的集成提供了一个极好的解决方案满足了增量学习的需求。 9.3 轻量模型 如第8节所述PLM以巨大的计算资源和能源消耗为代价变得更加强大。在大型LMsLLM的开发过程中必须认真面对成本问题。此外LLM由于其高碳足迹而对我们的环境不友好。绿色学习GL以低碳足迹的学习解决方案为目标。近年来在不牺牲性能的情况下设计更小尺寸和更低计算复杂度的轻量级模型受到了越来越多的关注。绿色LMs的设计是一个值得认真研究的重要课题。 当前的PLM是使用神经架构从大量数据中学习通用语言知识的数据驱动模型。已经在开发轻质LMs方面做出了努力。模型压缩是获得小型LM的常用方法之一。例子包括知识蒸馏或修剪。然而这种方法似乎是一种迂回因为它训练大型模型然后通过压缩缩小它们的大小。相反我们可以结合语言信息和领域知识以提供一种更直接的方法来减少模型大小和训练数据量。 9.4 通用模型与领域特定模型 开发了一个通用LM来处理一般领域中的任务。例如ChatGPT是一个在多语言和通用领域语料库上预先训练的通用对话LM。它可以用多种语言就开放领域主题进行对话。相反领域特定的LM被设计用于处理领域特定的任务例如生物医学、经济学、音乐学等。 通用LM需要巨大的模型大小、大量的训练示例和大量的计算资源。基于神经语言模型的缩放定律推理性能随着模型大小、数据集大小和用于训练的计算量而缩放为幂律。到目前为止最大的PLM包含5400亿个参数。尽管具有卓越的性能和适应多种任务的灵活性但我们可能想知道一个巨大的通用LM是否具有成本效益。 对于领域特定的LM需要的训练数据量要低得多。人们认为一般领域的PLM有利于特定领域的LM的训练。然而据[217]报道从头开始在域内数据上预先训练的域特异性LMs可以为生物医学NLP提供坚实的基础。换句话说训练特定领域的LM可能不需要大量的通用语料库和标记数据。在训练和推理较少的特定任务场景中部署的特定领域LMs预计在未来会受到更多关注。 9.5 可解释模型 尽管基于深度学习的LMs在NLP领域占据主导地位但它们本质上是没有数学透明度的黑盒方法。它的可解释性令人担忧。已经作出努力来解释黑匣子LMs。如6.3所述进行了实证研究以了解PLM通过实验设计学到了什么。然而这方面的进展可能会提供见解但不是一个令人满意和明确的答案。提供理论解释或建立可解释的LMs仍然是一个具有挑战性和开放性的问题。可解释性的一个方向是从头开始设计一个可解释的学习模型。例如我们可以将KGs与LMs合并。众所周知KG能够在许多推理任务中提高系统的可解释性和透明度如信息检索和推荐系统。例如当结合KGs进行推理时可以为推理路径和数据源提供预测。LM做到这一点很有挑战性。开发一种可解释的LM以避免其在自然语言生成中的幻觉至关重要。 9.6 机器生成的文本检测 LM最常见的应用是文本生成。随着生成LM的性能越来越接近甚至超过人类这些LM可能被用于恶意目的如学术不诚实、垃圾邮件、有针对性的机器人攻击和假新闻/评论生成。如何确定文本是由LMs生成还是由人类编写是当今的一大挑战。高性能的机器生成文本分类器只能在现实世界的应用中作为参考因为它有假阳性即被归类为机器生成的人工书写文本和假阴性即被分类为人工书写的机器生成的文本。此外人们可能对检测真实和不真实的文本更感兴趣。他们更关心文本是否真实。检测虚假信息可能比在不评估真实性的情况下检测机器/人工生成的文本更困难。此外随着时间的推移事实可能会发生变化。开发有效的工具来识别生成LMs的恶意使用对我们的社会至关重要。 10 结论 本文对CLM及其继任者PLM进行了全面概述涵盖了广泛的主题。首先介绍了不同层次的语言单元并研究了如何使用语言单元预测来训练语言模型。其次讨论了语言模型所采用的标记化方法。第三回顾了PLM的语言模型体系结构和训练范式。第四我们研究了语言模型的评价和应用。特别是详细介绍了文本生成中的几个应用。最后指出了未来的几个研究方向。强调了对可解释、可靠、特定领域和轻量级语言模型的需求。
http://www.w-s-a.com/news/980481/

相关文章:

  • 做网站用的书公司做网站 需要解决哪些问题
  • 电器网站建设策划书深圳动画制作
  • cpa网站建设wordpress支付宝微信收费吗
  • 权威网站排名桂林生活网论坛
  • 网站设计息济南网站建设济南
  • 安蓉建设总公司网站网站怎么做才能被百度收录
  • 电子商务网站业务流程分析做效果图的外包网站
  • wordpress仿站视频教程wordpress用什么php版本好
  • 郑州做网站九零后网络沧州做网站的专业公司
  • 小游戏网站建设可以自己做图片的软件
  • 湖南地税局官网站水利建设基金app仿制
  • 苏州网站设计kgwl建设网站需要用到哪些技术人员
  • 万户网络做网站如何亚马逊网站建设
  • 门户网站制作费用暴雪公司最新消息
  • 深圳专业建网站公司济南公司做网站的价格
  • 怎么运行自己做的网站网上申请平台怎么申请
  • 旅游公司网站 优帮云新闻近期大事件
  • 电商网站后台报价营销软文小短文
  • 网站建设项目售后服务承诺公司名称邮箱大全
  • 湖南网站建设哪里好做ppt的网站叫什么名字
  • 容城县建设银行网站电子商务网站建设子项目
  • 网站管理助手3.0做淘宝网站用什么软件做
  • 贵阳做网站的公司wordpress趣味插件
  • 自己设置免费网站设计平台南京哪里有做公司网站的
  • 建设公司内网网站的意义自助建站网站的宣传手册
  • 手机建设中网站建立个人网站服务器
  • 网站开发工程师岗位概要网站怎么制作教程
  • 城乡建设主管部门官方网站公司简介模板ppt范文
  • 网站认证必须做么cc0图片素材网站
  • net域名 著名网站国外设计案例网站