
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
通过对抗性解耦法学硕士的理解和修饰能力来提高文本摘要的事实一致性(2310)no codepaper尽管大型语言模型(LLM)最近在文本摘要方面取得了进展,但它们经常生成与原始文章实际上不一致的摘要,这在文本生成中被称为“幻觉”。与以前的小模型(例如 BART、T5)不同,当前的法学硕士犯的愚蠢错误较少,但犯的错误更加复杂,例如强加因果关系、添加虚假细节、过度概括等。这些幻觉很难通过传统方法检测到

用于神经文本生成的 Best-k 搜索算法(2211)codepaper现代自然语言生成范式需要良好的解码策略才能从模型中获得高质量的序列。集束搜索产生高质量但低多样性的输出;随机方法存在高方差和有时低质量的问题,但输出往往更加自然和富有创意。在这项工作中,我们提出了一种平衡质量和多样性的确定性搜索算法。我们首先研究普通的最佳优先搜索 (BFS) 算法,然后提出 Best-k 搜索算法。受 BFS

网络上可用文档数量的巨大增加使得查找相关信息变成了一项具有挑战性、乏味且耗时的活动。因此,自动文本摘要已成为一个重要的研究领域,受到了研究人员的极大关注。最近,随着深度学习的进步,使用序列到序列(Seq2Seq)模型的神经抽象文本摘要越来越受欢迎。这些模型有许多改进,例如使用预训练的语言模型(例如 GPT、BERT 和 XLM)和预训练的 Seq2Seq 模型(例如 BART 和 T5)。这些改进

通过引文论文的知识聚合改进生物医学抽象总结 (2310)codepaper来自生物医学文献的摘要具有明显的特定领域特征,包括专门的写作风格和生物医学术语,这需要对相关文献的深入理解。因此,由于缺乏特定领域的背景知识,现有的语言模型很难生成与生物医学专家生成的技术摘要相媲美的技术摘要。本文旨在通过聚合源文章中引用的外部论文的知识来提高生物医学抽象概括中语言模型的性能。

如今,大多数在抽象文本摘要领域进行的研究都只关注基于神经的模型,而没有考虑将其与基于知识的方法相结合以进一步提高其效率。在这个方向上,这项工作提出了一种新颖的框架,它将基于序列到序列的神经文本摘要与基于结构和语义的方法相结合。所提出的框架能够处理词汇外或罕见词的问题,提高深度学习模型的性能。整体方法基于基于知识的内容概括和深度学习预测的明确理论模型,用于生成抽象摘要。该框架由三个关键要素组成:(i

自从神经网络方法应用于文本摘要以来,神经标题生成模型最近取得了很好的成果。在本文中,我们关注新闻标题的生成。我们提出了一种基于生成预训练模型的新闻标题生成模型。在我们的模型中,我们提出了一个丰富的特征输入模块。我们提出的标题生成模型仅包含结合了指针机制和n-gram语言特征的解码器,而其他生成模型则使用编码器-解码器架构。对新闻数据集的实验表明,我们的模型在新闻标题生成领域取得了可比的结果。我们在

概括任务可以分为两种方法:抽取式和抽象式。提取摘要从原始文档中选择显着句子形成摘要,而抽象摘要解释原始文档并用自己的语言生成摘要。文献中已经用不同的方法研究了生成摘要的任务,无论是提取的还是抽象的,包括基于统计、图形和深度学习的方法。与经典方法相比,深度学习已经取得了令人鼓舞的性能,并且随着注意力网络(通常称为变压器)等不同神经架构的进步,摘要任务存在潜在的改进领域。Transformer 架构及








