期刊文献+
共找到6篇文章
< 1 >
每页显示 20 50 100
知识增强的审计新闻生成式摘要模型
1
作者 朱思文 张仰森 +3 位作者 王雪松 孙龙渊 徐锐懿 贾启龙 《哈尔滨理工大学学报》 北大核心 2024年第6期32-44,共13页
针对现有摘要生成模型对审计新闻理解不充分且易丢失关键信息的问题,提出一种知识增强与生成式摘要模型相结合的摘要生成模型(text rank and bart with knowledge enhancement model,TRB-KE)。首先保留新闻前K个句子以获取关键信息;其次... 针对现有摘要生成模型对审计新闻理解不充分且易丢失关键信息的问题,提出一种知识增强与生成式摘要模型相结合的摘要生成模型(text rank and bart with knowledge enhancement model,TRB-KE)。首先保留新闻前K个句子以获取关键信息;其次,利用抽取式摘要模型对剩余新闻语句按关键度排序,筛选出高质量信息;再次,建立了一套审计领域知识库,并将新闻中包含的术语与其释义抽出,作为背景知识融入到生成式摘要模型中;最后,使用生成式摘要模型对融合背景知识的高质量新闻文本进行归纳概括,得到摘要结果。同时,为提高模型效果,构建了一套审计新闻数据集进行针对性训练。实验结果表明,相较于基准模型,本文的TRB-KE模型在审计新闻数据集和NLPCC2018数据集的Rouge均值分别提升了0.98%和1.02%,证明所提模型可以学习新闻的深层信息,提升生成摘要的质量。 展开更多
关键词 知识增强 生成式摘要模型 审计领域知识库 审计新闻摘要 审计新闻数据集
在线阅读 下载PDF
基于生成式摘要模型和知识蒸馏算法的铁路调度命令解析算法研究 被引量:2
2
作者 袁枫 戴琳琳 +1 位作者 景辉 尚念慈 《铁路计算机应用》 2023年第3期11-16,共6页
随着铁路信息化的发展,利用算法自动解析大量铁路调度命令(简称:调令)的重要性日益凸显。文章提出了一种基于生成式摘要模型和知识蒸馏算法的铁路调令解析算法,该算法利用生成式摘要模型端到端解析铁路调令,拥有较高的精度和较强的鲁棒... 随着铁路信息化的发展,利用算法自动解析大量铁路调度命令(简称:调令)的重要性日益凸显。文章提出了一种基于生成式摘要模型和知识蒸馏算法的铁路调令解析算法,该算法利用生成式摘要模型端到端解析铁路调令,拥有较高的精度和较强的鲁棒性,适应写法多样的调令。采用知识蒸馏算法等多种轻量化策略,设计了新的损失函数和多种模型初始化策略,精简模型尺寸,提升算法速度。该算法在铁路调令数据集上取得了21.6342的Rouge-2分数,推理时间达103 ms,为铁路调令解析技术在铁路场景中的部署提供了参考。 展开更多
关键词 调度命令解析 知识蒸馏算法 生成式摘要模型 文本生成算法 自然语言理解
在线阅读 下载PDF
基于过滤注意力机制的生成式自动社交媒体文本摘要模型
3
作者 许天翼 颜兆萍 +1 位作者 朱恩耀 石进 《现代情报》 CSSCI 北大核心 2024年第12期40-51,共12页
[目的/意义]为了帮助用户在浩如烟海的社交媒体文本中快速获取所需信息,本研究创新地设计了一种基于过滤注意力机制的自动摘要生成模型Filter Unit Model(FUM)。[方法/过程]首先,采用微调BERT对于输入的社交媒体文本进行向量嵌入;其次,... [目的/意义]为了帮助用户在浩如烟海的社交媒体文本中快速获取所需信息,本研究创新地设计了一种基于过滤注意力机制的自动摘要生成模型Filter Unit Model(FUM)。[方法/过程]首先,采用微调BERT对于输入的社交媒体文本进行向量嵌入;其次,设计了过滤注意力机制来滤除嵌入社交媒体文本中的无用信息,基于字词层面和语句层面两种过滤注意力机制,旨在从不同角度对于嵌入向量进行过滤;最后,采用Transformer的解码器部分进行解码工作,并根据过滤注意力机制的不同设计相应的解码策略。[结果/结论]本研究在微博数据集上与摘要生成领域中经典、优秀的基线模型进行对比实验。实验结果表明,本研究所设计的FUM模型有着比其他基线方法更出色的表现。同时,基于语句层面的过滤注意力机制比基于字词层面的有更好的过滤效果。 展开更多
关键词 生成式摘要模型 社交媒体 过滤注意力机制
在线阅读 下载PDF
基于T5-PEGASUS-PGN模型的中文新闻文本摘要生成方法
4
作者 曹一平 张胜男 《计算机科学与应用》 2024年第3期10-19,共10页
针对预训练模型训练任务与下游摘要生成任务存在差异、生成文本存在重复内容造成摘要可读性差的问题,基于T5-PEGASUS和指针生成网络,提出了一种自动摘要模型——T5-PEGASUS-PGN。首先利用T5-PEGASUS获取最符合原文语义的词向量表示,然... 针对预训练模型训练任务与下游摘要生成任务存在差异、生成文本存在重复内容造成摘要可读性差的问题,基于T5-PEGASUS和指针生成网络,提出了一种自动摘要模型——T5-PEGASUS-PGN。首先利用T5-PEGASUS获取最符合原文语义的词向量表示,然后借助引入覆盖机制的指针生成网络,生成高质量、高可读的最终摘要。在公开的长文本数据集NLPCC2017的实验结果表明,与PGN模型、BERT-PGN等模型相比,结合更贴合下游摘要任务的预训练模型的T5-PEGASUS-PGN模型能够生成更符合原文语义、内容更加丰富的摘要并且能有效的抑制重复内容生成,同时Rouge评价指标Rouge-1提升至44.26%、Rouge-2提升至23.97%以及Rouge-L提至34.81%。 展开更多
关键词 生成式摘要模型 预训练模型 PGN Coverage机制
在线阅读 下载PDF
基于BERT-PGN模型的中文新闻文本自动摘要生成 被引量:14
5
作者 谭金源 刁宇峰 +1 位作者 祁瑞华 林鸿飞 《计算机应用》 CSCD 北大核心 2021年第1期127-132,共6页
针对文本自动摘要任务中生成式摘要模型对句子的上下文理解不够充分、生成内容重复的问题,基于BERT和指针生成网络(PGN),提出了一种面向中文新闻文本的生成式摘要模型——BERT-指针生成网络(BERTPGN)。首先,利用BERT预训练语言模型结合... 针对文本自动摘要任务中生成式摘要模型对句子的上下文理解不够充分、生成内容重复的问题,基于BERT和指针生成网络(PGN),提出了一种面向中文新闻文本的生成式摘要模型——BERT-指针生成网络(BERTPGN)。首先,利用BERT预训练语言模型结合多维语义特征获取词向量,从而得到更细粒度的文本上下文表示;然后,通过PGN模型,从词表或原文中抽取单词组成摘要;最后,结合coverage机制来减少重复内容的生成并获取最终的摘要结果。在2017年CCF国际自然语言处理与中文计算会议(NLPCC2017)单文档中文新闻摘要评测数据集上的实验结果表明,与PGN、伴随注意力机制的长短时记忆神经网络(LSTM-attention)等模型相比,结合多维语义特征的BERT-PGN模型对摘要原文的理解更加充分,生成的摘要内容更加丰富,全面且有效地减少重复、冗余内容的生成,Rouge-2和Rouge-4指标分别提升了1.5%和1.2%。 展开更多
关键词 生成式摘要模型 预训练语言模型 多维语义特征 指针生成网络 coverage机制
在线阅读 下载PDF
基于优势演员-评论家算法的强化自动摘要模型 被引量:7
6
作者 杜嘻嘻 程华 房一泉 《计算机应用》 CSCD 北大核心 2021年第3期699-705,共7页
针对长文本自动摘要任务中抽取式模型摘要较为冗余,而生成式摘要模型时常有关键信息丢失、摘要不准确和生成内容重复等问题,提出一种面向长文本的基于优势演员-评论家算法的强化自动摘要模型(A2C-RLAS)。首先,用基于卷积神经网络(CNN)... 针对长文本自动摘要任务中抽取式模型摘要较为冗余,而生成式摘要模型时常有关键信息丢失、摘要不准确和生成内容重复等问题,提出一种面向长文本的基于优势演员-评论家算法的强化自动摘要模型(A2C-RLAS)。首先,用基于卷积神经网络(CNN)和循环神经网络(RNN)的混合神经网络的抽取器(extractor)来提取原文关键句;然后,用基于拷贝机制和注意力机制的重写器(rewriter)来精炼关键句;最后,使用强化学习的优势演员-评论家(A2C)算法训练整个网络,把重写摘要和参考摘要的语义相似性(BERTScore值)作为奖励(reward)来指导抽取过程,从而提高抽取器提取句子的质量。在CNN/Daily Mail数据集上的实验结果表明,与基于强化学习的抽取式摘要(Refresh)模型、基于循环神经网络的抽取式摘要序列模型(SummaRuNNer)和分布语义奖励(DSR)模型等模型相比,A2C-RLAS的最终摘要内容更加准确、语言更加流畅,冗余的内容有效减少,且A2C-RLAS的ROUGE和BERTScore指标均有提升。相较于Refresh模型和SummaRuNNer模型,A2C-RLAS模型的ROUGE-L值分别提高了6.3%和10.2%;相较于DSR模型,A2C-RLAS模型的F1值提高了30.5%。 展开更多
关键词 自动摘要模型 抽取式摘要模型 生成式摘要模型 编码器-解码器 强化学习 优势演员-评论家算法
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部