融合知识增强与SimCLS框架的生成式文本摘要模型
CSTR:
作者:
作者单位:

作者简介:

通讯作者:

中图分类号:

基金项目:

辽宁省社会科学规划基金(L22BJY034)


Abstractive Text Summarization Model Combining Knowledge-enhancement and SimCLS Framework
Author:
Affiliation:

Fund Project:

  • 摘要
  • |
  • 图/表
  • |
  • 访问统计
  • |
  • 参考文献
  • |
  • 相似文献
  • |
  • 引证文献
  • |
  • 资源附件
  • |
  • 文章评论
    摘要:

    生成式文本摘要旨在通过理解输入的原始文本生成简洁、易读的摘要. 然而, 现有模型输出的摘要中仍存在语义冗余、事实性错误以及暴露偏差的问题. 解决这些问题对于提升模型性能和摘要质量具有重要的研究意义. 因此, 提出一种融合知识增强与SimCLS框架的生成式文本摘要模型. 首先, 设计了知识增强编码器获取源文本的结构化知识信息以维护全局上下文的结构信息, 并结合文本编码器充分编码全文语义信息. 其次, 在解码器部分利用Copy机制, 更加准确地再现原始文本中的信息. 最后, 使用SimCLS两阶段的对比学习训练框架, 对模型生成的摘要进行评分以驱动模型生成高质量摘要. 实验结果表明, 相较于表现较为优异的SeqCo模型, 所提模型在CNN/Daily Mail数据集上的ROUGE-1/2/L及BERTScore分别提升了1.84、0.65、2.04和0.21个百分点, 在XSum数据集上分别提升了1.78、2.16、2.36和0.13个百分点, 验证了模型的有效性.

    Abstract:

    Abstractive text summarization aims to generate concise and readable summaries by understanding the original input text. However, the summaries produced by existing models still face issues such as semantic redundancy, factual errors, and exposure bias. Addressing these problems is crucial for improving model performance and summary quality. Therefore, an abstractive text summarization model that integrates knowledge enhancement with the SimCLS framework is proposed. First, a knowledge-enhanced encoder is designed to obtain structured knowledge information from the source text to preserve the structural information of the global context, and it is combined with a text encoder to fully capture the semantic information of the entire text. Then, the copy mechanism is utilized in the decoder to more accurately reproduce the information from the original text. Finally, the summaries generated by the model are scored using the SimCLS two-stage contrastive learning framework to guide the generation of high-quality summaries. The experimental results show that, when compared with the higher-performing SeqCo model, the proposed model improves ROUGE-1/2/L and BERTScore on the CNN/Daily Mail dataset by 1.84, 0.65, 2.04, and 0.21 percentage points, respectively, and on the XSum dataset by 1.78, 2.16, 2.36, and 0.13 percentage points, confirming the model’s effectiveness.

    参考文献
    相似文献
    引证文献
引用本文

刘佳旭,吴石,张艳菊.融合知识增强与SimCLS框架的生成式文本摘要模型.计算机系统应用,,():1-15

复制
分享
相关视频

文章指标
  • 点击次数:
  • 下载次数:
  • HTML阅读次数:
  • 引用次数:
历史
  • 收稿日期:2025-09-01
  • 最后修改日期:2025-09-29
  • 录用日期:
  • 在线发布日期: 2026-01-15
  • 出版日期:
文章二维码
您是第位访问者
版权所有:中国科学院软件研究所 京ICP备05046678号-3
地址:北京市海淀区中关村南四街4号,邮政编码:100190
电话:010-62661041 传真: Email:csa@iscas.ac.cn
技术支持:北京勤云科技发展有限公司

京公网安备 11040202500063号