融合多特征BERT模型的中文实体关系抽取
作者:
作者单位:

作者简介:

通讯作者:

中图分类号:

基金项目:

安徽省自然科学基金(1908085MF202)


Chinese Entity Relation Extraction Based on Multi-Feature BERT Model
Author:
Affiliation:

Fund Project:

  • 摘要
  • |
  • 图/表
  • |
  • 访问统计
  • |
  • 参考文献
  • |
  • 相似文献
  • |
  • 引证文献
  • |
  • 增强出版
  • |
  • 文章评论
    摘要:

    关系抽取是构建知识图谱的一项核心技术. 由于中文具有复杂的语法和句式, 同时现有的神经网络模型提取特征有限以及语义表征能力较差, 从而影响中文实体关系抽取的性能. 文章提出了一种融合多特征的BERT预训练模型的实体关系抽取算法. 首先对语料进行预处理, 提取关键词、实体对信息和实体类型特征并进行融合, 以此来强化BERT模型的语义学习能力, 极大限度地减少了语义信息特征的丢失, 最后通过Softmax分类器进行关系分类. 实验结果表明, 文章模型优于现有的神经网络模型. 在人工标注的中文数据集上本文模型取得了97.50%的F1值.

    Abstract:

    Relation extraction is a core technology to construct a knowledge graph. The complexity of Chinese grammar and sentence structure as well as the limited feature extraction and poor semantic representation of the existing neural network model restrict the relation extraction of Chinese entities. A relation extraction algorithm based on a BERT pretraining model is proposed in this study. It preprocesses the corpus by extracting keywords, entity pairs and entity type and integrating them to strengthen the semantic learning ability of the BERT model, greatly reducing the loss of semantic features. Results are obtained by a Softmax classifier, which show that this model is better than the existing neural network model. In particular, the model reaches a F1-score of 97.50% on the Chinese data set.

    参考文献
    相似文献
    引证文献
引用本文

谢腾,杨俊安,刘辉.融合多特征BERT模型的中文实体关系抽取.计算机系统应用,2021,30(5):253-261

复制
分享
文章指标
  • 点击次数:
  • 下载次数:
  • HTML阅读次数:
  • 引用次数:
历史
  • 收稿日期:2020-09-10
  • 最后修改日期:2020-10-09
  • 录用日期:
  • 在线发布日期: 2021-05-06
  • 出版日期:
您是第位访问者
版权所有:中国科学院软件研究所 京ICP备05046678号-3
地址:北京海淀区中关村南四街4号 中科院软件园区 7号楼305房间,邮政编码:100190
电话:010-62661041 传真: Email:csa (a) iscas.ac.cn
技术支持:北京勤云科技发展有限公司

京公网安备 11040202500063号