基于深度学习的行为识别多模态融合方法综述
作者:
作者单位:

作者简介:

通讯作者:

中图分类号:

基金项目:

福建省高校产学研联合创新项目(2022H6004); 集成电路设计与测试分析福建省高校重点实验室基金; 厦门大学马来西亚研究基金(XMUMRF/2019-C4/IECE/0008)


Survey on Multi-modality Fusion Methods for Action Recognition Based on Deep Learning
Author:
Affiliation:

Fund Project:

  • 摘要
  • |
  • 图/表
  • |
  • 访问统计
  • |
  • 参考文献
  • |
  • 相似文献
  • |
  • 引证文献
  • |
  • 增强出版
  • |
  • 文章评论
    摘要:

    行为识别是通过对视频数据进行处理分析从而让计算机理解人的动作和行为. 不同模态数据在外观、姿态、几何、光照和视角等主要特征上各有优势, 通过多模态融合将这些特征进行融合可以获得比单一模态数据更好的识别效果. 本文对现有行为识别多模态融合方法进行介绍, 对比了它们之间的特点以及获得的性能提升, 包括预测分数融合、注意力机制、知识蒸馏等晚期融合方法, 以及特征图融合、卷积、融合结构搜索、注意力机制等早期融合方法. 通过这些分析和比较归纳出未来多模态融合的研究方向.

    Abstract:

    Action recognition aims to make computers understand human actions by the processing and analysis of video data. As different modality data have different strengths in the main features such as appearance, gesture, geometric shapes, illumination, and viewpoints, action recognition based on the multi-modality fusion of these features can achieve better performance than the recognition based on single modality data. In this study, a comprehensive survey of multi-modality fusion methods for action recognition is given, and their characteristics and performance improvements are compared. These methods are divided into the late fusion methods and the early fusion methods, where the former includes prediction score fusion, attention mechanisms, and knowledge distillation, and the latter includes feature map fusion, convolution, fusion architecture search, and attention mechanisms. Upon the above analysis and comparison, the future research directions are discussed.

    参考文献
    相似文献
    引证文献
引用本文

詹健浩,吴鸿伟,周成祖,陈晓筹,李晓潮.基于深度学习的行为识别多模态融合方法综述.计算机系统应用,2023,32(1):41-49

复制
分享
文章指标
  • 点击次数:
  • 下载次数:
  • HTML阅读次数:
  • 引用次数:
历史
  • 收稿日期:2022-03-08
  • 最后修改日期:2022-04-12
  • 录用日期:
  • 在线发布日期: 2022-07-14
  • 出版日期:
您是第位访问者
版权所有:中国科学院软件研究所 京ICP备05046678号-3
地址:北京海淀区中关村南四街4号 中科院软件园区 7号楼305房间,邮政编码:100190
电话:010-62661041 传真: Email:csa (a) iscas.ac.cn
技术支持:北京勤云科技发展有限公司

京公网安备 11040202500063号