基于融合特征的视频关键帧提取方法
作者:
作者单位:

作者简介:

通讯作者:

中图分类号:

基金项目:


Video Keyframe Extraction Method Based on Fusion Feature
Author:
Affiliation:

Fund Project:

  • 摘要
  • |
  • 图/表
  • |
  • 访问统计
  • |
  • 参考文献
  • |
  • 相似文献
  • |
  • 引证文献
  • |
  • 增强出版
  • |
  • 文章评论
    摘要:

    当前对视频的分析通常是基于视频帧,但视频帧通常存在大量冗余,所以关键帧的提取至关重要.现有的传统手工提取方法通常存在漏帧,冗余帧等现象.随着深度学习的发展,相对传统手工提取方法,深度卷积网络可以大大提高对图像特征的提取能力.因此本文提出使用深度卷积网络提取视频帧深度特征与传统方法提取手工特征相结合的方法提取关键帧.首先使用卷积神经网络对视频帧进行深度特征提取,然后基于传统手工方法提取内容特征,最后融合内容特征和深度特征提取关键帧.由实验结果可得本文方法相对以往关键帧提取方法有更好的表现.

    Abstract:

    Currently, video analysis is usually based on video frames, but video frames usually have a lot of redundancy, so the extraction of key frames is crucial. The existing traditional manual extraction methods usually have the phenomena of missing frames, redundant frames and so on. With the development of deep learning, compared with traditional manual extraction methods, deep convolution network can greatly improve the ability of image feature extraction. Therefore, this study proposes a method to extract key frames by combining the depth feature extraction of video frame with the traditional manual feature extraction method. First, the convolutional neural network was used to extract the depth features of video frames, then the content features were extracted based on the traditional manual method, and finally the content features and depth features were fused to extract the key frames. The experimental results show that the proposed method has better performance than the previous key frame extraction method.

    参考文献
    相似文献
    引证文献
引用本文

张晓宇,张云华.基于融合特征的视频关键帧提取方法.计算机系统应用,2019,28(11):176-181

复制
分享
文章指标
  • 点击次数:
  • 下载次数:
  • HTML阅读次数:
  • 引用次数:
历史
  • 收稿日期:2019-04-17
  • 最后修改日期:2019-05-20
  • 录用日期:
  • 在线发布日期: 2019-11-08
  • 出版日期: 2019-11-15
您是第位访问者
版权所有:中国科学院软件研究所 京ICP备05046678号-3
地址:北京海淀区中关村南四街4号 中科院软件园区 7号楼305房间,邮政编码:100190
电话:010-62661041 传真: Email:csa (a) iscas.ac.cn
技术支持:北京勤云科技发展有限公司

京公网安备 11040202500063号