结合对象分割的运动行人检测
作者:
作者单位:

作者简介:

通讯作者:

中图分类号:

基金项目:


Moving Pedestrian Detection Framework with Object Segmentation
Author:
Affiliation:

Fund Project:

  • 摘要
  • |
  • 图/表
  • |
  • 访问统计
  • |
  • 参考文献
  • |
  • 相似文献
  • |
  • 引证文献
  • |
  • 增强出版
  • |
  • 文章评论
    摘要:

    目标检测大量应用于监控系统的行人检测以及人脸识别,是当前深度学习的研究热点.监督学习利用人工标注大量数据集训练出针对特定场景的行人检测器.但是人工标注方法费时费力,本文针对监督学习需要人工标注数据集的缺点,研究了一种半自动标注行人的方法.针对静止的单目摄像机拍摄的监控视频,利用光流信息提供的初始前景可能性,以及跨越时间的视觉相似性来迭代地更新初始的前景可能性,分割出运动的行人,根据分割的前景对象,提出了一种半自动标注行人的方法.实验结果显示,本文的方法可以为行人检测系统提供大量数据集,且效率上明显优于传统人工标注的方法.

    Abstract:

    Object detection is widely used in surveillance systems for pedestrian detection and face recognition. It is a research hotspot of current deep learning. Supervised learning trains pedestrian detectors for specific scenes by manually annotating large datasets. However, the manual labeling method is time-consuming and laborious. In this work, the shortcomings of manual labeling of datasets for supervised learning are studied. A method of semi-automatic labeling of pedestrians is proposed. The surveillance video captured by the stationary monocular camera, using the initial foreground possibilities provided by the optical flow information, and the visual similarity across time, iteratively updates the initial foreground likelihood to segment the moving pedestrians. According to the segmented foreground pedestrians, a method of semi-automatic labeling of pedestrians is proposed. The experimental results show that the proposed method can provide a large number of datasets for the pedestrian detection system, and the efficiency is obviously superior to the traditional manual annotation method.

    参考文献
    相似文献
    引证文献
引用本文

宫法明,吕轩轩,宫文娟,王晓宁.结合对象分割的运动行人检测.计算机系统应用,2019,28(5):232-237

复制
分享
文章指标
  • 点击次数:
  • 下载次数:
  • HTML阅读次数:
  • 引用次数:
历史
  • 收稿日期:2018-11-21
  • 最后修改日期:2018-12-12
  • 录用日期:
  • 在线发布日期: 2019-05-05
  • 出版日期: 2019-05-15
您是第位访问者
版权所有:中国科学院软件研究所 京ICP备05046678号-3
地址:北京海淀区中关村南四街4号 中科院软件园区 7号楼305房间,邮政编码:100190
电话:010-62661041 传真: Email:csa (a) iscas.ac.cn
技术支持:北京勤云科技发展有限公司

京公网安备 11040202500063号