基于YOLOv3增强模型融合的人流密度估计
作者:
作者单位:

作者简介:

通讯作者:

中图分类号:

基金项目:


Crowd Density Estimation Based on YOLOv3 Enhanced Model Fusion
Author:
Affiliation:

Fund Project:

  • 摘要
  • |
  • 图/表
  • |
  • 访问统计
  • |
  • 参考文献
  • |
  • 相似文献
  • |
  • 引证文献
  • |
  • 增强出版
  • |
  • 文章评论
    摘要:

    为了解决在复杂背景以及人流密集且互相遮挡的场景下, 对人流密度进行估计精度低的问题, 提出了基于YOLOv3增强模型融合的方法进行人流密度估计. 首先将数据集分别进行头部标注和身体标注, 生成头部集和身体集. 然后用这两个数据集分别训练两个YOLOv3增强模型YOLO-body和YOLO-head, 最后使用这两个模型在相同的测试数据集上推理, 将其输出结果进行极大值融合. 结果表明基于YOLOv3增强模型融合的方法, 与原始目标检测方法和密度图回归的方法相比精度提高了4%, 且具有较好的鲁棒性.

    Abstract:

    The accuracy of crowd density estimation is low in complex backgrounds and the scenario with dense and mutually occluded crowds. To solve this, we propose a method based on YOLOv3 enhanced model fusion to estimate crowd density. The heads and bodies in the data set are labeled to generate head and body sets, which can then help train the two YOLOv3 enhanced models: YOLO-body and YOLO-head. Finally, the two models are reasoned on the same test data set, and their outputs are fused to the maximum value. Consequently, the method based on YOLOv3 enhanced model fusion has great robustness because its accuracy is 4% higher than that of original target detection and density map regression.

    参考文献
    相似文献
    引证文献
引用本文

孙乾宇,张振东.基于YOLOv3增强模型融合的人流密度估计.计算机系统应用,2021,30(4):271-276

复制
分享
文章指标
  • 点击次数:
  • 下载次数:
  • HTML阅读次数:
  • 引用次数:
历史
  • 收稿日期:2020-08-19
  • 最后修改日期:2020-09-25
  • 录用日期:
  • 在线发布日期: 2021-03-31
  • 出版日期:
您是第位访问者
版权所有:中国科学院软件研究所 京ICP备05046678号-3
地址:北京海淀区中关村南四街4号 中科院软件园区 7号楼305房间,邮政编码:100190
电话:010-62661041 传真: Email:csa (a) iscas.ac.cn
技术支持:北京勤云科技发展有限公司

京公网安备 11040202500063号