在测试集8 000帧图像中,目标像素小于等于40×40的图像共有1 200帧,YOLOv3模型正确识别无人机图像数量为7 254,正确率为90.67%;增加更小特征尺度后正确识别无人机图像数量为7 616,识别正确率为95.2%,相较于YOLOv3提高约5%。
在对两段视频的测试中,视频1包含2 350帧,视频2包含1 780帧,对于本文提出的基于更小特征尺度的YOLOv3+KCF模型,正确识别与跟踪的总帧数分别为2 200和1 675,正确率分别为93.6%和 94.1%。对于分辨率为1 280×720图像,单帧检测时间为0.025~0.030 s,单帧跟踪时间为0.010~0.012 s。
图4为对较小目标的检测结果,其中图4(a)目标大小为40×35,图4(b)目标为30×28,单位为像素。可以看出,在目标所占像素较少的情况下,增加了更小特征尺度的YOLOv3模型依然可以成功将无人机目标检测出来;而限于目标尺寸的影响,YOLOv3模型未能成功检测到目标。
图4 较小目标检测结果
Fig.4 Results for small UAV targets
图5为视频1的测试结果。图5(a)为视频第1帧,检测到无人机并标注为UAV。图5(b)为第185帧图像,当前为跟踪状态,标注为“Tracking”。图5(c)为第328帧,依旧处于跟踪状态,目标没有丢失。图5(d)为第800帧,由于背景变化较大,且目标与背景颜色较为接近,本帧跟踪时目标丢失。实时计算此时的脊回归函数f(z)为0.17,小于设定的阈值0.20,即认为跟踪目标丢失,需重新进行目标检测。图5(e)为第801帧,重新进行目标检测后,成功检测到无人机,并转向跟踪。图5(f)为第926帧,当前处于跟踪状态,表明从第802帧开始一直处于跟踪状态,并正确跟踪到无人机目标。

图5 视频1测试结果
Fig.5 Experiments for video1
图6为视频2的测试结果。图6 (a)为视频第1帧,检测到无人机并标注为UAV。图6(b)为第168帧图像,当前为跟踪状态,标注为“Tracking”,可以看到背景始终为天空。图6(c)为第470帧,依旧处于跟踪状态,但背景逐渐从纯天空向建筑物过渡。图6(d)为第984帧,此时背景变为树叶,相较天空背景变化较大,且此时目标与背景颜色较为接近,导致本帧跟踪时目标丢失。实时计算此时的脊回归函数f(z)为0.13,小于设定的阈值0.20,即认为跟踪目标丢失,需重新进行目标检测。图6(e)为第985帧,重新检测到无人机,并转向跟踪;图6(f)为第1 119帧,处于跟踪状态,表明自最近一次重新检测后,一直处于跟踪状态,验证了所提方法的有效性。

图6 视频2测试结果
Fig.6 Experiments for video2
表1为YOLOv3、小尺度YOLOv3、小尺度YOLOv3+KCF分别在上述静态样本、视频1和视频2中的性能对比。从表中可以看出,对于样本集图像来说,加入小尺度特征后,识别率提升近5%。对于视频1和视频2,单纯用YOLOv3或者小尺度YOLOv3去进行目标检测与跟踪(检测式跟踪),二者的识别正确率都要比本文方法高。其中,YOLOv3的正确率比本文方法略高一点。但是这种每帧都进行检测的方法对资源需求太高,每帧检测时间平均为0.03 s左右,即30 fps,再加上一些其他处理,经常会低于25 fps,不能满足工程上的实时处理。而本文方法在目标跟踪时,只有当目标丢失时才会重新检测,在目标没有丢失的情况下均进行跟踪,而跟踪的处理时间仅为0.012 s左右。因此,通过加权计算本文方法每帧检测及跟踪时间平均为0.022 s左右,即使算上其他资源消耗,也可满足30 fps实时处理需求。
表1 YOLOv3、小尺度YOLOv3、小尺度YOLOv3+KCF性能对比
Tab.1 Performance comprison of YOLOv3, small-scale YOLOv3 and small-scale YOLOv3+KCF
5 结 论
为了对“黑飞”的无人机进行光电探测与跟踪,本文搭建了基于转台与高清可见光相机的无人机目标实时探测系统,在YOLOv3模型基础上增加更小的特征尺度并结合KCF模型,实现对无人机目标的实时检测与跟踪。试验结果表明,通过在包含大疆御Pro、精灵3等无人机在内的8 000帧无人机图像组成的静态测试集上进行实验,增加更小特征尺度后的模型对小目标的识别率较之原始YOLOv3模型提高约5%。对于1 280×720分辨率的动态视频,每帧检测时间为0.025~0.030 s(33 fps),且根据选定的阈值,当无人机目标丢失后可重新进行检测,每帧跟踪时间为0.010~0.012 s(85 fps),这对于未来全自动式无人机探测系统的研制具有重要意义。然而,无人机种类繁多,不可能穷尽所有无人机目标,本文只是对常见的几种旋翼式无人机进行了取样和训练,对于固定翼式的无人机目标并没有考虑,进一步工作将主要集中在更多种类更多数量的无人机目标样本获取及神经网络模型优化等相关研究方面。
参 考 文 献:
[1] 蒋兆军,成孝刚,彭雅琴,等.基于深度学习的无人机识别算法研究[J].电子技术应用,2017,43(7):84-87.
JIANG Z J, CHENG X G, PENG Y Q, et al. A novel UAV recognition algorithm based on deep learning approach [J]. Application of Electronic Technique, 2017, 43(7): 84-87. (in Chinese)
[2] 张静,张科,王靖宇,等.低空反无人机技术现状与发展趋势[J].航空工程进展,2018,9(1):1-8,34.
ZHANG J, ZHANG K, WANG J Y, et al. A survey on anti-UAV technology and its future trend [J]. Advances in Aeronautical Science and Engineering, 2018, 9(1): 1-8, 34. (in Chinese)
[3] 陈唯实,刘佳,陈小龙,等.基于运动模型的低空非合作无人机目标识别[J].北京航空航天大学学报,2019,45(4):687-694.
CHEN W S, LIU J, CHEN X L, et al. Non-cooperative UAV target recognition in low-altitude airspace based on motion model [J]. Journal of Beijing University of Aeronautics and Astronautics, 2019, 45(4): 687-694. (in Chinese)
[4] 王靖宇,王霰禹,张科,等.基于深度神经网络的低空弱小无人机目标检测研究[J].西北工业大学学报,2018,36(2):258-263.
WANG J Y, WANG X Y, ZHANG K, et al. Small UAV target detection model based on deep neural network [J]. Journal of Northwestern Polytechnical University, 2018, 36(2): 258-263. (in Chinese)
[5] 翟进有,代冀阳,王嘉琦,等.深度残差网络的无人机多目标识别[J].图学学报,2019,40(1):158-164.
ZHAI J Y, DAI J Y, WANG J Q, et al. Multi-objective identification of UAV based on deep residual network [J]. Journal of Graphics, 2019, 40(1): 158-164. (in Chinese)
[6] 虞晓霞,刘智,耿振野,等.一种基于深度学习的禁飞区无人机目标识别方法[J].长春理工大学学报(自然科学版),2018,41(3):95-101.
YU X X, LIU Z, GENG Z Y, et al. A UAV target recognition method for no flying zone based on deep learning [J]. Journal of Changchun University of Science and Technology (Natural Science Edition), 2018, 41(3): 95-101. (in Chinese)
[7] 祁蒙,王林,赵柱,等.新型“低慢小”目标探测处置系统的体系建设[J].激光与红外,2019,49(10):1155-1158.
QI M, WANG L, ZHAO Z, et al. Advanced low-slow-small targets detection and disposal system construction [J]. Laser & Infrared, 2019, 49(10): 1155-1158. (in Chinese)
[8] 屈旭涛,庄东晔,谢海斌.“低慢小”无人机探测方法[J].指挥控制与仿真,2020,42(2):128-135.
QU X T, ZHUANG D Y, XIE H B. Detection methods for low-slow-small (LSS) UAV [J]. Command Control & Simulation, 2020, 42(2): 128-135. (in Chinese)