基于AGV的目标检测与追踪文献综述

Download Report

Transcript 基于AGV的目标检测与追踪文献综述

基于AGV的目标检测与追踪文献综述
周凯
1
目录
AGV概述
AGV目标检测
AGV目标追踪
研究展望
参考文献
2
1.AGV概述
按照导引原理的不同,分为外导式和自导式两大
类型[1]。
1)外导式(固定路径导引):是在运行路线上设置导
向信息媒介,如导线、色带等,由于车上的导向传感
器检测接收到导向信息(如频率、磁场强度、光强度
等),再将此信息经实时处理后用以控制车辆沿运行
线路正确地运行。
2)自导式(自由路径导引):采用坐标定位原理,即
在车上预先设定运行作业路线的坐标信息,并在车辆
运行时,实时地检测出实际的车辆位置坐标,再将两
者比较、判断后控制车辆导向运行(激光导引、视觉
导引)。
3
1.AGV概述
光学与磁性导引方式
最早的导引方式,在AGV运行路径
上粘贴反光带或者磁力线,通过
AGV上的光学识别装置和磁力识别
装置识别路径。
优点:导向线路费用低。
缺点:控制和通讯线路需另行单独
铺设;导向线路必须保持清洁。
4
1.AGV概述
电磁感应导引
应用最为广泛,在地板内埋入密封电
磁线,由交流频率发生器输入形成环
路,产生一个同心圆磁场;AGV上装
设感应线圈,可以检测磁场强度偏移
量,实现导引。
优点:埋线隐蔽;不易污染和破损;
易于控制和通讯;抗声光干扰;成本
低。
缺点:路径难改,复杂交叉路径、楼
上有钢筋地板难实现。
5
1.AGV概述
激光导引
路径的周围安装位置精确的激光反射
板,AGV发射激光束,采集反射的激
光束,确定位置和方向,通过连续的
三角几何运算来实现AGV的导引。
优点:定位精度高;地面无需其他辅
助定位;路径灵活,变更方便;适合
多种环境;适应复杂路径和狭窄通道;
系统兼容性和扩展性好。
缺点:价格较贵;扫描头需较高位置。
近年来,国内及欧洲优先采用。
6
1.AGV概述
视觉导引
这是一种处于发展中的技术。主要是通过CCD摄像头获取周边或
者地表图像,然后进行仿生图像识辨确定自身坐标位置,进而导
引AGV。
其一就是标识线图像识别方法,它是在AGV运行所经过的地面上
画1条标识明显的导向标线,利用CCD系统动态摄取标线图像并识
别出AGV相对于标线的方向和距离偏差,以控制车辆沿着设定的
标线运行。
其二就是利用CCD系统动态摄取运行路径周围环境图像信息,并
与拟定的运行路径周围环境图像数据库中的信息进行比较,从而
确定当前位置及对继续运行路线做出决策。这种方法不要求设置
任何物理路径,因此,在理论上是最佳的柔性导向。但实际应用
还存在问题,主要是实时性差和运行路径周围环境信息库的建立
困难。
7
2.AGV目标检测
静态背景的动态目标检测技术(背景建模)
Haritaoglu I. et al.(2000)[2]运用已有背景与检测到的背景进行差分
,从而检测出交通监控过程中的运动目标,并按时段进行背景更
新。
如果事先不知道背景,可以用著名的高斯模型进行背景建模,高
斯模型分为单一高斯模型(Christopher W.et al(1997)[3])和混合高
斯模型(Stauffer C.et al.(1999)[4]),与帧间差分算法结合起来发
展了很多新的算法。
8
YANG Jun et al.(2009)[5]改进了单高斯模型利用均值法初始化背景
模型,引入判断值进行背景更新,从而解决了目标物体停止而造成的
误检测为背景,也抑制了非背景物体造成的干扰。
陈祖爵等(2007)[6]在混合高斯模型基础上,在模型更新中引入了
加速因子和合理性反馈使得模型能更快、 更准确地反应真实的背
景。
刘静等(2010)[7]提出一种混合高斯模型背景法与三帧差分法相结
合的运动目标检测新算法,对目标区域和背景区域进行不同的混
合高斯背景模型的更新策略,提高了模型的收敛速度,达到了实
时性。
9
2.AGV目标检测
静态背景的动态目标检测技术(光流法)
光流场不同于运动场,光流通过亮度表观运动反应实际的目标运
动。
比较著名的有Horn-Schunck光流法[8]和Lucas-Kanade[9]光流法,
前者为致密光流,对图像每个像素点进行检测,后者为稀疏光流
,部分检测。光流法可以同时用于静态背景和动态背景两种情况
下的目标检测中,目前的研究集中于光流法与其他算法的结合上
。
10
2.AGV目标检测
动态背景的动态目标检测技术(运动补偿法与光流法)
运动补偿法通过建立相应的仿射模型,来补偿摄像机的运动所带
来的图像总体背景的运动,然后运用静态背景的运动目标检测技
术检测目标。
Shoichi Araki(1998)[10]提出了一种用具有鲁棒统计特性的最小中
位平方(Least Median of Squares)来估计仿射模型的参数,此方法
通过对所有像素建立模型,并提出运动目标上的错误点。
11
Robert Collins et al.( 2006)[11]使用一个全局运动模型(仿射或投影)
来估计两帧之间的背景运动。用标准化的互相关匹配两帧之间的
Harris角点来计算稀疏流。给定两帧之间的一组有潜力的对应角点,
采用Random Sample Consensus(RANSAC)算法从得到的偏移矢量中
鲁棒估计出全局运动参数。
Dongxiang Zhou et al.(2009)[12]在此基础上将David G.Lowe(1999,
2004)[13,14]提出的SIFT特征点来代替Harris角点,并与传统的光流法
进行了比较,从而得到了很好的检测效果。
安博(2009)[15]将基于预测的灰度投影法动态背景补偿与基于梯度阈值
的LK-HS光流法相结合,进行了运动目标的检测。
Gilles Aubert et al.( 2001)[16]在获得摄像机的运动参数后,运用基于区
域的主动轮廓模型(ACM),得到了运动目标的边界,从而分割出运动
目标。
12
3.AGV目标追踪
地面标识线(Landmark)跟踪型AGV
国内研究较多
杨世才,赵林度(2009)[17]提出了一种不同尺度的双目视觉AGV导
引方法,运用多尺度滤波思想获得道路信息,并对前进道路的障
碍物进行了去障研究。
13
3.AGV目标追踪
人体追踪(Human-Following)类型AGV
国外研究较多
Nobutaka Hirai et al.[18]提出人体追踪类型AGV,主要根据人体
特征识别肩膀和后背,达到追踪的目的。
14
3.AGV目标追踪
追踪方法研究
Meanshift
Kalman Filter
Bayes Filter
Partical Filter
结合算法
15
Meanshift
Meanshift又叫均值漂移,由Fukunaga (1975)[19]等人在1975年的一篇
关于概率密度梯度函数的估计的文章中提出来的,其最初含义正如其
名,就是偏移的均值向量。
Yizong Cheng(1995)[20]成功把它扩展,并且运用到计算机视觉领域,
这引起了人们的广泛关注。
Comaniciu,Meer et al.(1999,2002)[21,22]成功将Meanshift方法应用到图
像分割和特征空间分析中。
Comaniciu,Meer et al.(2000,2003)[23,24]主要讨论MeanShift中核函数带
宽选择问题和实时追踪问题。
16
Collins(2003)[25]将尺度空间和Meanshift算法相结合解决了核函数带宽
实时变化的目标跟踪。
彭宁篙,杨杰(2005)[26]使用角点与Meanshift算法进行结合,增强了
对目标缩放的追踪能力。
林庆等(2009)[27]将多尺度空间理论与Kalman滤波器相结合,利用
Kalman滤波器对尺寸变化的目标面积比例进行预测的方法提出目标自
适应的跟踪算法。
颜佳等(2009)[28] 基于Meanshift算法,采用跟踪窗口内协方差矩阵主分
景分析法来计算跟踪目标的方向和尺寸大小。
黄家祥等(2009)[29]将Meanshift中的迭代步长进行了改进,提出了自
适应步长方法,从而增加了收敛速度。
17
4.研究展望
目标检测方面将集中于动态目标检测,不同于交通监测,
需要在前几帧检测出目标,考虑将光流算法用于匹配后的
检测,同时结合snake算法检测轮廓区域进行追踪。
定位后的目标追踪集中于研究适合Human-Following的AGV追
踪,Meanshift与两种Kalman Filter结合算法。
追踪标记设计,衣服背部贴标签方式,缩小追踪区域。
实时性算法(难点)。
18
5.参考文献
[1]张辰贝西,黄志球.自动导航车(AGV)发展综述[J].信息技术应用.2010,39(1),53-59
[2] Haritaoglu I , Har wood D,Davis L S . W: real-time surveillance of people and their activities [J ]. IEEE Trans
on Pattern Analysis and Machine Intelligence, 2000, 22(8) : 809 .
[3] WREN C,AZARBAYEJANI A,DARREL T,et al.Pfinder:real-time tracking of the human body [J].IEEE
Transactions on Pattern Analysis and Machine Intelligence,1997,19(7):780-785.
[4]Stauffer C,Grimson W.Adaptive background mixture models for real time tracking [C] Proceedings of IEEE
International Conferenceon Computer Vision and Pattern Recognition,1999:246-252.
[5]杨珺,史忠科.基于改进单高斯模型法的交通背景提取[J].光子学报,2009,38(5),1293-1296.
[6]陈祖爵, 陈潇君 ,何鸿.基于改进的混合高斯模型的运动目标检测[J].中国图象图形学报,2007,12(9),15851589.
[7]刘静,王玲.混合高斯模型背景法的一种改进算法[J].计算机工程与应用,2010,46(13),168-170.
[8] Horn,B.K.P.and Sehunc KB.G.Determining optical flow.Artificial Intelligence [J]. Vol17,1981, pp 185-203.
[9] B.Lucas and T.Kanade. An iterative image registration technique with an application to stereo vision[J].Proc.
DARPA Image Understanding Workshop,1981,121-130.
[10].Araki,S.Matsuoka,T.Takemura,H.Yokoya,N.Real-time Tracking ofMultiple Moving Objects in Moving
Camera Image Sequences Using Robust Statistics[J].Graduate Sch.of Inf.Sci.Nara Inst.of
Sci.&Technol.1998.vol.2,pp 1433~1435.
[11]Zhao zheng Yin,Robert Collins.Moving Object Localization in Thermal Imagery by Forward-backward
MHI[A].Proceedings of the 2006 Conference on Computer Vision and Pattern Recognition[C].New York :IEEE, 19
2006 :133~133.
[12] Dongxiang Zhou, Liangfen Wang, Xuanping Cai, and Yunhui Liu. Detection of Moving Targets with a
Moving Camera [J]. Proceedings of the 2009 IEEE International Conference on Robotics and
Biomimetics,2009,677-681.
[13] D. G. Lowe. Object recognition from local scale-invariant features [A]. In: Proceedings of the IEEE
International Conference on Computer Vision [C]. Kerkyra, Greece, 1999:1150-1157.
[14] D. G. Lowe. Distinctive image features from scale-invariant keypoints [J]. International Journal of Computer
Vision, 2004, 60(2):91-110.
[15]安博;动态背景下运动目标检测的研究[D];天津理工大学;2009.
[16]Stéphanie Jehan-Besson,Michel Barlaud,Gilles Aubert:Region-based active contours for video object
segmentation with camera compensation.ICIP(2)2001:61~64.
[17] Yang S, Zhao L. AGV Guidance Methods based on Various Scale Binocular Vision[J]. Chinese Association of
Automation Congress 2009. Hangzhou, China, 2009.
[18] Nobutaka Hirai, Hiroshi Miroguchi. Visual Tracking of Human Back and Shoulder for Person-Following
Robot[J]. Proceedings of the 2003 IEEE/ASME International Conference on Advanced Intelligent Mechatronics.
vol.1,527-532.
[19] ]Fukanaga K, Hostetler L.D.The estimation of the gradient of a density function,with application in Pattern
recognition[J].IEEE Trans Information Theory,1975,21(l):32-40.
[20] ]ChengYizong. Meanshift, model seeking and clustering[J].IEEE Trans. On Pattern Analysis and Machine
Intelligenee,1995,17(8):790-799.
[21] Comaniciu D, Meer P. MeanShift Analysis and Application[A].In:Proc of the7th IEEE
International Conference on Computer Vision[C].Kerkyra,Greece:IEEE Computer Society Press 1999.1197-1203. 20
[22] Comaniciu D, Meer P. MeanShift:A Robust application toward feature space analysis[J] IEEE Trans.on Pattern
Analysis and Machine Intelligence,2002,24(5):603-619.
[23] Comaniciu D,Ramesh V,Meer P.Kernel-based object tracking[J].IEEE Transactions on Pattern Analysis and
Machine Intelligence,2003,25(5):564-575.
[24] Comaniciu D,Ramesh V,Meer P. Real-time Tracking of Non-rigid Objects Using MeanShift[A].In:Proc of the
IEEE Conference on CVPR[C].South Carelina,USA:IEEE Computer Society Press,2000,142-149.
[25] Collins R T. Mean-shift Blob Tracking through Scale Space[A].In: Proceedings of the IEEE Computer Society
Conference on Computer version and Pattern Recognition [C]. Wisconsin,USA:IEEE Computer Society
Press,2003.234-240.
[26] ]彭宁篙,杨杰,刘志,张风超.Mean-Shift跟踪算法中核函数窗宽的自动选取[J].软件学报,2005,16(9):15422550.
[27]林庆,陈远祥,王士同,詹永照.目标窗口尺寸自适应变化的Mean-Shift跟踪算法[J].计算机应用,2009,29(12),
3329-3335.
[28]颜佳,吴敏渊,陈淑珍,张青林.跟踪窗口自适应的Mean Shift跟踪[J].光学和精密工程,2009,17(10),2606-2611.
[29]黄家祥,李绍滋,成运,张帆. Mean Shift 自适应步长的改进[J].厦门大学学报(自然科学版)
,2009,48(2),189-193.
21