童祖兵[1]2016年在《巡线机器人视觉导航研究》文中认为巡线机器人作为替代传统人工巡检和航测巡检的新型输电线路巡检技术,可提高输电线路的巡检效率和质量,保证输电线路的稳定工作。作为机器人领域的热门研究课题之一,巡线机器人具有较高的使用价值和应用前景。本文主要研究了立体视觉导航技术在巡线机器人中的应用方案,结合巡线机器人的运动模型,验证了视觉导航的可行性和稳定性,并对相关关键技术进行了分析和研究,具体研究内容包括:双目立体视觉系统、巡线机器人运动学模型建模、巡线机器人的视觉导航方案、稳定性控制与立体视觉推算跟踪。双目立体视觉系统是实现立体视觉导航的基础。论文研究了双目立体视觉系统的成像模式及立体测量原理,并分析了双目立体视觉系统的标定方法,最后实验得出了标定结果。巡线机器人运动模型是实现巡线机器人运动控制的基础。论文在分析了巡线机器人的运行环境的基础上,讨论了越障行为方式,设计了一种新的越障结构及方式,并研究了其运动模型以及双目立体视觉子系统在该结构中的作用方式。视觉导航是巡线机器人实现沿线巡检功能的基本保障。论文在研究了常用的机器人视觉导航方式的基础上,提出了一种应用于本文设计的巡线机器人的视觉导航方式,并讨论了该巡线机器人的越障行为规划方案,通过实验验证了该导航方式在越障过程中的可行性与稳定性。稳定性控制与立体视觉推算跟踪作为视觉导航控制的辅助控制关键技术,有利于实现巡线机器人的稳定巡航和越障。论文依据巡线机器人的运动模型,分析了重心调整机构在巡线机器人稳定性控制中的应用,并分析了俯仰式双目立体视觉系统在视觉导航中的跟踪应用。综上所述,研究结果表明了本文所提出的巡线机器人的视觉导航方案能够实现巡线机器人运动模型辅助立体视觉导航,方案可行稳定;所设计的前视觉俯仰系统及重心调整机构能够提高视觉导航稳定性。本文所做工作对巡线机器人的进一步研究有一定的推进作用,为后续的机器人巡线探损工作奠定了基础。
庄晓霖[2]2016年在《基于机器视觉的路径识别及避障导航系统》文中研究指明设施农业在国民经济发展中起着举足轻重的作用,但其作业劳动强度大,长期处在封闭环境下。为了减轻人员在农业生产作业中的劳动强度,针对设施农业作业环境复杂,障碍物多,路径狭窄等问题,本文以自主研制的高地隙小车作为平台,设计了用于设施农业中的路径识别和避障导航系统,以实现小车在设施农业的作业环境下稳定高效地避障导航控制。对于路径识别导航系统,本文提出了用于实际路径检测的图像处理算法,其中包括利用带滤波的二值化识别黑白路径、利用RGB颜色空间识别彩色路径、利用2GRB颜色空间识别绿色植物、利用HSV颜色空间识别彩色路径、中心线法提取路径、单区域的Hough变换提取路径、双区域的Hough变换提取路径、多区域的Hough变换提取路径等,以实现小车的自主导航。该系统对不同颜色的标识线、绿色植物与裸露地面的分界线等一系列路径进行识别和导航控制,以期实现多种环境下的路径识别和导航控制。对于小车避障立体视觉系统,本文首先介绍了两种用于提取视差图的传感器,第一种是基于红外线测距的Xtion传感器,第二种是双目摄像头;然后详细介绍了双目视觉系统中的双目标定、双目校正和立体匹配的具体实现;其次本文提出了一种新的插值算法专门适用于本系统并利用两种传感器对物体进行叁维重构;一种利用手势控制小车的方法被运用;本文根据提取出来的视差图获取设施农业中障碍物的叁维形态和与小车的距离,进而设计出小车行走的最优路线,使小车能够快速准确地识别并躲避障碍物,沿着标识路径行进至指定位置;本文最后还进行了路径识别、立体视觉测距、避障等相关的实验以验证算法的合理性。试验结果表明所开发的路径识别和避障导航系统能对不同颜色的标识线、绿色植物与裸露地面的分界线等一系列路径进行识别和导航控制,准确测算障碍物的叁维形体,安全躲避障碍物。系统的稳定性高、实时性好、抗干扰能力强,能满足无人控制高地隙小车在设施农业中的作业需求,并为应用于设施农业作业的高地隙小车导航控制系统设计提供参考。
曹腾[3]2015年在《基于视差空间的自主车视觉导航》文中认为在地面移动机器人领域,自主导航是一个热点的研究课题。研究基于双目立体视觉的自主车的导航技术,对于自主导航技术的推广和普及具有非常重要的意义。如何更好的利用双目立体视觉传感器进行环境感知和路径规划仍然面临着巨大的挑战,通过充分挖掘和利用双目立体视觉所构成的视差空间的特性,可以有效弥补立体视觉易受图像噪声、场景结构等因素影响的缺陷,有助于推广立体视觉在自主导航中的应用。本学位论文提出了一个全新的基于双目立体视觉的自主车的导航框架,直接在视差空间完成所有的环境感知和路径规划的任务。有效解决了立体视觉环境感知可靠性不高、效率较低的问题,促进了双目立体视觉在自主导航系统中的应用。本论文主要贡献如下:1.首次提出了:1)视差空间中的坡度模型。在视差空间中对叁维场景的坡度进行建模,发现以图像中的列为单位分析得到的坡度是运动方向自适应的,该坡度直接由视差空间中直线的截距所决定;2)视差空间中的运动模型。提出一种新的视差点坐标形式,“视差归一化的齐次像素”坐标,使刚体的运动模型在视差空间中具有线性的形式,从而可以直接在视差空间中更加高效的对相机的运动进行估计。2.基于视差空间中的运动模型,提出了视差点集合的线性最小二乘拟合和非线性最小二乘拟合两个算法,直接在视差空间中高效求解最优的运动参数。并结合随机抽样一致性、扩展卡尔曼滤波器和局部的光束法平差实现了一个鲁棒的基于视差空间的视觉里程计框架。确定运动参数之后,基于颜色一致性和可视性约束直接融合多帧连续的视差图,构建更加可靠完整的局部地图。3.基于视差空间中的坡度模型,提出了一个全新的基于视差空间的Ⅴ-截距障碍物分析方法。方法以坡度和高度作为障碍物代价衡量的两种基本特征,首先基于索贝尔算子计算截距,再聚合高坡度区域并结合物体相对地面的高度综合分析代价,从而实现了直接在视差空间中高效、鲁棒的分析并生成不同地形的代价。实验结果表明Ⅴ-截距方法检测效果优于经典的v-disparity方法,适用于多种不同环境。4.提出和实现了完整的基于视差空间的导航框架及其结构,包括改进的基于半全局匹配算法的初始视差图生成,视差空间中障碍物膨胀的合理策略以及基于A*算法的路径规划和平滑。实验结果表明该框架在地图构建及障碍物分析等方面的通用性和鲁棒性,为自主车的导航提供了安全合理的指引。针对基于双目立体视觉的导航系统通常存在实时性较差的缺点,提出了几种基于并行处理思路的优化方法,优化后的系统在1242×375分辨率的视差图上达到了9.5帧/秒的处理速度。
冯为嘉[4]2012年在《基于鱼眼镜头的全方位视觉及全景立体球视觉研究》文中研究指明全方位视觉系统可一次拍摄获取水平方向360场景的全部图像信息,然而基于光的反射原理,它在垂直方向视场有限;全景视觉系统无须视觉机械回转或扫描即可将全部视场内的景物一眼看遍,但将叁维信息投影至二维图像,损失一维景深信息;立体视觉系统根据视差原理来计算景物的深度,由于大多采用常规镜头构建,其立体信息重迭范围极其有限。论文通过对基于鱼眼镜头的全方位视觉及全景立体球视觉研究,探索全方位视觉测量新方法以及新型的机器视觉方案。研究内容主要包括:1.鱼眼镜头视觉系统基础理论研究。采用鱼眼镜头建立全方位视觉系统,获得360×180的视场范围。建立鱼眼镜头全方位视觉系统几何模型,开展系统参数标定方法、鱼眼图像畸变矫正算法等基础理论研究。2.鱼眼镜头视觉系统应用的关键技术研究。开展基于鱼眼图像的多机动目标识别、跟踪、定位等鱼眼镜头视觉系统应用的关键技术研究。将理论研究成果应用至移动机器人视觉自主导航和视频监控领域,实现了不同机器人平台的室内、室外自主导航和监控空间内的全局目标监测;3.全景立体球视觉在全方位视觉研究取得成果的基础上,进一步发展全景视觉与立体视觉理论,揭示全景视觉与立体视觉是可以有机结合、优势互补的客观规律,最终提出一项新的机器视觉方案-“全景立体球视觉”。构建全景立体球视觉理论体系将其抽象为“球视觉”模型,建立几何及数学模型;搭建全景立体球视觉仿真系统,在立体标定空间内实现对“球视觉”内、外部参数的标定;4.嵌入式全方位视觉系统平台及全景立体球视觉图像处理器硬件设计。依托嵌入式技术研发嵌入式全方位视觉系统平台,开展理论研究成果的嵌入式系统程序移植工作,实现了小型化、模块化、集成化的设计理念。在此基础上提出全景立体球视觉系统的基于四组成像芯片+FPGA+DSP硬件架构的集图像采集、处理、分析于一体的嵌入式图像处理器设计及功能模块分工方案。
杜歆[5]2003年在《用于导航的立体视觉系统》文中研究指明陆地自主车(Autonomous Land Vehicle,简称ALV)是一种能够在道路和野外连续地、实时地自主运动的智能移动机器人,其研究涉及多个学科的理论与技术,体现了信息科学与人工智能技术的最新成果,具有重大的研究价值和应用价值,受到了世界各国的重视。在移动机器人的各项关键技术中,视觉导航的主要功能是对各种道路场景进行快速识别和理解,从而确定移动机器人的可行驶道路区域,而视觉导航技术的关键是障碍物的快速检测与识别。相对与其他的方法,立体视觉是一种被动式的测量方法,本身不发出光以及其他辐射源。具有隐蔽性好,测量快速、准确等优点。因此,立体视觉导航是ALV研究的一个重要内容。本论文旨在对应用于地面自主车导航的立体视觉系统进行研究和设计实现。 立体视觉摄像机的精确定标是立体视觉研究的基础,本文第二章首先展开对此问题的研究。与实验室环境要求不同的是,在地面自主车的应用背景下,系统对摄像机定标过程提出了快速、精确,且必须是在线标定要求。围绕这个中心,本文在众多的定标方案中,选择了一个简捷精确的定标方案,该方案不需要很精确的实验室环境,适应性强,只需要在车辆前方任意放置几幅不同姿态的平面模板即可完成整个在线标定工作。此外,立体图对的外极线配准也是一个必不可少的工作。本文提出了一种二步旋转的外极线配准新方法。与传统的方法相比,本文提出的方法还具有可应用于线性多基线立体视觉系统中的优点。实验结果表明,本文的方法简单有效。 对于立体匹配算法,本文第叁章进行了深入研究,研究中突出了算法实时性和鲁棒性要求。研究内容包含了立体匹配算法的各个方面,如相似性度量因子的选择、窗口的尺寸对匹配结果的影响、立体图对的预处理、视差图的后处理的方法,以及区域法立体匹配的加速技巧等,并结合自然场景图对和人工合成图对进行了定性、定量的分析。重点突出在强实时性背景下的立体匹配算法研究。同时,针对局部法立体匹配的不足,提出了一种将金字塔分层匹配与控制点修正技术相结合的基于动态规划的新方法。该方法将金字塔分层匹配与控制点技术相结合,不但能提高算法的实时性,还能减少动态规划方法所带来的条纹状瑕疵,从而提高了匹配的精度。最后还给出了叁维地形图重建的方法和实验结果。 众所周知,实时计算机视觉的困难主要表现在二个方面:第一、计算机视觉算法还远未成熟;第二、视觉算法的实时实现非常困难。因此,计算机视觉的研究也主要在算法和实现二个方面。本文第四章根据导航对立体视觉系统提出的高强度的计算要求和高带宽的通讯需求,对实时计算机视觉系统的体系结构展开深入研究。研究内容涉及计算机视觉任务的特征、设计方法、硬件系统的分类、视觉算法的体系特征以及视觉处理的计算资源等问题。最后,根据研究成果对立体视觉算法的各个步骤做了逐一的分析、归类,根据各算法步骤的特点,提出了一种由可重构逻辑阵列-数字信号处理器-通用处理器组成的叁层硬件体系结构。 第五章为硬件方案的具体实现,对算法各流程的硬件实现都做了翔实的介绍。针对C64x的新特性,对立体匹配算法在DSP上的加速问题进行了研究,提出了利用C64x DSP紧凑数据处理功能进行加速的新方法,并给出了逻辑仿真的结果。
倪炜基[6]2011年在《无人机导航中的立体视觉技术研究》文中研究表明立体视觉技术由于其强大的环境感知能力,广泛应用于无人机导航中的相对位置和高度估计、障碍物检测以及安全着陆点选择等领域。本文针对立体视觉技术在无人机导航过程中的一些关键问题进行了研究。首先,构建了双目立体视觉系统,完成了系统的参数标定、极线校正等工作,并利用该系统采集真实场景图像,验证了研究过程中的立体匹配算法、叁维深度信息获取的准确性。其次,针对现有立体匹配算法难以兼顾匹配精度和速度的不足,提出了一种基于色彩分割和自适应窗口的快速匹配算法。采用Middlebury dataset和实拍图像进行的实验结果表明,本算法不仅可以提高视差不连续区域和低纹理区域的匹配精度,而且获得的视差与当前主流算法具有可比性。此外,所提算法的处理时间较之当前优秀的局部方法提高了约19~35倍。然后,针对现有立体匹配算法难以在幅度失真的真实视觉导航场景下获得高精度视差,提出了一种将匹配代价计算和匹配代价累积有机融合的基于自适应Census变换的局部匹配方法。采用Middlebury dataset和实拍图像进行的实验结果表明,本算法对存在光照强度和曝光时间差异的左右视图能够获得更高精度的视差图,兼顾了匹配精度和对幅度失真的鲁棒性,能够更好的适应无人机视觉导航的应用场景。最后,初步研究了一种导航场景中基于稠密视差图区域生长的障碍物检测算法。分析了空间障碍物存在的距离和面积约束,并将约束信息与视差图结合进行障碍物检测。通过室内走廊环境下实拍立体图像的实验表明,本算法不仅有效的检测出了视场内的障碍物,而且利用立体视觉模型准确的恢复了障碍物的叁维深度信息。
陈华华[7]2005年在《视觉导航关键技术研究:立体视觉和路径规划》文中提出陆地自主车(Autonomous Land Vehicle,简称ALV)是一种能够在道路和野外连续地、实时地自主运动的智能移动机器人,其研究涉及多个学科的理论与技术,体现了信息科学与人工智能技术的最新成果,具有重大的研究价值和应用价值,受到了世界各国的重视。在移动机器人的各项关键技术中,视觉导航的主要功能是对各种道路场景进行快速识别和理解,从而确定移动机器人的可行驶道路区域,而视觉导航技术的关键是障碍物的快速检测与识别。路径规划则根据视觉处理获得的信息,在可行区域内规划出一条安全、高效的路径。陆地自主车的行驶过程即立体视觉获取前方的路面环境信息,然后通过智能控制技术使自主车沿规划的路径行走。因此本论文旨在研究陆地自主车的立体视觉系统设计和实现,以及在视觉处理获得的信息基础上进行路径规划。 摄像机的精确定标是立体视觉研究的基础,本文第二章围绕摄像机定标对各种定标模板及其控制点、摄像机模型的优缺点进行了比较和分析,结合应用环境确定了适合于自主车的定标模板和控制点以及摄像机模型,并讨论了相应的摄像机定标方法,该方法只需要用多个任意角度的平面模板进行定标,操作过程简单,而且定标精度较高,能够较好的适合自主车导航现场环境的要求。此外,立体图像对的外极线校正是降低匹配算法复杂度必不可少的工作,在这一章中首先研究了双目立体视觉校正算法,但是其有一定的局限性,不适用于多基线立体视觉系统,由此局限性出发对此算法进行修改,将其扩展到平行叁目立体视觉系统,实验结果表明,该算法正确有效并且可以推广到摄像机数目超过叁个的平行多基线立体视觉系统。 第叁章对立体匹配算法作了深入的研究,研究中突出了算法实时性和鲁棒性要求。对于局域匹配法,重点研究了区域法,对其各种相似性测度的准确性以及匹配窗口的大小进行了定性和定量的评估,对影响匹配结果的各种预处理和后处理作了深入的研究,并提出了多分辨率、盒滤波、并行指令、超线程、OpenMP等多种提高匹配实时性的加速方法。对全局匹配方法,研究了比较流行的动态规划方法和Graph cuts方法。对这两种全局匹配方法的准确性作了定量和定性的评估,并对这两种方法存在实时性较差的不足,提出了基于多分辨率的匹配方法,大大减少了匹配时间。 立体匹配的结果最终通过叁维重建来表现,在本文第四章提出了具有实时性较高的叁维重建算法,对该算法结合摄像机定标过程中的模型误差和图像噪声误差、匹配过程中的透视投影变形误差、非校准误差、系统误差、量化误差以及双目视觉系统的误差模型对重建的误差进行了分析,并提出了误差修正算法,通过实例验证了该修正算法可以减少重建误差。在重建算法的基础上,结合自主车GPS/INS提供的车体位置和姿态,对越野环境的地貌进行了全局地图构建,通过实例验证表明构建的全局地图基本符合了真实叁维场景。自主车的安全行驶除了需要叁维重建提供正确的道路信息以外,还必须根据道路信息为自主车找到一条安全、高效的免碰撞路径,这一任务由路径规划来完成。针对传统自主车路径规划算法存在对环境适应能力差、易落入局部最小点等问题,提出了采用遗传算法来动态避障和规划路径。由于标准遗传算法存在容易产生早熟收敛的问题,对标准遗传算法进行了改进,提出了改进型遗传算法,该算法收敛于全局最优,并在此基础上提出了动态避障的路径规划算法,通过对算法的仿真,表明该规划算法可以稳定地产生最优路径和实施动态避障,并具有较高的实时性,符合了白主车实时导航的要求,而且该算法产生的路径比采用标准遗传算法的路径规划产生的路径史短。关键词:陆地自主车,立体视觉,摄像机定标,外极线校正,区域法匹配,动态规划,graphcute,_二维重建,路径规划
周龙[8]2012年在《基于立体视觉和激光扫描的无人机自主导航场景测量研究》文中进行了进一步梳理无人机自主导航技术是当前的一个研究热点问题,本文研究了一种基于立体视觉和激光扫描的无人机自主导航场景测量技术。首先构建了双目立体视觉系统,并对该系统内部和外部参数进行了标定,对双目立体视觉系统获取的无人机自主导航场景图像进行了极线校正。其次,针对现有匹配算法难以在真实幅度失真图像中获取高匹配精度,提出了一种基于Census变换和改进自适应窗口的立体匹配算法,即根据图像结构和色彩信息获得基于十字骨架的Census变换窗口;利用Hamming距作为匹配代价,使用两次累加降低计算复杂度,并研究了一种基于均值偏移的视差提精方法。实验结果表明,本方法能很好的处理现有算法难以解决的幅度失真问题,视差精度与当前优秀的局部算法相当。然后,针对Census变换丢掉了图像像素自身信息而容易造成误匹配问题,提出将Census变换和图像色彩信息结合为联合匹配代价的局部匹配方法,有效的解决了Census变换和图像灰度单独作为匹配代价时存在的误匹配问题。实验结果表明,该算法使幅度失真图像的匹配误差降低了40%左右,能够更好地处理幅度失真问题。最后,在分析无人机自主导航场景测量中立体视觉存在问题和激光扫描应用缺陷的基础上,提出了一种立体视觉和激光扫描相结合的场景测量方案,即利用立体匹配算法计算视差图,对其进行区域生长并采用EGBIS分割算法对参考图像进行彩色图像分割,由此确定感兴趣目标区域,之后只针对该区域进行激光扫描获得精确的深度信息,有效的解决了激光扫描实时性不高和立体视觉深度信息不准确的问题,为无人机自主导航提供准确目标信息。
李永超[9]2010年在《基于双目视觉智能轮椅导航的关键技术研究》文中指出随着现代机器人技术的快速发展,机器人技术在工程领域的应用日益广泛。智能轮椅作为一种服务机器人,它融合了移动机器人技术、计算机技术、仿生学、模式识别等领域的先进成果,其发展也受到人们越来越多的关注;同时,具有地图记忆、自行行走避障,并能通过人机接口与用户进行简单交流的智能轮椅的出现使智能轮椅的功能出现了革命性的变革。智能轮椅虽然大量应用了移动机器人技术,但其服务对象是人,因而安全性是其首要问题。能够安全的自主或半自主导航并规划出一条无碰撞路径是其主要任务,也是当前有关智能轮椅研究的热点问题。基于视觉的移动机器人导航是近年发展起来的一种先进导航技术。与其它的非视觉传感器导航相比,它具有信息丰富、探测范围宽、目标信息完整等优点。本文以智能轮椅为研究对象,在此平台上分析了基于双目视觉导航的关键技术,其主要研究结果有:1.提出了基于BP神经网络的摄像机标定技术。摄像机标定作为一个完整的视觉系统工作的前提条件,其精度直接影响后续工作的可靠性。本文先综合分析了传统摄像机标定方法,指出其在实际具体应用中的局限性。之后结合现代神经网络技术,提出了基于BP神经网络的摄像机标定技术。建立了叁层神经网络模型,以双目视觉系统获取的图像作为输入,并在MATLAB6.0试验环境下编程验证了算法的有效性,使其成为摄像机标定的一种可选的有效方法。2.系统分析了图像采集的软硬件系统和图像处理的整个流程。图像是视觉系统工作的最原始的基本数据。恰当合适的图像处理算法能够大量节省系统的工作时间,并提高系统工作的鲁棒性。基于此,本文分析了图像预处理、图像分割、图像的边缘检测与提取等领域的常用的算法,并对比讨论了各种算法的适用范围。这为后续的路径规划工作提供参考。3.提出了基于遗传算法的智能轮椅路径规划算法。路径规划作为移动机器人领域里的经典难题,其发展和研究一直受到人们的关注。路径规划的实质是一个迭代优化寻找最佳路径的过程,而遗传算法在迭代优化方面具有很好的适用性。本文建立了简单的环境模型,用来模拟智能轮椅的工作环境,采用VC算法,仿真模拟了遗传算法的计算过程,并在环境中找出了可行路径。通过模拟实验证明了该算法的有效性,可以作为智能轮椅路径规划可选方法。本文的研究对象是智能轮椅,但是其研究方法和成果对其他移动机器人导航具有重要参考意义。
朱颖[10]2015年在《仿生液压四足机器人双目视觉导航系统关键技术研究》文中指出随着机器人技术水平的不断提升和应用领域的不断扩展,基于机器视觉的自主导航技术成为机器人领域的研究热点之一。特别是对于那些在非结构化条件下依靠足式机构行走的四足机器人来说,如何依托机器视觉技术,满足机器人在行走过程中必须提前检测出路面障碍,实时提供叁维环境信息的多项要求,以实现机器人的高精度、高速度、高可靠性、高鲁棒性自主导航,是一个值得系统研究和深入探索的难题。本课题以所在项目组研制的一款用于山地作战后勤保障的仿生液压四足机器人为应用对象,以机器人的双目视觉导航技术为研究目标,以保障该机器人在非结构化地形条件下可靠行走和稳定运行为最终需求,采用理论建模、仿真模拟、实验验证相结合的方式,开展了系统有序、深入具体的研究与探索,本文主要完成的工作如下:⑴分析仿生液压四足机器人自主导航的实际需求,依照功能合理、性能稳定的系统目标完成双目视觉系统的总体设计;根据光学成像原理,结合实际的参数要求,搭建平行配置的双目立体视觉系统硬件平台;⑵研究图像预处理算法,包括图像采集、灰度转换、平滑与锐化等,实现图像的预处理;完成对摄像机内外参数的标定,进行摄像机位姿的校正以及立体图像对的极线校正等预处理工作;⑶针对四足机器人在野外工作环境中采集的图像存在大面积灰度相近区域的现象,以及稠密匹配过程中常常存在的实时性差等问题,采用分水岭算法和模糊C均值聚类联合的方法提取图像的轮廓特征进行立体匹配,提高所得结果的抗噪性、鲁棒性和实时性;⑷针对匹配过程中存在的误匹配问题,建立区域匹配和边缘点匹配的双重约束条件以进行优化匹配,有效降低搜索空间,保证匹配的速度和精度要求,进而得到平滑的、且与场景一致的视差图;⑸研究叁维重建方法,并根据平行轴双目立体视觉模型,从叁角测量原理出发,推导成像平面上投影点对应的空间叁维坐标计算方法,实现图像的高质量叁维重建。为了证实本文所述方法的正确性与有效性,根据分析所得参数搭建相应的双目立体视觉测量系统,利用Matlab仿真软件进行了轮廓边缘、立体匹配和叁维重建的相关实验。实验结果清楚表明,采用轮廓特征进行匹配因匹配点数比其他方法大为减少,匹配用时缩短了90%,又由于采用了双重匹配策略,匹配和重建的准确性也得到了明显提升。由此可见,本文提出的算法满足系统预期的设计目标,为仿生液压四足机器人在非结构化地形条件下的可靠行走和稳定运行创造了必要的条件。
参考文献:
[1]. 巡线机器人视觉导航研究[D]. 童祖兵. 安徽工业大学. 2016
[2]. 基于机器视觉的路径识别及避障导航系统[D]. 庄晓霖. 华南农业大学. 2016
[3]. 基于视差空间的自主车视觉导航[D]. 曹腾. 浙江大学. 2015
[4]. 基于鱼眼镜头的全方位视觉及全景立体球视觉研究[D]. 冯为嘉. 天津大学. 2012
[5]. 用于导航的立体视觉系统[D]. 杜歆. 浙江大学. 2003
[6]. 无人机导航中的立体视觉技术研究[D]. 倪炜基. 南京航空航天大学. 2011
[7]. 视觉导航关键技术研究:立体视觉和路径规划[D]. 陈华华. 浙江大学. 2005
[8]. 基于立体视觉和激光扫描的无人机自主导航场景测量研究[D]. 周龙. 南京航空航天大学. 2012
[9]. 基于双目视觉智能轮椅导航的关键技术研究[D]. 李永超. 江苏大学. 2010
[10]. 仿生液压四足机器人双目视觉导航系统关键技术研究[D]. 朱颖. 北京理工大学. 2015
标签:自动化技术论文; 立体视觉论文; 机器人论文; 路径规划论文; 视觉系论文; 图像融合论文; 智能算法论文; 空间分析论文; 双目测距论文; 场景应用论文;