导读:本文包含了视觉导航论文开题报告文献综述、选题提纲参考文献及外文文献翻译,主要关键词:视觉,机器人,组合,里程计,导航系统,障碍物,叉车。
视觉导航论文文献综述
邓亮[1](2019)在《视觉导航:导弹的“眼睛”》一文中研究指出人们在高速公路上开车,通过眼睛观察公路的路标点,就可以确认自己所处的位置。如果给导弹装上“眼睛”,是不是也可以用于导航呢?在导弹弹体上安装摄像头等视觉设备,当导弹在空中高速飞行时,摄像头观测到一些明显的地标建筑物或已知位置的地点,通过计算与已知位(本文来源于《中国航天报》期刊2019-12-28)
张世杰,宁明峰,陈健[2](2019)在《非合作目标视觉/惯导相对导航及敏感器自标定方法》一文中研究指出利用视觉/惯导对空间非合作目标进行相对导航时,两敏感器的外参数对导航精度有较大影响。考虑到敏感器间的外参数标定复杂且耗时,提出一种利用视觉/惯导在估计相对状态过程中对其外参数进行标定的方法。该方法将视觉/惯导的外参数作为状态变量,与相对轨道运动学方程、相对姿态方程及惯导模型共同组成系统状态方程。利用该状态方程和单目视觉的观测量设计扩展卡尔曼滤波器对相对位姿、惯导偏差及视觉/惯导外参数进行估计,并通过数学仿真对该方法的有效性进行验证。仿真结果表明,该方法能够在视觉/惯导初始外参有偏差的情况下,有效估计相对位姿及惯导漂移,并对视觉/惯导外参数进行标定。(本文来源于《国防科技大学学报》期刊2019年06期)
肖献强,程亚兵,王家恩[3](2019)在《基于惯性和视觉复合导航的自动导引小车研究与设计》一文中研究指出自动导引小车(AGV)作为智能制造的重要物料搬运设备,其导航精度及路径柔性配置性能制约了其在智能制造领域的应用范围。针对这一问题,提出了基于惯性和视觉的AGV复合导航方法,利用两种导航技术的互补优势,实现高精度导航定位,提高了AGV对工作环境的适应能力和可靠性。在此基础上,利用二维码标签构建了AGV工作栅格地图,实现了AGV行驶路径的柔性配置。测试表明复合导航方法具有纵向5mm、侧向10mm、方向偏差1°的导航定位精度。(本文来源于《中国机械工程》期刊2019年22期)
成怡,佟晓宇,朱伟康[4](2019)在《改进ORB的轮式机器人视觉导航算法》一文中研究指出为实现轮式机器人的自主导航和自主控制,针对传统视觉导航技术中ORB算法的特征点分布均匀程度较低、算法耗时较长的缺点,提出一种改进ORB算法:构建尺度空间金字塔对每层图像进行网格划分,增加空间尺度信息;设置感兴趣区域,采用改进FAST角点提取方法提取特征点;引入非极大值抑制方法,抑制低阈值特征点的输出;基于区域图像特征点分布的方差数值评价待检测图像中特征点分布的均匀程度。实验结果表明:使用改进ORB算法提取到的特征点分布均匀程度较高,匹配效果较好,特征点重迭现象降低,算法耗时较短;当特征点期望数值为3 000时,图像中特征点分布的均匀程度提高71.13%,耗时降低比率为69.52%,说明该算法可以更好地应用于轮式机器人执行视觉导航算法。(本文来源于《天津工业大学学报》期刊2019年05期)
李群生,赵剡,王进达[5](2019)在《一种适用于高动态强干扰环境的视觉辅助微机械捷联惯性导航系统/全球定位系统超紧组合导航系统》一文中研究指出为解决高动态、恶劣全球定位系统(GPS)环境下微机械捷联惯性导航系统(MEMSSINS)/GPS超紧组合导航系统抗干扰能力差的问题,提出一种适用于高动态强干扰环境的视觉辅助MEMS-SINS/GPS超紧组合导航系统。将双目视觉提供的姿态信息引入MEMS-SINS/GPS超紧组合系统中,提高了平台失准角的可观测性;推导了系统的状态方程和量测方程,使用模糊控制方法对两个子滤波器的导航结果进行信息融合。通过数字仿真验证了该系统方案设计的可行性:当GPS信号受到强噪声或多径干扰造成跟踪精度下降时,双目视觉辅助MEMS-SINS/GPS超紧组合系统可以有效降低导航误差,系统位置误差和速度误差分别保持在5. 0 m和0. 5 m/s以内,有效地解决了低空飞行器在GPS信号被遮挡或干扰情况下的导航问题。(本文来源于《兵工学报》期刊2019年11期)
郑杨[6](2019)在《视觉AI导航 为叉车装上眼睛》一文中研究指出在第二十一届高交会上,未来机器人(深圳)有限公司自主研发的视觉导航无人叉车引起了广泛关注。记者在展示现场看到,只要电脑远程发送搬运指令,无人叉车就可自动从指定地点叉取货物并运送至指定堆存区。未来机器人公司市场经理陈欣介绍,视觉信息是传感器信息中最(本文来源于《经济日报》期刊2019-11-15)
刘媛媛,徐京邦,张丰华,王小铎,刘之舟[7](2019)在《视觉信息辅助激光导航AGV的应用》一文中研究指出针对移动机器人激光导航定位取卸货过程,发生的货物位置偏差大而导致的取卸货不成功的情况,本文给出了一种解决方法,即视觉辅助运用模板匹配,提取感兴趣区域,边缘检测提取轮廓找中心点来检测货物托盘所在的位置,再通过数据通信转换,将视觉检测结果传输给移动机器人,从而可保证其能够连续稳定地进行取卸货。(本文来源于《物流技术与应用》期刊2019年11期)
周锡恩,吴镇江,卢偲帆,张国通,杨炜斌[8](2019)在《基于视觉检测与自主导航的轮式机器人平台》一文中研究指出近年来,机器人产业发展迅速,为适应社会发展需求,构建了基于机器人系统ROS,以Kinect2为核心的轮式机器人平台,其涵盖了机器人运动、视觉检测与导航、机械臂控制等多学科知识的运用,并具有较好的功能扩展性。实践表明,该平台能够较好地实现机器人视觉检测与导航、机械臂抓取等功能,并可基于该平台开发如巡检机器人、餐厅服务机器人等具有特定功能的机器人平台。(本文来源于《信息技术》期刊2019年10期)
薛杨,孙永荣,赵科东,赵伟[9](2019)在《基准地图测绘下的视觉导航算法》一文中研究指出针对GPS信号拒止环境下自主导航定位问题,提出一种基于全局定位基准地图测绘的视觉导航算法。在卫星导航信号可用时,利用同步定位与制图(simultaneous localization and mapping,SLAM)算法对使用场景制图,利用时间戳与实时动态定位技术(real-time kinematic,RTK)将全局定位数据进行对齐,使用在线SLAM算法载入全局定位基准地图并进行全局范围内的导航定位。实验结果表明:该算法只需依赖视觉图像数据即可完成全局定位,其定位和导航精度达到亚米级,导航与定位的误差平均值为0.36 m,均方差为0.31 m,满足实际应用要求。(本文来源于《兵工自动化》期刊2019年10期)
侯永宏,刘艳,吕华龙,吴琦,赵健[10](2019)在《一种基于双目视觉的无人机自主导航系统》一文中研究指出针对无人机实时自主导航问题,本文设计并实现了一种能自主感知未知室外环境,实时自动规划路径的旋翼无人机系统.首先利用双目视觉,使用经光束法平差(BA)优化的经典SLAM系统,ORB SLAM2算法获取无人机位姿信息;再以"推扫式"感知方法和改进的绝对误差和(SAD)算法获取环境信息和障碍物点.其次,结合无人机位姿信息与环境障碍物点生成局部障碍物地图,同时使用并行计算框架,提高系统性能.针对无人机系统实时性问题,设计的SAD算法只关注固定视差大小的像素块的稀疏匹配.最后,根据生成的当前局部环境障碍物地图与本地轨迹库,自主选择运动轨迹,有效自主规避障碍物,达到实时局部路径规划的效果.以上功能全部在无人机搭载的嵌入式处理器Nvidia Jetson TX2中完成处理.仿真与实际飞行实验表明:设计的系统基本实现无人机在未知室外场景下的实时自主感知与路径规划,在采集视频分辨率为1 280×720时,处理速度能达到60帧/s,为完善低成本无人机的避障与导航功能提供一种参考.(本文来源于《天津大学学报(自然科学与工程技术版)》期刊2019年12期)
视觉导航论文开题报告
(1)论文研究背景及目的
此处内容要求:
首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。
写法范例:
利用视觉/惯导对空间非合作目标进行相对导航时,两敏感器的外参数对导航精度有较大影响。考虑到敏感器间的外参数标定复杂且耗时,提出一种利用视觉/惯导在估计相对状态过程中对其外参数进行标定的方法。该方法将视觉/惯导的外参数作为状态变量,与相对轨道运动学方程、相对姿态方程及惯导模型共同组成系统状态方程。利用该状态方程和单目视觉的观测量设计扩展卡尔曼滤波器对相对位姿、惯导偏差及视觉/惯导外参数进行估计,并通过数学仿真对该方法的有效性进行验证。仿真结果表明,该方法能够在视觉/惯导初始外参有偏差的情况下,有效估计相对位姿及惯导漂移,并对视觉/惯导外参数进行标定。
(2)本文研究方法
调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。
观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。
实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。
文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。
实证研究法:依据现有的科学理论和实践的需要提出设计。
定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。
定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。
跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。
功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。
模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。
视觉导航论文参考文献
[1].邓亮.视觉导航:导弹的“眼睛”[N].中国航天报.2019
[2].张世杰,宁明峰,陈健.非合作目标视觉/惯导相对导航及敏感器自标定方法[J].国防科技大学学报.2019
[3].肖献强,程亚兵,王家恩.基于惯性和视觉复合导航的自动导引小车研究与设计[J].中国机械工程.2019
[4].成怡,佟晓宇,朱伟康.改进ORB的轮式机器人视觉导航算法[J].天津工业大学学报.2019
[5].李群生,赵剡,王进达.一种适用于高动态强干扰环境的视觉辅助微机械捷联惯性导航系统/全球定位系统超紧组合导航系统[J].兵工学报.2019
[6].郑杨.视觉AI导航为叉车装上眼睛[N].经济日报.2019
[7].刘媛媛,徐京邦,张丰华,王小铎,刘之舟.视觉信息辅助激光导航AGV的应用[J].物流技术与应用.2019
[8].周锡恩,吴镇江,卢偲帆,张国通,杨炜斌.基于视觉检测与自主导航的轮式机器人平台[J].信息技术.2019
[9].薛杨,孙永荣,赵科东,赵伟.基准地图测绘下的视觉导航算法[J].兵工自动化.2019
[10].侯永宏,刘艳,吕华龙,吴琦,赵健.一种基于双目视觉的无人机自主导航系统[J].天津大学学报(自然科学与工程技术版).2019