物体位姿论文_曾灿灿

导读:本文包含了物体位姿论文开题报告文献综述、选题提纲参考文献及外文文献翻译,主要关键词:摄像机,物体,滤波器,视觉,超声,传感器,靶标。

物体位姿论文文献综述

曾灿灿[1](2018)在《基于高帧率双目视觉的物体位姿估计方法及其在机器人抓取中的应用》一文中研究指出在“中国制造2025”计划提出的背景下,中国工业对柔性生产线和智能机器人的需求越来越迫切。快速而准确的物体位姿估计是让机器人感知外部世界,实现机器人在复杂环境下操作叁维物体(如抓取、装配)的基础。因此实时的叁维物体检测和位姿估计对于智能机器人的发展、对于中国制造“由大变强”目标的实现有着重要意义。目前对叁维物体位姿估计的方法有两种,一种是基于二维图像检索的,另一种是基于叁维点云配准的。前者需要获取大量的不同视角下的物体二维图像,对内存的消耗巨大且难以达到很高的精度。后者的鲁棒性和灵活性更好,且可以达到更高的精度,对于需要高精度位姿估计的应用已经成为一种趋势。但其存在对传感器精度过于依赖、单帧深度图的位姿估计在遇到无叁维特征时可能失效等问题。目前大多数研究都选择了直接使用深度相机,例如基于结构光和ToF(Time of Flight)的深度相机,但是这类主动光深度相机受环境光影响严重,且多台设备同时使用时可能相互干扰。相比之下,双目相机不存在上述问题,但是双目相机的运算量巨大,难以做到实时深度估计,且精度相对较低。本文从深度图获取和采用多视角融合估计位姿等方面开展了以下工作:(1)提出了一种基于多尺度加权投票算法的高帧率双目匹配算法框架,该算法框架适用于多种立体匹配算法,本文以最为简单的块匹配(Block Matching)算法为例验证了算法框架的有效性。(2)采用了TSDF Volume模型对连续深度图进行时序融合,提高了深度图测量精度并提高了深度图的完整性。(3)采用了结合FPFH叁维特征和ICP的由粗到精的点云配准方法,实现了较大位姿差异的两帧点云的高精度配准,从而实现了对机器人工作空间内叁维物体在不同位姿状态下的高精度位姿估计。(4)搭建了一个机器人抓取实验平台,对多种物体的不同位姿实施了位姿估计和抓取,取得了在一定条件下物体检测成功率100%,重复定位位置精度0.2mm,方向精度0.02°,抓取成功率95%的实验结果。充分验证了提出算法的准确性和精确性。(本文来源于《上海交通大学》期刊2018-05-01)

宋佳儒[2](2018)在《基于滤波算法的物体位姿估计》一文中研究指出物体位姿估计在计算机视觉、增强现实及机器人等领域具有非常重要的地位。现有位姿估计算法依赖于物体先验信息,如形状、大小,以及物体的运动轨迹。当没有先验信息时,采用相机作为单一传感器进行位姿估计时,算法容易产生误差累积。因此,本文对位姿估计问题进行深入研究,提出叁种算法以解决上述问题。论文首先提出了基于滑动窗口滤波器(Sliding Window Filter SWF)的位姿估计算法,实现了对任意刚性物体六自由度位姿的估计,并且适用于任意运动轨迹。算法利用RGB-D相机提取的特征点彩色和深度信息,通过滑动窗口滤波器在同时估计物体位姿和物体结构。在每个滑动窗口内,采用高斯牛顿算法迭代优化物体的位姿与结构,并用随机抽样一致性算法和OPnP算法产生高斯牛顿算法的初值。仿真实验通过与先进的位姿估计算法对比,验证算法在没有先验假设的条件下,依然能有效地估计物体的位姿,并且位姿估计可以达到与已知先验信息的先进算法同等的效果。实物实验采用RGB-D物体跟踪标准数据集提供的真实数据,对于4种在不同运动、光照条件下的物体,验证了算法的有效性与鲁棒性。在滑动窗口滤波器位姿估计算法的基础上,针对误差累积提出基于卡尔曼滤波的结构滤波算法。算法利用物体刚性假设构建运动模型,通过高斯牛顿算法求解的结构构建观测模型,实现对结构的滤波,并且将滤波结果更新到点云模型。仿真实验结果表明,结构滤波算法可以有效抑制误差累积,大幅提高位姿估计的精度。考虑到滑动窗口滤波器多帧信息处理上的速度较慢,本文进一步提出一种基于迭代扩展卡尔曼滤波的位姿估计算法。算法不依赖于任何先验物体信息,但需要物体的常速度运动模型假设。与现有的基于IEKF的算法不同的是,本文算法同时将位姿和物体结构作为状态,实现位姿与状态的同时估计。利用状态小扰动策略推导了在特殊欧式群空间的IEKF计算公式,通过观测模型的多次迭代修正了由运动模型假设与实际运动不一致导致的估计误差。实验结果表明,算法可以达到滑动窗口滤波器、OPnP算法较为接近的估计效果,虽然IEKF的位姿估计精度略低于滑动窗口滤波器,但算法速度有显着提高。同时,实验验证了本文IEKF算法虽然采用常速度运动模型,但是模型的不准确性对位姿估计的影响较小。(本文来源于《上海交通大学》期刊2018-01-01)

刘俊[3](2015)在《基于单目视觉的物体位姿估计方法研究》一文中研究指出随着工业自动化设备及机器视觉技术的发展,叁维物体的识别及位姿估计变得尤为重要。尤其在工业自动化装备和分拣机器人应用方面,如何确定物体的叁维位姿成为研究的重点。在国内的工业制造中,多数自动化设备或机器人只能在固定深度情况下完成简单物体的定位识别,如圆、正方形等。在某些复杂物件的车间甚至还需要人工参与物体分拣,这是一个重复而又耗时的环节。随着机器视觉技术的发展和工业生产需求的提高,人们对物体的叁维位姿估计提出了更高的要求。本文针对物体识别及其位姿估计的问题,提出了基于单目视觉的目标物体识别和位姿估计方法,实现了仅输入目标物体的图像和目标物体几何模型就能识别物体并确定其位姿,该方法有效的克服了深度问题,使该方法能运用于叁维物体的识别和位姿估计。与传统方法相比,本文从目标物体建模和目标物体识别两个方面进行改进。对于目标物体建模,本文提出了一种直接利用物体CAD模型特征训练生成目标物体的3D模型的方法。该方法首先进行相机标定求取相机的内参和畸变系数,结合刚体运动原理获取投影矩阵。将CAD模型的数据经过虚拟相机进行投影变换以及对物体不可见部分进行消影后获取消影投影后的二维特征,对二维的特征进行训练并结合网格层次聚类以及图像金字塔原理建立目标物体的3D模型。对于目标物体识别和位姿估计,本文将识别过程转化为边缘点在受力下产生的位移过程,对该过程建立目标误差函数,进而将识别问题转化为求解目标函数误差最小的问题。在二维图像上,提取目标物体的轮廓及梯度特征,并将其与3D模型进行匹配,求解目标物体的位姿。为加快速度,本文提出了将图像金字塔和网格层次聚类相结合的搜索匹配策略,匹配首先发生在金字塔和3D模型网格聚类的顶层,确定初始位姿后,依次向金字塔和网格下一层搜索,整个搜索过程是由粗搜索到精确搜索的过程,最终识别目标物体及其位姿。该方法在Windows平台上利用Visual studio 2013基于Open CV、Open GL进行软件实现。本文采用了多幅仿真图像及部分测试图像对本文的方法进行验证,实验表明,本文的方法能正确的识别目标物体及其位姿,并对旋转、遮挡、缩放具有一定鲁棒性。(本文来源于《哈尔滨工业大学》期刊2015-12-01)

李洁,丁全心,王鹏[4](2011)在《基于四元数的单目视觉物体位姿测量方法》一文中研究指出对基于点特征的单目视觉定位算法进行了研究,设计了一种5点平面靶标,在五个特征点的基础上提出了一种基于四元数的单摄像机位姿测量方法。建立了四元数空间变换矩阵,然后再根据特征点在世界坐标系下的坐标值以及特征点在CCD成像面上的坐标值,在空间投射的基础上利用最小二乘法求解出靶标的四元数空间变换矩阵,从而求得靶标的空间位姿。通过实验对该单目视觉定位方法进行验证,实验结果表明:测量模型平移定位精度达到了,旋转定位精度达到了。(本文来源于《航空计算技术》期刊2011年06期)

陈杉,周涛,张效栋,孙长库[5](2007)在《物体位姿单目视觉传感测量系统》一文中研究指出物体位置与姿态的测量在航空航天、汽车车轮定位等领域都有着重要的应用价值.基于单目红外图像传感测量系统,通过对靶标图像特征的有效提取以及数据最优化方法,实现物体位姿测量.设计了专用于物体姿态测量的平面靶标,并介绍了单目传感器测量基本原理、测量模型及数据处理方法.系统具有结构简单、速度快,稳定性好等特点.实验结果表明,转角测量的重复性误差小于8″;平移测量的重复性误差小于0.02mm.(本文来源于《传感技术学报》期刊2007年09期)

陈杉[6](2007)在《物体位姿单目视觉测量系统的研究》一文中研究指出物体位置与姿态的测量在航空航天、汽车车轮定位等领域都有着重要的应用价值。单目视觉测量是指仅利用一台视觉传感器采集图像,对物体空间的位姿测量,该测量系统结构简单、标定步骤少,同时还避免了立体视觉中的视场小、立体匹配难的不足。本论文是在现有技术基础上,设计专用于物体位姿测量的平面靶标,开发完成一套单目视觉测量系统,具有结构简单、速度快、稳定性好等特点。具体展开工作如下:1.分析单目视觉测量的意义和国内外研究现状,阐述本课题的研究价值;2.在对视觉检测理论深入研究的基础上,构建出单目视觉检测系统的数学模型,分析本系统的测量原理;3.设计一种基于标记圆的新型摄像机标定靶标,并提出一套相关图像处理算法,实验证明该靶标和图像处理算法稳定、可靠,能够实现摄像机内部参数的自动标定;4.在实验室条件下,设计一种红外光源,编写完整的传感器测量软件,建立了单目视觉检测系统,并进行原理验证和精度测量实验,实验证明该系统稳定可靠,为实现四轮定位打下了坚实的基础。5.根据现场实际情况,调整系统整体结构。并进行了大量测量实验,重复性精度可达8″,实验结果表明该系统稳定可靠。(本文来源于《天津大学》期刊2007-05-01)

解玉文,丁希仑,刘颖[7](2005)在《基于CCD和超声的物体位姿检测方法及精度分析》一文中研究指出介绍了用单个CCD摄像机和超声传感器相结合检测物体位姿的方法.首先由CCD摄像机采集一幅图像,获取物体上目标点在图像坐标系中的理想坐标,并由此确定该点投影矢量(连接物体点和对应图像点的直线)的方向;然后控制机器人运动,使超声传感器的z轴与求得的投影矢量重合;最后用超声传感器测出投影矢量的长度,确定目标点在摄像机坐标系中的坐标.分析了影响检测精度的主要因素,具体研究了超声传感器的安装参数对检测精度的影响规律,进行了仿真分析.该方法可以有效地降低图像处理所带来的巨大数据量,避开双目视觉中的图像匹配问题,快捷、精确检测物体的位姿.(本文来源于《北京航空航天大学学报》期刊2005年07期)

赵锐[8](2005)在《基于单目视觉的物体位姿测量方法研究》一文中研究指出空间机器人是机器人研究领域的一个重要分支,手眼视觉系统是机器人系统中重要的关键技术,在空间卫星的交会对接和机器人手臂实验等任务都需要手眼视觉系统。手眼视觉系统主要参与完成机器人的功能自测,各种在线标定,识别及捕获目标物体等任务,为机器人提供目标物体的实时图像信息及实时的空间位姿信息。 本课题主要研究空间机器人单目手眼视觉测量方法,实现叁维目标物体位置和姿态地实时测量。研究内容主要有:标定光标和合作光标的设计;图像采集装置设计以及一些常用的图像处理技术;摄像机参数的标定,包括线性标定方法和非线性标定方法;手眼标定确定了机器手爪与摄像机的位姿关系;研究了一种基于叁次坐标变换的叁维物体位姿测量封闭解法,并对方法进行了优化。 最后搭建了一个基于图像采集卡,PC机和直线导轨的手眼视觉实验系统,进行了算法的仿真验证,并在安徽大学自动化系的Motoman机械臂系统上进行了实验验证。实验结果表明上述算法满足机器人手眼视觉测量要求。(本文来源于《合肥工业大学》期刊2005-01-01)

丁希仑,解玉文,战强[9](2002)在《基于多传感器信息融合的物体位姿检测方法》一文中研究指出提出了利用摄像机和超声传感器信息融合对机器人操作对象进行位姿检测的方法。该方法通过单幅图像获取目标点在图像中的理想坐标 ,求得投影矢量的方向 ,然后通过机器人末端的运动 ,导引超声传感器坐标原点与未移动前摄像机坐标系的原点重合 ,而其Z轴方向与求得的投影矢量方向相同 ,再由超声传感器测出投影矢量的长度 ,从而确定目标点在摄像机坐标系中的坐标 ,并可进一步转换到机器人基坐标系中。通过测量操作物体上两点的空间坐标 ,就能够确定物体空间姿态。该方法简单易行 ,计算量小 ,精度较高。(本文来源于《航空学报》期刊2002年05期)

物体位姿论文开题报告

(1)论文研究背景及目的

此处内容要求:

首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。

写法范例:

物体位姿估计在计算机视觉、增强现实及机器人等领域具有非常重要的地位。现有位姿估计算法依赖于物体先验信息,如形状、大小,以及物体的运动轨迹。当没有先验信息时,采用相机作为单一传感器进行位姿估计时,算法容易产生误差累积。因此,本文对位姿估计问题进行深入研究,提出叁种算法以解决上述问题。论文首先提出了基于滑动窗口滤波器(Sliding Window Filter SWF)的位姿估计算法,实现了对任意刚性物体六自由度位姿的估计,并且适用于任意运动轨迹。算法利用RGB-D相机提取的特征点彩色和深度信息,通过滑动窗口滤波器在同时估计物体位姿和物体结构。在每个滑动窗口内,采用高斯牛顿算法迭代优化物体的位姿与结构,并用随机抽样一致性算法和OPnP算法产生高斯牛顿算法的初值。仿真实验通过与先进的位姿估计算法对比,验证算法在没有先验假设的条件下,依然能有效地估计物体的位姿,并且位姿估计可以达到与已知先验信息的先进算法同等的效果。实物实验采用RGB-D物体跟踪标准数据集提供的真实数据,对于4种在不同运动、光照条件下的物体,验证了算法的有效性与鲁棒性。在滑动窗口滤波器位姿估计算法的基础上,针对误差累积提出基于卡尔曼滤波的结构滤波算法。算法利用物体刚性假设构建运动模型,通过高斯牛顿算法求解的结构构建观测模型,实现对结构的滤波,并且将滤波结果更新到点云模型。仿真实验结果表明,结构滤波算法可以有效抑制误差累积,大幅提高位姿估计的精度。考虑到滑动窗口滤波器多帧信息处理上的速度较慢,本文进一步提出一种基于迭代扩展卡尔曼滤波的位姿估计算法。算法不依赖于任何先验物体信息,但需要物体的常速度运动模型假设。与现有的基于IEKF的算法不同的是,本文算法同时将位姿和物体结构作为状态,实现位姿与状态的同时估计。利用状态小扰动策略推导了在特殊欧式群空间的IEKF计算公式,通过观测模型的多次迭代修正了由运动模型假设与实际运动不一致导致的估计误差。实验结果表明,算法可以达到滑动窗口滤波器、OPnP算法较为接近的估计效果,虽然IEKF的位姿估计精度略低于滑动窗口滤波器,但算法速度有显着提高。同时,实验验证了本文IEKF算法虽然采用常速度运动模型,但是模型的不准确性对位姿估计的影响较小。

(2)本文研究方法

调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。

观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。

实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。

文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。

实证研究法:依据现有的科学理论和实践的需要提出设计。

定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。

定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。

跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。

功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。

模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。

物体位姿论文参考文献

[1].曾灿灿.基于高帧率双目视觉的物体位姿估计方法及其在机器人抓取中的应用[D].上海交通大学.2018

[2].宋佳儒.基于滤波算法的物体位姿估计[D].上海交通大学.2018

[3].刘俊.基于单目视觉的物体位姿估计方法研究[D].哈尔滨工业大学.2015

[4].李洁,丁全心,王鹏.基于四元数的单目视觉物体位姿测量方法[J].航空计算技术.2011

[5].陈杉,周涛,张效栋,孙长库.物体位姿单目视觉传感测量系统[J].传感技术学报.2007

[6].陈杉.物体位姿单目视觉测量系统的研究[D].天津大学.2007

[7].解玉文,丁希仑,刘颖.基于CCD和超声的物体位姿检测方法及精度分析[J].北京航空航天大学学报.2005

[8].赵锐.基于单目视觉的物体位姿测量方法研究[D].合肥工业大学.2005

[9].丁希仑,解玉文,战强.基于多传感器信息融合的物体位姿检测方法[J].航空学报.2002

论文知识图

物体位姿检测物体位姿检测物体位姿图物体位姿估计算法流程图物体位姿描述本文设计的机器人抓取平台工作流程图

标签:;  ;  ;  ;  ;  ;  ;  

物体位姿论文_曾灿灿
下载Doc文档

猜你喜欢