导读:本文包含了视觉特征融合论文开题报告文献综述及选题提纲参考文献,主要关键词:图片拼贴画,主题-颜色相似性,圆填充算法,布局优化
视觉特征融合论文文献综述
杨祖义,张俊松[1](2019)在《融合主题和视觉特征的图片拼贴画合成方法》一文中研究指出为辅助设计师进行图片拼贴画艺术创作,提出一种融合主题和视觉特征的图片拼贴画合成方法.给定容器图片和素材图片集,将容器图片划分为若干子区域;并使用圆填充算法及Delaunay叁角剖分算法生成子区域的Voronoi图,得到补丁集;之后,计算主题-颜色相似性矩阵,进行素材图片与补丁之间的映射;最后,使用颜色线性融合方法进一步优化拼贴画视觉效果.在保留图片视觉特征的同时,该方法亦能保证容器和素材之间具有相似的主题信息.与市面流行拼贴画制作软件的对比实验表明,该方法合成的图片拼贴画能取得更好的视觉效果,在数字媒体和装饰领域中均有着潜在的应用价值.(本文来源于《计算机辅助设计与图形学学报》期刊2019年08期)
彭耀鹏[2](2019)在《基于多特征融合及短期记忆选择网络的视觉关系检测》一文中研究指出自2012年Alex-Net在ImageNet大规模图像分类比赛中取得成功后,深度学习在图像分类、目标检测和分割的性能上都取得了非常大的提升,达到甚至超过了人类的识别水平。在此基础上,进一步研究图像内容理解成为大势所趋。视觉关系检测作为对象检测和图像理解的中间级任务,在近几年受到越来越多的关注,成为计算机视觉领域的研究热点之一。视觉关系检测的目标是从图像中识别出所有的<主语-谓词-宾语>叁元组,同时标注出主语和宾语的位置,可分为谓词检测、短语检测、关系检测等叁个子任务。与图像分类、目标检测等任务相比,对象之间的关系更为抽象,因而如何有效表征自然图像中对象之间的视觉关系是一个挑战。近几年来研究人员先后提出了基于语言先验、统计依赖和知识表征学习等技术的视觉关系检测方法,它们利用了对象的视觉特征、位置特征和/或者语义特征进行关系检测。然而,这些方法一方面没有充分获取有效表征对象间视觉关系的特征,另一方面也没有考虑不同种类特征之间的相互联系,因此检测性能还不太理想。针对上述问题,本文对图像中对象之间的视觉关系表征进行探索,从对象多特征融合表达、多特征的相互关联作用两个角度,对视觉关系检测方法开展研究,主要工作如下:1)提出了一种基于对象多特征融合的关系检测方法。首先利用CNN提取每个对象的视觉特征和对象之间的位置特征,利用词向量矩阵提取每个对象的语义特征。然后,采用两级特征融合策略对叁类特征进行融合,使得特征之间能够相互关联,从而可以更好地表征关系;最后基于融合的多特征进行视觉关系分类。通过在公开数据集VRD和VG上的实验对比,该方法在视觉关系检测的叁个不同子任务上的性能均优于深度关系网络(DR-Net)和深度结构排序(DSL)方法。2)提出了一种基于短期记忆选择网络(Short Term Memory Selection network,STMS)的视觉关系检测方法。在多特征融合的视觉关系表征的基础上,利用GRU模仿心理学中的短期记忆选择机制建立视觉关系检测模型,将主语和宾语联合区域的特征作为初始状态,主语和宾语作为输入,通过主语和宾语刺激联合区域,输出视觉关系分类结果。该模型的优点在于不仅充分利用了联合区域的特征,而且依靠神经网络的强大推理能力去除不重要的背景信息,从而达到提高检测性能的目的。在公开数据集VRD和VG上进行的对比实验表明,本文提出的方法比目前最优方法在最重要的关系检测子任务上的Recall@50高出3%;其他子任务性能对比也证明了我们提出的短期记忆选择网络的有效性。(本文来源于《浙江大学》期刊2019-06-26)
王洁[3](2019)在《点线特征融合的移动机器人视觉惯导里程计研究》一文中研究指出随着移动机器人的广泛应用,其精确定位技术作为该领域的核心技术之一逐步成为了研究热点。依赖单一传感器的定位,无法满足复杂环境下精确定位的需要,因此多传感器信息融合的定位方法成为当今移动机器人位姿估计的主要方法,目前应用较多的是将视觉信息和惯导信息进行融合实现位姿精确估计。在视觉-惯导里程计研究中,图像几何信息通常采用特征点匹配得到,但在低纹理场景中提取的有效特征点较少,容易导致定位不准。在人造环境中,存有大量的线特征,可以弥补点特征信息的不足,因此在视觉惯导信息融合的基础上结合点线特征来提高定位精度,具有十分重要的应用价值。本文研究的方法是将视觉和惯导信息以紧耦合的滤波方式进行融合,通过点线特征结合估计图像的几何信息,从而实现信息融合条件下的精确位姿估计,本文主要从以下几个方面展开研究。首先,阐述了惯性测量单元IMU的组成和相关原理,以及位姿描述的几种方法。介绍了针孔相机投影模型、相机标定中所用的四种坐标系之间的关系,并且进行了相机标定实验、相机-惯导标定实验,获得了相机内外参数以及两者之间的相对位姿,为后续研究奠定了基础。然后,详细介绍了线特征的提取、描述和在空间中的参数化表示,构建了空间直线的观测模型,用于对惯导的先验信息进行修正。之后,对点线特征结合的视觉惯导定位算法进行了详细推导。最后,用EOURC数据集进行实验,估计出相机运动位姿,输出了估计轨迹与真实轨迹的对比图,并进行误差分析,表明了点线特征结合的视觉惯导信息融合定位算法有效的提高了定位精度。(本文来源于《石家庄铁道大学》期刊2019-06-01)
蔡星宇[4](2019)在《基于特征融合的立体视觉显着性检测研究》一文中研究指出计算机视觉的目标是正确的理解给定图像或者视频的内容,为此,首先需要确定图像主要目标的位置,这个问题就是图像显着性方向所研究的内容。图像显着性的研究最初通过简单的滤波以及方向颜色等特对人类注视进行模拟,这类利用传统手工特征进行显着性检测的方法已经在公开数据集上取得了较好的成绩。随着深度学习的发展,尤其是深度学习在各类图像识别比赛中逐渐超过人类识别分辨率,深度学习模型提取的大量特征被广泛的利用在包括图像显着性方向的计算机视觉领域。同时,当前立体视觉多媒体设备呈不断增长的趋势,针对立体图像的算法也不断被开发,立体视觉显着性检测作为一个基础的算法处理步骤,也受到了更多的关注。当前已经提出了部分立体视觉显着性检测算法,但仍然存在很多的问题。比如,这些显着性检测方法无法平衡各种特征,检测速度过慢,另外在深度信息的利用上研究还处于起步阶段。针对这些问题,本文尝试利用更为综合、统一的方法检测显着性。在算法设计时尽量使深度信息与颜色信息作为一个整体进行处理,充分利用各个通道之间的关联关系。另外,本文建立了多个端到端的立体视觉深度学习模型,这些模型利用了图像分类的深度学习模型权重作为预训练权重,保证了显着性检测时可以获得充分的图像特征。本文提出的四个模型在多个立体视觉显着性公开数据集中进行了测试,测试结果显示提出的双通道深度学习模型以及编码译码网络模型在CC以及KLDiv指标上超过现有算法0.1以上,其他指标也优于现有方法。提出的四元数频域手工特征方法,在各项评价指标上超过了现有的手工特征方法。而参数共享深度学习模型在KLdiv指标上优于现有算法0.1以上,在CC以及KLDiv指标上同样优于现有算法,仅在NUS数据库中的AUC评价指标上相较最适应方法相差0.055,在NCTU数据库中该指标差距在0.003以内。(本文来源于《浙江科技学院》期刊2019-05-29)
任舒琪[5](2019)在《基于多特征不变量融合的高频变压器尺寸视觉测量方法研究》一文中研究指出本文针对高频变压器尺寸测量的问题,使用双目视觉测量技术对其尺寸测量。首先介绍了双目视觉叁维尺寸测量系统,分析了双目视觉测量系统的测量流程,对测量系统的硬件结构和软件算法进行简单介绍;其次由于使用到双目相机,需要对双目相机进行标定,研究了张氏标定法并对其进行改进;标定完成之后再获取高频变压器图片,提取不变量特征并融合,使用区域特征匹配方法对融合特征立体匹配,得到视差图像,再根据视差图像进行叁维信息恢复及尺寸测量。主要研究成果如下:(1)对张氏标定法研究并改进棋盘格内角点提取算法,角点提取结果与其他角点检测方法相对比,结果显示可以在复杂环境中完整的检测到棋盘格内角点坐标,而其他算法都会检测到环境中的角点。将改进算法检测棋盘格内角点坐标精确到亚像素,代入张氏标定公式中,最终得到双目相机参数,并计算棋盘格内角点提取的累计误差为0.31pix。(2)针对SIFT算子生成特征点描述耗时长的不足,改进了SIFT特征提取算法,将128维度的特征点描述通过双环形模板简化到16维,通过实验验证改进算法的有效性并与SURF算子和原来的SIFT算子特征点检测及匹配结果相对比。本文算法在特征点匹配准确率可以达到97.5%,明显高于另外两个算法,在匹配时间上改进算法比原来的SIFT方法匹配时间更短,比SURF算法时间稍长,但并不影响本文改进SIFT特征提取算法的有效性。(3)将Harris角点特征和改进的SIFT特征融合并结合边缘特征和直线特征可以准确找到高频变压器针脚两端的双目图像匹配特征点,恢复到叁维空间并计算针脚尺寸。计算针脚尺寸结果与游标卡尺测量结果和二维图像尺寸测量结果相对比,结果显示双目视觉尺寸测量与实际相近,标准差为0.0197cm,明显优于二维图像尺寸测量标准差0.0325cm。叁维尺寸计算结果比二维图像尺寸测量结果精度高,误差小。(本文来源于《江西理工大学》期刊2019-05-25)
陈雪峰[6](2019)在《行为特征融合的视觉注意力检测技术研究》一文中研究指出基于视觉的注意力简称为视觉注意力(Visual Focus of Attention,VFOA),特指视觉关注方向和焦点,主要融合头部姿态以及视线方向信息来对其进行判断,通常将视线的视点位置判定为视觉注意力焦点位置。随着人工智能领域的飞速发展,构建全方位感知的智能时代是近年来人工智能的一个发展趋势,而视觉注意力检测技术则将视觉、推理以及情感等因素融入其中。因此,本文针对VFOA检测技术的研究不仅具有很深的理论价值,也具有广阔的应用前景。首先,本文设计了视觉注意力检测系统的总体方案。并针对低质量图像中人眼定位不精准的问题,提出基于先验多任务级联卷积神经网络(Multi-task Cascaded Convolutional Networks,MTCNN)人脸检测的人眼关键点定位方法。选取对头部姿态偏转、光照变化以及遮挡等因素具有较好鲁棒性的MTCNN-mxnet进行人脸检测和5个人脸关键点(左右瞳孔、鼻尖和左右嘴角)回归。根据得到的瞳孔关键点先验知识分割出人眼候选区域,对该区域进行灰度值和梯度积分投影,并将投影曲线极值点坐标组合与MTCNN左右瞳孔位置距离最近的两个点作为粗定位瞳孔坐标,再分别得出与其对应的MTCNN瞳孔坐标的平均位置来作为本文瞳孔精定位位置。最后,结合该瞳孔坐标,利用边缘和角点检测算法在眼部区域精确定位左外眼眦、右外眼眦、左内眼眦和右内眼眦,为下一步视线估计模型的建立奠定基础。实验结果表明,本文提出的改进的人眼定位方法较MTCNN相比,有效提升了低质量图像中人眼定位的准确率且实时性好。其次,建立行为特征融合的动态贝叶斯网络视觉注意力检测模型。分析比较了常用分类/回归方法的优缺点,选取本文采用的混合贝叶斯网络回归模型对VFOA进行估计。分别建立头部姿态和视线检测贝叶斯子模型,针对极端姿态和动态场景下导致的数据缺失问题,增加预测子模型,将各个子模型进行加权融合。实验结果表明,该方法提高了检测准确率、降低了误差值。为进一步提升本文VFOA检测算法对动态姿态变化的适应性,利用增量学习的方法对模型的相关参数以及权重因子进行动态增量更新。实验结果表明,该方法能有效估计人眼的视觉注意力,检测准确率和稳定性均有所提升,对头部自由偏转以及距离变化的鲁棒性更强。最后,在智能服务机器人平台上完成了视觉注意力检测的集成实现。构建了基于视觉注意力检测的服务机器人控制系统,设计了系统的软硬件部分,并将视觉注意力检测结果转化为对应的控制指令,实现对服务机器人的交互。实验结果表明,本文提出的视觉注意力检测方法能够有效控制服务机器人运动且实时性强,具有一定的实用价值。(本文来源于《重庆邮电大学》期刊2019-05-18)
赵嘉珩,罗霄,钟心亮,韩宝铃,黄羽童[7](2019)在《一种融合点线特征的视觉里程计架构设计与定位实现》一文中研究指出基于视觉的同时定位与地图构建(SLAM)技术是实现移动机器人自主导航的关键.当机器人处在陌生环境中时,通常会利用周围目标的点特征来估计导航相机的位姿,并利用光束法平差来估计相机位姿和特征空间位置.但如果环境中的特征信息不丰富,则无法准确估计相机轨迹,且欧式坐标与反深度信息下的光束法平差部分条件下不收敛.为此,提出了一种在缺少特征点的环境下通过收集深度相机信息,同时利用点特征与线特征融合的视觉里程计,构建了融合视差角光束法平差与基于线特征的光束法平差的策略,从而使重投影误差达到最小化.最后与其他基于特征的SLAM系统进行比较,实验结果表明,在缺少特征点的真实环境中,系统位姿估计的性能与准确度得到提升.(本文来源于《北京理工大学学报》期刊2019年05期)
孙雨涵[8](2019)在《基于图像视觉显着特征与局部结构一致化处理的图像融合方法研究》一文中研究指出图像融合是将同一场景的多幅图像合成一幅信息更全面且内容更丰富的新图像。它是多种传感器协同完成实际任务的有效途径,可明显改善单传感器成像的不足,提高系统的稳定性与可靠性。目前,在军事、视频监控、数码摄影,医疗诊断等诸多领域都具有很高的应用和研究价值。但是由于不同类型传感器采集图像的特殊性以及图像信息复杂性,图像融合技术还没有达到预期的效果。图像融合技术涉及两个关键环节,图像表示和融合策略的设计。在图像表示方法一定的情况下,融合策略的设计显得尤为重要。本文就基于多尺度分解这一类方法中存在的问题进行深入研究,结合图像视觉显着特征与局部结构一致化处理的前沿进展,主要工作包括:(1)针对红外与可见光图像融合中目标不显着背景细节不丰富问题,提出一种基于多视觉特征的红外与可见光图像融合算法。同时考虑了源图像局部和全局显着特征,在基于非下采样轮廓波分解的图像融合框架下,利用兼顾视觉唯一性和目标性,并通过引导滤波一致性校验得到的权重图来指导分解系数的融合。融合算法对源图像中显着目标区域进行突出强调,融合图像细节更丰富背景更自然。(2)针对多传感器图像融合中存在拼接效应问题,提出一种基于结构显着性度量和内容自适应一致性校验的图像融合方法。该算法利用源图像的结构梯度特征和视觉显着性,通过控制权值占比得到的综合特征来指导图像融合,有效的避免单一特征对不同类型源图像信息的提取不全面。在多聚焦图像、红外与可见光图像、医学图像上进行融合实验,主客观评价结果显示了算法良好的准确性和普适性。(本文来源于《南华大学》期刊2019-05-01)
陈思洋[9](2019)在《融合物品视觉特征的协同过滤推荐算法研究》一文中研究指出随着互联网的飞跃发展,互联网上信息也呈现急速增长的趋势,信息过载问题越发严重。推荐系统已经成为解决信息过载问题的重要解决方案。协同过滤(Collaborative Filtering,CF)则是其中的主流模型之一,在学术界以及工业界中均获得了大范围的应用。协同过滤从用户对物品的隐式反馈(例如,物品购买历史,浏览日志等)等数据建模用户对物品的偏好函数从而产生最后的推荐结果,但同时也忽略了物品的相关属性信息,例如物品的视觉特征,物品的标签分类等,从而在某种程度上限制了模型的性能。本文认为物品的视觉特征对于用户偏好建模有着重要的影响。为此,本文提出了融合物品视觉特征的稀疏线性模型,将物品的视觉特征同用户-物品交互记录联合考虑,共同建模用户-物品交互函数。本文围绕融合物品视觉特征这一问题进行了深入的探究,主要研究工作如下:(1)传统的协同过滤推荐算法仅仅考虑用户对物品的交互信息,忽视了物品的视觉特征,从而限制了模型的表达效果。本文将物品的视觉特征融入基于用户-物品交互的稀疏线性模型中,使用线性回归的方式建模物品的视觉特征对用户偏好的影响,实验结果表明模型的效果取得了明显的提升,同时验证了视觉特征确实对用户偏好存在着重要影响。(2)在众多协同过滤推荐算法中,矩阵分解则是其中最简单有效的方法。然而矩阵分解模型对于关键的用户-物品交互函数使用向量内积这一线性函数建模,一定程度上限制了模型的表达。为此,本文在融入物品的视觉特征基础之上,考虑使用深度神经网络建模用户-物品交互函数,捕捉用户-物品之间的非线性高阶交互关系。实验结果表明,本文提出的基于BPR融合物品视觉特征的深度协同过滤推荐模型能够有效的提取物品的视觉特征,捕捉用户-物品之间的非线性高阶交互关系,实现了更加通用精准的推荐。(本文来源于《合肥工业大学》期刊2019-05-01)
王赛娇[10](2019)在《视觉显着特征融合的图像评价》一文中研究指出针对视觉显着(visual saliency index,VSI)图像质量评价的不足,通过引入人眼的感知特性,提出了一种视觉特征融合(visualsaliencyfeaturepooling,VSFP)的评价方法。VSFP方法首先对失真图像的灰度特征进行评价,作为能量补充信息,然后基于人眼的中央凹生理特性对图像局部特征评价进行加权融合,最后基于回归方程对多特征评价进行自适应融合。实验表明所提方法明显提高了VSI方法的评价性能。(本文来源于《现代信息科技》期刊2019年07期)
视觉特征融合论文开题报告
(1)论文研究背景及目的
此处内容要求:
首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。
写法范例:
自2012年Alex-Net在ImageNet大规模图像分类比赛中取得成功后,深度学习在图像分类、目标检测和分割的性能上都取得了非常大的提升,达到甚至超过了人类的识别水平。在此基础上,进一步研究图像内容理解成为大势所趋。视觉关系检测作为对象检测和图像理解的中间级任务,在近几年受到越来越多的关注,成为计算机视觉领域的研究热点之一。视觉关系检测的目标是从图像中识别出所有的<主语-谓词-宾语>叁元组,同时标注出主语和宾语的位置,可分为谓词检测、短语检测、关系检测等叁个子任务。与图像分类、目标检测等任务相比,对象之间的关系更为抽象,因而如何有效表征自然图像中对象之间的视觉关系是一个挑战。近几年来研究人员先后提出了基于语言先验、统计依赖和知识表征学习等技术的视觉关系检测方法,它们利用了对象的视觉特征、位置特征和/或者语义特征进行关系检测。然而,这些方法一方面没有充分获取有效表征对象间视觉关系的特征,另一方面也没有考虑不同种类特征之间的相互联系,因此检测性能还不太理想。针对上述问题,本文对图像中对象之间的视觉关系表征进行探索,从对象多特征融合表达、多特征的相互关联作用两个角度,对视觉关系检测方法开展研究,主要工作如下:1)提出了一种基于对象多特征融合的关系检测方法。首先利用CNN提取每个对象的视觉特征和对象之间的位置特征,利用词向量矩阵提取每个对象的语义特征。然后,采用两级特征融合策略对叁类特征进行融合,使得特征之间能够相互关联,从而可以更好地表征关系;最后基于融合的多特征进行视觉关系分类。通过在公开数据集VRD和VG上的实验对比,该方法在视觉关系检测的叁个不同子任务上的性能均优于深度关系网络(DR-Net)和深度结构排序(DSL)方法。2)提出了一种基于短期记忆选择网络(Short Term Memory Selection network,STMS)的视觉关系检测方法。在多特征融合的视觉关系表征的基础上,利用GRU模仿心理学中的短期记忆选择机制建立视觉关系检测模型,将主语和宾语联合区域的特征作为初始状态,主语和宾语作为输入,通过主语和宾语刺激联合区域,输出视觉关系分类结果。该模型的优点在于不仅充分利用了联合区域的特征,而且依靠神经网络的强大推理能力去除不重要的背景信息,从而达到提高检测性能的目的。在公开数据集VRD和VG上进行的对比实验表明,本文提出的方法比目前最优方法在最重要的关系检测子任务上的Recall@50高出3%;其他子任务性能对比也证明了我们提出的短期记忆选择网络的有效性。
(2)本文研究方法
调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。
观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。
实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。
文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。
实证研究法:依据现有的科学理论和实践的需要提出设计。
定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。
定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。
跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。
功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。
模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。
视觉特征融合论文参考文献
[1].杨祖义,张俊松.融合主题和视觉特征的图片拼贴画合成方法[J].计算机辅助设计与图形学学报.2019
[2].彭耀鹏.基于多特征融合及短期记忆选择网络的视觉关系检测[D].浙江大学.2019
[3].王洁.点线特征融合的移动机器人视觉惯导里程计研究[D].石家庄铁道大学.2019
[4].蔡星宇.基于特征融合的立体视觉显着性检测研究[D].浙江科技学院.2019
[5].任舒琪.基于多特征不变量融合的高频变压器尺寸视觉测量方法研究[D].江西理工大学.2019
[6].陈雪峰.行为特征融合的视觉注意力检测技术研究[D].重庆邮电大学.2019
[7].赵嘉珩,罗霄,钟心亮,韩宝铃,黄羽童.一种融合点线特征的视觉里程计架构设计与定位实现[J].北京理工大学学报.2019
[8].孙雨涵.基于图像视觉显着特征与局部结构一致化处理的图像融合方法研究[D].南华大学.2019
[9].陈思洋.融合物品视觉特征的协同过滤推荐算法研究[D].合肥工业大学.2019
[10].王赛娇.视觉显着特征融合的图像评价[J].现代信息科技.2019