导读:本文包含了视觉信息获取论文开题报告文献综述及选题提纲参考文献,主要关键词:消失文本,校正阅读,信息获取,眼动
视觉信息获取论文文献综述
周艳辉,熊建萍,张敏强[1](2019)在《校正阅读中视觉信息获取速度的眼动研究》一文中研究指出在阅读过程中,眼睛的运动与文字的即时加工密切相关。关于正常阅读的研究表明,被注视的拼音文本只需要呈现50~60ms,读者便能进行正常的阅读加工。对于中文正常阅读,被注视的双字词只需要呈现40ms,中文读者便能够快速地获取阅读所必需的视觉信息。需要指出的是,短暂的文本呈现不影响读者的正常阅读,但并不能代表读者可以在这段时间内完成对所注视词的全部加工,只能代表读者能够获取到正常阅读所必需的视觉信息。在目前的汉语阅读研究中,有关正常阅读对信息获取时间影响的研究较多,而对校正阅读的研究很少。本研究感兴趣的是在校正阅读中,读者获得必须信息的时间与正常阅读是否有差别?读者最短在多长时间里即可获得足够信息进行校正阅读?研究运用消失文本范式,以双字词句为材料,探究校正阅读的信息获取速度。该范式的实验逻辑是:如果在当前注视词呈现某一时间后消失的条件下,仍可以进行正常的校正阅读,即读者在消失文本条件下的眼动指标与正常阅读条件下无显着差异,那么说明注视词最少呈现此时间,读者便可以进行正常的校正阅读;一旦注视词呈现时间比此时间少,那么读者就无法正常的校正阅读。本研究采取单因素(延迟时间:控制条件、40ms、60ms、80ms、100ms)被试内实验设计,5种延迟条件采用拉丁方排列,保证呈现顺序在被试间平衡。随机抽取27名大学生为被试,以词语呈现时间为自变量,以平均眼跳距离、总注视时间、注视次数、平均注视时间和回视次数为因变量。结果表明,呈现时间为80ms时,总注视时间、注视次数和回视次数与控制条件不存在显着差异;当呈现时间为100ms时,总注视时间、注视次数、平均注视时间和回视次数与控制条件不存在显着差异。当被注视的词呈现时间设置为大于或等于80ms时,读者即可获得足够的信息进行正常的校正阅读。(本文来源于《第二十二届全国心理学学术会议摘要集》期刊2019-10-19)
赵巨峰,崔光茫[2](2019)在《计算成像——全光视觉信息的设计获取》一文中研究指出真实世界的视觉光信息是复杂的高维度连续的信号;而现有的数字成像方式是低维耦合离散采集,在成像的各个维度——空间分辨率、时间分辨率、视角及深度、颜色(光谱)等均已达到瓶颈:这极大限制了场景视觉信息的全面获取。计算成像,综合信号处理、光学、视觉、图形学等多学科知识,可突破经典成像模型和相机硬件的局限,以更加全面、精确地捕捉真实世界的视觉信息。文章从计算成像的进化史、计算成像的基本原理、计算成像研究动态、计算成像的关键技术以及计算成像的未来展望等方面,从全光视觉信息的设计获取角度阐述了计算成像的相关概念与理论。(本文来源于《航天返回与遥感》期刊2019年05期)
朱特浩[3](2018)在《人与机器人交互中的视觉运动信息获取、分析与交互策略研究》一文中研究指出机器人技术是目前最有发展前景的科学研究领域之一。随着传感器、机电一体化、机器学习、人工智能、新型材料等技术的飞速发展,机器人由只能完成单纯的重复性劳作的工具,逐步升级为多功能和智能化的装备,并且可以根据用户需求,开发出千变万化的实际应用。人与机器人交互是机器人技术中的重要组成部分,主要关键技术包括人体运动数据的获取与感知、行为识别、意图理解与交互等。本论文主要解决了人与机器人交互中对捕获的异常动作数据的优化感知、根据部分数据推测完整行为的类别、设计动作识别失败时的交互方案等问题,系统性地研究了视觉运动信息的获取、分析与交互策略。本论文提出了面向家庭服务与看护场景的人与机器人交互框架,将人与机器人之间的交互根据行为的识别结果分为叁种模式:(1)一般模式,当系统识别出人体行为时,响应预设的交互行为;(2)模仿模式,当用户做出指定动作后,机器人开始实时模仿用户动作,增加交互趣味性;(3)情绪模式,当系统无法识别人体行为时,通过对人体动作的揣摩,分析并量化其表现的情绪,响应符合当下交互氛围的行为。为实现每种模式下视觉运动信息的获取、分析和交互,本论文主要的工作内容和创新点有:(1)提出一种基于动作片段自动分割和相关向量机的人体动作轨迹离线优化算法。通过对空间相似度、时间相似度、平滑度多个指标的评价,结果表明该算法可以去除原始捕获数据中的噪声和异常值,优化后的动作轨迹更加接近真实值。(2)提出一种分步稳健回归算法,实现了人体动作轨迹的在线优化。在分析总结典型异常值产生的机理的基础上,设计了分步优化方案,每步中用稳健回归算法检测异常值并修正。实验表明这一算法可以达到接近离线感知算法的效果,而其能够实时优化的优势可以在人与机器人交互中发挥更大的作用。(3)提出一种用于行为推测的渐进过滤算法。首先将连续的动作数据分解为动作元,并提取其时空特征向量。然后设计了基于局部敏感哈希算法的迭代识别方案,在不断获取动作元的过程中将正确的行为类别筛选出来。实验结果表明该算法可以稳定可靠地在行为结束之前推测出它的类别。(4)提出一种基于运动情绪分析的交互方案。该方案的主要解决了两方面问题:(a)设计了分析和量化人体动作表现出的情绪的算法,主要思路是基于拉邦动作分析,建立了人体运动与其表现的情绪之间的关系,定义并量化获得空间动作情绪和躯干位姿情绪;(b)针对家庭服务与看护场景,提出了人与机器人交互原则并设计出基于运动情绪的交互策略。通过实验看出,该方案可以精确合理地分析身体情绪,并且实现自然流畅的人与机器人交互。本论文提出的面向家庭服务与看护场景的人与机器人交互框架通过一般模式、模仿模式和情绪模式,涵盖了对人体动作理解的多种情形。基本实现了无间断、人性化的人与机器人交互。(本文来源于《上海交通大学》期刊2018-05-01)
刘艳余[4](2018)在《微装配空间全局视觉信息获取方法的研究》一文中研究指出微装配领域研究的不断深入带动了微机电产品的迅猛发展,微机电产品的精度要求高、微装配零部件目标小、装配过程动作复杂且技术难度大、要求成批量生产的微装配特点,导致微装配空间全局视觉信息获取方法在微装配的应用中愈来愈重要。因此,针对微装配中显微视野远小于操作空间的技术难题,研究如何快速且精准地在微装配的显微视野中寻找到微小目标,并获取目标的高清晰度全局视觉细节信息的方法,成为本文研究的出发点。基于上述目标,本文根据显微系统的光学特性和变倍显微成像原理,以图像分析为手段,进行了显微视觉系统在线搜索与切换控制策略方法的深入研究,以实现对微装配空间全局视觉信息的逐级获取。具体内容如下:首先,详解介绍了本课题的微装配平台显微视觉的系统构成,分析了显微镜的视觉单元参数、显微视觉齐焦合轴的特点、全局空间布局大小及微装配的目标特征,对显微镜、CCD、光源等主要视觉工具选择的原因和结果做了详细描述。其次,对采集到的光学显微视觉图像进行图像二值化目标与背景分割、图像直方图判别,用改进的霍夫圆变换对视野中的目标进行识别,并运用实验进行了霍夫圆变换的识别对比,采用圆度对微目标进行识别,得到了较好的识别效果。再次,针对显微视野的限制,目标容易丢失,需要反复地在显微视野外的装配区域进行目标搜索等问题,本文提出了一种基于显微倍率切换的微装配零部件在线搜索策略。采用“从无到有,从疑似到确认”的原则,研究了搜索过程中如何利用的图像预处理以及光学显微特性进行目标的无缝搜索判别及检测识别问题。最后,进行相关实验的研究分析与验证,构建了具有分层递阶结构的全局视野,获取不同尺度下的全局视觉信息,基于SIFT特征的宏微观图像的匹配进行验证,在不同尺度空间图像中用图像匹配来确认某一目标为同一目标,实验结果验证了全局视觉信息获取技术的可行性。(本文来源于《湖南科技大学》期刊2018-05-01)
王琴,舒晓斌,刘勇[5](2018)在《基于计算机视觉的无人机农田信息获取系统研究》一文中研究指出无人机是无人驾驶航空飞行器的简称,在农业方面可用于农田信息监测。无人机监测农田信息的覆盖范围广,实效性强且客观准确,具有其它方法无可比拟的优势。计算机视觉是一种新兴的图像分析技术,可以分析无人机拍摄的农田作物图像,其与无人机结合应用符合精准农业的发展趋势。为此,基于计算机视觉建立了一种农田信息获取的无人机系统。无人机拍摄农田图像,由信息检测中心转换为数字信号后发给计算机视觉模块处理,根据颜色特征识别作物种类和长势,并计算各区域面积。试验结果表明:该系统对水稻、小麦和大豆的信息获取相对误差较小,玉米由于植株太高形成遮挡,降低了农田信息获取的准确性。系统从拍摄图像到输出结果的整个过程耗时2s,具有较强的实时性,可以为拓宽无人机在农业中的应用范围提供技术支持。(本文来源于《农机化研究》期刊2018年10期)
马新伍,甘屹[6](2017)在《基于双目立体视觉的鞋底边缘信息获取研究》一文中研究指出为快速有效地获取鞋底轮廓叁维信息,实现自动化喷胶,提出了一种基于双目立体视觉获取喷胶曲线的方法,该方法采用基于Canny算法对目标图像进行边缘提取。讨论了利用基于区域匹配算法立体匹配,获取喷胶曲线的叁维点云。采用叁次样条曲线对其进行拟合,得到喷胶轨迹。利用Halcon图像处理软件编程进行仿真实验,验证了该方法的有效性和可行性。(本文来源于《电子科技》期刊2017年10期)
张璐,郭奇青[7](2017)在《采摘机器人选择性作业信息获取研究——基于无标定视觉伺服系统》一文中研究指出以采摘机器人采摘作业为研究对象,以选择性采摘成熟果蔬为研究目标,基于无标定视觉伺服系统,结合果蔬成熟特性判断目标果实是否适合采摘,设计了一套以MSP430F149为核心的智能检测控制系统,可以实时处理相机采集到的图像,并选择性采摘符合要求的果实。本文重点研究了视觉伺服原理与模型、果实成熟度判断、选择性作业信息获取,以及系统的硬软件设计,并对文中设计研究的系统进行了可行性验证。试验结果表明:该无标定视觉伺服系统判断准确,能够较大程度提高机器人的可靠性与稳定性,应用前景宽广。(本文来源于《农机化研究》期刊2017年05期)
刘聪[8](2017)在《基于正交双目视觉的菜粉蝶3D运动信息获取技术研究》一文中研究指出随着农业的快速发展,昆虫行为分析的重要性愈发凸显。随着对昆虫行为分析方法研究的逐渐深入,计算机视觉技术已经成为此方面研究的重要方法。本研究针对昆虫行为学研究定量、精确地获取昆虫叁维运动轨迹及运动参数的需要,根据风洞实验环境和菜粉蝶运动特征,以农业常见害虫菜粉蝶为研究对象,设计了顶视和侧视摄像机正交配置的双目视觉测量系统,利用KCF(Kernelized Correlation Filters)算法,提出了一种昆虫叁维轨迹及飞行参数获取方法。本研究可以较为准确地获取昆虫飞行轨迹及运动参数,可以满足对昆虫行为分析的应用要求。论文的研究内容和取得的成果如下:(1)设计了一种正交双目视觉昆虫视频采集系统。通过分析风洞的安装位置、尺寸规格和昆虫行为实验室的实际空间环境,以及获取高质量菜粉蝶活动视频数据的应用需求,选择了适于本研究的摄像机型号,设计了正交双目视觉支架和摄像机安装托板,通过分析及试验确定并设计了同步触发方式,对计算机硬件升级。测试结果表明,实际帧数可以达到理论帧数的99.93%~100%,该系统能够满足对菜粉蝶飞行视频的流畅、无丢帧的采集需求。(2)对比分析了正交双目视觉与传统平行双目视觉的摄像机标定方法。平行双目视觉需要利用2个摄像机的内外参数进行双目校正与视差图的获取,正交双目视觉没有复杂的双目校正过程,只需要通过摄像机标定得到2个摄像机各自的内部参数即可。根据研究需求以及试验的场地等外界因素,选择张正友的棋盘格标定法,对2个摄像机进行标定得到内部参数,结果表明,俯视摄像机和顶视摄像机的标定像素误差均小于0.52,可以满足标定需求。(3)研究了菜粉蝶目标的跟踪方法,得出KCF算法的最佳参数选择为线性核函数和灰度特征。根据菜粉蝶图像序列的特点和菜粉蝶本身的飞行特性,选取3种非常具有代表性的视觉目标跟踪方法进行分析,并对3种算法进行跟踪试验,对比分析表明,STC(Spatio Temporal Context Learning)算法和KCF算法跟踪丢帧率均为0,平均像素误差分别为12.47和7.12,后者更适用于菜粉蝶目标识别与跟踪。设计KCF跟踪算法不同核函数和特征试验,结果表明,采用线性核函数和灰度特征,KCF跟踪算法的平均像素误差为5.58,能有效地跟踪菜粉蝶目标。(4)研究分析了正交双目视觉的立体匹配方法。通过与传统的平行双目视觉进行对比,在保证正交性的基础上,正交匹配利用2个摄像机拍摄平面的正交关系可直接得到菜粉蝶目标的叁维空间坐标,有效地降低了立体匹配算法复杂度,大大提高了获取运动目标的空间叁维轨迹的效率,且跟踪丢帧率为0,能够满足本研究的系统要求。测试结果表明,本文方法可对菜粉蝶目标进行跟踪、获取其飞行3维运动轨迹,并可方便地测定菜粉蝶飞行的速度、加速度等参数,检测的叁维空间对象距离相对误差小于3.44%。(本文来源于《西北农林科技大学》期刊2017-05-01)
韩盛[9](2016)在《基于机器视觉的侧面车道信息获取系统设计与实现》一文中研究指出随着中国加入世界贸易组织以来,私人汽车的价格逐步下降。并且近年来社会经济发展、公路建设迅速,越来越多的人拥有了自己的车辆。但是,伴随而来的频发的交通事故也给社会以及个人带来了极大的损失。并且随着科技的不断发展,越来越多的中高端车辆中使用了智能辅助驾驶系来辅助人类的驾驶。根据我国道路建设的标准,设计了一种基于机器视觉的侧面车道信息获取系统,该系统首先采用全景摄像头的侧面图像信息对场景进行标定,从中获得世界坐标系和图像坐标的变换矩阵,然后根据变换矩阵对获取图像进行逆透视变换。之后将图像进行白平衡、灰度化、高斯平滑等预处理工作。然后根据MSER极大稳定区域算法提取车道线的特征,进行颜色域变换并建立黄色模型提取黄色车道线特征。再经过直方图投影法计算车辆与车道线的偏转角、估算车辆当前所在车道以及对车道线的类型判断。这些所获信息将为后续的车辆控制决策模块提供信息,为车辆变道、碰撞预警奠定基础。最后,对整个侧面车道信息获取系统进行测试。实验结果表明,在不干扰智能驾驶系统其他模块工作的前提下,本系统在车载电脑上处理速度快,能够满足实时获取侧面车道信息,能够为车辆碰撞预警以及后续的二次规划路径提供坚实可靠的数据,故可运用在开启智能驾驶系统的车辆上作为辅助信息获取模块使用。(本文来源于《华中科技大学》期刊2016-12-01)
包磊,王斌,梁浩鑫[10](2016)在《试论叁维脉搏信息获取中主动视觉技术的应用》一文中研究指出中医脉诊结果长期以来由医师主观判定得出,其准确性及一致性受到质疑;脉搏对外界变化反应灵敏,脉搏变化常先于症状的变化,灵敏性使其备受关注;脉诊仪伴随脉搏客观化课题的开展,应运而生。然而,现有的脉诊仪不管是基于何种工作原理,采用何种传感器结构,所描记的脉图多局限于二维空间,不能反映脉象的全部信息。中医的"位、数、形、势"辩脉纲领阐明:无论何种脉象都有其显现的叁维空间位置,其具体的空间位置对临床脉诊具有十分重要的价值。基于这样的认识,本文通过对主动视觉的概念进行简要介绍,并相应的对叁维脉搏信息获取中主动视觉技术的应用进行分析和阐述。(本文来源于《探索科学2016年5月学术研讨》期刊2016-05-29)
视觉信息获取论文开题报告
(1)论文研究背景及目的
此处内容要求:
首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。
写法范例:
真实世界的视觉光信息是复杂的高维度连续的信号;而现有的数字成像方式是低维耦合离散采集,在成像的各个维度——空间分辨率、时间分辨率、视角及深度、颜色(光谱)等均已达到瓶颈:这极大限制了场景视觉信息的全面获取。计算成像,综合信号处理、光学、视觉、图形学等多学科知识,可突破经典成像模型和相机硬件的局限,以更加全面、精确地捕捉真实世界的视觉信息。文章从计算成像的进化史、计算成像的基本原理、计算成像研究动态、计算成像的关键技术以及计算成像的未来展望等方面,从全光视觉信息的设计获取角度阐述了计算成像的相关概念与理论。
(2)本文研究方法
调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。
观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。
实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。
文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。
实证研究法:依据现有的科学理论和实践的需要提出设计。
定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。
定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。
跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。
功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。
模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。
视觉信息获取论文参考文献
[1].周艳辉,熊建萍,张敏强.校正阅读中视觉信息获取速度的眼动研究[C].第二十二届全国心理学学术会议摘要集.2019
[2].赵巨峰,崔光茫.计算成像——全光视觉信息的设计获取[J].航天返回与遥感.2019
[3].朱特浩.人与机器人交互中的视觉运动信息获取、分析与交互策略研究[D].上海交通大学.2018
[4].刘艳余.微装配空间全局视觉信息获取方法的研究[D].湖南科技大学.2018
[5].王琴,舒晓斌,刘勇.基于计算机视觉的无人机农田信息获取系统研究[J].农机化研究.2018
[6].马新伍,甘屹.基于双目立体视觉的鞋底边缘信息获取研究[J].电子科技.2017
[7].张璐,郭奇青.采摘机器人选择性作业信息获取研究——基于无标定视觉伺服系统[J].农机化研究.2017
[8].刘聪.基于正交双目视觉的菜粉蝶3D运动信息获取技术研究[D].西北农林科技大学.2017
[9].韩盛.基于机器视觉的侧面车道信息获取系统设计与实现[D].华中科技大学.2016
[10].包磊,王斌,梁浩鑫.试论叁维脉搏信息获取中主动视觉技术的应用[C].探索科学2016年5月学术研讨.2016