导读:本文包含了视差预测论文开题报告文献综述及选题提纲参考文献,主要关键词:信息光学,自由立体显示器,视疲劳,视差
视差预测论文文献综述
王勤,赵悟翔,邹翠明[1](2019)在《基于视差和串扰的自由立体显示器视疲劳预测》一文中研究指出针对观看自由立体显示器存在人眼焦点调节和集合不一致的根本生理问题,及观看时间稍长将引起立体观看视疲劳,甚至危害视觉健康的问题。提出了一种对自由立体显示器视疲劳程度进行预测的方法,由叁个不同的立体观看视疲劳参数——视差值、视频帧率和串扰度组合得到27段立体测试视频,让观看者观看这些视频得到主观评价数据,采用多元线性回归的统计方法处理评价数据确定了自由立体显示器视疲劳的多元线性回归模型,并根据此模型对待评估立体视频的视疲劳程度进行有效预测。这种方法避免了反复的主客观评价对视觉系统的危害,减少主客观评价信息收集的复杂性。最重要的是,该模型能快速预测自由立体显示器视疲劳程度。(本文来源于《光学技术》期刊2019年05期)
陈洁[2](2016)在《HEVC帧内预测单元快速选择与视差图生成算法》一文中研究指出高效率的视频编码(High Efficient Video Coding,HEVC)与已有的视频编码标准H.264/AVC相比,在压缩性能和并行处理能力等方面都有了显着提高。但优越性能所带来的高复杂度问题阻碍其在实际应用的推广。因此,如何在有效地保证视频质量的同时,降低编码复杂度,满足实际应用需求,是目前HEVC研究的重要内容。本文在研究HEVC标准及其关键技术基础上,从帧内模块的块划分这个部分对算法进行改进,进而达到降低HEVC编码复杂度的目的。针对帧内预测编码单元划分的复杂度问题,本文提出了一种CU块划分快速终止算法。该算法将K-means聚类算法融入到了编码单元划分的过程中。首先从图像纹理复杂度的特点出发,获取图像纹理复杂度与CU块尺寸之间的关系,并且利用CU块的方差值代表图像纹理复杂度;然后将图像纹理复杂度作为K-means聚类算法的输入向量,从而获得CU块的聚类中心;最后将HEVC原有的帧内算法与K-means聚类方法相结合,最终实现CU块的划分。实验表明,本文算法在保证视频质量的基础上,有效地降低了帧内编码所需的时间。针对全局匹配算法边缘和遮挡区域的问题,本文提出了一种基于引导滤波与Mean Shift的全局匹配算法。本算法联合马尔可夫随机场(Markov Random Fields,MRF)理论和导向滤波器(Guided Filter)理论建立匹配代价函数,通过最小化匹配代价函数求得对应像素点的初始视差值。通过Mean Shift算法与超分辨率重建算法对生成的视差图进行处理,使得视差图的质量提高。将实验结果与Middlebury立体匹配基准数据库中的结果相比较,证明了本文提出的算法有很高的准确性,效果优于很多主流的算法。(本文来源于《天津大学》期刊2016-11-01)
胡春悦[3](2015)在《联合彩色信息的多视点深度视频视差矢量预测》一文中研究指出多视点加深度(MVD)格式可以利用虚拟视点绘制技术生成任意视点的视频,能高效地向观看者提供立体感知。由于MVD中的深度视频与对应的彩色视频采集于同一场景,具有高度的相关性。因此,深度视频可以利用已编码的彩色信息辅助编码。提出一种联合彩色信息的多视点深度视频视差矢量预测方法。该方法首先获得当前编码深度块对应位置的彩色块,提取彩色块预测得到的视差矢量作为深度块的一个候选视差矢量。然后,利用深度块信息计算得到另一个候选视差矢量。最后,对两个候选视差矢量通过计算下采样均方差,选择更精确的一个作为当前深度块的视差矢量预测值。实验结果表明,所提出的方法性能优于3D-HEVC编码平台HTM。(本文来源于《信息技术》期刊2015年10期)
孔祥军[4](2015)在《基于多视点解码流分析的视差预测方法研究》一文中研究指出伴随着科学技术的发展进步,视频和图像在现代人的工作和生活之中起到了越来越重要的作用,提高了现代人的工作效率和生活质量。视频图像的获取、压缩和显示技术都在快速发展,能给观视者带来更强烈真实感的立体视觉技术也越来越受到人们的关注,目前,立体视觉技术已经广泛的应用到了远程医疗、虚拟现实、电影卡通等领域,受到了人们的欢迎。然而,立体视频与二维视频相比,一个突出的问题就是视觉疲劳的加剧。在观看传统二维视频时,长时间观看,也会使人产生疲劳感,然而在观看立体视频时,这种疲劳感增强了。许多观看者在看完立体视频后,会出现眼睛疼痛、头晕、视力模糊等症状,极大地影响了人们的观看兴趣。观看立体视频产生的强烈视觉疲劳感,也成为了阻碍立体视频技术更进一步广泛应用的一大难题。导致立体视频视觉疲劳的因素主要有外界环境因素、观视者生理因素和观视者心理因素。外界环境因素主要是播放环境、立体视频显示设备的显示情况,这些可以通过优化播放环境和显示设备的显示性能来消除。观视者生理因素主要是指垂直视差、辐辏与调节不一致等由立体视频引起的与生理特点不一致的因素,这些因素需要通过科学系统的研究来进行消除,目前国内外学者已针对辐辏与调节不一致这个因素进行了广泛而深入的研究,并取得了巨大的突破,而在垂直视差方面的研究相对较少。在实际情况下,人在观看同一场景时,这一场景会在双眼中各自成像,根据成像的差别,人们能获取到该场景的叁维信息。利用摄像机获取立体视频时,就是在模拟这一过程,此时这个差别就是视差。视差矢量包含水平视差和垂直视差,水平视差是因为摄像机水平放置而产生的,是实现叁维重建的重要依据,人的眼睛对水平视差已有了适应性;垂直视差是因为获取立体视频的摄像机摆放或者工艺等因素而带入的,不仅不会有助于叁维重建,而且还会让人产生不适应感,引起视觉疲劳,影响立体视频的效果,是需要消除的。垂直视差消除算法消耗时间较长,而且在消除的过程中容易引起水平视差的变化,所以垂直视差消除之前需要将垂直视差预测出来,实现垂直视差消除算法的恰当调用,避免耗时过长或者水平视差的变化。目前,国内外对视差预测方法的研究大多集中在编码端,大多用于快速编码算法。在实际应用时,垂直视差消除模块应用于解码播放时,视差也需要在解码播放时进行预测。本文首先在解码端利用解码流将JMVC中的视差矢量预测出来,随后研究预测出来的视差矢量和视频中每帧的立体匹配视差,建立二者关系模型,最终实现视差的预测。本文算法在Visual Studio2008平台下,通过C++和OpenCV编程实现。以ballet、ballroom、exit、crowd和vassar序列作为实验序列,实验结果表明,本文所提出的视差预测模型能够准确地对立体视频中每帧的视差进行预测。(本文来源于《吉林大学》期刊2015-06-01)
白雪姣[5](2015)在《针对树型立体视觉匹配的视差预测层级加速算法研究》一文中研究指出立体视觉是目前计算机视觉领域一个重要的课题。它的主要目的在于提取场景中的深度信息,利用立体匹配算法得到精准的视差图,进而完成场景的叁维重构。基于树型结构的匹配是其中重要的立体匹配算法之一。近年来提出的树型立体视觉匹配算法通过在图像中构造最小生成树(MST)来聚合匹配代价。该类算法结合了高效率局部匹配与高精度全局匹配的特点,匹配精度以及匹配效率较传统匹配算法均有很大提高。其时间复杂度理论值为O(N·dmax),即运行时间只和像素点总数N和图像最大视差dmax相关。但树型匹配算法基于贪心搜索策略,对于构造匹配窗口缺乏一定的自适应性,在同一平面存在不同深度分布的情况下无法得到精确的深度信息。同时,该类算法运行效率受到最大视差限制,在最大视差较大的实际场景和高分辨率图像中,运行速度较慢。本论文针对传统树型立体视觉匹配算法中出现的问题,引入视差预测模型(Disparity Prediction Model,DPM),提出针对树型立体视觉匹配的视差预测层级加速算法(Disparity-Prediction-Based Hierarchical Accelerator,DPA)。该算法通过预测视差概率分布,构造出更精确的核心视差置信区间,使得匹配代价的计算,代价聚合,视差计算,视差优化都只发生在这一核心视差置信区间内,从而降低树型匹配算法的时间复杂度。本论文通过大量的实验数据,包括Middlebury数据库的实验室图像,KITTI数据库的实际场景的高分辨率图像,以及自主拍摄的低质量的实际场景图像,验证了DPA加速算法在提升匹配精度的同时,能够优化基于树型结构匹配算法的复杂度,大大提高运行效率。本论文共有叁个主要贡献:1.提出了核心视差置信区间概念。对于每一个像素点,其视差值处于核心视差置信区间范围内的概率远远大于置信区间范围外。通过精确的视差置信区间,可以在匹配代价计算、视差计算以及视差修复等步骤中大大减少计算量,提高运行效率。2.提出了基于视差分布的DPM视差预测模型。此模型在图像金字塔结构基础上,通过小规模视差预测出大规模视差的概率分布,并应用于构造核心视差置信区间。3.提出了普适的针对树型立体视觉匹配的DPA层级加速算法。此算法可结合到现有的树型匹配算法框架中。经实验验证,该算法大大提高了原始树型匹配算法的运行效率。图像分辨率越高,视差范围越大,效果越明显。具体地,对于高分辨率图像,应用了DPA层级加速算法后,匹配效率提升达7-10倍。(本文来源于《上海交通大学》期刊2015-01-09)
陈宝文,姜军,谭旭[6](2014)在《针对动态场景的快速视差图像预测方法》一文中研究指出要在机器人导航、视频监控和人机交互等领域,从立体图像序列中计算动态场景的叁维结构时,大多数空-时立体方法和场景流方法,没有充分利用前一帧视差图像的信息计算下一帧视差图像,导致在计算每一帧视差图像时,对应点的搜索空间降低了视差计算的速度。针对这一问题,提出了一种有效的视差图像预测方法,利用稳定的基于角不变量特征的叁维配准算法,估计立体装置在相邻两帧之间的自主运动参数;并建立了相邻两帧视差图像之间的变换关系。所提法能够快速计算具有时间一致性的视差图像序列,仿真和真实实验证明了其有效性。(本文来源于《科学技术与工程》期刊2014年18期)
邓智玭,贾克斌,陈锐霖,伏长虹,萧允治[7](2010)在《面向立体视频的视差-运动同步联立预测算法》一文中研究指出针对立体视频序列的时间空间冗余和交叉冗余,提出一种快速编码算法.应用立体-运动约束模型在视差域和运动域进行联合迭代搜索,根据每次迭代后的模型误差设置自适应修正窗口来保证预测矢量精度,视差矢量和运动矢量可以快速同步获得.实验结果表明,该算法在保证高率失真性能的同时,可以大幅度降低编码复杂度.(本文来源于《计算机辅助设计与图形学学报》期刊2010年10期)
焦卫东,卢朝阳,郭大波,张北航[8](2010)在《网格运动和视差相联合的立体视频预测》一文中研究指出提出了一种基于网格的运动和视差相联合的立体视频预测算法。利用运动估计和视差估计中要保持网格拓扑结构不变这一前提条件,由当前左图像及其网格,对当前右图像进行前向视差估计;然后利用形变后的网格和上一帧右图像,对当前右图像进行后向运动估计;以叁角形为预测单元,选择这两种预测中使得当前右图像中叁角形的预测误差较小的作为该叁角形的最终预测,从而提高预测图像的质量。最后给出了该算法的一个简化算法:连续网格形变的运动和视差相联合的立体视频预测算法。实验结果表明,该方法及其简化算法融入到立体视频编码系统后,在大致相同的压缩比下所得到的解码图像的PSNR分别比基于网格的兼容性算法高出0.6dB和0.5dB,比MPEG-4TPS能提供更好的主观质量。(本文来源于《电路与系统学报》期刊2010年02期)
潘峰,马力妮,杜小钰[9](2008)在《基于视差估计算法的多视点视频预测方案》一文中研究指出多视点视频编码是立体视频的关键技术,视差估计是目前多视点视频编码中常用的方法之一。探讨了多视点视频编码中的视差估计算法原理,对当前应用视差估计算法的几种典型预测结构进行了深入分析,提出一种结合分级B图与视点相关性的多视点编码方案,该方案在H.264/AVC的编码模型JM下实现。实验表明,该方案在兼顾随机访问性能的同时,实现了较高的编码效率,尤其适合视点间相关性较高的运动图像序列。(本文来源于《计算机科学》期刊2008年09期)
刘佳,安平,张兆扬[10](2005)在《基于对象的预测递归视差估计》一文中研究指出视差匹配是中间视合成、立体图像/视频编码及物体识别的关键步骤。提出了一种在大基线下基于对象的预测递归视差匹配算法。首先识别前景和背景区域,然后在对前景对象进行匹配的过程中,采用相邻块预测方法,提高了匹配的速度和精度。实验结果表明,本算法能得出良好的视差图。(本文来源于《中国图象图形学报》期刊2005年11期)
视差预测论文开题报告
(1)论文研究背景及目的
此处内容要求:
首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。
写法范例:
高效率的视频编码(High Efficient Video Coding,HEVC)与已有的视频编码标准H.264/AVC相比,在压缩性能和并行处理能力等方面都有了显着提高。但优越性能所带来的高复杂度问题阻碍其在实际应用的推广。因此,如何在有效地保证视频质量的同时,降低编码复杂度,满足实际应用需求,是目前HEVC研究的重要内容。本文在研究HEVC标准及其关键技术基础上,从帧内模块的块划分这个部分对算法进行改进,进而达到降低HEVC编码复杂度的目的。针对帧内预测编码单元划分的复杂度问题,本文提出了一种CU块划分快速终止算法。该算法将K-means聚类算法融入到了编码单元划分的过程中。首先从图像纹理复杂度的特点出发,获取图像纹理复杂度与CU块尺寸之间的关系,并且利用CU块的方差值代表图像纹理复杂度;然后将图像纹理复杂度作为K-means聚类算法的输入向量,从而获得CU块的聚类中心;最后将HEVC原有的帧内算法与K-means聚类方法相结合,最终实现CU块的划分。实验表明,本文算法在保证视频质量的基础上,有效地降低了帧内编码所需的时间。针对全局匹配算法边缘和遮挡区域的问题,本文提出了一种基于引导滤波与Mean Shift的全局匹配算法。本算法联合马尔可夫随机场(Markov Random Fields,MRF)理论和导向滤波器(Guided Filter)理论建立匹配代价函数,通过最小化匹配代价函数求得对应像素点的初始视差值。通过Mean Shift算法与超分辨率重建算法对生成的视差图进行处理,使得视差图的质量提高。将实验结果与Middlebury立体匹配基准数据库中的结果相比较,证明了本文提出的算法有很高的准确性,效果优于很多主流的算法。
(2)本文研究方法
调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。
观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。
实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。
文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。
实证研究法:依据现有的科学理论和实践的需要提出设计。
定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。
定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。
跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。
功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。
模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。
视差预测论文参考文献
[1].王勤,赵悟翔,邹翠明.基于视差和串扰的自由立体显示器视疲劳预测[J].光学技术.2019
[2].陈洁.HEVC帧内预测单元快速选择与视差图生成算法[D].天津大学.2016
[3].胡春悦.联合彩色信息的多视点深度视频视差矢量预测[J].信息技术.2015
[4].孔祥军.基于多视点解码流分析的视差预测方法研究[D].吉林大学.2015
[5].白雪姣.针对树型立体视觉匹配的视差预测层级加速算法研究[D].上海交通大学.2015
[6].陈宝文,姜军,谭旭.针对动态场景的快速视差图像预测方法[J].科学技术与工程.2014
[7].邓智玭,贾克斌,陈锐霖,伏长虹,萧允治.面向立体视频的视差-运动同步联立预测算法[J].计算机辅助设计与图形学学报.2010
[8].焦卫东,卢朝阳,郭大波,张北航.网格运动和视差相联合的立体视频预测[J].电路与系统学报.2010
[9].潘峰,马力妮,杜小钰.基于视差估计算法的多视点视频预测方案[J].计算机科学.2008
[10].刘佳,安平,张兆扬.基于对象的预测递归视差估计[J].中国图象图形学报.2005