导读:本文包含了立体视频编码论文开题报告文献综述及选题提纲参考文献,主要关键词:3D-HEVC,帧内预测,帧间预测,深度图编码
立体视频编码论文文献综述
汪博涵[1](2017)在《立体视频编码标准3D-HEVC的快速算法》一文中研究指出为了提高3D视频的编码性能,立体视频编码联合组制定了3D-HEVC编码标准。3D-HEVC除了沿用与HEVC类似的混合编码框架和技术外,还加入了如视点间预测、深度图编码等立体视频编码新技术。与以往的基于H.264的立体视频编码标准比较,3D-HEVC具有更高的编码性能。但是,优秀的编码性能是用巨大地计算复杂度换取的,而计算复杂度的提高严重限制了3D-HEVC的实际应用。因此,研究如何降低3D-HEVC编码过程的计算复杂度,是一个重要研究课题。本文通过对3D-HEVC的编码框架以及其中的关键编码技术进行分析,对其中复杂度较高的帧内预测过程和帧间预测过程进行了一系列的优化,从而实现降低3D-HEVC编码过程的计算复杂度的目的。在帧内预测优化方面,本文提出了两种算法。首先,通过分析深度视频序列编码块的平滑程度与该编码块的最佳预测模式之间的关系,提出一种深度序列帧内快速模式选择算法SOG-FIMD(Sum-of-Gradient Based Fast Intra Depth Mode Decision)。当编码块足够平滑时,便可以跳过对一些不必要模式的计算,因为这些模式在编码块平滑时几乎不会被取到。为了判断编码块是否平滑,本文采用了计算Roberts梯度和的方式进行判定,如果梯度和小于某一阈值,则认为该编码块平滑。实验结果表明:与原始算法相比,本算法平均减少7.44%的编码时间,而BD-rate只增加0.01%。其次,通过对编码单元分割过程中采用的率失真优化函数的分析,提出一种深度序列编码单元快速分割算法SOG-FCUP(Sum-of-Gradient Based Fast CU Partition)。对于位于完全平坦区域的深度图编码块,直接终止其进一步的分割,从而降低编码器的计算开销。实验结果表明:本算法平均减少16.17%的编码时间,并且合成视点的BD-rate减少0.01%。在帧间预测优化方面,本文提出了两种算法。首先,通过对立体视频帧间预测模式分布特性进行分析,提出一种帧间预测Skip模式提前判决算法DSMD(Dependent View Skip Mode Early Determination)。利用视点相关性,根据独立视点中对应位置编码块和相邻编码块的最佳预测模式提前判决非独立视点中编码块的预测模式。实验结果表明:本算法平均减少6.50%的编码时间,而合成视点的BD-rate只增加0.08%。其次,利用视频纹理特性与预测模式之间的关系,提出一种帧间预测对称运动分割和非对称运动分割模式选择性跳过算法SASK(SMP& Mode Selectively Skip)。实验结果表明:本算法平均减少12.71%的编码时间,而合成视点的BD-rate仅增加0.10%。综上所述,本文所提出的优化算法能够减少3D视频编码过程的计算开销,同时保持优异的编码性能。(本文来源于《华侨大学》期刊2017-05-19)
王来花,侯春萍,朱涛,王宝亮,阎维青[2](2016)在《基于JNDD边界划分的立体视频深度编码》一文中研究指出针对编码后的深度图中边界区域失真导致的虚拟视图质量下降的问题,利用基于恰可察觉深度差异(JNDD)的边界提取方法,将深度图划分为尖锐的边界区域和平滑的非边界区域,并对划分后的区域分配不同的量化参数值进行深度编码.实验结果表明:本文提出的方法能够很好地保留深度图的边缘信息,有效地减轻虚拟视图绘制的失真;同时,绘制的虚拟视图能够保持较高的峰值信噪比(PSNR)和结构相似性测量参数(SSIM)值.(本文来源于《天津大学学报(自然科学与工程技术版)》期刊2016年09期)
宫梦莹[3](2016)在《立体视频的DT网络编码》一文中研究指出当今世界信息技术快速发展,传统的单目视频早已不能满足人们的需要。相比于单目视频二维平面的展示,人们越来越要求立体视频真实、立体的展示方式。随着电影《阿凡达》的热映,3D电影走入人们的视野,进而在视频会议、人工智能、通信领域崭露头角。目前学界在立体视频领域研究比较多的是双目立体视频。双目立体视频与单目视频的区别是其采用两台参数完全相同的摄像机进行采集,数据量是单目视频的两倍。数据量巨大是双目立体视频的保存与传输的难点。现在常用的立体视频编码的方法有基于块的编码、基于对象的编码、基于网格的编码。基于网格的编码方法由于其自适应性高、解码误差小等优点得到广泛应用。本文采用的基于DT网格的立体视频编码方法,是先利用左右信道的图像视差生成DT网格,并将DT网格采用仿射变换映射到立体视频图像上,最后对视差信息和运动信息进行编码。基于DT网格的立体视频编码方法能够避免块效应,使编码效率更高,效果更好。本文采用基于视差图的方法生成DT网格,在此基础上进行立体视频的压缩编码,通过实验证明解码图像的主观质量较好,效率较高。(本文来源于《吉林大学》期刊2016-06-01)
戴庆焰[4](2016)在《对象基立体视频编码研究》一文中研究指出随着科技的快速发展和人们生活水平的提高,普通的2D视频已经不能满足人们的视觉需求。与2D视频相比,立体视频通过添加场景深度信息可以给人们带来更强的立体感和真实感,深受人们的欢迎。但与此同时,立体视频的数据量庞大,远远大于普通视频。这给视频数据的存储和传输带来极大的困难。因此,提高立体视频编码效率具有重要的理论和现实意义。与传统的基于波形的编码方法相比,对象基立体视频编码方法不仅能够有效的减少编码错误,而且能够提供基于内容的交互功能,具有较强的内容描述能力和广泛的应用前景。本文主要从对象基立体视频编码实用化过程所遇到的问题入手,对图像分割、立体匹配两方面进行研究。图像分割是图像处理和计算机视觉领域的研究热点和经典难题。本文针对经典的Grabcut算法耗时较大且在颜色相近区域分割精度不高的问题,提出一种基于超像素和改进Grabcut方法的图像分割新算法以获得高效和准确的分割结果。首先通过改进Slic算法,得到前景边缘信息保存较完整的超像素图像。然后以超像素为处理单元通过融合颜色、梯度等信息重建能量函数,并基于Grabcut框架进行分割。较原算法相比,改进算法提高了分割精度和效率。立体图像分割是对象基立体图像处理中的关键和难点。为解决现有立体图像分割精度不高且对不同通道内的图像进行重复分割的问题,提出一种新颖且高效的基于图割和视域相关性的立体图像分割算法。首先通过改进Grabcut算法对左图像进行分割以提取出左图像目标,然后基于左右图像的视域相关性通过融合颜色和纹理特征的轮廓匹配提取右图像目标。该算法能够准确提取立体图像目标,同时也有效避免了基于视差图的立体分割结果对所使用的视差图像精度过于敏感的状况。立体匹配作为立体视频编码的关键技术之一,可有效去除视频数据的空间冗余。针对现有算法匹配精度不高且在图像遮挡区域、低纹理区域、视差不连续区域误匹配严重的问题,提出一种基于图像分割和自适应权重的立体匹配算法。所提算法能够获得准确的稠密视差图像,优于现有其它常见立体匹配算法。(本文来源于《郑州大学》期刊2016-05-01)
王培成[5](2016)在《基于3D-HEVC多视点立体视频快速编码算法的研究》一文中研究指出视频作为人类传播信息的重要手段,视频编解码技术正在迅速向前发展。为了迎合人们对视频具有真实性、交互性的诉求,目前的视频技术正在向高清、多视点方向发展。但随着视频分辨率的提高,以及视点数量的增加,给网络传输带宽和处理器计算能力带来严重挑战,因此,为了解决该难题,由国际电信联盟(ITU-T)和国际电工委员会(ISO/IEC)在2010年共同成立视频编码联合小组(JCT-VC),组织制定了下一代高效视频编码标准(High Efficiency Video Coding,HEVC),并于2013年初公布该编码标准。同时,为了研究下一代3D视频编码标准,成立了3D视频联合编码小组(JCT-3V),正在积极组织制定新一代多视点立体视频编码标准(3D-HEVC),该标准也即将公布。根据实验统计结果,与上一代多视点立体视频编码标准(Multi-view Video Coding,MVC)相比,可平均减少约50%的比特率。然而,该编码标准的编码计算复杂度却呈指数飙升,使得该编码标准难于应用推广。因此,在保证视频压缩编码质量不下降以及比特率不增加的前提下,如何降低编码计算复杂度得到了国内外学术界和工业界的高度关注。本文首先简要介绍了HEVC中的关键技术,并与H.264/AVC进行了比较分析。接着详细地介绍了3D-HEVC的关键技术以及国内外研究现状,并给出了该课题的选题意义。为了深入该课题,还通过实验认真分析了3D-HEVC编码标准中各个编码工具的压缩性能,找出了影响编码计算复杂度的关键模块。同时,还总结了与该课题相关的近几年提出的算法。针对3D-HEVC中灵活的块划分技术复杂度高的特点,提出了基于已编码块信息的参数快速选择算法。该算法利用多视点立体视频在时空域、视点间以及不同视频类型之间的相关性,设计了多种预测策略,从而有效地减少了对编码单元和变换单元的划分次数,以及对预测模式的搜索次数。实验结果表明,该算法可以减少约68%的计算复杂度。针对该编码标准复杂度高这个难题,还从另外一个思路入手,将编码器参数集选择问题建模为分类问题,合理选择特征向量,设计了较准确的贝叶斯分类器。通过贝叶斯分类器在线学习参数选择过程,能有效地降低编码参数集合。实验结果表明,基于在线学习的参数快速选择算法在保证编码压缩性能不显着降低的情况下,能平均减少约55%的编码时间。因此,本文提出的两种算法对该标准在多媒体产业的推广具有一定的参考价值。(本文来源于《电子科技大学》期刊2016-03-29)
王婷婷[6](2016)在《基于压缩感知的深度图像和立体视频编码研究》一文中研究指出近年来随着3D电影的热映,叁维立体视频以其能与用户交互的功能和独特的立体感而成为工业界和学术界的热议话题,并广泛应用于教育、娱乐、医疗、商业、监控等各个领域,必将在未来视频通信领域中占有重要的地位。然而叁维视频的数据量随着视点数目的增加也成倍增长。随着数据量的增加,必然使数据的传输产生问题,对信道造成压力,有效的压缩成为关键。近年来兴起的压缩感知理论成功突破了以往采样速率必须大于两倍信号带宽的局限,使采样速率取决于信号的结构与内容而不再取决于信号的带宽,为解决上述问题提供了途径。本文基于压缩感知的原理,将其应用到深度图像和叁维立体视频编解码中,完成的工作主要包括:(1)由于压缩感知需要图像是稀疏的,而深度图像满足这一条件,所以本文提出一种基于压缩感知的自适应分块编码方案。以往压缩感知大部分是对所有块均匀采样,因此每个块稀疏度不同容易造成高采样率下资源的浪费,低采样率下保证不了每个块的重构质量。本文提出的方案恰好解决了这一问题,方案中用每个图像块所占的边缘比例作为判断稀疏度的准则,将深度图像分成大小不同的块,最后根据各个种类图像块含有边缘信息也即在变换域的稀疏情况进行自适应压缩采样,从而确保深度图像在采样率平均较低的情况下能够获得较高的重构质量;(2)以往的压缩感知采用的是正方形的分块模式,但是我们发现在边缘分块的时候有一些不合理的地方,所以我们想到更加细化的分块方法,根据图像块熵值将深度图像分成八种模式图像块。在本章中,根据每个块的熵值的大小,我们提出了一种自适应矩形块压缩采样的方案,来获取更高质量的重构图像;(3)传统的视频编码方法在编码端复杂程度较高,这不利于在资源受限的移动端应用。为了解决这一问题,我们把压缩感知技术和分布式编码相结合应用到多视点视频编解码体系中。在编码端我们将输入视频分成关键帧和CS帧,然后分别对关键帧和CS帧进行独立编码,最后再结合虚拟视点联合解码,这样在得到高质量重构图像的同时也降低了编码端的复杂程度。(本文来源于《北京交通大学》期刊2016-03-01)
孙飞飞[7](2015)在《立体视频对象的DT网格编码》一文中研究指出在多媒体技术发展迅猛的今天,单目视频早已不能满足人们日益提升的感官要求,3D立体视频开始展露在通信,网络,视频会议等各个角落。现在应用比较广泛的是与计算机视觉相关的双目立体视频。双目立体视频由于其需要左右两个通道进行传输,所以其与传统的单目视频显着的不同就是数据量是传统视频传输的二倍。我们知道,人们很多时候在观看立体视频时并不关心视频的所有内容,只是对其中的人物或是运动区域感兴趣,所以本文的编码是建立在将视频对象与背景分开的分别单独进行编码,接收端可以选择性的接收感兴趣的内容。本文的对象与背景的分割是建立在左右视差图及其帧差分的联合上进行的,将左右视图立体匹配得到的视差图进行初次分割提取,立体匹配采用的方法是一维窗立体匹配,有效的减小了立体匹配的计算数据量。其次将基于视差图提取的对象结果与视频帧间相邻帧的差值相结合,使对象提取的效果得到很大的改善。基于立体视频对象的DT网格编码算法先要对立体视频进行分割,对提取出的对象进行DT网格编码,接收端可以选择性的接收背景和感兴趣的立体图像部分。对于DT网格节点的生成采用迭代生成的算法,将输入的图像采用Harris角点检测得到的点设为初始节点,生成初始的DELAUNY叁角形,网格细化采用逐点插入法,并将生成的DT网格在原图像上显现出来。由于考虑到需要维持DT网格的拓扑结构,本文在对立体视频对象进行视差估计时把其作为相应矩形范围内的图片进行视差估计,对提取出的对象分别进行DT网格编码和视差估计,将编码信息与对象的形状信息一同进行编码传输,具有一定的重建图像的有效性。(本文来源于《吉林大学》期刊2015-06-01)
覃远年,徐晓宁[8](2015)在《立体视频图像编码的研究进展》一文中研究指出从编码方案、关键技术和评价准则3个方面综述了立体视频图像编码研究的发展。阐明了各种编码方案的特点及适用范围。详细分析了立体视频图像编码中视差估计、运动估计、遮挡检测、残差图像编码和码率控制5大关键技术,总结了各项技术的发展现状。最后指出了立体视频图像编码研究中存在的问题,并对未来的研究方向进行了展望。(本文来源于《电视技术》期刊2015年07期)
薛飞[9](2014)在《基于视差的恰可察觉误差模型的立体视频编码研究》一文中研究指出近年来,由于人们对逼真的视觉体验需求逐渐增强,3D电视技术的发展十分迅速。由不同视角的多台摄像机捕获同一个场景所产生的多视点视频,可以给用户带来更生动的视觉体验。然而,随着摄像机数量的增多,立体视频的存储空间和传输带宽会成倍的增加。因此,在视频处理领域如何进行有效的立体视频压缩尤为重要。由于通常情况下视频信号的最终接收者是人类视觉系统(HVS),所以由人类视觉感知因子和视频编码的融合形成的感知立体视频编码受到了极大的关注。在本文中,通过对H.264和多视点视频编码(MVC)的深入研究,描述了多种恰可察觉误差模型(JND)的建模和估计算法,并且将此类模型应用于图像、视频编码,剖析了各自的优点和对应的缺点。通过视差与人类视觉敏感度的关系首先提出了一个改进的基于视差的恰可察觉误差模型的估计算法;其次,提出了一个基于人类色度感知的色度域JND模型;然后,考虑到深度注意模糊理论(DOF)与人类视觉的特性,优化了基于视差的JND模型;最后,将这些模型用于立体视频编码,不仅有效的压缩了码率并且改善了图片、视频的感知质量。本文深入讨论了JND模型的算法改进以及与视频编码的结合,主要从以下几个方面开展了工作:1.提出了一个基于视差的JND模型。基于图像分割的立体匹配得到边缘更加准确的视差信息,利用视差和人类视觉敏感度改进了传统的时间和空间JND模型,并用于立体视频编码。实验结果证明,改善后的方法有效的减少了双目立体视频的视间冗余,并降低了码率。2.提出了一个基于人类色度感知的色度域JND模型。根据视锥细胞在视网膜上的分布,利用高斯分布来建模,并且应用到MVC编码中。实验结果显示,本方法在保证了色度感知质量的前提下成功的消除了色度冗余,节省了码率。3.通过深度模糊理论和JND的结合,提出了一个基于DOF的JND模型。利用视差信息将前景和背景有效的分离,分别对不同区域使用不同的量化参数,并且对亮度JND模型加入了高斯滤波器实现DOF效应,有效的将需要模糊化的背景区域的码率分配给了需要提高质量的前景区域。实验结果表明,该方法大幅度的消除了背景区域的冗余,节省了码率,并且提高了前景区域的质量,改善了视觉舒适度。(本文来源于《西安电子科技大学》期刊2014-11-01)
王晓东,王腾飞,胡彬彬,蒋刚毅,章联军[10](2014)在《编码端帧级立体视频传输失真模型》一文中研究指出通过分析网络传输与立体视频失真的关系,结合立体视频时空相关性、网络性能和终端错误隐藏技术,以及递归思想提出了一种编码端的帧级立体视频传输失真模型,本模型可在编码端估计特定网络条件下的终端立体视频质量。针对不同运动程度和视差大小的立体视频序列,在不同网络环境下进行实验。当用MSE表征失真时,平均预测误差为4.16%;当用PSNR表征时,平均预测误差为0.93%,表明本模型可在编码端精确估计终端的立体视频传输失真。(本文来源于《计算机科学》期刊2014年10期)
立体视频编码论文开题报告
(1)论文研究背景及目的
此处内容要求:
首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。
写法范例:
针对编码后的深度图中边界区域失真导致的虚拟视图质量下降的问题,利用基于恰可察觉深度差异(JNDD)的边界提取方法,将深度图划分为尖锐的边界区域和平滑的非边界区域,并对划分后的区域分配不同的量化参数值进行深度编码.实验结果表明:本文提出的方法能够很好地保留深度图的边缘信息,有效地减轻虚拟视图绘制的失真;同时,绘制的虚拟视图能够保持较高的峰值信噪比(PSNR)和结构相似性测量参数(SSIM)值.
(2)本文研究方法
调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。
观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。
实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。
文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。
实证研究法:依据现有的科学理论和实践的需要提出设计。
定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。
定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。
跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。
功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。
模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。
立体视频编码论文参考文献
[1].汪博涵.立体视频编码标准3D-HEVC的快速算法[D].华侨大学.2017
[2].王来花,侯春萍,朱涛,王宝亮,阎维青.基于JNDD边界划分的立体视频深度编码[J].天津大学学报(自然科学与工程技术版).2016
[3].宫梦莹.立体视频的DT网络编码[D].吉林大学.2016
[4].戴庆焰.对象基立体视频编码研究[D].郑州大学.2016
[5].王培成.基于3D-HEVC多视点立体视频快速编码算法的研究[D].电子科技大学.2016
[6].王婷婷.基于压缩感知的深度图像和立体视频编码研究[D].北京交通大学.2016
[7].孙飞飞.立体视频对象的DT网格编码[D].吉林大学.2015
[8].覃远年,徐晓宁.立体视频图像编码的研究进展[J].电视技术.2015
[9].薛飞.基于视差的恰可察觉误差模型的立体视频编码研究[D].西安电子科技大学.2014
[10].王晓东,王腾飞,胡彬彬,蒋刚毅,章联军.编码端帧级立体视频传输失真模型[J].计算机科学.2014