论文部分内容阅读
光场记录了空间中所有光线的辐照度信息。利用光场相机采集的四维光场数据,包含光线的空间和角度信息,可用于场景的深度信息获取。受场景的复杂性影响,如遮挡区域和平滑纹理区域,其深度估计结果的精度不高。本文提出了一种利用光场数据四维结构信息,实现像素级精度的深度估计算法、基于深度信息的数字重聚焦和窄视角三维表面重构。本文利用了深度与视差的对应关系,将计算深度转换为计算相邻视图间的视差,通过采用二次匹配和分类优化的方法提高视差的计算精度,获取高精度的深度图。首先采用加入权重系数的区域匹配方法,计算出图像中每个像素点的视差信息。分析了匹配过程中误差产生的原因,并给出一种新的置信函数。结合平滑区域和边缘遮挡区域在计算距离测度函数时具有不同值域范围的特点,对误差区域进行分类标识。由此,设计了相应的二次匹配方法和分类优化方法,在降低误匹配概率的同时,兼顾了边界信息保留和区域平滑两个方面。实现每个像素的视差信息的精确估计。利用获取的深度信息实现数字重聚焦,三维重构和视点漫游。根据重聚焦深度和视差的对应关系,给出多视图下基于视差的重聚焦方法,得到聚焦在不同深度的图像。此外,基于成像过程中的几何原理,利用高精度的深度信息计算得到场景的三维坐标,实现窄视角下场景的三维重构。基于计算出的场景三维坐标和成像原理,可以得到视点在深度方向上漫游时,场景所成的图像。本文采用公开的基准光场数据和实拍的光场数据进行算法验证、测试与评估成像精度。结果表明,本文中提出的算法降低了平滑区域和边缘遮挡区域的深度估计误差。与已有的算法相比,新算法具有更好的计算精度。本文研究了基于四维光场数据的高精度深度信息获取方法。这对于视差计算过程中的匹配优化,以及平滑曲面的深度信息获取等理论和应用问题的进一步工作,均有很好的意义。同时对于这种采集方式的研究,也为某些特定应用场合的光场相机设计提供有益的参考。