论文部分内容阅读
基于图割理论的立体匹配是从同一场景不同角度的两幅或多幅图像中得到视差图,进而求得场景的立体深度,为三维重建、视觉测量等提供有用的信息。然而,视图视差范围的选择往往被忽视,提出一种基于图像分割及GPU SIFT算法的视差范围快速自动提取算法,得到的视差范围值应用于立体匹配算法中视差范围的取值;并针对图割方法进行立体匹配时存在的正面平行表面缺陷的问题,提出一种最小二乘法的迭代改进方法,对立体匹配得到的视差图进行优化处理。对Middlebury中的标准数据进行测试的结果表明,该算法能准确地提取视图的视差范