论文部分内容阅读
随着深度探测技术的快速发展,用彩色加上深度信息来描述三维场景变得更为全面和常见。传统的图像分割算法,建立在单独的彩色图上,存在这无法分辨颜色相近的物体等一系列问题。本文提出了一种针对彩色深度图像分为两个阶段的分割算法,即:第一阶段,通过三维几何增强的超像素对图像进行过分割;第二阶段,加入标签项,利用图论的方法来对过分割结果进行融合。在过分割阶段,首先利用深度图重建三维几何信息,然后通过一个八维的距离度量来推动一种类似K均值类聚算法的迭代过程,从而得到超像素结果。而在融合阶段,每一个超像素被当作一个节点来对待,通过建立基于图论的模型来重新标记每一个超像素,从而得到语义连贯的分割块。在基于图论的模型中,RGB-D数据的接近程度,纹理的相似性和边界的连续性都被加入到光滑项的考虑范畴,以此来度量相邻超像素间的相似程度。为了得到更为简洁的标记,我们设计了标签项来为相似的标签分配大的能量值,从而在最小化能量函数的过程中可以去除这些冗余的标签。无论是本文提出的三维几何增强的超像素分割算法,还是基于图论模型的超像素融合算法,都在主观和客观对比实验中得到了很好的验证。通过融合应用彩色和深度信息,对比现今流行前沿的分割算法,本文所提出的方法获得了显著的分割性能提升。