论文部分内容阅读
在智能无人车领域的研究中,实时环境感知与场景理解是保证无人车实现自主导航及地图构建的前提与基础。本文研究了无人车基于三维激光测距的室外场景理解方法。为了简化面向室外场景的点云分类过程,本文提出了三维激光数据的二维最优方位角(Optimal Bearing Angle, OBA)图模型。该模型可兼顾定点扫描与行进扫描两种不同数据获取方式,并能解决传统二维模型表述中的灰度突变、视点选取及细节表现力差等问题。本文基于三维激光测距的室外场景理解研究以OBA图模型为基础,重点解决大范围三维点云数据的多标签分类问题。为了降低点云分类的计算复杂度,本文在OBA图基础上采用超像素算法完成三维场景的快速分割。从每个超像素块及其对应点云中可提取空间几何信息、纹理信息等大量局部特征。由于单一弱特征无法有效用于物体分类,本文提出了基于Gentle-AdaBoost算法与局部再分类策略的快速场景理解方法,其中Gentle-AdaBoost可将多种弱特征分类器提升为强分类器,从而实现场景点云的快速初分类。为了进一步提升分类正确率,将初始分类结果中置信度较低的区域还原至原始点云,进而通过轮廓及点云分层特性完成局部场景的再分类。单纯依赖局部特征的点云分类结果难以实现全局最优的场景理解。本文提出了一种利用超像素块构建条件随机场(Conditional Random Fields, CRF)节点的新方法,通过超像素块之间所构成的二阶团来完成场景上下文信息的建模,从而保证场景理解结果的全局最优性。与传统基于CRF的点云分类方法相比,本文所提方法利用超像素块替代原始三维点作为随机场节点,从而有效解决了由于节点数量巨大而导致的推断过程迭代效率低的问题。为了保证分类准确率,研究中采用局部点云形状、邻域点云分布以及OBA图纹理等一系列特征来完成CRF的训练及推断。本文选用四个三维点云数据集来测试上述两种场景理解方法的有效性,其中包括利用自主研发的无人车实验平台所获取的DUT1和DUT2两个数据集,以及韩国KAIST数据集和牛津大学New College数据集。针对四个数据集的实验结果及数据分析验证了本文所提两种方法对不同环境类型具有较强泛化能力。通过与国外研究组实验结果的定量比较,在分类准确率相当的情况下本文所提方法的实时性能有显著提升。