论文部分内容阅读
融合多个传感器的数据以获得更高的目标跟踪精度是当前的研究热点,但动态级融合的研究仍然是一个相对开放的问题。在目标跟踪应用中,单个传感器可能无法提供跟踪目标的所有信息。雷达测量跟踪方式可以测量方位角、仰角和距离,具有良好分辨率的范围,但角度测量即方位角和仰角的分辨率不佳。红外图像传感器也可以用于目标跟踪,该测量方法具有良好的方位角和仰角分辨率,但该方法只能提供目标的方向,不能提供目标的位置。 采用传感器中的某一个测量值进行目标跟踪容易导致目标估计位置不准确,因此,将传感器(雷达和红外)的测量值进行融合将减少跟踪目标位置的不确定性,并提高目标位置的估计精度。 因此,本文建立一个通用状态和观测模型,将测量数据与一般状态向量联系起来,动态融合雷达传感器和成像传感器的观测数据。主要研究工作如下: 1.针对仅使用一个传感器无法实现目标的有效跟踪问题,提出了融合雷达和红外(IR)传感器数据的跟踪方法。实验结果表明,提出的多传感器融合目标跟踪方法是有效和高效的。 2.提高了三维笛卡尔坐标系中机动目标跟踪的效率。 3.提出了一种在三维笛卡尔坐标系中雷达和红外数据融合的方法,利用极坐标测量对机动目标进行跟踪。 4.给出了算法的详细实现和数学推理。结果表明测量融合(MF)的角度测量与相应的测量值、噪声协方差和范围相吻合,降低了不确定性。选择性测量(SM)从雷达上获取角度测量值,采用 IR 跟踪方法状态估计的不确定性更大,而在雷达上则较为精确。因此,将多传感器数据融合应用于目标跟踪很有必要。