论文部分内容阅读
如果想让自动驾驶车辆真正落地应用,就得主要解决感知、决策以及控制这三方面问题,而对环境的感知是实现其他方面的重要基础。安装在车上的各式传感器,在汽车行驶过程中来随时感应周围的环境,收集数据,进行静态、动态物体的识别、监测与追踪,并结合导航仪中的地图数据,进行系统的运算与分析,从而让驾驶者预先察觉到潜在发生的危险,以增加汽车驾驶的舒适性和安全性。因此本文在传感器感知方面,构建了一种结合多种传感器来进行驾驶辅助的方法。如果车辆每时每刻都能“看”到前方车况,交通事故就会相应减少,道路安全就能得到保障。现代汽车都配备了各种高级视觉驾驶辅助系统,即为车辆提供了最基本的视觉能力。而车载摄像头中,前视摄像头是使用频率最多的摄像头,重要性不容小觑。因此本文在自动驾驶车辆视觉要素中,使用飞桨Paddle Paddle深度学习开发平台,在UA-DETRAC数据集上做了基于YOLOV3的车辆目标检测,同时进行了车道线识别,最后使用m AP指标进行评价。车辆不仅要“看”,其实如同人类驾驶员一样也要发挥“听”这一功能。随着计算机性能的提升,音频处理技术也取得了极大的发展,近年来,深度学习技术被用于音频信号分离的研究,成为了音频信号处理领域日益流行的话题。推动了基于深度学习技术的音源分离领域的发展。本文选取模拟车辆内部由人类语音和背景音乐构成的混合语音音频作为研究对象,使用音频信号分析和神经网络算法进行分析和研究。分析各种音频的时域和频域特征,选取了音频的频域信息作为特征,对样本进行预处理和特征提取。实现了基于深度神经网络的音源分离模型,同时测试了其他分离算法。综上,本文在基于各类传感器的交通要素检测方面做了一定的研究,其中视觉信息可为行驶提供道路和方向的指导,音频信息可为感知人类活动从而建立友好的车内氛围和收集紧急情况处理措施提供服务。为构建优质驾驶环境,两者缺一不可。