论文部分内容阅读
为解决家庭服务机器人在实体搜索缺乏语义信息的问题,研究融合视觉信息的语义导航实体搜索算法.首先,提出基于Places205-AlexNet的场景自适应识别算法,以促进机器人对场景标注的自适应性;其次,设计实体在语义地图上的位置映射方法,帮助机器人能以人的生活习惯理解人类居住环境,具备室内物体识别能力;然后,为了获取场景信息和物体语义信息,提出了面向语义导航的实体语义知识库构建方法,使机器人进行实体搜索时能更容易定位到场景;最后,在给出基于面向语义导航的实体语义知识库构建方法的基础上,提出了融合视觉信息的语义导航实体搜索算法.实验数据表明,机器人执行实体搜索的导航准确率均在0.75以上,这证明所提出的算法能够获得较准确的场景信息和实体语义信息.