论文部分内容阅读
近年来,随着电子商务的快速发展,传统的文本搜索方式已经不能满足大多数用户的需求,所以以图搜图的概念被提出并且迅速得到推广。如今,各种各样的物品都可以在线上的商城中通过以图搜图的方式检索到,比如图书、化妆品、电子产品以及服装等。而这其中,基于内容的服装检索得到了更多的关注,其难度也是最大的,主要原因有以下两点:服装本身属性具有多样性,比如其复杂的纹理以及非刚性形变都给检索带来了困难;其次是复杂的环境给服装定位、分割、检索引入了大量的噪声。这些问题也降低了服装款式识别的精度。近年来,跨场景服装检索以及款式识别是计算机视觉领域的一个研究热点,已有的方法在精度、效率以及场景适应性等方面都不能取得让人满意的结果,针对以上问题,本文提出了一种新的服装检索以及款式识别算法,方法的主要内容如下所示:1.本文对已有服装检索以及服装款式识别算法进行了全面而深入的调研,分析已有方法的优缺点,针对其缺陷在具体细节给出解决方案,并对服装检索以及识别所涉及到的相关领域进行了细致的阐述;2.在基于内容的图像检索基础上提出一种新的跨场景服装检索框架。通过分层次超像素融合算法精准分割服装图像,构建多特征联合建模,结合局部敏感哈希进行海量图像的跨场景服装检索。该方法显著提高了服装分割结果,增强了特征对服装属性的描述能力,并且在效率上得到了提高。3.在款式识别中,本文提出了基于域自适应字典学习算法的跨场景服装款式识别算法,用稀疏编码以及岭回归算法在源域以及目标域之间构建过度字典集。该方法有效地降低了不同场景之间分布差异给分类造成的影响,显著提高了特征对服装款式的区分力,此外,本文通过主题建模编码图像特征,得到了一种新的图像特征学习方法。4.通过多个互联网电商平台,本文构架了两个标注完备的服装数据集:产品服装数据集以及日常服装数据集,是国内外目前规模最大、标注最为完整的服装数据集,对之后的相关研究意义重大。最后通过实验与其他优秀的算法进行对比,证明了本方法在检索精度以及款式识别精度上优于试验中的其他方法。