论文部分内容阅读
近年来,随着移动互联网和电子商务的迅猛发展,网上购物已经成为人们日常生活中的重要组成部分。在实际应用场景中,当用户购买某件衣服时,电商平台往往会自动推荐与其搭配的衣服。推荐的好坏直接影响用户体验,并进而影响电商平台的发展。衣服搭配问题作为衣服推荐好坏的评价标准,在近年来成为了一个热门的研究问题。 现有的衣服搭配模型都利用衣服商品图像来进行衣服的搭配。但通过对大量衣服图像的学习,从而得到可以准确表征衣服的所属性别、颜色、款式、风格等特征是比较困难的。而这些关键属性在衣服的文本描述中可以直接获取。本课题针对上述问题,通过结合现有深度学习模型在文本和语言编码方面取得的进展,提出了基于文本描述的衣服搭配模型,包括基于长短期记忆网络和相容矩阵的衣服搭配模型以及基于图像和文本信息融合的衣服搭配模型。本文首先提出了基于长短期记忆网络和相容矩阵的衣服搭配模型。该模型利用长短期记忆网络对文本信息进行建模,并通过相容矩阵学习搭配关系。在此基础上,将图像特征和文本特征进行融合,进一步提出了基于图像和文本信息融合的衣服搭配模型。 为验证模型的有效性,文中使用了亚马逊和淘宝大规模数据集,同时构建了polyvore数据集。将上述多个模型分别在这三个数据集上进行了对比实验。具体地,首先利用上述数据集构建搭配和不搭的文本对,从而得到正负样本。在相似网络框架下,利用不同的特征编码模块进行表示学习。通过分类结果的准确率评估搭配模型的性能。实验结果表明,本文提出的两个模型优于现有的基于图像的深度学习模型和基于文本的机器学习模型。而在本文提出的两个模型中,基于长短期记忆网络和相容矩阵的衣服搭配模型效果最佳,搭配准确度较高,可应用于实际电商平台的商品推荐场景。