基于降噪自编码器的混合推荐算法研究

来源 :重庆邮电大学 | 被引量 : 0次 | 上传用户:q7okl
下载到本地 , 更方便阅读
声明 : 本文档内容版权归属内容提供方 , 如果您对本文有版权争议 , 可与客服联系进行内容授权或下架
论文部分内容阅读
近年来,在线数据量呈指数级增长,这些数据的主要部分与基于互联网的电子商务平台和社交平台有关。对于个人或组织来说,想要从巨量的数据中及时提取想要的信息是十分困难的。推荐系统为这一问题提供了一种自动化的、高效的解决方案。然而无论是用户显式表达或是隐式反馈的信息都是极度稀疏的,这会严重限制推荐系统的性能。近些年出现了一些融合社交信息的推荐方案,但也受限于社交信息的稀疏性,无法进一步改善推荐性能。由于深度学习技术具备从广泛的数据中挖掘深层特征的能力,因而近些年受到了越来越多学者的关注。本文以深度学习中的降噪自编码器为基础,通过融入社交信息完成项目推荐。本文的主要研究内容如下:1.提出一种基于降噪自编码器的社会化推荐算法。针对评分预测场景下数据稀疏性带来的预测不准确的问题,利用降噪自编码器以特征融合的方式将用户评分信息和信任用户评分信息整合在一个框架下以实现混合推荐设计,通过建模社交信任用户偏好信息的潜在影响降低评分数据稀疏的影响。在此基础上,通过用户聚类和个性化权重区分不同类的用户受信任用户评分偏好的影响程度。最后在开源数据集上进行实验仿真,其结果表明所提出的方法能够有效的利用社交信息提升评分预测准确度。2.提出基于降噪自编码器的隐式反馈推荐算法。在没有显式的用户评分数据的场景下,通过充分挖掘社交信息的潜力降低隐式反馈数据稀疏性的影响并改善冷启动用户的推荐质量。首先从改善社交信任信息稀疏度的角度,利用一种信任相似度的新度量方法,从整体的用户信任矩阵中挖掘隐含的信任关系并计算更精确的用户信任值。然后利用降噪自编码器以在深层共享用户偏好特征和社交信任特征的方式深度融合用户隐式反馈数据和社交信任数据,通过综合二者的影响,提高隐式反馈推荐质量。
其他文献
额外维的概念在现代物理学中有重要地位。因为可以解决宇宙学常数问题和层次问题等基本难题,额外维与膜世界近来又被广泛研究。膜世界的核心问题之一是引力和物质场的局域化,
图像处理软件的广泛应用使得大量视觉内容相似的图像涌现在互联网,如何高效地检测出给定一幅图像的视觉相似图像是图像处理领域亟待解决的一个重要问题。近年,越来越多的研究
相比于传统的副本策略技术,纠删码策略技术在分布式存储系统中可以以更低的存储代价达到和副本一样的数据可靠性。Hadoop作为一个高扩展、高可靠的分布式框架在3.0版本之前采用了副本数为3的复制策略,3.0版本以后其文件系统HDFS引入了纠删码特性,它将文件块以k个为一组进行编码计算得到n个块并存于n个节点之中,并且以后使用任意k个节点中的块可恢复出原始数据。EVENODD编码采用了完全基于异或运算的
人体姿态合成是根据少量人体姿态关键点合成同一个人不同姿态的任务也是计算视觉领域与人体姿态相关的一个重要分支。近年来研究发现人体姿态合成技术在数据集扩充、视频预测
糖尿病等疾病在临床上有监测与评估微循环功能的需要。为了克服常见的基于多普勒效应、干涉等原理的测量手段在跨样本对比上的先天不足,许多研究者从热分析的角度提出了不同
数据爆发式增长为存储行业带来了机遇与挑战,如何保证存储系统中数据的可靠性成为亟待解决的问题。基于纠删码的编码技术在保证存储系统数据可靠性的同时,因能有效地减少存储系统的存储开销而广泛地应用在存储系统中。基于纠删码的编码技术主要研究方向有:提高编解码效率,降低存储开销以及减少解码所需数据量。论文以提高编解码效率,降低存储开销,减少解码所需数据量为主要目标,从使用移位和异或操作进行编码且使用Zigza
LDPC(Low-density Parity-Check)码的编译码复杂度较低,目前正广泛的应用于当前的通信系统中,如第四代(4G)通信系统、光纤通信系统等。Polar码是可以证实达到香农极限的编码方案,
随着人工智能和物联网技术的迅速发展,人体活动识别成为了人机交互领域的重要研究方向。其中,基于商用Wi-Fi的人体活动识别技术部署代价低且不需要人体携带设备,因此具有广泛
清末诗坛涌现了许多优秀诗人,欧阳述就是其中一位。欧阳述身处封建乱世,其曲折的人生经历、广泛的诗友交游以及渊博的学识,使得他的诗歌创作达到了很高的艺术成就。他论诗不囿门户,不偏一代,不主一家,主张转益多师。本文重点以《浩山诗集》中所收录的九百余首诗歌为研究对象,从欧阳述的生平经历与诗歌创作入手,将其诗歌进行整理分类,探究其诗学渊源与诗歌艺术特色,从而客观评价欧阳述诗歌在江西诗坛乃至近代诗坛的地位与意
近年来,卷积神经网络的快速发展使得较传统算法有更高的精确度,因此也被广泛应用于多个领域。然而在不断追求更好的精度表现过程中,算法的复杂性与算法模型大小也不断增加,算