基于用户生成文本与Word2vec的个人特征计算研究

来源 :天津大学 | 被引量 : 0次 | 上传用户:huifentongxun
下载到本地 , 更方便阅读
声明 : 本文档内容版权归属内容提供方 , 如果您对本文有版权争议 , 可与客服联系进行内容授权或下架
论文部分内容阅读
个人特征是用来衡量行为,思想和情感的习惯性模式。它因人而异,并且随着时间的推移在不同的情景下保持相对稳定。个人特征具有重要意义且有着广泛的应用,其可以应用在推荐系统,个性化聊天机器人和人力资源管理等方面。近年来,随着社交媒体与可穿戴设备的发展,越来越多有关个体的数据被获取。如何分析好并利用好这些个人数据成为了学者关注的重点。现有的研究大多都是利用监督学习的方法对有标注的数据对用户个人基本信息,行为特点和个性来进行计算。一方面,因为用户基本信息和行为特点是个人特征的表现形式,我们无法通过用户基本信息和行为特点来准确地描述一个人的内在特点。而对于人格的计算通常由五大人格来衡量,这对非心理学家来说是晦涩难懂的。因此,如何获取具体的容易被理解的个人特征就变得十分重要。另一个方面,获取准确标注的个人特征数据存在着成本较高和准确性无法充分保证等问题,利用有监督学习的方法计算个人特征存在着一定的局限性。因此,本文提出了一种基于Word2vec的个性特征计算通用方法来计算具体的容易被理解的个人特征,计算过程主要包括主题词提取,个人特征矩阵生成和个人特征计算三个方面。先利用多种可能的方法对用户生成的文本对某个特定方面的主题词进行提取,再利用Word2vec方法把主题词转化为词向量,再把词向量构成个人特征矩阵放到空间向量模型中进行分析来获得个人特征。此外,本文还利用其所提出的方法进行了案例研究,对情感波动度与社交倾向性进行了计算,以验证所提出方法的有效性。最后,对本文的计算结果进行了间接的验证并对计算结果进行了分析与讨论。
其他文献
语言模型,尤其是神经网络语言模型,在自然语言处理和信息检索任务中至关重要。最近人们提出了量子语言模型(QLM),它使用相同的概率空间来统一单个单词和词组的表示,而不必像以前的研究那样人为地扩展词空间。神经网络类量子语言模型(NNQLM)将QLM扩展到端到端体系中,通过自下而上的方法来构建密度矩阵,替代了QLM复杂的迭代估计算法。众所周知位置信息对语言模型尤为重要,但无论是QLM还是NNQLM都仅是
近年来,随着网络发展的多元化,信息过载问题日益严重。分类目录和搜索引擎是早期出现的解决信息过载问题的两类主流方案。但是随着互联网规模的不断扩大,分类目录网站只能覆盖有限的热门网站,而搜索引擎则需要用户主动提供关键词来寻找信息,在用户不清楚自己需求的情况下具有很大的局限性。这时,个性化推荐技术应运而生。个性化推荐技术可以分析和挖掘用户潜在偏好,是解决大数据时代信息冗余问题、提高人们信息获取的效率和质
近年来,随着移动通信技术的迅速发展和计算机技术的普及,大多数智能设备都有安装全球定位系统GPS,所以在户外环境中(例如百度地图、谷歌地图、高德地图等)获取位置信息的服务需求与日俱增。然而,GPS对于建筑物、停车场以及靠近墙壁的地方等室内环境表现不佳,因为来自GPS的信号太弱,无法通过大多数建筑,从而使GPS难以进行室内定位。由于GPS定位技术受限于室内只能在室外提供精确定位信息,所以室内定位技术引
在如今的大数据时代,文本信息错综复杂,如何在浩瀚的文本信息库中快速且准确的查询到所需要的文本为信息检索带来了挑战性难题。在选取准确的关键词和筛选限制条件问题上的困难,使得在大量文本信息中精准查找所需文本信息的任务变得枯燥乏味且费时费力。近年来,研究人员开始借助机器学习算法对文本信息进行分类从而帮助解决文本信息检索任务,但是运用机器学习算法为文本信息检索任务带来了新的挑战。首先,某个文本领域的专家可
数字图像分割技术已经在各个领域得到了广泛的应用,但是对于碑帖图像文字分割的相关研究相对较少。本文以碑帖图像作为研究对象,结合图像处理、数学形态学和深度学习技术,提出了两种可行的碑帖图像文字切割方法。第一种是基于形态学的切割方法,第二种是基于目标检测的切割方法。基于形态学的切割方法运用数字图像处理技术和数学形态学运算方法,对图像做二值化投影,根据投影图像的坐标,将图像按列切割,再采用同样的方式,对每
在海量数据的互联网时代,如何对庞大的数据进行快速、有效地分类和检索成为近年来研究的热点。传统的图像分类技术通常为了识别某个类别,首先需要获得对应类别大量带标注的训练样本,并从中抽取出部分样本构成训练集来得到相应的分类器,最后通过该分类器实现对测试样本的分类。但现实生活中,传统的图像分类技术具有一定的局限性,对于标注数据的获取需要耗费昂贵的人力和物力的代价,针对每一类的图像均收集其对应的标注也不太符
随着计算机等网络设备的广泛应用,数据量的激增,大数据量的分析已经成为了数据分析中的重要一环。而高维数据分析是大数据分析的重要组成部分。大部分的高维数据分析系统都是基于一些系统做一些数据筛选和降维等操作,他们的视图展示一般都是以量的形式来展示信息,比如散点图矩阵、平行坐标轴等。这些方法对用户的认知负担仍旧比较大。针对高维系统分析,本文提出来了散点图模式的方法进行维度的分析,结合数据筛选进行高维数据分
本文设计了一个在特定情况下需要将目标软件与授权硬件绑定的加解密方案,主要分为加密系统和解密加载系统,并在Linux和Windows平台下对该方案进行了验证。主要工作如下:(1)介绍了在Linux下主要可执行文件类型——ELF可执行文件及其加载流程;介绍了Windows下主要可执行文件类型——PE可执行文件及其加载流程。(2)在加密系统中设计了信息存储结构体,用来存储绑定的硬件信息和后续校验。针对不
立体图像的质量不仅影响着人们对立体图像的感知,而且反映了立体图像的传输、压缩等处理技术的好坏。所以有必要设计一种可靠、高效的方法来评估立体图像质量的优劣。为了使所提方法能够模拟人脑对立体图像的感知机制,论文设计了一种左右视点的融合方法,并依据融合图像提出了两种无参考立体图像的质量评价客观方法。第一,首先根据视觉特性得到融合图像,利用立体匹配算法得到视差图,将视差图和融合图像结合形成强化图像;其次,
随着企业业务系统的发展,为了提供更高的客户服务,保证用户数据安全和业务连续性,在一些重要的系统中,已经不满足于简单的本地双机热备份和容错切换。越来越多的客户提出了要求更高的系统可用性,这样才能实现真正意义上的对异地应用级容灾系统的保护。全面的异地应用级容灾保护解决方案,意味着除了业务系统要求更好的实现本地数据容错的保护外,更加需要注意的是实现本地数据的实时异地复制和实现实时业务应用管理系统(其中包