论文部分内容阅读
近年来,智能手机、智能手表等可穿戴计算设备已经逐渐成为人们工作生活中不可或缺的一部分。随着技术的发展,设备的计算能力和感知能力都有了长足的进步。除了传统的拨打电话之外,设备可以通过各类传感器感知外界的状态,为用户提供丰富的功能。然而在用户量飞速增长的今天,面对大量的用户行为数据,设备理解用户行为的能力还稍显不足。用户每天佩戴着设备工作、娱乐、吃饭甚至睡觉,然而目前比较成熟的应用还主要关注几种常见的行为。本文从用户的使用行为入手,希望赋予设备智能地理解用户行为的能力:一方面实现更加高效的用户数据管理,另一方面提供更加便捷的用户体验。为了达到这一目的,本文利用商用设备搭载的传感器采集的相关数据(方向、位置、加速度、角速度等),实现了对用户从宏观到微观多种日常行为的理解和分析,并以此为基础实现了用户数据的管理和应用。首先,用户在使用设备时往往会发生移动。本文提出对用户的移动行为进行理解,并实现对占用资源最大的视频数据进行建模。利用‘‘可视区域’’这一内容无关特征,本文实现了对移动众包视频的高效切分和管理。与传统方法相比,本文提出的基于可视区域的视频相似度模型与基于内容特征的模型的结果展现了高度的一致性。同时,基于可视区域的算法不仅可以大大降低设备终端的存储、计算开销,还可以避免由上传视频内容带来的过度流量开销和隐私问题。其次,本文进一步关注用户的日常行为(走路、吃饭等)。针对行为的多层次语义特性,利用多层次模型实现对行为的深度理解。基于行为语义模型的分析结果,本文提出‘‘行为搜索’’的概念,使用户可以通过做某个动作实现对数据库中相同行为进行搜索。本文提出的行为语义特征可以实现高精度的行为分类,有效地避免不同用户、行为习惯、时长对行为理解的干扰。与此同时,还避免了大量的数据标注工作所带来的人工开销。最后,本文关注更加微观的行为,通过理解用户的手部移动实现了一种通用的手写输入方式。该方法可以自适应地模拟用户的书写平面,以适应用户不同的使用姿态和使用习惯。本文提出将笔划作为手写识别和恢复的基本单元,可以根据用户的行为恢复其书写的英文单词。模型的训练数据可以通过单词-笔划映射关系自动生成,具有比较强的实用性。