论文部分内容阅读
如何让机器从大量感知数据中抽取高层的数据表示是人工智能领域的核心问题,理论和生物学言论强烈建议,构建这样的智能系统需要深度模型,而传统深度模型的训练不仅容易陷入局部最优,而且需要大量的标注数据,以深度信度网(Deep Belief Networks,DBN)为代表的深度生成模型以及相应高效训练算法的提出为解决这一问题带来了希望。本文旨在研究深度生成模型的理论和结构,在研究其贪心训练算法的基础上,对基本模块受限玻尔兹曼机(RestrictedBoltzmann Machines,RBM)的训练算法做进一步的改良,并根据语义哈希的思想将深度生成模型应用到文档建模领域,为文本应用提供更优的解决方案。 本文首先介绍了深度生成模型以及文档建模方面的研究背景、研究意义和国内外研究成果,在此基础上,对深度生成模型的结构和训练算法、文档建模的相关理论和技术进行了全面的研究与分析,总结了目前相关领域的研究困难与不足。其次,本文深入研究深度生成模型训练的基本模块RBM,在研究其定义和结构的基础上,提出了一种基于退火转换(Tempered Transition)的训练算法,借助于退火转换处理多峰分布的强大能力,这种RBM训练算法抽取的样本具有无偏性和多样性的优点,将其与基于吉布斯抽样和基于并行退火的现存训练算法进行对比,实验结果表明,基于退火转换的RBM训练算法优于现存的训练算法,不仅获得最好的混杂率,还有效提高了训练效果。接下来,本文设计了一个文档建模的算法框架,根据语义哈希思想将深度生成模型应用到文档建模,算法框架包括深度生成模型的训练和使用两个部分,模型的训练包括对词频建模、贪心预训练和参数调优三个步骤,模型的使用包括生成文档二元地址码、计算地址码海明距离两个步骤,实验结果显示,语义哈希文档建模方法的检索效率最高,并且可以获得和传统方法相似的检索效果。最后,总结了本文在深度生成模型和文档建模方面的主要研究成果和创新点,并展望了未来的研究工作。 总之,本文的研究成果对深度生成模型、RBM的训练和文档检索应用具有重要的参考价值,可以有效提高RBM训练的效果和文档检索的性能。