论文部分内容阅读
本文提出了一个能同时分析文档主题和作者兴趣的概率图模型Asymmetric-prior Author Latent Dirichlet Allocation (AALDA)。互联网技术的发展给文本分析提出了很大的挑战。在搜索引擎优化,图书馆文本索引上,如何去处理海量的文本数据是学术研究热点之一。生成式模型(Generative Models)是分析文档内容的主流工具,它不仅可以提取大文本数据的结构信息,而且可以推测出新的文档的主题概率分布。其中以潜在狄利克雷分配(Latent Dirichlet Allocation)为代表的主题模型(Topic Models)利用多层次贝叶斯模型把文档表示成多个主题的概率混合。引入隐藏随机变量简化了原始似然函数。通过期望-最大似然估计(Eepectation-Maximization)算法,首先在期望步骤估计出隐藏随机变量的后验概率。在最大化似然函数的步骤中,估计出模型中重要的参数。其中包括主题在所有单词表上的概率分布,文档的主题混合概率。本文中主要推导了LDA模型中如何在期望估计步骤中用Gibbs采样(Gibbs Sampling)来估计隐含随机变量的后验概率。然后介绍了基于非对称先验的LDA。经过对中间文档主题随机变量的积分,它与词语主题选择随机变量z构成了波利亚分布(Polya Distribution)。这个分布于波利亚罐模型相对应,在原本确定主题个数的情况下,使得单词的主题选择随机变量有聚类的效应。新的模型把原始LDA中先验的均匀分布作为一个不确定的参数,并用极大似然来估计。为了快速优化波利亚分布的参数,避免二次Gibbs采样造成迭代次数的平方倍数的增长,本文使用了Minka的不动点优化算法。最后本文提出了如何使用非对称先验来同时分析文档的主题和作者主题兴趣的模型AALDA.在这个模型中,每个作者都被赋予了一个非对称先验,用来捕捉文档中作者对单词的偏好,以此来反映出作者的哪些主题感兴趣。该模型在Neural Information Process Systems会议(NIPS) 90年代论文数据上取得了良好的效果。从结果来看,模型分析出了当时NIPS会议上有哪些热点讨论话题和几个著名学者主要研究哪些话题。而且,作者的主题兴趣的稀疏性也符合我们的先验知识。通过对似然函数和困惑度的计算,新的模型较LDA提高了模型的推广能力。