论文部分内容阅读
从字典的相干性边界条件出发,提出一种基于极分解的非相干字典学习方法(Polar decomposition based incoherent dictionary learning,PDIDL),该方法将字典以Frobenius范数逼近由矩阵极分解获取的紧框架,同时采用最小化所有原子对的内积平方和作为约束,以降低字典的相干性,并保持更新前后字典结构的整体相似特性.采用最速梯度下降法和子空间旋转实现非相干字典的学习和优化.最后将该方法应用于合成数据与实际语音数据的稀疏表示.实验结果表明,本文方法学习的字典能