基于多特征组合的构音障碍语音识别

来源 :计算机工程与设计 | 被引量 : 0次 | 上传用户:xiaocaopeter
下载到本地 , 更方便阅读
声明 : 本文档内容版权归属内容提供方 , 如果您对本文有版权争议 , 可与客服联系进行内容授权或下架
论文部分内容阅读
为提高构音障碍识别准确率,提出一种基于多特征组合的构音障碍语音识别方法.利用遗传算法进行特征选择,从语音的韵律特征、频谱特征、人耳听觉特征、嗓音质量特征和声道模型特征等5类特征组合成的多特征组合中选择出分类准确率最高的特征子集,通过SVM分类器对选择出的特征进行识别.在Torgo声学和发音数据库对不同的语音刺激类型进行模拟实验,实验结果表明,提出方法对Torgo数据库的3种语音刺激类型的平均准确率为97.52%,优于现有的识别方法.
其他文献
针对相似度预测算法无法同时嵌入局部和全局信息并提高运行速度等问题,融合社区发现和影响节点识别技术提出一个通用可扩展的链接预测模型.对网络进行社区划分,分别计算局部共邻节点的社区参与度和全局影响力得分,集成到统一的相似度框架中.为验证算法的有效性和可扩展性,给出在加权和无权下多个局部密集结构和影响节点识别指标的定义.在真实数据集上的实验结果表明,提出方法可快速实现通用可扩展性的预测任务,结果也普遍优于基准算法.
为解决多人姿态估计中小尺度关键点(手腕、脚踝等)定位准确率低的问题,采用自顶向上的方式,结合先进的人体目标检测模型YOLOv3,提出一种基于堆叠沙漏网络改进的多人姿态估计方法.在沙漏网络中融入通道混洗模块,加强不同尺度下多层特征之间的跨通道信息交流,提高被遮挡关键点的识别效果;使用注意力机制对沙漏网络原有的残差模块进行特征增强,抑制无用特征并提升有用特征,提高小尺度关键点的识别率.实验结果表明,在MPII数据集上的总体PCK@0.5达到了88.6%,在MSCOCO数据集上的AP@0.75相比原始网络提升了
针对现有图像语义分割中存在小目标对象分割精度不高等问题,提出一种结合上下文注意力的卷积自校正图像语义分割模型.使用上下文注意力机制挖掘局部区域内细粒度特征,结合上下文循环神经网络和残差学习充分挖掘图像的深层隐含语义特征;构建辅助分割模型,在给定图像和边界框注释的情况下生成每像素的标签分布,提出卷积自校正模型,实现分割模型的动态调整.基于3种数据集对所提模型的分割精度进行实验论证,实验结果表明,所提模型的分割精度与分割效果均明显高于其它模型,具有良好的泛化能力.
针对传统卷积神经网络只提取局部短语特征而忽略了上下文的句子特征,影响了文本分类效果这一问题,提出一种基于BiGRU网络和胶囊网络的文本情感分析模型.采用联合神经网络,利用Glove模型预训练词向量,将其输入到双向门限循环单元(BiGRU)模型进行序列化学习得到上下文特征;添加胶囊网络(capsule network)模型,提取深层次短语特征;交给分类器进行情感分类.通过在IMDB数据集上进行实验,验证该方法有效提高了文本分类的准确率.
为解决相关滤波算法受余弦窗和搜索区域限制,导致跟踪器无法学习更多背景信息的问题,结合Context-Aware和Staple跟踪算法提出一种自适应特征融合的抗遮挡目标跟踪算法.在跟踪器中嵌入遮挡判断模块,利用平均峰值相关能量及峰值信噪比(PSNR)等指标来判断目标的遮挡情况,决定是否更新模板.将该算法在OTB-2015测试集上与其它7个先进的算法进行比较,实验结果表明,该算法的精确度与成功率分别为0.818和0.731,相对于Staple算法分别提升了4.3%和4.6%,跟踪速度达到34.55帧/s,验证
为解决现今情感分析方法多利用单通道浅层的文本情感因素,不能获取词与词之间更深层语义联系的问题,提出一种基于注意力机制的多通道特征融合情感分析模型(triple channel BIGRU and attention model,Tri-BiGRU-Atten).结合词性特征、依存句法、位置信息3种不同语义特征混合建模,将BiGRU与注意力机制相结合,充分挖掘上下文中更深层次的情感信息,引入特征图扰动技术(feature map distortion,Disout)提高模型泛化性能.实验结果表明,与传统的注
针对视频中人体动作行为的空间复杂性和时间复杂性问题,提出一种融合图卷积神经网络和长短期记忆神经网络的双流网络方法2 S-LSGCN.从人体关节点组成的骨架关节图中,提取动作的空间与时间特征;利用GCN提取骨架关节点间潜在的空间信息,LSTM提取人体动作前后之间的时间序列特征作为补充,分别将两个网络的预测输出进行晚融合,提高单个网络泛化能力不足的问题.该模型在NTU-RGBD数据集上达到了令人满意的效果,在与该领域中的同类算法比较中表现优异.
为完成一种植物叶片分割与计数模型LU-ReNet,利用Xception module和CoordConv改进模型编码器,通过改进的ReNet模型并参照Unet模型结构将CNN和RNN结合在一起.在CVPPP的A1、A2、A3基准数据集上,LU-ReNet模型取得了0.95的平均F1-score、95.54%的平均前景-背景Dice(FBD%)、0.95的平均召回率和1.91的平均计数差分绝对值(|Dic|).在A2基准数据集上,该模型表现超越大部分最新算法.实验结果表明,该网络在拥有高分割准确率的同时具有
为更好解决卷积神经网络提取特征不充分,难以处理长文本结构信息和捕获句子语义关系等问题,提出一种融合CNN和自注意力BiLSTM的并行神经网络模型TC-ABlstm.对传统的卷积神经网络进行改进,增强对文本局部特征的提取能力;设计结合注意力机制的双向长短期记忆神经网络模型来捕获文本上下文相关的全局特征;结合两个模型提取文本特征的优势,提高分类的准确性.在搜狗语料库和复旦大学中文语料库上的实验结果表明,所提模型能有效提升文本分类准确度.
为解决现有知识库问答编码-比较框架的原始信息丢失问题,提出基于实体消岐和多粒度注意力的知识库问答方法.从多个粒度对问题和知识库关系的相关性进行建模,引入双向注意力机制更有效地聚合向量保留原始信息,实现关系检测中字符之间的细粒度对齐.为提高实体链接的准确率,融合双向长短时记忆网络-条件随机场(BiLSTM-CRF)克服对人工特征的依赖,计算问题关系词与候选关系的相似性减少噪声数据实现实体消歧.在SimpleQuestions数据集的实验结果表明,该模型在准确率上有明显提升,达到了94.1%.