首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 187 毫秒
1.
当今人工智能发展迅速,语音识别成为人机交互的重要方式。为提高语音识别准确度,在分析语音信号前去除语音信号噪声干扰并提高语音信号能量尤为重要。在实际应用中,不同语音信号包含不同的噪声。针对不同的语音噪声,在传统谱减法基础上,通过判断算法窗函数,根据不同的噪声能量改变多窗谱减法的过减因子参数,以增强算法自适应能力。仿真结果表明,在低信噪比情况下,通过改变过减因子值,可取得一个最优过减因子值以改进谱减法下的音乐噪声和失真度。自适应多窗谱减法改进后与基本谱减法相比,信噪比提高了 29%;与多窗谱减法相比,信噪比提高了 16%。该自适应多窗谱减法可适应不同噪声环境下的语音信号,增强语音信号中的关键信息并减少噪声干扰。  相似文献   

2.
语音增强是一种消除语音信号中的背景噪声并获得完整原始语音信号的关键技术.谱减算法易于实现,计算量小,可以获得较高输出信噪比的原始语音信号,是增强语音信号的有效方法.然而,使用谱减法进行语音增强过程中会产生新的背景噪声——"音乐噪声",它会影响语音信号识别的准确性.为了解决谱减法产生的"音乐噪声"问题,本文提出一种谱减法...  相似文献   

3.
针对传统谱减法在语音增强过程中不可避免地产生"音乐"噪声,提出了一种改进型谱减算法.该算法先将带噪语音进行平滑,再设置谱减系数.实验证明该方法提高了信噪比(SNR),改善了语音质量,特别是在低信噪比情况下具有良好的去噪效果.  相似文献   

4.
语音端点检测是语音处理中非常关键的一个环节,目前主要的语音端点检测算法都侧重于语音特征参数的提取而忽略了之前的语音增强.论文提出一种基于多窗谱估计谱减法和能熵比的语音端点检测复合算法,该算法利用多窗谱估计谱减法将有噪声环境下的语音信号减噪,提高性噪比,达到语音增强的效果,再结合能熵比法进行端点检测.仿真结果表明,算法在低信噪比情况下,可以提高语音端点检测的正确率.  相似文献   

5.
为进一步降低噪声对采集语音的干扰,提出了一种新的谱减改进方法。采用阈值法对非平稳背景噪声信号进行估计,计算出先验信噪比,得到还原的纯净语音信号。用MATLAB实现了整个算法的仿真,并与传统谱减法结果相比较,仿真结果表明,该算法对非平稳噪声追踪性较好,在抑制背景噪声,减少音乐噪声前提下,提高了语音的可懂度,其计算复杂度也可以接受。  相似文献   

6.
针对传统DNN语音分离中噪声干扰的问题,提出了一种在DNN语音分离后期处理中结合DNN和谱减法的语音分离方法。首先提取语音声级特征,通过DNN学习带噪特征到分离目标语音的映射,得到分离目标语音;然后对分离目标语音中每一时频单元进行噪声能量估计;最后,通过快速傅里叶逆变换得到谱减后的分离语音波形信号。通过对不同类型的噪声和不同输入信噪比混合后的语音信号进行试验,结果表明,加入谱减法后分离的语音信号与只经DNN网络输出的语音信号相比,前者分离的语音可懂度和信噪比得到了显著提高,并且分离语音的信号更接近于纯净语音的信号。  相似文献   

7.
在通信过程中,语音信息易受外界因素影响,导致信号变弱、信息传递出现差错。采用最小均方(LMS)优化算法,利用步长的变化动态调整收敛因子,产生增强语音信号,提高语音通信质量。通过比较不同类型声源在不同噪声强度下采用LMS优化算法处理后声音信号的增强效果,证明了该算法的稳态误差、收敛速度与收敛因子μ的取值关系密切,解决了LMS算法动态误差大的问题,达到了降低信噪比、提升音频质量的目的。  相似文献   

8.
提出了一种基于机器学习的耳语音可懂度增强方法.该方法利用已经训练好的2类支持向量机来估计一个二元时频掩蔽值,进而合成增强后的耳语音.输入支持向量机的特征向量GFCCs是基于听觉外周模型进行提取的,具有噪声鲁棒特性.在增强仿真实验中,将该算法同传统语音增强算法进行语音可懂度增强性能比较.客观评价和主观听力实验结果均表明,所提出的方法能有效提高含噪耳语音的听觉可懂度;相比谱减法和log-MMSE方法在低信噪比时无法提高语音可懂度,该方法在低信噪比时仍可有效提高含噪耳语音的听觉可懂度.此外,含噪耳语音通过所提出的方法进行增强后,其可懂度比未增强时明显提高.  相似文献   

9.
介绍了基于LabVIEW麦克风阵列语音处理系统实验平台的设计。该平台LabVIEW的前面板采用模块化设计,包括语音采集模块、语音分析模块和语音增强模块三部分。采集模块利用PXI设备对语音源信号进行阵列同步实时采集;分析模块对采集到的语音信号进行语音特征分析,前面板还设置帧长和帧间重叠数等参数调节模块;增强模块采用阵列波束形成算法对采集模块采集到的语音信号进行增强处理。该模块采用LabVIEW与Matlab相结合,即利用LabVIEW前面板调用阵列波束形成Matlab程序包来完成,阵列波束形成算法也可以自行修改。计算机仿真实验结果验证了该实验平台的有效性。  相似文献   

10.
对在联合时频域影响增强后耳语音可懂度的因素进行了评估.分析了耳语音时频谱密度和增强后耳语音时频谱中不同区域对耳语音可懂度的影响.实验结果表明,在基于增益修正的时频域语音增强算法中,采用密度较高的耳语音谱可提高增强后耳语音可懂度.此外,在增强后的耳语音的时频谱中,频谱幅度小于干净耳语音时频谱的频谱区域对增强后的耳语音的可懂度提高最为重要,而那些频谱幅度大于2倍干净耳语音频谱的频谱区域对增强后的耳语音的可懂度具有消极作用.  相似文献   

11.
提出了一种基于小波阈值去噪的语音增强算法。根据含噪语音中噪声、清音和浊音的不同特点,首先对它们进行检测区分,然后采用改进的Garrote阈值函数分别对噪声、清音和浊音运用不同的阈值方案进行处理。该方法在很大程度上抑制了噪声,又减少了语音段清音的损失,提高了信噪比,在MATLAB7.1中的仿真实验结果表明,该方法具有较好的增强效果。  相似文献   

12.
为了改善广义旁瓣抵消(GSC)语音增强方法的性能,提出了一种带有泄漏约束的判决反馈旁瓣抵消(LCDF-GSC)方法.采用DF-GSC方法以解决GSC对波达方向敏感的问题,在代价函数中引入泄漏因子,以此改善语音失真的问题,而这种问题是由于噪声参考信号中含有语音成份造成的.试验结果表明,尽管经过LCDF-GSC处理后的语音信号信噪比要略低于DF-GSC,IS测度表明这时前者的语音信号失真度要小于后者.MOS分也表明LCDF-GSC方法要优于DF-GSC和单通道Weiner滤波算法.  相似文献   

13.
结合小波技术对传统的维纳滤波算法进行改进,对语音信号进行离散小波变换,求得小波系数,计算小波系数的阈值,然后利用阈值对小波系数进行过滤,再对小波重构信号,信号经过维纳滤波器模型达到去噪效果。最后对算法进行了仿真试验。  相似文献   

14.
计算机声卡是多媒体技术中最基本的组成部分,是实现声波/数字信号相互转换的一种硬件。对基于计算机声卡的谱相减语音增强系统进行分析。首先分析了基于计算机声卡的语音增强系统,其次,介绍了谱相减算法,具有一定的参考价值。  相似文献   

15.
提出了一种在离散变换域中合成语音信号的方法,建立语音线性预测模型,对语音信号分帧、加窗,然后进行线性预测和基音周期的提取,进而模拟重构语音信号。实验表明,该方法易于实现,可操作性强,重建的语音信号还原的声音精度高,并能节省信号传输的带宽,相比以往的方法更能方便、准确的重构合成语音信号。  相似文献   

16.
语音信号处理实验教学研究探索   总被引:1,自引:0,他引:1  
针对语音信号处理课程实验教学的难点,以MATLAB软件作为平台,设计开发实验教学辅助软件,包括时域分析、频域分析、线性预测基音检测、语音编码、语音识别(DTW和HMM)、语音增强等知识,给学生以直观的认识,加快理解过程,增强学生解决问题的能力。  相似文献   

17.
针对现有对比度变换图像增强方法细节处理不足,经典穷举法和各种生物智能优化算法求取非完全Beta函数参数存在算法效率不高、易陷入局部最优的缺陷,提出一种利用非锐化掩膜局部细节提升能力和Beta变换全局对比度拉伸能力,简便快速且细节丰富的图像增强方法。使用不同灰度分布图进行仿真实验,结果表明该算法得到的增强图像直方图分布均匀、细节丰富且过渡自然平缓,算法效率高。  相似文献   

18.
1 Introduction Bothoutputover samplingandinputholdingschemesareeffectiveinmanysystemidentificationproblems ,especiallyinaclassofblindsystem/channelidentifi cation problemsthatcannotoraredifficulttobesolvedbyconventionalapproaches .Neverthelesstherearestillagreatnumberofsystemstowhichnei theranoutputover samplingschemenoraninputholdingschemeisapplicable .Certainlysuchablindi dentificationproblemmaybesolvedusinghigh orderstatisticsbasedalgorithms (HOS) [1] .However ,ifmultiplesensorscanbeuse…  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号