CN108417220A - 基于代理模型Volterra建模的语音信号编码和解码方法 - Google Patents
基于代理模型Volterra建模的语音信号编码和解码方法 Download PDFInfo
- Publication number
- CN108417220A CN108417220A CN201810142277.6A CN201810142277A CN108417220A CN 108417220 A CN108417220 A CN 108417220A CN 201810142277 A CN201810142277 A CN 201810142277A CN 108417220 A CN108417220 A CN 108417220A
- Authority
- CN
- China
- Prior art keywords
- voice signal
- chaos
- formula
- undetermined coefficient
- volterra
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 37
- 238000009432 framing Methods 0.000 claims abstract description 4
- 230000006870 function Effects 0.000 claims description 29
- 239000003795 chemical substances by application Substances 0.000 claims description 22
- 230000003044 adaptive effect Effects 0.000 claims description 16
- 230000000739 chaotic effect Effects 0.000 claims description 7
- 230000001537 neural effect Effects 0.000 claims description 6
- 238000000714 time series forecasting Methods 0.000 claims description 5
- 238000010187 selection method Methods 0.000 claims description 4
- 238000001514 detection method Methods 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims description 3
- 230000006698 induction Effects 0.000 claims description 3
- 230000005039 memory span Effects 0.000 claims description 3
- 239000000203 mixture Substances 0.000 claims description 2
- 238000007781 pre-processing Methods 0.000 claims 1
- 238000005316 response function Methods 0.000 claims 1
- 238000007796 conventional method Methods 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 238000002203 pretreatment Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000009472 formulation Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
一种基于代理模型Volterra建模的语音信号编码和解码方法,由对输入的混沌语音信号进行预处理、用Volterra建模方法构建预测模型、确定混沌语音信号预测模型并编码、解码步骤组成。由于本发明采用对现有的人工蜂群算法进行了改进,对输入的混沌语音信号进行预加重、加窗、分帧预处理,建立了混沌语音信号预测模型,确定混沌语音信号预测模型中的参数,完成混沌语音信号的编码,根据已有编码后的数据,按照常规方法进行解码。本发明利用语音信号的混沌特点,快速准确地实现了对混沌语音信号进行编码、解码,具有步骤简单、容易实现、准确率高等优点,可用于对混沌语音信号进行编码、解码。
Description
技术领域
本发明属于计算及应用技术领域,具体涉及混沌时间序列预测模型。
背景技术
近年来,随着硬件设备和通讯技术的日趋成熟,对于语音的传输效率有了更改的要求。有研究发现,语音信号时间序列为非线性的,且表现为明显的混沌特性。利用混沌特性构建语音信号的预测模型被认为是一种出众可行的方法。大部分研究人员构造一个非线性预测模型都是直接使用Volterra建模方法:
并做相空间重构过程繁琐。并且需在语音信号混沌特性的基础上利用进化算法建立了语音信号混沌时间序列预测模型。现有的进化算法效率较低,对具体问题无针对性。现有的人工蜂群算法计算效率低、求解精度不足,现有的观察峰阶段搜索方程为:
不能将每次迭代的信息充分利用起来。
发明内容
本发明所要解决的技术问题在于克服上述现有技术的缺点,提供一种步骤简单、容易实现、速度快、准确率高的基于代理模型Volterra建模的语音信号编码和解码方法。
解决上述技术问题所采用的技术方案是由以下步骤组成:
(1)对输入的混沌语音信号进行预处理
在输入的混沌语音信号中,找到波形均匀的帧作为分析帧,进行预加重、加窗、分帧预处理。
上述的加窗预处理采用以下窗函数进行:
式中N为有限的正整数。
(2)用Volterra建模方法构建预测模型
将步骤(1)分析帧的信息,按式(2)建立混沌语音信号预测模型:
式中u(n-iτ)为输入的分析帧信号,m是混沌时间序列预测模型的记忆长度为有限的正整数,h1(i)和h2(i,j)为待定系数,u(n-iτ)为对应分析帧的第n-iτ个样本,n-iτ为步骤(1)中分析帧的样本序号,u(n-jτ)为对应的分析帧的第n-jτ个样本,n-jτ为步骤(1)中分析帧的样本序号,τ是延迟时间为有限的正整数,j、n为有限的正整数。
(3)确定混沌语音信号预测模型并编码
将步骤(1)中分析帧的混沌语音信号用自适应人工蜂群算法确定混沌语音信号所对应的延迟时间τ、嵌入维数s、待定系数h1(i)、待定系数h2(i,j),采用代理模型方法作为近似适应度函数,选择高适应度的嵌入维数s、延迟时间τ、待定系数h1(i)以及待定系数h2(i,j),采用预测值与实际值之间的均方误差做为原始适应度函数,通过贪婪选择方法,得到最佳嵌入维数s、延迟时间τ、待定系数h1(i)以及h2(i,j),代入上述式(2),完成混沌语音信号的编码。
(4)解码
将提取的混沌语音信号的最佳嵌入维数s、延时时间τ、待定系数h1(i)以及h2(i,j)代入式(2),得对应信号的预测模型,根据已有编码后的数据,按照常规方法进行解码。
在本发明步骤(3)中的自适应人工蜂群算法为:
式中ω是权重系数介于(0,1),c1、c2是学习因子2,是[-1,1]的随机数,xbest为每次迭代的全局最优蜜源,xij为当前的蜜源位置,i为蜜源向量的序号,j为对应分量,xneighbor为当前蜜源邻近的蜜源位置,neighbor为蜜源向量序号不能等于i,ω由以下两个式子确定:
ω=ωmin+ρ(ωmax-ωmin) (4)
ωmin是ω的上界为0.2,ωmax是ω的下界为0.9,a为2,maxcyle是最大的迭代次数为2000,a为2,maxcyle是最大的迭代次数为1000或1500或2000。
在本发明步骤(3)中的代理模型方法为:
(1)将分析帧的混沌语音信号相空间重构中的嵌入维数s、延迟时间τ加入到原始Volterra模型中,用s代替式(1)中的m。
(2)根据步骤(1)所属引入s与τ的模型,采用自适应人工蜂群算法的代理模型方法确定待定系数h1(i)和h2(i,j)。
使用径向基神经网络作为近似适应度函数,将近似适应度函数与真实适应度函数模型结合使用,近似适应度函数为:
式中k(||x-ci||)为所使用的核函数,ai为所要评估的值,ci为径向基神经网络的中心点,真实适应度函数为:
式中yi为实际值,为预测值,L为预测长度。
确定最佳待定系数h1(i)、h2(i,j),检测均方误差是否达到要求,不达到误差要求,再次迭代。
由于本发明采用对现有的人工蜂群算法进行了改进,对输入的混沌语音信号进行预加重、加窗、分帧预处理,建立了混沌语音信号预测模型,确定混沌语音信号预测模型中的参数,完成混沌语音信号的编码,根据已有编码后的数据,按照常规方法进行解码。本发明利用语音信号的混沌特点,快速准确地实现了对混沌语音信号进行编码、解码,具有步骤简单、容易实现、准确率高等优点,可用于对混沌语音信号进行编码、解码。
附图说明
图1是本发明的工艺流程图。
图2是实施例1输入混沌语音信号音标[b]的波形图。
图3是实施例1确定混沌语音信号预测模型并编码的实验结果。
图4是实施例2确定混沌语音信号预测模型并编码的实验结果。
图5是实施例3确定混沌语音信号预测模型并编码的实验结果。
具体实施方式
下面结合附图和实施例对本发明进一步详细说明,但本发明不限于下述的实施方式。
实施例1
以在标准音标语料库中选取的混沌语音信号中音标[b]为例,基于代理模型Volterra建模的语音信号编码和解码方法步骤(如图1所示)如下:
(1)对输入的混沌语音信号进行预处理
图2是输入的混沌语音信号音标[b]的波形图,在输入的混沌语音信号音标[b]中,找到波形均匀的帧作为分析帧,进行预加重、加窗、分帧预处理,预加重为常规方法,采用传递函数进行预加重。
上述的加窗预处理采用以下窗函数进行:
式中N为有限的正整数。
(2)用Volterra建模方法构建预测模型
步骤(1)分析帧的信息见图3,本实施例从中截取长度为400的样本长度,按式(2)建立混沌语音信号预测模型:
式中u(n-iτ)为输入的分析帧信号,m是混沌时间序列预测模型的记忆长度为有限的正整数,h1(i)和h2(i,j)为待定系数,u(n-iτ)为对应分析帧的第n-iτ个样本,n-iτ为步骤(1)中分析帧的样本序号,u(n-jτ)为对应的分析帧的第n-jτ个样本,n-jτ为步骤(1)中分析帧的样本序号,τ是延迟时间为有限的正整数,j、n为有限的正整数。
(3)确定混沌语音信号预测模型并编码
将步骤(1)中分析帧的混沌语音信号用自适应人工蜂群算法确定混沌语音信号所对应的延迟时间τ、嵌入维数s、待定系数h1(i)、待定系数h2(i,j),自适应人工蜂群算法为:
式中ω是权重系数介于(0,1),c1、c2是学习因子2,是[‐1,1]的随机数,xbest为每次迭代的全局最优蜜源,xij为当前的蜜源位置,i为蜜源向量的序号,j为对应分量,xneighbor为当前蜜源邻近的蜜源位置,neighbor为蜜源向量序号不能等于i,ω由以下两个式子确定:
ω=ωmin+ρ(ωmax-ωmin) (4)
ωmin是ω的上界为0.2,ωmax是ω的下界为0.9,a为2,maxcyle是最大的迭代次数为2000。
采用代理模型方法作为近似适应度函数,选择高适应度的嵌入维数s、延迟时间τ、待定系数h1(i)、待定系数h2(i,j),本实施例的代理模型方法为:
(1)将分析帧的混沌语音信号相空间重构中的嵌入维数s、延迟时间τ加入到原始Volterra模型中,用s代替式(1)中的m。
(2)根据步骤(1)所属引入s与τ的模型,采用自适应人工蜂群算法的代理模型方法确定待定系数h1(i)和h2(i,j):
使用径向基神经网络作为近似适应度函数,将近似适应度函数与真实适应度函数模型结合使用,近似适应度函数为:
式中k(||x-ci||)为所使用的核函数,ai为所要评估的值,ci为径向基神经网络的中心点,真实适应度函数为:
式中yi为实际值,为预测值,L为预测长度;
确定最佳待定系数h1(i)、h2(i,j),检测均方误差是否达到要求,不达到误差要求,再次迭代。
采用预测值与实际值之间的均方误差做为原始适应度函数,通过贪婪选择方法,贪婪选择方法为常规方法,得到最佳嵌入维数s、延迟时间τ、待定系数h1(i)以及待定系数h2(i,j),代入上述式(2),完成混沌语音信号的编码。
用自适应人工蜂群算法得混沌语音信号音标[b]所对应的延迟时间τ为8、嵌入维数s为12,混沌语音信号预测模型中待定系数h1(i)和待定系数h2(i,j)见表1、表2、图3。
表1实施例1中的最佳待定系数h1(i)
h1(1) | h1(1) | h1(1) | h1(1) | h1(1) | h1(1) | h1(1) | h1(1) |
1 | ‐0.0020 | ‐0.0531 | ‐0.0898 | ‐0.1363 | 0.0555 | 0.6349 | ‐0.0617 |
表2实施例1中的最佳待定系数h2(i,j)
h2(i,j) | i=1 | i=2 | i=3 | i=4 | i=5 | i=6 | i=7 | i=8 |
j=1 | 0.8258 | -0.4758 | 0.2718 | 1 | -1 | 0.1292 | -1 | 0.7767 |
j=2 | 0.0449 | -0.0179 | 0.1362 | -0.1184 | 1 | 0.3567 | -0.3045 | |
j=3 | 0.5248 | 0.2685 | -0.9564 | 0.7436 | -0.3485 | 0.3652 | ||
j=4 | -0.9852 | 0.5326 | 0.2134 | 0.3452 | 0.2741 | |||
j=5 | 0.1245 | 0.5236 | -12354 | 1 | ||||
j=6 | -0.9654 | 0.1455 | 0.2542 | |||||
j=7 | 0.6532 | 0.8541 | ||||||
j=8 | 0.8745 |
由表1、表2、图3可见,混沌语音信号中音标[b]的最优嵌入维s为12,最佳延时时间为8,待定系数h1(i)、h2(i,j)为表中数据时,样本累积的最大误差为0.199474,达到了误差范围,因此,输出到制定的文件中。找到图中所输出的文件,代入上述式(2),完成混沌语音信号的编码。
(4)解码
将提取的混沌语音信号中音标[b]的最佳嵌入维数s、延时时间τ、待定系数h1(i)以及h2(i,j)代入式(2),得对应信号的预测模型,根据已有编码后的数据,按照常规方法进行解码。
实施例2
以在标准音标语料库中选取的混沌语音信号中音标[b]为例,基于代理模型Volterra建模的语音信号编码和解码方法步骤如下:
(1)对输入的混沌语音信号进行预处理
对输入的混沌语音信号进行预处理步骤与实施例1相同。
(2)用Volterra建模方法构建预测模型
用Volterra建模方法构建预测模型步骤与实施例1相同。
(3)确定混沌语音信号预测模型并编码
将步骤(1)中分析帧的混沌语音信号用自适应人工蜂群算法确定混沌语音信号所对应的延迟时间τ、嵌入维数s、待定系数h1(i)、待定系数h2(i,j),自适应人工蜂群算法为:
式中ω是权重系数介于(0,1),c1、c2是学习因子2,是[‐1,1]的随机数,xbest为每次迭代的全局最优蜜源,xij为当前的蜜源位置,i为蜜源向量的序号,j为对应分量,xneighbor为当前蜜源邻近的蜜源位置,neighbor为蜜源向量序号不能等于i,ω由以下两个式子确定:
ω=ωmin+ρ(ωmax-ωmin) (9)
式中ωmin是ω的上界为0.2,ωmax是ω的下界为0.9,a为2,maxcyle是最大的迭代次数为1000。
采用代理模型方法作为近似适应度函数,选择高适应度的嵌入维数s、延迟时间τ、待定系数h1(i)、待定系数h2(i,j),本实施例的代理模型方法与实施例1相同。用自适应人工蜂群算法得混沌语音信号音标[b]所对应的延迟时间τ为8、嵌入维数s为12,混沌语音信号预测模型中待定系数h1(i)和待定系数h2(i,j)见表3、表4、图4。
表3实施例2中的最佳待定系数h1(i)
h1(1) | h1(1) | h1(1) | h1(1) | h1(1) | h1(1) | h1(1) | h1(1) |
1 | 1.1321 | 0.0672 | -0.4031 | 0.0203 | -0.2818 | 0.1010 | 0.2818 |
表4实施例2中的最佳待定系数h2(i,j)
其他步骤与实施例1相同。
完成混沌语音信号音标[b]的编码和解码。
实施例3
以在标准音标语料库中选取的混沌语音信号中音标[b]为例,基于代理模型Volterra建模的语音信号编码和解码方法步骤如下:
(1)对输入的混沌语音信号进行预处理
对输入的混沌语音信号进行预处理步骤与实施例1相同。
(2)用Volterra建模方法构建预测模型
用Volterra建模方法构建预测模型步骤与实施例1相同。
(3)确定混沌语音信号预测模型并编码
将步骤(1)中分析帧的混沌语音信号用自适应人工蜂群算法确定混沌语音信号所对应的延迟时间τ、嵌入维数s、待定系数h1(i)、待定系数h2(i,j),自适应人工蜂群算法为:
式中ω是权重系数介于(0,1),c1、c2是学习因子2,是[‐1,1]的随机数,xbest为每次迭代的全局最优蜜源,xij为当前的蜜源位置,i为蜜源向量的序号,j为对应分量,xneighbor为当前蜜源邻近的蜜源位置,neighbor为蜜源向量序号不能等于i,ω由以下两个式子确定:
ω=ωmin+ρ(ωmax-ωmim) (12)
式中ωmin是ω的上界为0.2,ωmax是ω的下界为0.9,a为2,maxcyle是最大的迭代次数为1500。
采用代理模型方法作为近似适应度函数,选择高适应度的嵌入维数s、延迟时间τ、待定系数h1(i)、待定系数h2(i,j),本实施例的代理模型方法与实施例1相同。用自适应人工蜂群算法得混沌语音信号音标[b]所对应的延迟时间τ为8、嵌入维数s为12,混沌语音信号预测模型中待定系数h1(i)和待定系数h2(i,j)见表5、表6、图5。
表5施例3中的最佳待定系数h1(i)
h1(1) | h1(1) | h1(1) | h1(1) | h1(1) | h1(1) | h1(1) | h1(1) |
1 | 0.2119 | -0.4320 | -0.0315 | 0.0995 | 0.0014 | -0.1405 | 0.0898 |
表6实施例3中的最佳待定系数h2(i,j)
h2(i,j) | i=1 | i=2 | i=3 | i=4 | i=5 | i=6 | i=7 | i=8 |
j=1 | 0.2358 | -0.9652 | 0.2148 | 0.3541 | -1 | 0.7022 | -1 | 0.3354 |
j=2 | 0.6249 | -0.6931 | 0.3654 | -0.6944 | 0.2982 | 0.6367 | -0.4508 | |
j=3 | 0.9852 | 0.7564 | -0.2485 | 0.4267 | 0.5130 | 0.7452 | ||
j=4 | -0.3498 | 0.3215 | 0.3124 | 0.2347 | 0.7824 | |||
j=5 | 0.7545 | 0.1453 | -0.1154 | 1.2647 | ||||
j=6 | -0.5496 | 0.3265 | 0.3542 | |||||
j=7 | 0.3541 | 0.4516 | ||||||
j=8 | 0.1264 |
其他步骤与实施例1相同。
完成混沌语音信号音标[b]的编码和解码。
根据上述原理,在标准音标语料库中选取的混沌语音信号中不同音标,采用基于代理模型Volterra建模的语音信号编码和解码方法,可以对不同的音标进行编码和解码。
Claims (3)
1.一种基于代理模型Volterra建模的语音信号编码和解码方法,其特征在于由以下步骤组成:
(1)对输入的混沌语音信号进行预处理
在输入的混沌语音信号中,找到波形均匀的帧作为分析帧,进行预加重、加窗、分帧预处理;
上述的加窗预处理采用以下窗函数进行:
式中N为有限的正整数;
(2)用Volterra建模方法构建预测模型
将步骤(1)分析帧的信息,按式(2)建立混沌语音信号预测模型:
式中u(n-iτ)为输入的分析帧信号,m是混沌时间序列预测模型的记忆长度为有限的正整数,h1(i)和h2(i,j)为待定系数,u(n-iτ)为对应分析帧的第n-iτ个样本,n-iτ为步骤(1)中分析帧的样本序号,u(n-jτ)为对应的分析帧的第n-jτ个样本,n-jτ为步骤(1)中分析帧的样本序号,τ是延迟时间为有限的正整数,j、n为有限的正整数;
(3)确定混沌语音信号预测模型并编码
将步骤(1)中分析帧的混沌语音信号用自适应人工蜂群算法确定混沌语音信号所对应的延迟时间τ、嵌入维数s、待定系数h1(i)、待定系数h2(i,j),采用代理模型方法作为近似适应度函数,选择高适应度的嵌入维数s、延迟时间τ、待定系数h1(i)以及待定系数h2(i,j),采用预测值与实际值之间的均方误差做为原始适应度函数,通过贪婪选择方法,得到最佳嵌入维数s、延迟时间τ、待定系数h1(i)以及h2(i,j),代入上述式(2),完成混沌语音信号的编码;
(4)解码
将提取的混沌语音信号的最佳嵌入维数s、延时时间τ、待定系数h1(i)以及h2(i,j)代入式(2),得对应信号的预测模型,根据已有编码后的数据,按照常规方法进行解码。
2.根据权利要求1所述的基于代理模型Volterra建模的语音信号编码和解码方法,其特征在于所述的步骤(3)中的自适应人工蜂群算法为:
式中ω是权重系数介于(0,1),c1、c2是学习因子2,是[-1,1]的随机数,xbest为每次迭代的全局最优蜜源,xij为当前的蜜源位置,i为蜜源向量的序号,j为对应分量,xneig hbor为当前蜜源邻近的蜜源位置,neighbor为蜜源向量序号不能等于i,ω由以下两个式子确定:
ω=ωmin+ρ(ωmax-ωmin) (4)
ωmin是ω的上界为0.2,ωmax是ω的下界为0.9,a为2,maxcyle是最大的迭代次数为2000,a为2,maxcyle是最大的迭代次数为1000或1500或2000。
3.根据权利要求1所述的基于代理模型Volterra建模的语音信号编码和解码方法,其特征在于所述的步骤(3)中的代理模型方法为:
(1)将分析帧的混沌语音信号相空间重构中的嵌入维数s、延迟时间τ加入到原始Volterra模型中,用s代替式(1)中的m;
(2)根据步骤(1)所属引入s与τ的模型,采用自适应人工蜂群算法的代理模型方法确定待定系数h1(i)和h2(i,j):
使用径向基神经网络作为近似适应度函数,将近似适应度函数与真实适应度函数模型结合使用,近似适应度函数为:
式中k(‖x-ci‖)为所使用的核函数,ai为所要评估的值,ci为径向基神经网络的中心点,真实适应度函数为:
式中yi为实际值,为预测值,L为预测长度;
确定最佳待定系数h1(i)、h2(i,j),检测均方误差是否达到要求,不达到误差要求,再次迭代。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810142277.6A CN108417220B (zh) | 2018-02-11 | 2018-02-11 | 基于代理模型Volterra建模的语音信号编码和解码方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810142277.6A CN108417220B (zh) | 2018-02-11 | 2018-02-11 | 基于代理模型Volterra建模的语音信号编码和解码方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108417220A true CN108417220A (zh) | 2018-08-17 |
CN108417220B CN108417220B (zh) | 2019-06-25 |
Family
ID=63128600
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810142277.6A Active CN108417220B (zh) | 2018-02-11 | 2018-02-11 | 基于代理模型Volterra建模的语音信号编码和解码方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108417220B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109745044A (zh) * | 2018-12-19 | 2019-05-14 | 陕西师范大学 | 基于代理模型Volterra建模的脑电信号编码解码方法 |
CN109793514A (zh) * | 2018-12-27 | 2019-05-24 | 陕西师范大学 | 混合蛙跳-Volterra模型的脑电信号编码和解码方法 |
WO2020224112A1 (zh) * | 2019-05-07 | 2020-11-12 | 深圳大学 | 一种基于训练级数模型的时间序列预测方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1290816B1 (en) * | 2000-06-16 | 2008-10-15 | AT&T Investments UK Inc. | Method of extracting a signal |
CN104575512A (zh) * | 2014-12-29 | 2015-04-29 | 南京航空航天大学 | 基于Volterra滤波器的非线性窄带主动噪声控制方法 |
CN105205838A (zh) * | 2015-08-24 | 2015-12-30 | 重庆邮电大学 | 一种基于混沌粒子群算法的矢量量化码书构造方法 |
CN106782577A (zh) * | 2016-11-11 | 2017-05-31 | 陕西师范大学 | 一种基于混沌时间序列预测模型的语音信号编码和解码方法 |
US20170324590A1 (en) * | 2013-07-08 | 2017-11-09 | Hughes Network Systems, Llc | System and method for iterative compensation for linear and nonlinear interference in system employing ftn symbol transmission rates |
-
2018
- 2018-02-11 CN CN201810142277.6A patent/CN108417220B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1290816B1 (en) * | 2000-06-16 | 2008-10-15 | AT&T Investments UK Inc. | Method of extracting a signal |
US20170324590A1 (en) * | 2013-07-08 | 2017-11-09 | Hughes Network Systems, Llc | System and method for iterative compensation for linear and nonlinear interference in system employing ftn symbol transmission rates |
CN104575512A (zh) * | 2014-12-29 | 2015-04-29 | 南京航空航天大学 | 基于Volterra滤波器的非线性窄带主动噪声控制方法 |
CN105205838A (zh) * | 2015-08-24 | 2015-12-30 | 重庆邮电大学 | 一种基于混沌粒子群算法的矢量量化码书构造方法 |
CN106782577A (zh) * | 2016-11-11 | 2017-05-31 | 陕西师范大学 | 一种基于混沌时间序列预测模型的语音信号编码和解码方法 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109745044A (zh) * | 2018-12-19 | 2019-05-14 | 陕西师范大学 | 基于代理模型Volterra建模的脑电信号编码解码方法 |
CN109745044B (zh) * | 2018-12-19 | 2022-02-22 | 陕西师范大学 | 基于代理模型Volterra建模的脑电信号编码解码方法 |
CN109793514A (zh) * | 2018-12-27 | 2019-05-24 | 陕西师范大学 | 混合蛙跳-Volterra模型的脑电信号编码和解码方法 |
WO2020224112A1 (zh) * | 2019-05-07 | 2020-11-12 | 深圳大学 | 一种基于训练级数模型的时间序列预测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN108417220B (zh) | 2019-06-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6955580B2 (ja) | 文書要約自動抽出方法、装置、コンピュータ機器及び記憶媒体 | |
CN108417220B (zh) | 基于代理模型Volterra建模的语音信号编码和解码方法 | |
CN111738020B (zh) | 一种翻译模型的训练方法及装置 | |
CN107844469A (zh) | 基于词向量查询模型的文本简化方法 | |
US20190251165A1 (en) | Conversational agent | |
CN109522411A (zh) | 一种基于神经网络的写作辅助方法 | |
CN111931518A (zh) | 一种翻译模型的训练方法及装置 | |
CN107291836B (zh) | 一种基于语义相关度模型的中文文本摘要获取方法 | |
CN107220384B (zh) | 一种基于相关性的搜索词处理方法、装置及计算设备 | |
CN109977950A (zh) | 一种基于混合cnn-lstm网络的文字识别方法 | |
CN108388561B (zh) | 神经网络机器翻译方法和装置 | |
CN109933809B (zh) | 一种翻译方法及装置、翻译模型的训练方法及装置 | |
CN106682387A (zh) | 用于输出信息的方法和装置 | |
CN104064193B (zh) | 一种线性预测语音编码的信息隐藏方法与提取方法 | |
CN112634918B (zh) | 一种基于声学后验概率的任意说话人语音转换***及方法 | |
CN106777073A (zh) | 一种搜索引擎中错别字自动更正方法和服务器 | |
JP2019153023A (ja) | 疑似対訳データ生成装置、機械翻訳処理装置、および疑似対訳データ生成方法 | |
CN111401080A (zh) | 神经机器翻译方法以及神经机器翻译装置 | |
CN111767697B (zh) | 文本处理方法、装置、计算机设备以及存储介质 | |
CN109525254A (zh) | 基于深度学习的卷积码软判决译码方法 | |
EP3525107A1 (en) | Conversational agent | |
CN106782577A (zh) | 一种基于混沌时间序列预测模型的语音信号编码和解码方法 | |
CN110705279A (zh) | 一种词汇表的选择方法、装置及计算机可读存储介质 | |
CN101572093A (zh) | 一种转码方法和装置 | |
CN111783435B (zh) | 共享词汇的选择方法、装置及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |