JP6368029B2 - 雑音信号処理方法、雑音信号生成方法、符号化器、復号化器、並びに符号化および復号化システム - Google Patents
雑音信号処理方法、雑音信号生成方法、符号化器、復号化器、並びに符号化および復号化システム Download PDFInfo
- Publication number
- JP6368029B2 JP6368029B2 JP2017503044A JP2017503044A JP6368029B2 JP 6368029 B2 JP6368029 B2 JP 6368029B2 JP 2017503044 A JP2017503044 A JP 2017503044A JP 2017503044 A JP2017503044 A JP 2017503044A JP 6368029 B2 JP6368029 B2 JP 6368029B2
- Authority
- JP
- Japan
- Prior art keywords
- linear prediction
- spectral
- prediction residual
- residual signal
- signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 63
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 title claims description 32
- 238000003672 processing method Methods 0.000 title claims description 17
- 230000003595 spectral effect Effects 0.000 claims description 392
- 230000005284 excitation Effects 0.000 claims description 217
- 238000001228 spectrum Methods 0.000 claims description 49
- 238000004364 calculation method Methods 0.000 claims description 10
- 238000001914 filtration Methods 0.000 claims description 4
- 230000015572 biosynthetic process Effects 0.000 description 17
- 238000003786 synthesis reaction Methods 0.000 description 17
- 238000004458 analytical method Methods 0.000 description 14
- 230000005236 sound signal Effects 0.000 description 14
- 230000008447 perception Effects 0.000 description 13
- 238000005070 sampling Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 230000005540 biological transmission Effects 0.000 description 7
- 230000008569 process Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 238000003780 insertion Methods 0.000 description 2
- 230000037431 insertion Effects 0.000 description 2
- 238000011017 operating method Methods 0.000 description 2
- 230000035807 sensation Effects 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000000695 excitation spectrum Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/012—Comfort noise or silence coding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/06—Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/08—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/08—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
- G10L19/12—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
- G10L19/13—Residual excited linear prediction [RELP]
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/26—Pre-filtering or post-filtering
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/032—Quantisation or dequantisation of spectral components
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Description
雑音信号を獲得し、雑音信号に従って線形予測係数を取得するステップと、
線形予測係数に従って雑音信号をフィルタリングして、線形予測残差信号を取得するステップと、
線形予測残差信号に従って線形予測残差信号のスペクトル包絡線を取得するステップと、
線形予測残差信号のスペクトル包絡線を符号化するステップと、を含む。
線形予測残差信号のスペクトル包絡線に従って線形予測残差信号のスペクトル細部を取得するステップをさらに含み、
それに対応して、線形予測残差信号のスペクトル包絡線を符号化するステップは、具体的には、
線形予測残差信号のスペクトル細部を符号化するステップを含む。
線形予測残差信号に従って線形予測残差信号のエネルギーを取得するステップをさらに含み、
それに対応して、線形予測残差信号のスペクトル細部を符号化するステップは、具体的には、
線形予測係数、線形予測残差信号のエネルギー、および線形予測残差信号のスペクトル細部を符号化するステップを含む。
線形予測残差信号のエネルギーに従ってランダム雑音励振信号を取得するステップと、
線形予測残差信号のスペクトル包絡線とランダム雑音励振信号のスペクトル包絡線の間の差を線形予測残差信号のスペクトル細部として使用するステップと、である。
線形予測残差信号のスペクトル包絡線に従って第1の帯域幅のスペクトル包絡線を取得するステップであって、第1の帯域幅は線形予測残差信号の帯域幅の範囲内にある、ステップと、
第1の帯域幅のスペクトル包絡線に従って線形予測残差信号のスペクトル細部を取得するステップと、を含む。
線形予測残差信号のスペクトル構造を計算し、線形予測残差信号の第1の部分のスペクトルを第1の帯域幅のスペクトル包絡線として使用するステップであって、第1の部分のスペクトル構造は、線形予測残差信号の、第1の部分以外の、他の部分のスペクトル構造より強い、ステップを含む。
雑音信号のスペクトル包絡線に従って線形予測残差信号のスペクトル構造を計算すること、および、
線形予測残差信号のスペクトル包絡線に従って線形予測残差信号のスペクトル構造を計算すること、
のうちの1つで計算される。
線形予測残差信号のスペクトル細部に従って線形予測残差信号のスペクトル構造を計算し、スペクトル構造に従って線形予測残差信号の第2の帯域幅のスペクトル細部を取得するステップであって、第2の帯域幅は線形予測残差信号の帯域幅の範囲内にあり、第2の帯域幅のスペクトル構造は、線形予測残差信号の、第2の帯域幅以外の、帯域幅の他の部分のスペクトル構造より強い、ステップをさらに含み、
それに対応して、線形予測残差信号のスペクトル包絡線を符号化するステップは、具体的には、
線形予測残差信号の第2の帯域幅のスペクトル細部を符号化するステップを含む。
ビットストリームを受信し、ビットストリームを復号化してスペクトル細部および線形予測係数を取得するステップであって、スペクトル細部は線形予測励振信号のスペクトル包絡線を示す、ステップと、
スペクトル細部に従って線形予測励振信号を取得するステップと、
線形予測係数および線形予測励振信号に従って快適雑音信号を取得するステップと、を含む。
線形予測励振のエネルギーに従って第1の雑音励振信号を取得するステップであって、第1の雑音励振信号のエネルギーは線形予測励振のエネルギーに等しい、ステップと、
第1の雑音励振信号およびスペクトル包絡線に従って第2の雑音励振信号を取得するステップと、をさらに含み、
それに対応して、線形予測係数および線形予測励振信号に従って快適雑音信号を取得するステップは、具体的には、
線形予測係数および第2の雑音励振信号に従って快適雑音信号を取得するステップを含む。
線形予測励振のエネルギーに従って第1の雑音励振信号を取得するステップであって、第1の雑音励振信号のエネルギーは線形予測励振のエネルギーに等しい、ステップと、
第1の雑音励振信号および線形予測励振信号に従って第2の雑音励振信号を取得するステップと、をさらに含み、
それに対応して、線形予測係数および線形予測励振信号に従って快適雑音信号を取得するステップは、具体的には、
線形予測係数および第2の雑音励振信号に従って快適雑音信号を取得するステップを含む。
雑音信号を獲得し、雑音信号に従って線形予測係数を取得するように構成された獲得モジュールと、
獲得モジュールによって取得された線形予測係数に従って雑音信号をフィルタリングして、線形予測残差信号を取得するように構成されたフィルタと、
線形予測残差信号に従って線形予測残差信号のスペクトル包絡線を取得するように構成されたスペクトル包絡線生成モジュールと、
線形予測残差信号のスペクトル包絡線を符号化するように構成された符号化モジュールと、を含む。
線形予測残差信号のスペクトル包絡線に従って線形予測残差信号のスペクトル細部を取得するように構成されたスペクトル細部生成モジュールをさらに含み、
それに対応して、符号化モジュールは、具体的には、線形予測残差信号のスペクトル細部を符号化するように構成される。
線形予測残差信号に従って線形予測残差信号のエネルギーを取得するように構成された残差エネルギー計算モジュールをさらに含み、
それに対応して、符号化モジュールは、具体的には、線形予測係数、線形予測残差信号のエネルギー、および線形予測残差信号のスペクトル細部を符号化するように構成される。
線形予測残差信号のエネルギーに従ってランダム雑音励振信号を取得し、
線形予測残差信号のスペクトル包絡線とランダム雑音励振信号のスペクトル包絡線の間の差を線形予測残差信号のスペクトル細部として使用するように構成される。
線形予測残差信号のスペクトル包絡線に従って第1の帯域幅のスペクトル包絡線を取得するように構成された第1の帯域幅スペクトル包絡線生成ユニットであって、第1の帯域幅は線形予測残差信号の帯域幅の範囲内にある、第1の帯域幅スペクトル包絡線生成ユニットと、
第1の帯域幅のスペクトル包絡線に従って線形予測残差信号のスペクトル細部を取得するように構成されたスペクトル細部計算ユニットと、を含む。
線形予測残差信号のスペクトル構造を計算し、線形予測残差信号の第1の部分のスペクトルを第1の帯域幅のスペクトル包絡線として使用するように構成され、第1の部分のスペクトル構造は、線形予測残差信号の、第1の部分以外の、他の部分のスペクトル構造より強い。
雑音信号のスペクトル包絡線に従って線形予測残差信号のスペクトル構造を計算すること、および、
線形予測残差信号のスペクトル包絡線に従って線形予測残差信号のスペクトル構造を計算すること、
のうちの1つで計算する。
線形予測残差信号のスペクトル包絡線に従って線形予測残差信号のスペクトル細部を取得し、線形予測残差信号のスペクトル細部に従って線形予測残差信号のスペクトル構造を計算し、スペクトル構造に従って線形予測残差信号の第2の帯域幅のスペクトル細部を取得するように構成され、第2の帯域幅は線形予測残差信号の帯域幅の範囲内にあり、第2の帯域幅のスペクトル構造は、線形予測残差信号の、第2の帯域幅以外の、帯域幅の他の部分のスペクトル構造より強く、
それに対応して、符号化モジュールは、具体的には、線形予測残差信号の第2の帯域幅のスペクトル細部を符号化するように構成される。
ビットストリームを受信し、ビットストリームを復号化してスペクトル細部および線形予測係数を取得するように構成された受信モジュールであって、スペクトル細部は線形予測励振信号のスペクトル包絡線を示す、受信モジュールと、
スペクトル細部に従って線形予測励振信号を取得するように構成された線形予測励振信号生成モジュールと、
線形予測係数および線形予測励振信号に従って快適雑音信号を取得するように構成された快適雑音信号生成モジュールと、を含む。
線形予測励振のエネルギーに従って第1の雑音励振信号を取得するステップであって、第1の雑音励振信号のエネルギーは線形予測励振のエネルギーに等しい、ステップと、
第1の雑音励振信号およびスペクトル包絡線に従って第2の雑音励振信号を取得するステップと、をさらに含み、
それに対応して、線形予測係数および線形予測励振信号に従って快適雑音信号を取得するステップは、具体的には、
線形予測係数および第2の雑音励振信号に従って快適雑音信号を取得するステップを含む。
線形予測励振のエネルギーに従って第1の雑音励振信号を取得するように構成された第1の雑音励振信号生成モジュールであって、第1の雑音励振信号のエネルギーは線形予測励振のエネルギーに等しい、第1の雑音励振信号生成モジュールと、
第1の雑音励振信号および線形予測励振信号に従って第2の雑音励振信号を取得するように構成された第2の雑音励振信号生成モジュールと、をさらに含み、
それに対応して、快適雑音信号生成モジュールは、具体的には、線形予測係数および第2の雑音励振信号に従って快適雑音信号を取得するように構成される。
本発明の第3の態様の実施例のいずれか1つによる符号化器と、本発明の第4の態様の実施例のいずれか1つによる復号化器と、を含む。
線形予測残差信号のスペクトル包絡線に従って第1の帯域幅のスペクトル包絡線を取得するステップであって、第1の帯域幅は線形予測残差信号の帯域幅の範囲内にある、ステップと、
第1の帯域幅のスペクトル包絡線に従って線形予測残差信号のスペクトル細部を取得するステップと、を含む。
線形予測残差信号のスペクトル構造を計算し、線形予測残差信号の第1の部分のスペクトルを第1の帯域幅のスペクトル包絡線として使用するステップであって、第1の部分のスペクトル構造は、線形予測残差信号の、第1の部分以外の、他の部分のスペクトル構造より強い、ステップを含む。
雑音信号のスペクトル包絡線に従って線形予測残差信号のスペクトル構造を計算すること、および、
線形予測残差信号のスペクトル包絡線に従って線形予測残差信号のスペクトル構造を計算すること、
のうちの1つで計算される。
線形予測励振のエネルギーに従って第1の雑音励振信号を取得するステップであって、第1の雑音励振信号のエネルギーは線形予測励振のエネルギーに等しい、ステップと、
第1の雑音励振信号および線形予測励振信号に従って第2の雑音励振信号を取得するステップと、をさらに含む。
線形予測係数および第2の雑音励振信号に従って快適雑音信号を取得するステップを含む。
線形予測係数および第2の雑音励振信号に従って快適雑音信号を取得するステップを含む。
雑音信号を獲得し、雑音信号に従って線形予測係数を取得するように構成された獲得モジュール71と、
獲得モジュール71に接続され、獲得モジュール71によって取得された線形予測係数に従って雑音信号をフィルタリングして、線形予測残差信号を取得するように構成されたフィルタ72と、
フィルタ72に接続され、線形予測残差信号に従って線形予測残差信号のスペクトル包絡線を取得するように構成されたスペクトル包絡線生成モジュール73と、
スペクトル包絡線生成モジュール73に接続され、線形予測残差信号のスペクトル包絡線を符号化するように構成された符号化モジュール74と、を含む。
フィルタ72に接続され、線形予測残差信号に従って線形予測残差信号のエネルギーを取得するように構成された残差エネルギー計算モジュール75をさらに含む。
線形予測残差信号のエネルギーに従ってランダム雑音励振信号を取得し、
線形予測残差信号のスペクトル包絡線とランダム雑音励振信号のスペクトル包絡線の間の差を線形予測残差信号のスペクトル細部として使用するように構成される。
線形予測残差信号のスペクトル包絡線に従って第1の帯域幅のスペクトル包絡線を取得するように構成された第1の帯域幅スペクトル包絡線生成ユニット761であって、第1の帯域幅は線形予測残差信号の帯域幅の範囲内にある、第1の帯域幅スペクトル包絡線生成ユニット761と、
第1の帯域幅のスペクトル包絡線に従って線形予測残差信号のスペクトル細部を取得するように構成されたスペクトル細部計算ユニット762と、を含む。
線形予測残差信号のスペクトル構造を計算し、線形予測残差信号の第1の部分のスペクトルを第1の帯域幅のスペクトル包絡線として使用するように構成され、ここで第1の部分のスペクトル構造は、線形予測残差信号の、第1の部分以外の、他の部分のスペクトル構造より強い。
雑音信号のスペクトル包絡線に従って線形予測残差信号のスペクトル構造を計算すること、および、
線形予測残差信号のスペクトル包絡線に従って線形予測残差信号のスペクトル構造を計算すること、
のうちの1つで計算する。
受信モジュール81に接続され、線形予測励振のエネルギーに従って第1の雑音励振信号を取得するように構成された第1の雑音励振信号生成モジュール84であって、第1の雑音励振信号のエネルギーは線形予測励振のエネルギーに等しい、第1の雑音励振信号生成モジュール84と、
線形予測励振信号生成モジュール82および第1の雑音励振信号生成モジュール84に接続され、第1の雑音励振信号および線形予測励振信号に従って第2の雑音励振信号を取得するように構成された第2の雑音励振信号生成モジュール85と、をさらに含む。
符号化器70および復号化器80を含む。符号化器70および復号化器80の具体的な動作手順について、本発明の他の実施例への参照が行われ得る。
lpc(k)は線形予測分析フィルタA(Z)のフィルタ係数を示し、Mはオーディオ信号フレームの時間領域サンプリング点の数量を示し、Kは自然数であり、s(i-k)はオーディオ信号フレームを示す。
s(i)はオーディオ信号フレームであり、Nは線形予測残差の時間領域サンプリング点の数量を示す。
BR(m)およびBXR(m)は、それぞれ、線形予測残差のFFTエネルギー・スペクトルおよびランダム雑音励振のFFTエネルギー・スペクトルを示し、mはm番目のFFT周波数ビンを示し、h(j)およびl(j)は、それぞれ、j番目のスペクトル包絡線の上限および下限に対応するFFT周波数ビンを示す。スペクトル包絡線の数量Kの選択は、スペクトル解像度と符号化率の間で妥協することが可能であり、より大きなKはより高いスペクトル解像度および符号化される必要があるより大きなビットの数量を示し、そうでなければ、より小さいKはより低いスペクトル解像度および符号化される必要があるより少ないビットの数量を示す。線形予測残差R(i)のスペクトル細部SD(j)は、SR(j)とSXR(j)の間の差を使用することによって取得される。SIDフレームを符号化するとき、符号化器は、線形予測係数lpc(k)、線形予測残差のエネルギーER、および線形予測残差のスペクトル細部SD(j)を別個に量子化し、ここで線形予測係数lpc(k)の量子化は、一般に、ISP/ISF領域およびLSP/LSF領域について行われる。各々のパラメータを量子化するための具体的な方法は先行技術であり、本発明の概要ではないので、詳細はここに記載されない。
ER(m)は線形予測残差のFFTエネルギー・スペクトルを示し、mはm番目のFFT周波数ビンを示し、h(j)およびl(j)は、それぞれ、j番目のスペクトル包絡線の上限および下限に対応するFFT周波数ビンを示す。SM(j)はスペクトル包絡線の平均または平均スペクトル包絡線を示し、ERは線形予測残差のエネルギーである。
P(j)は総エネルギーにおけるj番目の包絡線によって占有される周波数帯域のエネルギーの比率を示し、SR(j)は線形予測残差のスペクトル包絡線であり、h(j)およびl(j)は、それぞれ、j番目のスペクトル包絡線の上限および下限に対応するFFT周波数ビンを示し、Etotはフレームの総エネルギーである。線形予測残差スペクトルのエントロピーCRはP(j)に従って計算される。
αは長期移動平均係数または忘却係数であり、Mはフィルタ次数であり、Kはスペクトル包絡線の数量である。
E(i)は利得調整の後に取得されるi番目のFFT 周波数ビンのエネルギーを示し、線形予測残差のスペクトル細部CNSD(j)によって決定される。E(i)とCNSD(j)の間の関係は、
E(i)=CNSD(j)、l(j)≦i≦h(j)について
である。
EX(i)=EXR(i)+EXD(i)、i=0, 1, … N-1
71 獲得モジュール
72 フィルタ
73 スペクトル包絡線生成モジュール
74 符号化モジュール
75 残差エネルギー計算モジュール
76 スペクトル細部生成モジュール
761 第1の帯域幅スペクトル包絡線生成ユニット
762 スペクトル細部計算ユニット
80 復号化器
81 受信モジュール
82 線形予測励振信号生成モジュール
83 快適雑音信号生成モジュール
84 第1の雑音励振信号生成モジュール
85 第2の雑音励振信号生成モジュール
90 符号化および復号化システム
Claims (20)
- 雑音信号を獲得し、前記雑音信号に従って線形予測係数を取得するステップと、
前記線形予測係数に従って前記雑音信号をフィルタリングして、線形予測残差信号を取得するステップと、
前記線形予測残差信号に従って前記線形予測残差信号のスペクトル包絡線を取得するステップと、
前記線形予測残差信号の前記スペクトル包絡線を符号化するステップと、
を含み、
前記線形予測残差信号に従って前記線形予測残差信号のスペクトル包絡線を取得する前記ステップの後に、
前記線形予測残差信号の前記スペクトル包絡線に従って前記線形予測残差信号のスペクトル細部を取得するステップであって、前記線形予測残差信号の前記スペクトル細部は、スペクトル包絡線と基底包絡線の間の差である、ステップをさらに含み、
それに対応して、前記線形予測残差信号の前記スペクトル包絡線を符号化する前記ステップは、
前記線形予測残差信号の前記スペクトル細部を符号化するステップを含む、線形予測を基にした雑音信号処理方法。 - 前記線形予測係数に従って前記雑音信号をフィルタリングして、線形予測残差信号を取得する前記ステップの後に、前記方法は、
前記線形予測残差信号に従って前記線形予測残差信号のエネルギーを取得するステップをさらに含み、
それに対応して、前記線形予測残差信号の前記スペクトル細部を符号化する前記ステップは、
前記線形予測係数、前記線形予測残差信号の前記エネルギー、および前記線形予測残差信号の前記スペクトル細部を符号化するステップを含む、請求項1に記載の雑音信号処理方法。 - 前記線形予測残差信号の前記スペクトル包絡線に従って前記線形予測残差信号のスペクトル細部を取得する前記ステップは、
前記線形予測残差信号の前記エネルギーに従ってランダム雑音励振信号を取得するステップと、
前記線形予測残差信号の前記スペクトル包絡線と前記ランダム雑音励振信号のスペクトル包絡線の間の差を前記線形予測残差信号の前記スペクトル細部として使用するステップと、
を含む、請求項2に記載の雑音信号処理方法。 - 前記線形予測残差信号の前記スペクトル包絡線に従って前記線形予測残差信号のスペク
トル細部を取得する前記ステップは、
前記線形予測残差信号の前記スペクトル包絡線に従って第1の帯域幅のスペクトル包絡線を取得するステップであって、前記第1の帯域幅は前記線形予測残差信号の帯域幅の範囲内にある、ステップと、
前記第1の帯域幅の前記スペクトル包絡線に従って前記線形予測残差信号の前記スペクトル細部を取得するステップと、
を含む、請求項1または2に記載の雑音信号処理方法。 - 前記線形予測残差信号の前記スペクトル包絡線に従って第1の帯域幅のスペクトル包絡線を取得する前記ステップは、
前記線形予測残差信号のスペクトル構造を計算し、前記線形予測残差信号の第1の部分のスペクトルを前記第1の帯域幅の前記スペクトル包絡線として使用するステップであって、前記第1の部分のスペクトル構造は、前記線形予測残差信号の、前記第1の部分以外の、他の部分のスペクトル構造より強い、ステップを含む、請求項4に記載の雑音信号処理方法。 - 前記線形予測残差信号の前記スペクトル構造は、以下の方式、
前記雑音信号のスペクトル包絡線に従って前記線形予測残差信号の前記スペクトル構造を計算すること、および、
前記線形予測残差信号の前記スペクトル包絡線に従って前記線形予測残差信号の前記スペクトル構造を計算すること、
のうちの1つで計算される、請求項5に記載の雑音信号処理方法。 - 前記線形予測残差信号の前記スペクトル包絡線に従って前記線形予測残差信号のスペクトル細部を取得する前記ステップの後に、前記方法は、
前記線形予測残差信号の前記スペクトル細部に従って前記線形予測残差信号のスペクトル構造を計算し、前記スペクトル構造に従って前記線形予測残差信号の第2の帯域幅のスペクトル細部を取得するステップであって、前記第2の帯域幅は前記線形予測残差信号の帯域幅の範囲内にあり、前記第2の帯域幅のスペクトル構造は、前記線形予測残差信号の、前記第2の帯域幅以外の、帯域幅の他の部分のスペクトル構造より強い、ステップをさらに含み、
それに対応して、前記線形予測残差信号の前記スペクトル包絡線を符号化する前記ステップは、
前記線形予測残差信号の前記第2の帯域幅の前記スペクトル細部を符号化するステップを含む、請求項1に記載の雑音信号処理方法。 - ビットストリームを受信し、前記ビットストリームを復号化してスペクトル細部および線形予測係数を取得するステップであって、前記スペクトル細部は線形予測励振信号のスペクトル包絡線を示し、線形予測残差信号の前記スペクトル細部は、スペクトル包絡線と基底包絡線の間の差である、ステップと、
前記スペクトル細部に従って前記線形予測励振信号を取得するステップと、
前記線形予測係数および前記線形予測励振信号に従って快適雑音信号を取得するステップと、
を含む、線形予測を基にした快適雑音信号生成方法。 - 前記ビットストリームは線形予測励振のエネルギーを含み、前記線形予測係数および前記線形予測励振信号に従って快適雑音信号を取得する前記ステップの前に、前記方法は、
前記線形予測励振の前記エネルギーに従って第1の雑音励振信号を取得するステップで
あって、前記第1の雑音励振信号のエネルギーは前記線形予測励振の前記エネルギーに等しい、ステップと、
前記第1の雑音励振信号および前記線形予測励振信号に従って第2の雑音励振信号を取得するステップと、をさらに含み、
それに対応して、前記線形予測係数および前記線形予測励振信号に従って快適雑音信号を取得する前記ステップは、
前記線形予測係数および前記第2の雑音励振信号に従って前記快適雑音信号を取得するステップを含む、請求項8に記載の快適雑音信号生成方法。 - 雑音信号を獲得し、前記雑音信号に従って線形予測係数を取得するように構成された獲得モジュールと、
前記獲得モジュールによって取得された前記線形予測係数に従って前記雑音信号をフィルタリングして、線形予測残差信号を取得するように構成されたフィルタと、
前記線形予測残差信号に従って前記線形予測残差信号のスペクトル包絡線を取得するように構成されたスペクトル包絡線生成モジュールと、
前記線形予測残差信号の前記スペクトル包絡線を符号化するように構成された符号化モジュールと、
前記線形予測残差信号の前記スペクトル包絡線に従って前記線形予測残差信号のスペクトル細部を取得するように構成されたスペクトル細部生成モジュールであって、前記線形予測残差信号の前記スペクトル細部は、スペクトル包絡線と基底包絡線の間の差である、スペクトル細部生成モジュールと
を含み、
それに対応して、前記符号化モジュールは、前記線形予測残差信号の前記スペクトル細部を符号化するように構成された、符号化器。 - 前記符号化器は、前記線形予測残差信号に従って前記線形予測残差信号のエネルギーを取得するように構成された残差エネルギー計算モジュールをさらに含み、
それに対応して、前記符号化モジュールは、前記線形予測係数、前記線形予測残差信号の前記エネルギー、および前記線形予測残差信号の前記スペクトル細部を符号化するように構成された、請求項10に記載の符号化器。 - 前記スペクトル細部生成モジュールは、
前記線形予測残差信号の前記エネルギーに従ってランダム雑音励振信号を取得し、
前記線形予測残差信号の前記スペクトル包絡線と前記ランダム雑音励振信号のスペクトル包絡線の間の差を前記線形予測残差信号の前記スペクトル細部として使用するように構成された、請求項11に記載の符号化器。 - 前記スペクトル細部生成モジュールは、
前記線形予測残差信号の前記スペクトル包絡線に従って第1の帯域幅のスペクトル包絡線を取得するように構成された第1の帯域幅スペクトル包絡線生成ユニットであって、前記第1の帯域幅は前記線形予測残差信号の帯域幅の範囲内にある、第1の帯域幅スペクトル包絡線生成ユニットと、
前記第1の帯域幅の前記スペクトル包絡線に従って前記線形予測残差信号の前記スペクトル細部を取得するように構成されたスペクトル細部計算ユニットと、を含む、請求項10または11に記載の符号化器。 - 前記第1の帯域幅スペクトル包絡線生成ユニットは、
前記線形予測残差信号のスペクトル構造を計算し、前記線形予測残差信号の第1の部分のスペクトルを前記第1の帯域幅の前記スペクトル包絡線として使用するように構成され、前記第1の部分のスペクトル構造は、前記線形予測残差信号の、前記第1の部分以外の、他の部分のスペクトル構造より強い、請求項13に記載の符号化器。 - 前記第1の帯域幅スペクトル包絡線生成ユニットは、前記線形予測残差信号の前記スペクトル構造を、以下の方式、
前記雑音信号のスペクトル包絡線に従って前記線形予測残差信号の前記スペクトル構造を計算すること、および、
前記線形予測残差信号の前記スペクトル包絡線に従って前記線形予測残差信号の前記スペクトル構造を計算すること、
のうちの1つで計算する、請求項14に記載の符号化器。 - 前記スペクトル細部生成モジュールは、
前記線形予測残差信号の前記スペクトル包絡線に従って前記線形予測残差信号の前記スペクトル細部を取得し、前記線形予測残差信号の前記スペクトル細部に従って前記線形予測残差信号のスペクトル構造を計算し、前記スペクトル構造に従って前記線形予測残差信号の第2の帯域幅のスペクトル細部を取得するように構成され、前記第2の帯域幅は前記線形予測残差信号の帯域幅の範囲内にあり、前記第2の帯域幅のスペクトル構造は、前記線形予測残差信号の、前記第2の帯域幅以外の、帯域幅の他の部分のスペクトル構造より強く、
それに対応して、前記符号化モジュールは、前記線形予測残差信号の前記第2の帯域幅の前記スペクトル細部を符号化するように構成された、請求項10に記載の符号化器。 - ビットストリームを受信し、前記ビットストリームを復号化してスペクトル細部および線形予測係数を取得するように構成された受信モジュールであって、前記スペクトル細部は線形予測励振信号のスペクトル包絡線を示し、線形予測残差信号の前記スペクトル細部は、スペクトル包絡線と基底包絡線の間の差である、受信モジュールと、
前記スペクトル細部に従って前記線形予測励振信号を取得するように構成された線形予測励振信号生成モジュールと、
前記線形予測係数および前記線形予測励振信号に従って快適雑音信号を取得するように構成された快適雑音信号生成モジュールと、
を含む復号化器。 - 前記ビットストリームは線形予測励振のエネルギーを含み、前記復号化器は、
前記線形予測励振の前記エネルギーに従って第1の雑音励振信号を取得するように構成された第1の雑音励振信号生成モジュールであって、前記第1の雑音励振信号のエネルギーは前記線形予測励振の前記エネルギーに等しい、第1の雑音励振信号生成モジュールと、
前記第1の雑音励振信号および前記線形予測励振信号に従って第2の雑音励振信号を取得するように構成された第2の雑音励振信号生成モジュールと、をさらに含み、
それに対応して、前記快適雑音信号生成モジュールは、前記線形予測係数および前記第2の雑音励振信号に従って前記快適雑音信号を取得するように構成された、請求項17に記載の復号化器。 - 請求項10から16のいずれか一項に記載の符号化器と、請求項17から18のいずれか一項に記載の復号化器と、を含む符号化および復号化システム。
- 請求項1から9のいずれかに記載の方法をコンピュータに実行させるプログラムを記録したコンピュータ読み取り可能な記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410137474.0A CN104978970B (zh) | 2014-04-08 | 2014-04-08 | 一种噪声信号的处理和生成方法、编解码器和编解码*** |
CN201410137474.0 | 2014-04-08 | ||
PCT/CN2014/088169 WO2015154397A1 (zh) | 2014-04-08 | 2014-10-09 | 一种噪声信号的处理和生成方法、编解码器和编解码*** |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018128182A Division JP6636574B2 (ja) | 2014-04-08 | 2018-07-05 | 雑音信号処理方法、雑音信号生成方法、符号化器、および、復号化器 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017510859A JP2017510859A (ja) | 2017-04-13 |
JP6368029B2 true JP6368029B2 (ja) | 2018-08-01 |
Family
ID=54275424
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017503044A Active JP6368029B2 (ja) | 2014-04-08 | 2014-10-09 | 雑音信号処理方法、雑音信号生成方法、符号化器、復号化器、並びに符号化および復号化システム |
JP2018128182A Active JP6636574B2 (ja) | 2014-04-08 | 2018-07-05 | 雑音信号処理方法、雑音信号生成方法、符号化器、および、復号化器 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018128182A Active JP6636574B2 (ja) | 2014-04-08 | 2018-07-05 | 雑音信号処理方法、雑音信号生成方法、符号化器、および、復号化器 |
Country Status (7)
Country | Link |
---|---|
US (3) | US9728195B2 (ja) |
EP (2) | EP3671737A1 (ja) |
JP (2) | JP6368029B2 (ja) |
KR (3) | KR101868926B1 (ja) |
CN (1) | CN104978970B (ja) |
ES (1) | ES2798310T3 (ja) |
WO (1) | WO2015154397A1 (ja) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106169297B (zh) * | 2013-05-30 | 2019-04-19 | 华为技术有限公司 | 信号编码方法及设备 |
GB2532041B (en) * | 2014-11-06 | 2019-05-29 | Imagination Tech Ltd | Comfort noise generation |
US10410398B2 (en) * | 2015-02-20 | 2019-09-10 | Qualcomm Incorporated | Systems and methods for reducing memory bandwidth using low quality tiles |
EA035903B1 (ru) * | 2016-01-03 | 2020-08-28 | Ауро Текнолоджиз Нв | Кодер сигнала, декодер и способы их работы с использованием прогностической модели |
CN106531175B (zh) * | 2016-11-13 | 2019-09-03 | 南京汉隆科技有限公司 | 一种网络话机柔和噪声产生的方法 |
JP7139628B2 (ja) * | 2018-03-09 | 2022-09-21 | ヤマハ株式会社 | 音処理方法および音処理装置 |
DK3776547T3 (da) * | 2018-04-05 | 2021-09-13 | Ericsson Telefon Ab L M | Understøtning til generering af komfortstøj |
US10957331B2 (en) | 2018-12-17 | 2021-03-23 | Microsoft Technology Licensing, Llc | Phase reconstruction in a speech decoder |
US10847172B2 (en) * | 2018-12-17 | 2020-11-24 | Microsoft Technology Licensing, Llc | Phase quantization in a speech encoder |
CN110289009B (zh) * | 2019-07-09 | 2021-06-15 | 广州视源电子科技股份有限公司 | 声音信号的处理方法、装置和交互智能设备 |
TWI715139B (zh) * | 2019-08-06 | 2021-01-01 | 原相科技股份有限公司 | 聲音播放裝置及其透過遮噪音訊遮蓋干擾音之方法 |
CN112906157A (zh) * | 2021-02-20 | 2021-06-04 | 南京航空航天大学 | 一种主轴轴承健康状态评估及剩余寿命预测方法及装置 |
Family Cites Families (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1194553A (zh) * | 1996-11-14 | 1998-09-30 | 诺基亚流动电话有限公司 | 在不连续传输期间的安慰噪声参数的发送 |
US5960389A (en) | 1996-11-15 | 1999-09-28 | Nokia Mobile Phones Limited | Methods for generating comfort noise during discontinuous transmission |
JP3464371B2 (ja) * | 1996-11-15 | 2003-11-10 | ノキア モービル フォーンズ リミテッド | 不連続伝送中に快適雑音を発生させる改善された方法 |
FR2761512A1 (fr) * | 1997-03-25 | 1998-10-02 | Philips Electronics Nv | Dispositif de generation de bruit de confort et codeur de parole incluant un tel dispositif |
DE19730130C2 (de) * | 1997-07-14 | 2002-02-28 | Fraunhofer Ges Forschung | Verfahren zum Codieren eines Audiosignals |
US6163608A (en) * | 1998-01-09 | 2000-12-19 | Ericsson Inc. | Methods and apparatus for providing comfort noise in communications systems |
US6782361B1 (en) * | 1999-06-18 | 2004-08-24 | Mcgill University | Method and apparatus for providing background acoustic noise during a discontinued/reduced rate transmission mode of a voice transmission system |
KR100348899B1 (ko) * | 2000-09-19 | 2002-08-14 | 한국전자통신연구원 | 캡스트럼 분석을 이용한 하모닉 노이즈 음성 부호화기 및부호화 방법 |
US6947888B1 (en) | 2000-10-17 | 2005-09-20 | Qualcomm Incorporated | Method and apparatus for high performance low bit-rate coding of unvoiced speech |
US6631139B2 (en) * | 2001-01-31 | 2003-10-07 | Qualcomm Incorporated | Method and apparatus for interoperability between voice transmission systems during speech inactivity |
US6708147B2 (en) * | 2001-02-28 | 2004-03-16 | Telefonaktiebolaget Lm Ericsson(Publ) | Method and apparatus for providing comfort noise in communication system with discontinuous transmission |
US20030093270A1 (en) * | 2001-11-13 | 2003-05-15 | Domer Steven M. | Comfort noise including recorded noise |
US8767974B1 (en) * | 2005-06-15 | 2014-07-01 | Hewlett-Packard Development Company, L.P. | System and method for generating comfort noise |
CN101193090B (zh) * | 2006-11-27 | 2011-12-28 | 华为技术有限公司 | 信号处理方法及其装置 |
PL2118889T3 (pl) * | 2007-03-05 | 2013-03-29 | Ericsson Telefon Ab L M | Sposób i sterownik do wygładzania stacjonarnego szumu tła |
CN101303855B (zh) * | 2007-05-11 | 2011-06-22 | 华为技术有限公司 | 一种舒适噪声参数产生方法和装置 |
CN102760441B (zh) * | 2007-06-05 | 2014-03-12 | 华为技术有限公司 | 一种背景噪声编码/解码装置、方法和通信设备 |
CN101335003B (zh) * | 2007-09-28 | 2010-07-07 | 华为技术有限公司 | 噪声生成装置、及方法 |
CN101335000B (zh) * | 2008-03-26 | 2010-04-21 | 华为技术有限公司 | 编码的方法及装置 |
CN101651752B (zh) * | 2008-03-26 | 2012-11-21 | 华为技术有限公司 | 解码的方法及装置 |
GB2466675B (en) * | 2009-01-06 | 2013-03-06 | Skype | Speech coding |
CN102136271B (zh) * | 2011-02-09 | 2012-07-04 | 华为技术有限公司 | 舒适噪声生成器、方法及回声抵消装置 |
PT2676267T (pt) | 2011-02-14 | 2017-09-26 | Fraunhofer Ges Forschung | Codificação e descodificação de posições de pulso de faixas de um sinal de áudio |
KR101624019B1 (ko) * | 2011-02-14 | 2016-06-07 | 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. | 오디오 코덱에서 잡음 생성 |
WO2013062201A1 (ko) | 2011-10-24 | 2013-05-02 | 엘지전자 주식회사 | 음성 신호의 대역 선택적 양자화 방법 및 장치 |
CN103093756B (zh) * | 2011-11-01 | 2015-08-12 | 联芯科技有限公司 | 舒适噪声生成方法及舒适噪声生成器 |
CN102664003B (zh) * | 2012-04-24 | 2013-12-04 | 南京邮电大学 | 基于谐波加噪声模型的残差激励信号合成及语音转换方法 |
CN103680509B (zh) * | 2013-12-16 | 2016-04-06 | 重庆邮电大学 | 一种语音信号非连续传输及背景噪声生成方法 |
GB2532041B (en) * | 2014-11-06 | 2019-05-29 | Imagination Tech Ltd | Comfort noise generation |
-
2014
- 2014-04-08 CN CN201410137474.0A patent/CN104978970B/zh active Active
- 2014-10-09 WO PCT/CN2014/088169 patent/WO2015154397A1/zh active Application Filing
- 2014-10-09 KR KR1020167026295A patent/KR101868926B1/ko active IP Right Grant
- 2014-10-09 JP JP2017503044A patent/JP6368029B2/ja active Active
- 2014-10-09 EP EP19192008.1A patent/EP3671737A1/en active Pending
- 2014-10-09 KR KR1020187016493A patent/KR102132798B1/ko active IP Right Grant
- 2014-10-09 EP EP14888957.9A patent/EP3131094B1/en active Active
- 2014-10-09 KR KR1020197015048A patent/KR102217709B1/ko active IP Right Grant
- 2014-10-09 ES ES14888957T patent/ES2798310T3/es active Active
-
2016
- 2016-09-29 US US15/280,427 patent/US9728195B2/en active Active
-
2017
- 2017-07-27 US US15/662,043 patent/US10134406B2/en active Active
-
2018
- 2018-07-05 JP JP2018128182A patent/JP6636574B2/ja active Active
- 2018-10-23 US US16/168,252 patent/US10734003B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018165834A (ja) | 2018-10-25 |
US9728195B2 (en) | 2017-08-08 |
EP3131094A4 (en) | 2017-05-10 |
US20190057704A1 (en) | 2019-02-21 |
KR20160125481A (ko) | 2016-10-31 |
JP2017510859A (ja) | 2017-04-13 |
EP3131094B1 (en) | 2020-04-22 |
KR102217709B1 (ko) | 2021-02-18 |
US20170323648A1 (en) | 2017-11-09 |
WO2015154397A1 (zh) | 2015-10-15 |
EP3131094A1 (en) | 2017-02-15 |
US10134406B2 (en) | 2018-11-20 |
KR102132798B1 (ko) | 2020-07-10 |
EP3671737A1 (en) | 2020-06-24 |
US10734003B2 (en) | 2020-08-04 |
JP6636574B2 (ja) | 2020-01-29 |
ES2798310T3 (es) | 2020-12-10 |
KR20190060887A (ko) | 2019-06-03 |
KR101868926B1 (ko) | 2018-06-19 |
CN104978970B (zh) | 2019-02-12 |
KR20180066283A (ko) | 2018-06-18 |
US20170018277A1 (en) | 2017-01-19 |
CN104978970A (zh) | 2015-10-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6636574B2 (ja) | 雑音信号処理方法、雑音信号生成方法、符号化器、および、復号化器 | |
EP1216474B1 (en) | Efficient spectral envelope coding using variable time/frequency resolution | |
RU2752127C2 (ru) | Усовершенствованный квантователь | |
RU2740359C2 (ru) | Звуковые кодирующее устройство и декодирующее устройство | |
CN104916290B (zh) | 语音解码装置、语音编码装置、语音解码方法以及语音编码方法 | |
JP2014016625A (ja) | オーディオコーディングシステム、オーディオデコーダ、オーディオコーディング方法及びオーディオデコーディング方法 | |
JP2016535873A (ja) | 適合的帯域幅拡張およびそのための装置 | |
EP3776548A1 (en) | Truncateable predictive coding | |
EP2697795B1 (en) | Adaptive gain-shape rate sharing | |
KR102052144B1 (ko) | 음성 신호의 대역 선택적 양자화 방법 및 장치 | |
KR101387808B1 (ko) | 가변 비트율을 갖는 잔차 신호 부호화를 이용한 고품질 다객체 오디오 부호화 및 복호화 장치 | |
JP7258936B2 (ja) | 快適雑音生成モード選択のための装置および方法 | |
Geiser et al. | Binaural wideband telephony using steganography | |
Annadana et al. | A new low bit rate speech coding scheme for mixed content | |
Nanjundaswamy | Advances in audio coding and networking by effective exploitation of long term correlations |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161004 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161004 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170925 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171003 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171218 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180605 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180705 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6368029 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |