TWI666632B - Voice coding device and voice coding method - Google Patents

Voice coding device and voice coding method Download PDF

Info

Publication number
TWI666632B
TWI666632B TW106133758A TW106133758A TWI666632B TW I666632 B TWI666632 B TW I666632B TW 106133758 A TW106133758 A TW 106133758A TW 106133758 A TW106133758 A TW 106133758A TW I666632 B TWI666632 B TW I666632B
Authority
TW
Taiwan
Prior art keywords
time envelope
decoding
encoding
preamble
signal
Prior art date
Application number
TW106133758A
Other languages
English (en)
Other versions
TW201810251A (zh
Inventor
菊入圭
山口貴史
Original Assignee
日商Ntt都科摩股份有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日商Ntt都科摩股份有限公司 filed Critical 日商Ntt都科摩股份有限公司
Publication of TW201810251A publication Critical patent/TW201810251A/zh
Application granted granted Critical
Publication of TWI666632B publication Critical patent/TWI666632B/zh

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0204Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using subband decomposition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/028Noise substitution, i.e. substituting non-tonal spectral components by noisy source
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/032Quantisation or dequantisation of spectral components
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/12Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/167Audio streaming, i.e. formatting and decoding of an encoded audio signal representation into a data stream for transmission or storage purposes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/26Pre-filtering or post-filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/038Speech enhancement, e.g. noise reduction or echo cancellation using band spreading techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/24Variable rate codecs, e.g. for generating different qualities using a scalable representation such as hierarchical encoding or layered encoding

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Quality & Reliability (AREA)
  • Mathematical Physics (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Stereo-Broadcasting Methods (AREA)
  • Reduction Or Emphasis Of Bandwidth Of Signals (AREA)

Abstract

目的在於,減輕以少量位元數所被編碼而成的頻帶之成分在時間領域上的失真,改善品質。
將已被編碼之聲音訊號予以解碼而輸出聲音訊號的聲音解碼裝置(10),其中,解碼部(10a)係將含有已被編碼之聲音訊號的編碼序列予以解碼而獲得解碼訊號。選擇性時間包絡整形部(10b),係基於與編碼序列之解碼有關的解碼關連資訊,而將解碼訊號的頻帶之時間包絡予以整形。

Description

聲音編碼裝置及聲音編碼方法
本發明係有關於聲音解碼裝置、聲音編碼裝置、聲音解碼方法、聲音編碼方法、聲音解碼程式、及聲音編碼程式。
將聲音訊號、音響訊號的資料量壓縮成數十分之一的聲音編碼技術,是在訊號的傳輸、積存上極為重要的技術。作為被廣泛利用的聲音編碼技術之例子可舉出,於頻率領域中將訊號予以編碼的轉換編碼方式。
在轉換編碼中,為了以較低位元速率獲得較高品質,隨著輸入訊號而每一頻帶地分配編碼所需之位元的適應位元分配,係被廣泛採用。使編碼所致之失真最小化的位元分配方法,係為相應於各頻帶之訊號功率的分配,對其加入人類之聽覺之形式的位元分配也有被採行。
另一方面,也有用來改善分配位元數非常少之頻帶之品質的技術。在專利文獻1中係揭露,將所被分配之位元數少於所定閾值的頻帶的轉換係數,以其他頻帶的轉換係數取近似的手法。又,在專利文獻2中係揭露, 對於在頻帶內且為了縮小功率而被量化成零的成分,生成擬似雜音訊號的手法、複製其他頻帶之未被量化成零的成分之訊號的手法。
甚至,聲音訊號、音響訊號一般而言功率不是較偏於高頻帶而是較偏於低頻帶,考慮對主觀品質也會造成很大的影響,輸入訊號之高頻帶係使用已編碼的低頻帶來加以生成的頻帶擴充技術,也被廣泛採用。頻帶擴充技術,係可以少量位元數生成高頻帶,因此可以低位元速率獲得高品質。在專利文獻3中係揭露,將低頻帶之頻譜複寫至高頻帶後,藉由編碼器根據所被送訊之高頻帶頻譜之性質的相關資訊來調整頻譜形狀而生成高頻帶的手法。
〔先前技術文獻〕 〔專利文獻〕
[專利文獻1]日本特開平9-153811號公報
[專利文獻2]美國專利第7447631號說明書
[專利文獻3]日本專利第5203077號
在上記技術中,是以使得以少量位元數而被編碼的頻帶之成分,係在頻率領域上相似於原音之該當成分,而被生成。另一方面,在時間領域上則會導致失真明顯,有時候品質會劣化。
有鑑於上記問題,本發明目的在於提供一種,減輕以少量位元數所被編碼而成的頻帶之成分在時間領域上的失真,可改善品質的聲音解碼裝置、聲音編碼裝置、聲音解碼方法、聲音編碼方法、聲音解碼程式、及聲音編碼程式。
為了解決上記課題,本發明之一側面所述之聲音解碼裝置,係將已被編碼之聲音訊號予以解碼而輸出聲音訊號的聲音解碼裝置,其係具備:解碼部,係將含有前記已被編碼之聲音訊號的編碼序列予以解碼而獲得解碼訊號;和選擇性時間包絡整形部,係基於與前記編碼序列之解碼有關的解碼關連資訊,而將解碼訊號的頻帶之時間包絡予以整形。訊號之時間包絡係表示,訊號之能量或功率(及與這些等價之參數)相對於時間方向的變動。藉由本構成,可將以少量位元數所被編碼而成的頻帶之解碼訊號之時間包絡,整形成所望之時間包絡,可改善品質。
又,本發明之另一側面所述之聲音解碼裝置,係將已被編碼之聲音訊號予以解碼而輸出聲音訊號的聲音解碼裝置,其係具備:逆多工化部,係將含有前記已被編碼之聲音訊號的編碼序列和與該當聲音訊號之時間包絡有關的時間包絡資訊,予以分離;和解碼部,係將前記編碼序列予以解碼而獲得解碼訊號;和選擇性時間包絡整形部,係基於前記時間包絡資訊和與前記編碼序列之解碼 有關的解碼關連資訊的其中至少一者,而將解碼訊號的頻帶之時間包絡予以整形。藉由本構成,在生成並輸出前記聲音訊號之編碼序列的聲音編碼裝置中,基於參照被輸入至該當聲音編碼裝置之聲音訊號而被生成的時間包絡資訊,將以少量位元數所被編碼而成之頻帶的解碼訊號的時間包絡,整形成所望之時間包絡,可改善品質。
解碼部係亦可具備:解碼‧逆量化部,係將前記編碼序列予以解碼或/及逆量化而獲得頻率領域之解碼訊號;和解碼關連資訊輸出部,係將前記解碼‧逆量化部中的解碼或/及逆量化之過程中所得的資訊、及解析前記編碼序列所得的資訊之其中至少一者,當作解碼關連資訊而予以輸出;和時間頻率逆轉換部,係將前記頻率領域之解碼訊號予以轉換成時間領域之訊號並加以輸出。藉由本構成,可將以少量位元數所被編碼而成的頻帶之解碼訊號之時間包絡,整形成所望之時間包絡,可改善品質。
又,解碼部係亦可具備:編碼序列解析部,係將前記編碼序列分離成第1編碼序列和第2編碼序列;和第1解碼部,將前記第1編碼序列執行解碼或/及逆量化而獲得第1解碼訊號且獲得第1解碼關連資訊來作為前記解碼關連資訊;和第2解碼部,係使用前記第2編碼序列與第1解碼訊號之其中至少一者而獲得並輸出第2解碼訊號,並輸出第2解碼關連資訊來作為前記解碼關連資訊。藉由本構成,被複數解碼部進行解碼而生成解碼訊號之際,也可將以少量位元數所被編碼而成之頻帶的解碼訊 號的時間包絡,整形成所望之時間包絡,可改善品質。
第1解碼部係亦可具備:第1解碼‧逆量化部,係將前記第1編碼序列予以解碼或/及逆量化而獲得第1解碼訊號;和第1解碼關連資訊輸出部,係將前記第1解碼‧逆量化部中的解碼或/及逆量化之過程中所得的資訊、及解析前記第1編碼序列所得的資訊之其中至少一者,當作第1解碼關連資訊而予以輸出。藉由本構成,被複數解碼部進行解碼而生成解碼訊號之際,至少基於與第1解碼部相關連的資訊,可將以少量位元數所被編碼而成之頻帶的解碼訊號的時間包絡,整形成所望之時間包絡,可改善品質。
第2解碼部係亦可具備:第2解碼‧逆量化部,係使用前記第2編碼序列和前記第1解碼訊號之其中至少1者而獲得第2解碼訊號;和第2解碼關連資訊輸出部,係將前記第2解碼‧逆量化部中的獲得第2解碼訊號之過程中所得的資訊、及解析前記第2編碼序列所得的資訊之其中至少一者,當作第2解碼關連資訊而予以輸出。藉由本構成,被複數解碼部進行解碼而生成解碼訊號之際,至少基於與第2解碼部相關連的資訊,可將以少量位元數所被編碼而成之頻帶的解碼訊號的時間包絡,整形成所望之時間包絡,可改善品質。
選擇性時間包絡整形部係亦可具備:時間‧頻率轉換部,係將前記解碼訊號,轉換成頻率領域之訊號;和頻率選擇性時間包絡整形部,係基於前記解碼關連 資訊,而將前記頻率領域之解碼訊號的各頻帶之時間包絡予以整形;和時間‧頻率逆轉換部,係將前記各頻帶之時間包絡已被整形的頻率領域之解碼訊號,轉換成時間領域之訊號。藉由本構成,於頻率領域中可將以少量位元數所被編碼而成的頻帶之解碼訊號之時間包絡,整形成所望之時間包絡,可改善品質。
解碼關連資訊係亦可為與各頻帶之編碼位元數有關連的資訊。藉由本構成,可隨著各頻帶的編碼位元數,將該當頻帶之解碼訊號之時間包絡,整形成所望之時間包絡,可改善品質。
解碼關連資訊係亦可為與各頻帶之量化步驟有關連的資訊。藉由本構成,可隨著各頻帶的量化步驟,將該當頻帶之解碼訊號之時間包絡,整形成所望之時間包絡,可改善品質。
解碼關連資訊係亦可為與各頻帶之編碼方式有關連的資訊。藉由本構成,可隨著各頻帶的編碼方式,將該當頻帶之解碼訊號之時間包絡,整形成所望之時間包絡,可改善品質。
解碼關連資訊係亦可為與各頻帶中所被注入的雜音成分有關連的資訊。藉由本構成,可隨著各頻帶中所被注入的雜音成分,將該當頻帶之解碼訊號之時間包絡,整形成所望之時間包絡,可改善品質。
頻率選擇性時間包絡整形部係亦可將進行時間包絡整形之頻帶所對應的前記解碼訊號,使用濾波器而 整形成所望之時間包絡,其中,該濾波器係使用到:將該當解碼訊號於頻率領域中進行線性預測分析所得到之線性預測係數。藉由本構成,可使用頻率領域中的解碼訊號,將以少量位元數所被編碼而成的頻帶之解碼訊號之時間包絡,整形成所望之時間包絡,可改善品質。
選擇性時間包絡整形部係亦可將不進行時間包絡整形之頻帶所對應之前記解碼訊號,於頻率領域中置換成其他訊號後,使用濾波器,其中,該濾波器係使用到:將進行時間包絡整形之頻率及不進行時間包絡整形之頻率所對應之解碼訊號,於頻率領域中進行線性預測分析所得到之線性預測係數,而在頻率領域中,將前記進行時間包絡整形之頻率及不進行時間包絡整形之頻率所對應之解碼訊號,進行濾波處理,藉此以整形成所望之時間包絡,而在時間包絡整形後,前記不進行時間包絡整形之頻帶所對應之解碼訊號,係變回置換成其他訊號前的原本訊號。藉由本構成,可以較少的演算量,使用頻率領域中的解碼訊號,將以少量位元數所被編碼而成的頻帶之解碼訊號之時間包絡,整形成所望之時間包絡,可改善品質。
又,本發明之另一側面所述之聲音解碼裝置,係屬於將已被編碼之聲音訊號予以解碼而輸出聲音訊號的聲音解碼裝置,其係具備:解碼部,係將含有前記已被編碼之聲音訊號的編碼序列予以解碼而獲得解碼訊號;和時間包絡整形部,係使用濾波器其係使用到將前記解碼訊號於頻率領域中進行線性預測分析所得到之線性預測係 數,於頻率領域中,將前記解碼訊號進行濾波處理,藉此以整形成所望之時間包絡。藉由本構成,可使用頻率領域中的解碼訊號,將該當以少量位元數所被編碼而成的解碼訊號之時間包絡,整形成所望之時間包絡,可改善品質。
又,本發明之另一側面所述之聲音編碼裝置,係屬於將所被輸入之聲音訊號進行編碼而輸出編碼序列的聲音編碼裝置,其係具備:編碼部,係將前記聲音訊號進行編碼而獲得含有前記聲音訊號之編碼序列;和時間包絡資訊編碼部,係將與前記聲音訊號之時間包絡有關的資訊,予以編碼;和多工化部,係將前記編碼部所得的編碼序列、和與前記時間包絡資訊編碼部所得之時間包絡有關之資訊的編碼序列,予以多工化。
又,本發明之一側面所述之態樣,係可如以下般地視為聲音解碼方法、聲音編碼方法、聲音解碼程式、及聲音編碼程式。
亦即,本發明之一側面所述之聲音解碼方法,係將已被編碼之聲音訊號予以解碼而輸出聲音訊號的聲音解碼裝置的聲音解碼方法,其係具備:解碼步驟,係將含有前記已被編碼之聲音訊號的編碼序列予以解碼而獲得解碼訊號;和選擇性時間包絡整形步驟,係基於與前記編碼序列之解碼有關的解碼關連資訊,而將解碼訊號的頻帶之時間包絡予以整形。
又,本發明之一側面所述之聲音解碼方法,係將已被編碼之聲音訊號予以解碼而輸出聲音訊號的聲音 解碼裝置的聲音解碼方法,其係具備:逆多工化步驟,係將含有前記已被編碼之聲音訊號的編碼序列和與該當聲音訊號之時間包絡有關的時間包絡資訊,予以分離;和解碼步驟,係將前記編碼序列予以解碼而獲得解碼訊號;和選擇性時間包絡整形步驟,係基於前記時間包絡資訊和與前記編碼序列之解碼有關的解碼關連資訊的其中至少一者,而將解碼訊號的頻帶之時間包絡予以整形。
又,本發明之一側面所述之聲音解碼程式,係令電腦執行解碼步驟,係將含有前記已被編碼之聲音訊號的編碼序列予以解碼而獲得解碼訊號;和選擇性時間包絡整形步驟,係基於與前記編碼序列之解碼有關的解碼關連資訊,而將解碼訊號的頻帶之時間包絡予以整形。
又,本發明之一側面所述之聲音解碼方法,係將已被編碼之聲音訊號予以解碼而輸出聲音訊號的聲音解碼裝置的聲音解碼方法,其係令電腦執行:逆多工化步驟,係將含有前記已被編碼之聲音訊號的編碼序列和與該當聲音訊號之時間包絡有關的時間包絡資訊,予以分離;和解碼步驟,係將前記編碼序列予以解碼而獲得解碼訊號;和選擇性時間包絡整形步驟,係基於前記時間包絡資訊和與前記編碼序列之解碼有關的解碼關連資訊的其中至少一者,而將解碼訊號的頻帶之時間包絡予以整形。
又,本發明之一側面所述之聲音解碼方法,係將已被編碼之聲音訊號予以解碼而輸出聲音訊號的聲音解碼裝置的聲音解碼方法,其係具備:解碼步驟,係將含 有前記已被編碼之聲音訊號的編碼序列予以解碼而獲得解碼訊號;和時間包絡整形步驟,係使用濾波器其係使用到將前記解碼訊號於頻率領域中進行線性預測分析所得到之線性預測係數,於頻率領域中,將前記解碼訊號進行濾波處理,藉此以整形成所望之時間包絡。
又,本發明之一側面所述之聲音編碼方法,係屬於將所被輸入之聲音訊號進行編碼而輸出編碼序列的聲音編碼裝置的聲音編碼方法,其係具備:編碼步驟,係將前記聲音訊號進行編碼而獲得含有前記聲音訊號之編碼序列;和時間包絡資訊編碼步驟,係將與前記聲音訊號之時間包絡有關的資訊,予以編碼;和多工化步驟,係將前記編碼步驟所得的編碼序列、和與前記時間包絡資訊編碼步驟所得之時間包絡有關之資訊的編碼序列,予以多工化。
又,本發明之一側面所述之聲音解碼程式,係令電腦執行解碼步驟,係將含有已被編碼之聲音訊號的編碼序列予以解碼而獲得解碼訊號;和時間包絡整形步驟,係使用濾波器其係使用到將前記解碼訊號於頻率領域中進行線性預測分析所得到之線性預測係數,於頻率領域中,將前記解碼訊號進行濾波處理,藉此以整形成所望之時間包絡。
又,本發明之一側面所述之聲音編碼程式,係令電腦執行:編碼步驟,係將聲音訊號進行編碼而獲得含有前記聲音訊號之編碼序列;和時間包絡資訊編碼步 驟,係將與前記聲音訊號之時間包絡有關的資訊,予以編碼;和多工化步驟,係將前記編碼步驟所得的編碼序列、和與前記時間包絡資訊編碼步驟所得之時間包絡有關之資訊的編碼序列,予以多工化。
若依據本發明,則可將以少量位元數所被編碼而成的頻帶之解碼訊號之時間包絡,整形成所望之時間包絡,可改善品質。
10aF-1‧‧‧逆量化部
10‧‧‧聲音解碼裝置
10a‧‧‧解碼部
10aA‧‧‧解碼/逆量化部
10aB‧‧‧解碼關連資訊輸出部
10aC‧‧‧時間頻率逆轉換部
10aD‧‧‧編碼序列解析部
10aE‧‧‧第1解碼部
10aE-a‧‧‧第1解碼/逆量化部
10aE-b‧‧‧第1解碼關連資訊輸出部
10aF‧‧‧第2解碼部
10aF-a‧‧‧第2解碼/逆量化部
10aF-b‧‧‧第2解碼關連資訊輸出部
10aF-c‧‧‧解碼訊號合成部
10b‧‧‧選擇性時間包絡整形部
10bA‧‧‧時間頻率轉換部
10bB‧‧‧頻率選擇部
10bC‧‧‧頻率選擇性時間包絡整形部
10bD‧‧‧時間頻率逆轉換部
11‧‧‧聲音解碼裝置
11a‧‧‧逆多工化部
11b‧‧‧選擇性時間包絡整形部
12‧‧‧聲音解碼裝置
12a‧‧‧時間包絡整形部
13‧‧‧聲音解碼裝置
13a‧‧‧時間包絡整形部
20‧‧‧聲音編碼裝置
21‧‧‧聲音編碼裝置
21a‧‧‧編碼部
21b‧‧‧時間包絡資訊編碼部
21c‧‧‧多工化部
40‧‧‧記錄媒體
41‧‧‧程式儲存領域
50‧‧‧聲音解碼程式
50a‧‧‧解碼模組
50b‧‧‧選擇性時間包絡整形模組
60‧‧‧聲音編碼程式
60a‧‧‧編碼模組
60b‧‧‧時間包絡資訊編碼模組
60c‧‧‧多工化模組
100‧‧‧CPU
101‧‧‧RAM
102‧‧‧ROM
103‧‧‧輸出入裝置
104‧‧‧通訊模組
105‧‧‧輔助記憶裝置
[圖1]第1實施形態所述之聲音解碼裝置10之構成的圖示。
[圖2]第1實施形態所述之聲音解碼裝置10之動作的流程圖。
[圖3]第1實施形態所述之聲音解碼裝置10的解碼部10a的第1例之構成的圖示。
[圖4]第1實施形態所述之聲音解碼裝置10的解碼部10a的第1例之動作的流程圖。
[圖5]第1實施形態所述之聲音解碼裝置10的解碼部10a的第2例之構成的圖示。
[圖6]第1實施形態所述之聲音解碼裝置10的解碼部10a的第2例之動作的流程圖。
[圖7]第1實施形態所述之聲音解碼裝置10的解碼部10a的第2例的第1解碼部之構成的圖示。
[圖8]第1實施形態所述之聲音解碼裝置10的解碼部10a的第2例的第1解碼部之動作的流程圖。
[圖9]第1實施形態所述之聲音解碼裝置10的解碼部10a的第2例的第2解碼部之構成的圖示。
[圖10]第1實施形態所述之聲音解碼裝置10的解碼部10a的第2例的第2解碼部之動作的流程圖。
[圖11]第1實施形態所述之聲音解碼裝置10的選擇性時間包絡整形部10b的第1例之構成的圖示。
[圖12]第1實施形態所述之聲音解碼裝置10的選擇性時間包絡整形部10b的第1例之動作的流程圖。
[圖13]時間包絡整形處理的說明圖。
[圖14]第2實施形態所述之聲音解碼裝置11之構成的圖示。
[圖15]第2實施形態所述之聲音解碼裝置11之動作的流程圖。
[圖16]第2實施形態所述之聲音編碼裝置21之構成的圖示。
[圖17]第2實施形態所述之聲音編碼裝置21之動作的流程圖。
[圖18]第3實施形態所述之聲音解碼裝置12之構成的圖示。
[圖19]第3實施形態所述之聲音解碼裝置12之動作 的流程圖。
[圖20]第4實施形態所述之聲音解碼裝置13之構成的圖示。
[圖21]第4實施形態所述之聲音解碼裝置13之動作的流程圖。
[圖22]作為本實施形態之聲音解碼裝置或聲音編碼裝置而發揮機能的電腦之硬體構成的圖示。
[圖23]用來使其發揮機能成為聲音解碼裝置所需之程式構成的圖示。
[圖24]用來使其發揮機能成為聲音編碼裝置所需之程式構成的圖示。
參照添附圖面,說明本發明的實施形態。在可能的情況下,同一部分係標示同一符號,並省略重複說明。
〔第1實施形態〕
圖1係第1實施形態所述之聲音解碼裝置10之構成的圖示。聲音解碼裝置10的通訊裝置,係接收聲音訊號所編碼而成的編碼序列,然後,將已解碼的聲音訊號輸出至外部。聲音解碼裝置10,係如圖1所示,在機能上係具備解碼部10a、選擇性時間包絡整形部10b。
圖2係第1實施形態所述之聲音解碼裝置10 的動作的流程圖。
解碼部10a,係將編碼序列予以解碼,生成解碼訊號(步驟S10-1)。
選擇性時間包絡整形部10b,係從前記解碼部收取編碼序列解碼際所得之資訊亦即解碼關連資訊和解碼訊號,將解碼訊號之成分之時間包絡予以選擇性地整形成所望之時間包絡(步驟S10-2)。此外,在以後的記載中,假設訊號之時間包絡係表示,訊號之能量或功率(及與這些等價之參數)相對於時間方向的變動。
圖3係第1實施形態所述之聲音解碼裝置10的解碼部10a的第1例之構成的圖示。解碼部10a,係如圖3所示,機能上係具備:解碼/逆量化部10aA、解碼關連資訊輸出部10aB、時間頻率逆轉換部10aC。
圖4係第1實施形態所述之聲音解碼裝置10的解碼部10a的第1例之動作的流程圖。
解碼/逆量化部10aA,係隨應於編碼序列之編碼方式,而對編碼序列實施解碼、逆量化之其中至少1者而生成頻率領域解碼訊號(步驟S10-1-1)。
解碼關連資訊輸出部10aB,係接受前記解碼/逆量化部10aA在生成解碼訊號之際所得之解碼關連資訊,將解碼關連資訊予以輸出(步驟S10-1-2)。甚至,亦可接受編碼序列並解析而獲得解碼關連資訊,並輸出解碼關連資訊。作為解碼關連資訊係為例如,可以是各頻帶的編碼位元數,也可是與其同等的資訊(例如,各頻帶的 每1頻率成分之平均編碼位元數)。甚至,亦可為各頻率成分的編碼位元數。甚至,亦可為各頻帶的量化步驟大小。甚至,亦可為頻率成分的量化值。此處,所謂頻率成分,係為例如所定之時間頻率轉換的轉換係數。甚至,亦可為各頻帶的能量或功率。甚至,亦可為用來提示所定之頻帶(亦可為頻率成分)的資訊。甚至,例如,在解碼訊號生成之際含有關於其他時間包絡整形之處理的情況下,亦可為關於該當時間包絡整形處理的資訊,例如,是否進行該當時間包絡整形處理的資訊、關於被該當時間包絡整形處理所整形之時間包絡的資訊、該當時間包絡整形處理的時間包絡整形之強度之資訊的其中至少一者。前記例子的其中至少1者,係被當成解碼關連資訊而輸出。
時間頻率逆轉換部10aC,係將前記頻率領域解碼訊號藉由所定之時間頻率逆轉換而轉換成時間領域之解碼訊號並輸出(步驟S10-1-3)。但是,亦可不對頻率領域解碼訊號實施時間頻率逆轉換就輸出。例如,選擇性時間包絡整形部10b是要求頻率領域之訊號來作為輸入訊號時,就符合上述情況。
圖5係第1實施形態所述之聲音解碼裝置10的解碼部10a的第2例之構成的圖示。解碼部10a,係如圖5所示,機能上係具備:編碼序列解析部10aD、第1解碼部10aE、第2解碼部10aF。
圖6係第1實施形態所述之聲音解碼裝置10的解碼部10a的第2例之動作的流程圖。
編碼序列解析部10aD,係將編碼序列予以解析,分離成第1編碼序列和第2編碼序列(步驟S10-1-4)。
第1解碼部10aE,係將第1編碼序列以第1解碼方式進行解碼而生成第1解碼訊號,將關於該當解碼的資訊亦即第1解碼關連資訊,予以輸出(步驟S10-1-5)。
第2解碼部10aF,係使用前記第1解碼訊號,將第2編碼序列以第2解碼方式加以解碼而生成解碼訊號,將關於該當解碼的資訊亦即第2解碼關連資訊予以輸出(步驟S10-1-6)。於本例中,該第1解碼關連資訊及第2解碼關連資訊所合成者,係為解碼關連資訊。
圖7係第1實施形態所述之聲音解碼裝置10的解碼部10a的第2例的第1解碼部之構成的圖示。第1解碼部10aE,係如圖7所示在機能上係具備:第1解碼/逆量化部10aE-a、第1解碼關連資訊輸出部10aE-b。
圖8係第1實施形態所述之聲音解碼裝置10的解碼部10a的第2例的第1解碼部之動作的流程圖。
第1解碼/逆量化部10aE-a,係隨應於第1編碼序列的編碼方式,而對第1編碼序列實施解碼、逆量化之其中至少1者而生成第1解碼訊號並輸出(步驟S10-1-5-1)。
第1解碼關連資訊輸出部10aE-b,係接受前記第1解碼/逆量化部10aE-a中第1解碼訊號生成之際所 得之第1解碼關連資訊,輸出第1解碼關連資訊(步驟S10-1-5-2)。甚至,亦可接受第1編碼序列並解析而獲得第1解碼關連資訊,並輸出第1解碼關連資訊。作為第1解碼關連資訊之例子,係亦可和前記解碼關連資訊輸出部10aB所輸出的解碼關連資訊之例子相同。甚至,亦可將第1解碼部之解碼方式係為第1解碼方式這件事情,當作第1解碼關連資訊。甚至,亦可將表示第1解碼訊號中所含之頻帶(亦可為頻率成分)(第1編碼序列中所被編碼的聲音訊號之頻帶(亦可為頻率成分))的資訊,當作第1解碼關連資訊。
圖9係第1實施形態所述之聲音解碼裝置10的解碼部10a的第2例的第2解碼部之構成的圖示。第2解碼部10aF,係如圖9所示,在機能上係具備:第2解碼/逆量化部10aF-a、第2解碼關連資訊輸出部10aF-b、解碼訊號合成部10aF-c。
圖10係第1實施形態所述之聲音解碼裝置10的解碼部10a的第2例的第2解碼部之動作的流程圖。
第2解碼/逆量化部10aF-1,係隨應於第2編碼序列的編碼方式,而對第2編碼序列實施解碼、逆量化之其中至少1者而生成第2解碼訊號並輸出(步驟s10-1-6-1)。在第2解碼訊號的生成之際,亦可使用第1解碼訊號。第2解碼部之解碼方式(第2解碼方式),係亦可為頻帶擴充方式,也可為使用到第1解碼訊號的頻帶擴充方式。甚至,亦可如專利文獻1(日本特開平9-153811號 公報)所示,將第1編碼方式中所被分配之位元數是不少於所定閾值的頻帶之轉換係數,作為第2編碼方式而以其他頻帶之轉換係數來取近似的編碼方式所對應的解碼方式。又甚至,亦可像是專利文獻2(美國專利第7447631)所示,對以第1編碼方式而被量化成零的頻率成分,以第2編碼方式生成擬似雜音訊號或複製其他頻率成分之訊號的編碼方式所對應的解碼方式。甚至亦可為,對該當頻率成分,以第2編碼方式使用其他頻率成分之訊號取近似之編碼方式所對應的解碼方式。又,以第1編碼方式而被量化成零的頻率成分,係亦可解釋成,未被第1編碼方式所編碼的頻率成分。這些情況下,亦可設計成,對應於第1編碼方式的解碼方式係為第1解碼部的解碼方式也就是第1解碼方式,對應於第2編碼方式的解碼方式係為第2解碼部的解碼方式也就是第2解碼方式。
第2解碼關連資訊輸出部10aF-b,係接受前記第2解碼/逆量化部10aF-a中第2解碼訊號生成之際所得之第2解碼關連資訊,輸出第2解碼關連資訊(步驟S10-1-6-2)。甚至,亦可接受第2編碼序列並解析而獲得第2解碼關連資訊,並輸出第2解碼關連資訊。作為第2解碼關連資訊之例子,係亦可和前記解碼關連資訊輸出部10aB所輸出的解碼關連資訊之例子相同。
甚至,亦可將表示第2解碼部之解碼方式係為第2解碼方式的資訊,當作第2解碼關連資訊。例如,亦可將表示第2解碼方式係為頻帶擴充方式的資訊,當作 第2解碼關連資訊。甚至例如,亦可將表示針對以頻帶擴充方式所生成之第2解碼訊號之各頻帶的頻帶擴充方式的資訊,當作第2解碼資訊。作為表示針對該當各頻帶的頻帶擴充方式的資訊係亦可為例如:從其他頻帶複製訊號、以其他頻帶之訊號將該當頻率之訊號取近似、生成擬似雜音訊號、附加正弦訊號等之資訊。甚至亦可為,例如,以其他頻帶之訊號將該當頻率之訊號取近似之際,係為關於近似方法的資訊。甚至,例如,以其他頻帶之訊號將該當頻率之訊號取近似之際使用到白色化的情況下,則亦可將關於白色化之強度的資訊,當作第2解碼資訊。甚至,例如,以其他頻帶之訊號將該當頻率之訊號取近似之際附加了擬似雜音訊號的情況下,則亦可將關於擬似雜音訊號之位準的資訊,當作第2解碼資訊。甚至,例如,若有生成擬似雜音訊號,則亦可將關於擬似雜音訊號之位準的資訊,當作第2解碼資訊。
甚至,例如,亦可將表示第2解碼方式係為,將第1編碼方式中所被分配之位元數是不少於所定閾值的頻帶之轉換係數,以其他頻帶之轉換係數取近似、及附加(亦可為置換)擬似雜音訊號之轉換係數之其中任一者或雙方之編碼方式所對應之解碼方式的資訊,當作第2解碼關連資訊。例如,亦可將關於該當頻帶的轉換係數之近似方法的資訊,當作第2解碼關連資訊。例如,作為近似方法是使用將其他頻帶的轉換係數予以白色化的方法時,則亦可將關於白色化之強度的資訊,當作第2解碼資 訊。例如,亦可將關於該當擬似雜音訊號之位準的資訊,當作第2解碼資訊。
甚至,例如,亦可將表示第2編碼方式係為,對以第1編碼方式而被量化成零(亦即未被第1編碼方式所編碼)的頻率成分,生成擬似雜音訊號或複製其他頻率成分之訊號的編碼方式這件事情的資訊,當作第2解碼關連資訊。例如,亦可將對各頻率成分表示是否為以第1編碼方式而被量化成零(亦即未被第1編碼方式所編碼)的頻率成分的資訊,當作第2解碼關連資訊。例如,亦可將表示對該當頻率成分是否生成擬似雜音訊號或複數其他頻率成分之訊號的資訊,當作第2解碼關連資訊。甚至,例如,對該當頻率成分複製其他頻率成分之訊號的情況下,亦可將關於複製方法的資訊,當作第2解碼關連資訊。作為關於複製方法的資訊係亦可為例如,複製來源之頻率。甚至亦可為例如,在複製之際是否對複製來源之頻率成分施加處理,甚至亦可為關於所施加之處理的資訊。甚至,例如,若對該當複製來源之頻率成分所施加的處理係為白色化,則亦可為關於白色化之強度的資訊。甚至,例如,若對該當複製來源之頻率成分所施加的處理係為擬似雜音訊號附加,則亦可為關於擬似雜音訊號之位準的資訊。
解碼訊號合成部10aF-c,係由第1解碼訊號和第2解碼訊號,將解碼訊號予以合成並輸出(步驟S10-1-6-3)。若第2編碼方式是頻帶擴充方式,則一般而 言,第1解碼訊號是低頻帶之訊號,第2解碼訊號是高頻帶之訊號,解碼訊號係帶有這雙方之頻帶。
圖11係第1實施形態所述之聲音解碼裝置10的選擇性時間包絡整形部10b的第1例之構成的圖示。選擇性時間包絡整形部10b,係如圖11所示,在機能上係具備:時間頻率轉換部10bA、頻率選擇部10bB、頻率選擇性時間包絡整形部10bC、時間頻率逆轉換部10bD。
圖12係第1實施形態所述之聲音解碼裝置10的選擇性時間包絡整形部10b的第1例之動作的流程圖。
時間頻率轉換部10bA,係將時間領域之解碼訊號,藉由所定之時間頻率轉換而轉換成頻率領域之解碼訊號(步驟S10-2-1)。但是,若解碼訊號是頻率領域之訊號,則可省略該當時間頻率轉換部10bA、及該當處理步驟S10-2-1。
頻率選擇部10bB,係使用頻率領域之解碼訊號及解碼關連資訊的其中至少一者,於頻率領域之解碼訊號中選擇要實施時間包絡整形處理的頻帶(步驟S10-2-2)。前記頻率選擇處理,係亦可選擇要實施時間包絡整形處理的頻率成分。該當所被選擇的頻帶(亦可為頻率成分),係可為解碼訊號之其中一部分的頻帶(亦可為頻率成分),或亦可為解碼訊號的所有頻帶(亦可為頻率成分)。
例如,若解碼關連資訊是各頻帶的編碼位元數,則將該當編碼位元數小於所定閾值的頻帶,選擇成為 要實施時間包絡整形處理的頻帶。若為等同於前記各頻帶之編碼位元數的資訊時也是同樣地,藉由與所定閾值之比較,就可選擇要實施時間包絡整形處理的頻帶,這件事情是很明顯的。甚至例如,若解碼關連資訊是各頻率成分的編碼位元數,則亦可將該當編碼位元數小於所定閾值的頻率成分,選擇成為要實施時間包絡整形處理的頻率成分。例如,亦可將轉換係數未被編碼的頻率成分,選擇成為要實施時間包絡整形處理的頻率成分。甚至例如,若解碼關連資訊是各頻帶的量化步驟大小,則亦可將該當量化步驟大小是大於所定閾值的頻帶,選擇成為要實施時間包絡整形處理的頻帶。甚至例如,若解碼關連資訊是頻率成分之量化值,則亦可將該當量化值與所定閾值進行比較,選擇要實施時間包絡整形處理的頻帶。例如,亦可將量化轉換係數是小於所定閾值的成分,選擇成為要實施時間包絡整形處理的頻率成分。甚至例如,若解碼關連資訊是各頻帶的能量或功率,則亦可將該當能量或功率與所定閾值進行比較,來選擇要實施時間包絡整形處理的頻帶。例如,若選擇性時間包絡整形處理之對象的頻帶之能量或功率是小於所定閾值,則亦可不對該當頻帶實施時間包絡整形處理。
甚至例如,若解碼關連資訊是關於其他時間包絡整形處理的資訊,則亦可將該當時間包絡整形處理未被實施的頻帶,選擇成為本發明中的要實施時間包絡整形處理的頻帶。
甚至例如,若解碼部10a是解碼部10a之第2例所記載之構成,解碼關連資訊是第2解碼部之編碼方式時,則亦可將隨著第2解碼部之編碼方式而於第2解碼部中所被解碼的頻帶,選擇成為要實施時間包絡整形處理的頻帶。例如,若第2解碼部之編碼形式是頻帶擴充方式,則將第2解碼部中所被解碼的頻帶,選擇成為要實施時間包絡整形處理的頻帶。例如,若第2解碼部之編碼形式是時間領域中的頻帶擴充方式,則將第2解碼部中所被解碼的頻帶,選擇成為要實施時間包絡整形處理的頻帶。例如,若第2解碼部之編碼形式是頻率領域中的頻帶擴充方式,則將第2解碼部中所被解碼的頻帶,選擇成為要實施時間包絡整形處理的頻帶。例如,亦可將藉由頻帶擴充方式而從其他頻帶複製了訊號的頻帶,選擇成為要實施時間包絡整形處理的頻帶。例如,亦可將藉由頻帶擴充方式而使用其他頻帶之訊號而將該當頻率之訊號取近似的頻帶,選擇成為要實施時間包絡整形處理的頻帶。例如,亦可將藉由頻帶擴充方式而生成了擬似雜音訊號的頻帶,選擇成為要實施時間包絡整形處理的頻帶。例如,亦可將藉由頻帶擴充方式而附加了正弦訊號的頻帶除外的頻帶,選擇成為要實施時間包絡整形處理的頻帶。
甚至,例如,解碼部10a是解碼部10a的第2例所記載之構成,且第2編碼方式係為,將第1編碼方式中所被分配之位元數是不少於所定閾值的頻帶或成分(亦可為未被第1編碼方式所編碼的頻帶或成分)之轉換係 數,使用其他頻帶或成分之轉換係數取近似、及附加(亦可為置換)擬似雜音訊號之轉換係數之其中任一方或雙方的編碼方式的情況下,亦可將轉換係數使用其他頻帶或成分之轉換係數而取近似而成的頻帶或成分,選擇成為要實施時間包絡整形處理的頻帶或成分。例如,亦可將附加(亦可為置換)了擬似雜音訊號之轉換係數後的頻帶或成分,選擇成為要實施時間包絡整形處理的頻帶或成分。例如,亦可隨著將轉換係數使用其他頻帶或成分之轉換係數而取近似之際的近似方法,來選擇成為要實施時間包絡整形處理的頻帶或成分。例如,若作為近似方法是採用將其他頻帶或成分之轉換係數予以白色化的方法,則亦可隨著白色化之強度,來選擇要實施時間包絡整形處理的頻帶或成分。例如,在附加(亦可為置換)擬似雜音訊號之轉換係數的情況下,亦可隨著該當擬似雜音訊號之位準,來選擇要實施時間包絡整形處理的頻帶或成分。
甚至,例如,解碼部10a是解碼部10a的第2例所記載之構成,第2編碼方式係為,對以第1編碼方式而被量化成零(亦即未被第1編碼方式所編碼)的頻率成分,生成擬似雜音訊號或複製其他頻率成分之訊號(亦可使用其他頻率成分之訊號取近似)的編碼方式的情況下,亦可將生成了擬似雜音訊號的頻率成分,選擇成為要實施時間包絡整形處理的頻率成分。例如,亦可將複製了其他頻率成分之訊號(亦可為使用其他頻率成分之訊號取近似)後的頻率成分,選擇成為要實施時間包絡整形處理的 頻率成分。例如,對該當頻率成分複製其他頻率成分之訊號(亦可為使用其他頻率成分之訊號取近似)的情況下,亦可隨著複製來源(近似來源)的頻率,來選擇要實施時間包絡整形處理的頻率成分。例如,亦可隨著在複製之際是否對複製來源之頻率成分施加處理,來選擇要實施時間包絡整形處理的頻率成分。例如,亦可隨著對複製(亦可為近似)之際對複製來源(近似來源)之頻率成分所施加的處理,來選擇要實施時間包絡整形處理的頻率成分。例如,若對該當複製來源(近似來源)之頻率成分所施加的處理係為白色化,則亦可隨著白色化之強度,來選擇要實施時間包絡整形處理的頻率成分。例如,亦可隨著近似之際的近似方法,來選擇要實施時間包絡整形處理的頻率成分。
頻率成分或頻帶之選擇方法,係亦可為上記例子的組合。又,只要使用頻率領域之解碼訊號及解碼關連資訊之其中至少一者,來於頻率領域之解碼訊號中選擇要實施時間包絡整形處理的頻率成分或頻帶即可,頻率成分或頻帶的選擇方法係不限定於上記例子。
頻率選擇性時間包絡整形部10bC,係將解碼訊號之已被前記頻率選擇部10bB所選擇的頻帶之時間包絡,整形成所望之時間包絡(步驟S10-2-3)。前記時間包絡整形之實施,係亦可為頻率成分單位。
時間包絡的整形方法係亦可為,例如,藉由以使用了將已被選擇之頻帶的轉換係數進行線性預測分析 所得之線性預測係數的線性預測逆濾波器進行濾波,而將時間包絡予以平坦化的方法。該當線性預測逆濾波器的傳達函數A(z),係為表示該當線性預測逆濾波器在離散時間系中之響應的函數,
可以表示如上。p係為預測次數,αi(i=1,..,p)係為線性預測係數。例如,亦可為,藉由將已被選擇之頻帶的轉換係數,以使用了該當線性預測係數的線性預測濾波器進行濾波,以使時間包絡上揚或/及下挫的方法。該當線性預測濾波器之傳達函數係為,
可以表示如上。
於使用上記線性預測係數的時間包絡整形處理中,亦可使用頻寬放大率ρ,來調整使時間包絡變成平坦或變成上揚或/及下挫的強度。
上記例子,係不僅是將解碼訊號進行時間頻率轉換而成的轉換係數,也可對將解碼訊號藉由濾波器組而轉換成頻率領域之訊號所得之子頻帶訊號的任意之時間t上的子樣本進行處理。在上記例子中,係藉由對解碼訊號於頻率領域中實施基於線性預測分析的濾波,而改變解碼訊號在時間領域中的功率之分布,就可將時間包絡予以整形。
甚至例如,亦可將解碼訊號藉由濾波器組而轉換成頻率領域之訊號後的子頻帶訊號之振幅,於任意之時間區段中,當作要實施時間包絡整形處理的頻率成分(或頻帶)之平均振幅,藉此而使時間包絡變得平坦。藉此,可一面保持時間包絡整形處理前之該當時間區段之該當頻率成分(或頻帶)之能量,一面使時間包絡變得平坦。同樣地,亦可保持時間包絡整形處理前之該當時間區段之該當頻率成分(或頻帶)之能量,藉由變更子頻帶訊號之振幅,而使時間包絡上揚/下挫。
甚至,例如,如圖13所示,在含有上記頻率選擇部10bB中未被選擇成為要進行時間包絡整形之頻率成分或頻帶的頻率成分或頻帶(稱為非選擇頻率成分或非選擇頻帶)的頻帶中,先將解碼訊號的非選擇頻率成分(亦可為非選擇頻帶)的轉換係數(或子樣本)置換成其 他值,然後,以上記時間包絡整形方法實施了時間包絡整形處理後,將該當非選擇頻率成分(亦可為非選擇頻帶)的轉換係數(或子樣本)變回置換前的原本值,以對非選擇頻率成分(亦可為非選擇頻帶)除外的頻率成分(頻帶),實施時間包絡整形處理。
藉此,即便是因為非選擇頻率成分(或非選擇頻帶)是零星存在而導致要實施時間包絡整形處理的頻率成分(或頻帶)是被分割成非常細的情況下,仍可將被分割的頻率成分(或頻帶)集結起來而進行時間包絡整形處理,可削減演算量。例如,使用上記線性預測分析的時間包絡整形方法中,與其對被細緻分割的要實施時間包絡整形處理的頻率成分(或頻帶)進行線性預測分析,不如將該當被分割之頻率成分(或頻帶)也包含非選擇頻率成分(或非選擇頻帶)而集合起來一次進行線性預測分析即可,甚至線性預測逆濾波器(亦可為線性預測濾波器)中的濾波處理也是,可將該當被分割之頻率成分(或頻帶)也包含非選擇頻率成分(或非選擇頻帶)而集合起來一次進行濾波,可藉由低演算量而實現之。
該當非選擇頻率成分(亦可為非選擇頻帶)的轉換係數(或子樣本)之置換,係例如,使用包含了該當非選擇頻率成分(亦可為非選擇頻帶)的轉換係數(或子樣本)及其鄰近的頻率成分(或亦可為頻帶)的振幅之平均值,而將該當非選擇頻率成分(亦可為非選擇頻帶)的轉換係數(或子樣本)之振幅予以置換。此時,例如, 轉換係數之符號係亦可維持原本的轉換係數之符號,子樣本之相位係亦可維持原本的子樣本之相位。甚至例如,該當頻率成分(亦可為頻帶)的轉換係數(或子樣本)係未被量化/編碼,對於以其他頻率成分(亦可為頻帶)的轉換係數(或子樣本)做複製、近似、或/及擬似雜音訊號之生成、附加、及/或正弦訊號之附加而被生成的頻率成分(亦可為頻帶)選擇要實施時間包絡整形處理的情況下,則亦可將非選擇頻率成分(亦可為非選擇頻帶)的轉換係數(或子樣本),擬似性置換成以其他頻率成分(亦可為頻帶)的轉換係數(或子樣本)做複製、近似、或/及擬似雜音訊號之生成、附加、及/或正弦訊號之附加所生成的轉換係數(或子樣本)。已被選擇之頻帶之時間包絡之整形方法係亦可為上記方法之組合,時間包絡整形方法係不限定於上記例子。
時間頻率逆轉換部10bD,係將頻率選擇性地實施過時間包絡整形的解碼訊號,轉換成時間領域之訊號並輸出(步驟S10-2-4)。
〔第2實施形態〕
圖14係第2實施形態所述之聲音解碼裝置11之構成的圖示。聲音解碼裝置11的通訊裝置,係接收聲音訊號所編碼而成的編碼序列,然後,將已解碼的聲音訊號輸出至外部。聲音解碼裝置11,係如圖14所示,在機能上係具備:逆多工化部11a、解碼部10a、選擇性時間包絡整 形部11b。
圖15係第2實施形態所述之聲音解碼裝置11的動作的流程圖。
逆多工化部11a,係將編碼序列進行解碼/逆量化而獲得解碼訊號的編碼序列與時間包絡資訊,予以分離(步驟S11-1)。解碼部10a,係將編碼序列予以解碼,生成解碼訊號(步驟S10-1)。若時間包絡資訊有被編碼或/及量化,則進行解碼或/及逆量化而獲得時間包絡資訊。
作為時間包絡資訊係亦可為例如,表示編碼裝置中所編碼過的輸入訊號之時間包絡係為平坦的資訊。例如,亦可為表示該當輸入訊號之時間包絡是上揚的資訊。例如,亦可為表示該當輸入訊號之時間包絡是下挫的資訊。
甚至,例如,時間包絡資訊係亦可為,表示該當輸入訊號之時間包絡之平坦程度的資訊,例如,亦可為表示該當輸入訊號之時間包絡之上揚程度的資訊,例如,亦可為表示該當輸入訊號之時間包絡之下挫程度的資訊。
甚至,例如,時間包絡資訊係亦可為,表示在選擇性時間包絡整形部中是否進行時間包絡整形的資訊。
選擇性時間包絡整形部11b,係從解碼部10a收取編碼序列解碼際所得之資訊亦即解碼關連資訊和解碼 訊號,由前記逆多工化部收取時間包絡資訊,基於這些的其中至少一者,而將解碼訊號之成分之時間包絡予以選擇性地整形成所望之時間包絡(步驟S11-2)。
選擇性時間包絡整形部11b中的選擇性時間包絡整形之方法,係例如,可和選擇性時間包絡整形部10b相同,亦可還加入考慮時間包絡資訊而實施選擇性時間包絡整形。例如,若時間包絡資訊是表示,在編碼裝置中所編碼的輸入訊號之時間包絡係為平坦的資訊,則亦可基於該當資訊,而將時間包絡整形成平坦。例如,若時間包絡資訊是表示該當輸入訊號之時間包絡是上揚的資訊,則亦可基於該當資訊,而將時間包絡整形上揚。例如,若時間包絡資訊是表示該當輸入訊號之時間包絡是下挫的資訊,則亦可基於該當資訊,而將時間包絡整形下挫。
甚至例如,若時間包絡資訊是表示該當輸入訊號之時間包絡之平坦程度的資訊,則亦可基於該當資訊,而調整使時間包絡調變成平坦的強度。例如,若時間包絡資訊是表示該當輸入訊號之時間包絡的上揚程度的資訊,則亦可基於該當資訊,來調整使時間包絡上揚的強度。例如,若時間包絡資訊是表示該當輸入訊號之時間包絡的下挫程度的資訊,則亦可基於該當資訊,來調整使時間包絡下挫的強度。
甚至例如,若時間包絡資訊是表示在選擇性時間包絡整形部11b中是否要進行時間包絡整形的資訊,則亦可基於該當資訊,來決定是否實施時間包絡整形處 理。
甚至例如,以上記例子之時間包絡資訊基於該當時間包絡資訊而實施時間包絡整形處理時,亦可將要實施時間包絡整形之頻帶(亦可為頻率成分),和第1實施形態同樣地加以選擇,將解碼訊號中的該當已被選擇之頻帶(亦可為頻率成分)之時間包絡整形成所望之時間包絡。
圖16係第2實施形態所述之聲音編碼裝置21之構成的圖示。聲音編碼裝置21的通訊裝置,係將作為編碼對象的聲音訊號,從外部予以接收,還有,將已被編碼之編碼序列,輸出至外部。聲音編碼裝置21,係如圖16所示,在機能上是具備有:編碼部21a、時間包絡資訊編碼部21b、多工化部21c。
圖17係第2實施形態所述之聲音編碼裝置21之動作的流程圖。
編碼部21a,係將所被輸入之聲音訊號進行編碼,生成編碼序列(步驟S21-1)。編碼部21a中的聲音訊號之編碼方式,係為對應於前記解碼部10a之解碼方式的編碼方式。
時間包絡資訊編碼部21b,係由已被輸入之聲音訊號和在前記編碼部21a中將聲音訊號進行編碼之際所得的資訊之其中至少一者,來生成時間包絡資訊。所被生成的時間包絡資訊,係亦可被編碼/量化(步驟S21-2)。時間包絡資訊係亦可為例如,前記聲音解碼裝置11的逆 多工化部11a中所得的時間包絡資訊。
甚至例如,在聲音解碼裝置11的解碼部中生成解碼訊號之際是設成與本發明不同的時間包絡整形之相關處理,將關於該當時間包絡整形處理的資訊保持在聲音編碼裝置21中的情況下,亦可使用該當資訊來生成時間包絡資訊。例如,亦可基於是否進行與本發明不同之時間包絡處理的資訊,來生成表示是否在聲音解碼裝置11的選擇性時間包絡整形部11b中進行時間包絡整形的資訊。
甚至例如,在前記聲音解碼裝置11的選擇性時間包絡整形部11b中,在使用了前記第1實施形態所述之聲音解碼裝置10的選擇性時間包絡整形部10b之第1例所記載之線性預測分析實施時間包絡整形之處理時,係與該當時間包絡整形處理中的線性預測分析同樣地,使用已被輸入之聲音訊號的轉換係數(亦可為子頻帶樣本)進行線性預測分析之結果來生成時間包絡資訊。具體而言,例如,亦可藉由該當線性預測分析而算出預測增益,基於該當預測增益而生成時間包絡資訊。預測增益的算出之際,亦可將已被輸入之聲音訊號之所有頻帶的轉換係數(亦可為子頻帶樣本)進行線性預測分析,甚至亦可將已被輸入之聲音訊號之一部分的頻帶的轉換係數(亦可為子頻帶樣本)進行線性預測分析。甚至,亦可將已被輸入之聲音訊號分割成複數頻帶而針對該當每一頻帶進行轉換係數(亦可為子頻帶樣本)之線性預測分析,此時係可算出複數個預測增益,使用該當複數預測增益來生成時間包絡 資訊。
甚至,例如,前記編碼部21a中將聲音訊號進行編碼之際所得的資訊係為,若解碼部10a是前記第2例之構成時,則是以對應於第1解碼方式之編碼方式(第1編碼方式)進行編碼之際所得的資訊、和以對應於第2解碼方式之編碼方式(第2編碼方式)進行編碼之際所得的資訊之其中至少1者。
多工化部21c,係將前記編碼部所得到的編碼序列和前記時間包絡資訊編碼部所得到的時間包絡資訊,予以多工化並輸出(步驟S21-3)。
〔第3實施形態〕
圖18係第3實施形態所述之聲音解碼裝置12之構成的圖示。聲音解碼裝置12的通訊裝置,係接收聲音訊號所編碼而成的編碼序列,然後,將已解碼的聲音訊號輸出至外部。聲音解碼裝置12,係如圖18所示,在機能上係具備解碼部10a、時間包絡整形部12a。
圖19係第3實施形態所述之聲音解碼裝置12的動作的流程圖。解碼部10a,係將編碼序列予以解碼,生成解碼訊號(步驟S10-1)。然後,時間包絡整形部12a,係將從前記解碼部10a所輸出的解碼訊號之時間包絡,整形成所望之時間包絡(步驟S12-1)。時間包絡的整形方法,係和前記第1實施形態同樣地,可為藉由以使用了將解碼訊號的轉換係數進行線性預測分析所得之線性 預測係數的線性預測逆濾波器進行濾波,而將時間包絡予以平坦化的方法,亦可為藉由以使用了該當線性預測係數的線性預測濾波器進行濾波,以使時間包絡上揚或/及下挫的方法,甚至亦可使用頻寬放大率來控制平坦/上揚/下挫之強度,甚至亦可取代解碼訊號的轉換係數改為將解碼訊號藉由濾波器組而轉換成頻率領域之訊號所得之子頻帶訊號的任意之時間t上的子樣本,實施上記例子的時間包絡整形。甚至,亦可和前記第1實施形態同樣地,於任意時間區段中,修正該當子頻帶訊號的振幅使其變成所望之時間包絡,例如,藉由變成要實施時間包絡整形處理的頻率成分(或頻率包絡)的平均振幅,以使時間包絡變成平坦。上記的時間包絡整形係可對解碼訊號之所有頻帶實施,亦可對所定之頻帶實施。
〔第4實施形態〕
圖20係第4實施形態所述之聲音解碼裝置13之構成的圖示。聲音解碼裝置13的通訊裝置,係接收聲音訊號所編碼而成的編碼序列,然後,將已解碼的聲音訊號輸出至外部。聲音解碼裝置13,係如圖20所示,在機能上係具備:逆多工化部11a、解碼部10a、時間包絡整形部13a。
圖21係第4實施形態所述之聲音解碼裝置13的動作的流程圖。逆多工化部11a,係將編碼序列進行解碼/逆量化而獲得解碼訊號的編碼序列與時間包絡資訊, 予以分離(步驟S11-1),解碼部10a,係將編碼序列予以解碼,生成解碼訊號(步驟S10-1)。然後,時間包絡整形部13a,係從逆多工化部11a收取時間包絡資訊,基於該當時間包絡資訊,而將從解碼部10a所輸出之解碼訊號的時間包絡,整形成所望之時間包絡(步驟S13-1)。
該當時間包絡資訊,係和前記第2實施形態同樣地,可為表示編碼裝置中所編碼過的輸入訊號之時間包絡係為平坦的資訊、表示該當輸入訊號之時間包絡是上揚的資訊、表示該當輸入訊號之時間包絡是下挫的資訊,甚至亦可為,例如:表示該當輸入訊號之時間包絡之平坦程度的資訊、表示該當輸入訊號之時間包絡之上揚程度的資訊、表示該當輸入訊號之時間包絡之下挫程度的資訊,甚至,亦可為表示在時間包絡整形部13a中是否進行時間包絡整形的資訊。
〔硬體構成〕
上述的聲音解碼裝置10、11、12、13及聲音編碼裝置21,係皆是由CPU等之硬體所構成。圖11係為聲音解碼裝置10、11、12、13及聲音編碼裝置21各自之硬體構成之一例的圖示。聲音解碼裝置10、11、12、13及聲音編碼裝置21分別在實體上係被構成為,如圖11所示,含有:CPU100、主記憶裝置的RAM101及ROM102、顯示器等之輸出入裝置103、通訊模組104、及輔助記憶裝置105等的電腦系統。
聲音解碼裝置10、11、12、13及聲音編碼裝置21的各機能區塊之機能,係分別藉由將所定之電腦軟體讀入至圖22所示的CPU100、RAM101等硬體上,以在CPU100的控制下,促使輸出入裝置103、通訊模組104、及輔助記憶裝置105作動,並且進行RAM101中的資料之讀出及寫入,藉此而加以實現。
〔程式構成〕
接下來說明,令電腦執行上述的聲音解碼裝置10、11、12、13及聲音編碼裝置21所進行之處理所需的聲音解碼程式50及聲音編碼程式60。
如圖23所示,聲音解碼程式50係被儲存在,被***至電腦而存取的或電腦所具備之記錄媒體40中所形成的程式儲存領域41內。更具體而言,聲音解碼程式50,係被儲存在聲音解碼裝置10所具備的記錄媒體40中所形成的程式儲存領域41內。
聲音解碼程式50係藉由執行令解碼模組50a、選擇性時間包絡整形模組50b所實現的機能,是和上述的聲音解碼裝置10的解碼部10a、選擇性時間包絡整形部10b之機能分別相同。再者,解碼模組50a係還具備,用來發揮機能成為:解碼/逆量化部10aA、解碼關連資訊輸出部10aB、及時間頻率逆轉換部10aC所需之模組。又,解碼模組50a係亦可具備用來發揮機能成為:編碼序列解析部10aD、第1解碼部10aE、第2解碼部10aF 所需之模組。
又,選擇性時間包絡整形模組50b係具備,用來發揮機能成為:時間頻率轉換部10bA、頻率選擇部10bB、頻率選擇性時間包絡整形部10bC、時間頻率逆轉換部10bD所需之模組。
又,聲音解碼程式50,係為了發揮機能成為上述聲音解碼裝置11,而具備有用來發揮機能成為:逆多工化部11a、解碼部10a、選擇性時間包絡整形部11b所需之模組。
又,聲音解碼程式50,係為了發揮機能成為上述聲音解碼裝置12,而具備用來發揮機能成為解碼部10a、時間包絡整形部12a所需之模組。
又,聲音解碼程式50,係為了發揮機能成為聲音解碼裝置13,而具備用來發揮機能成為逆多工化部11a、解碼部10a、時間包絡整形部13a所需之模組。
又,如圖24所示,聲音編碼程式60係被儲存在,被***至電腦而存取的或電腦所具備之記錄媒體40中所形成的程式儲存領域41內。更具體而言,聲音編碼程式60,係被儲存在聲音編碼裝置20所具備的記錄媒體40中所形成的程式儲存領域41內。
聲音編碼程式60,係具備編碼模組60a、時間包絡資訊編碼模組60b、及多工化模組60c所構成。藉由執行編碼模組60a、時間包絡資訊編碼模組60b、及多工化模組60c而實現的機能,係和上述的聲音編碼裝置 21之編碼部21a、時間包絡資訊編碼部21b、及多工化部21c之機能分別相同。
此外,聲音解碼程式50及聲音編碼程式60係亦可分別被構成為,其部分或全部,是透過通訊線路等之傳輸媒體而被傳輸,從其他機器接收而記錄(包含安裝)。又,聲音解碼程式50及聲音編碼程式60各自的各模組,係亦可不是被安裝在1台電腦,而是被安裝至複數台電腦之數者。此時,是由該當複數台電腦所構成之電腦系統,來進行上述聲音解碼程式50及聲音編碼程式60各自之處理。

Claims (5)

  1. 一種聲音編碼裝置,係將所被輸入之聲音訊號進行編碼而輸出第2編碼序列的聲音編碼裝置,其係具備:編碼部,係將前記聲音訊號以對應於解碼側之解碼方式的編碼方式進行編碼而獲得含有前記聲音訊號之第1編碼序列;和時間包絡資訊編碼部,係將前記聲音訊號的時間包絡之相關資訊,加以生成;和多工化部,係將前記編碼部所得的前記第1編碼序列、和前記時間包絡資訊編碼部所得之前記時間包絡之相關資訊,予以多工化而輸出前記第2編碼序列;前記時間包絡之相關資訊,係使用將已被輸入的聲音訊號之轉換係數進行了線性預測分析之結果,而被生成。
  2. 如請求項1所記載之聲音編碼裝置,其中,前記時間包絡之相關資訊係基於,藉由前記線性預測分析而被算出的預測增益,而被生成。
  3. 如請求項2所記載之聲音編碼裝置,其中,在前記預測增益的算出之際,對前記聲音訊號之一部分之頻帶的轉換係數,進行前記線性預測分析。
  4. 如請求項3所記載之聲音編碼裝置,其中,已被輸入之前記聲音訊號係被分割成複數頻帶,基於每一該當頻帶地將轉換係數進行線性預測分析所得到的複數預測增益,生成前記時間包絡之相關資訊。
  5. 一種聲音編碼方法,係將所被輸入之聲音訊號進行編碼而輸出第2編碼序列的聲音編碼裝置的聲音編碼方法,其係具有:編碼步驟,係將前記聲音訊號以對應於解碼側之解碼方式的編碼方式進行編碼而獲得含有前記聲音訊號之第1編碼序列;和時間包絡資訊編碼步驟,係將前記聲音訊號的時間包絡之相關資訊,加以生成;和多工化步驟,係將前記編碼步驟所得的前記第1編碼序列、和前記時間包絡資訊編碼步驟所得之前記時間包絡之相關資訊,予以多工化而輸出前記第2編碼序列;前記時間包絡之相關資訊,係使用將已被輸入的聲音訊號之轉換係數進行了線性預測分析之結果,而被生成。
TW106133758A 2014-03-24 2015-03-24 Voice coding device and voice coding method TWI666632B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014060650A JP6035270B2 (ja) 2014-03-24 2014-03-24 音声復号装置、音声符号化装置、音声復号方法、音声符号化方法、音声復号プログラム、および音声符号化プログラム
JP2014-060650 2014-03-24

Publications (2)

Publication Number Publication Date
TW201810251A TW201810251A (zh) 2018-03-16
TWI666632B true TWI666632B (zh) 2019-07-21

Family

ID=54195375

Family Applications (6)

Application Number Title Priority Date Filing Date
TW111125591A TWI807906B (zh) 2014-03-24 2015-03-24 聲音解碼裝置及聲音解碼方法
TW109116739A TWI773992B (zh) 2014-03-24 2015-03-24 聲音解碼裝置及聲音解碼方法
TW112119560A TW202338789A (zh) 2014-03-24 2015-03-24 聲音解碼裝置及聲音解碼方法
TW106133758A TWI666632B (zh) 2014-03-24 2015-03-24 Voice coding device and voice coding method
TW108117901A TWI696994B (zh) 2014-03-24 2015-03-24 聲音解碼裝置、聲音解碼方法、及聲音解碼程式
TW104109387A TWI608474B (zh) 2014-03-24 2015-03-24 聲音解碼裝置、聲音編碼裝置、聲音解碼方法、聲音編碼方法、聲音解碼程式、及聲音編碼程式

Family Applications Before (3)

Application Number Title Priority Date Filing Date
TW111125591A TWI807906B (zh) 2014-03-24 2015-03-24 聲音解碼裝置及聲音解碼方法
TW109116739A TWI773992B (zh) 2014-03-24 2015-03-24 聲音解碼裝置及聲音解碼方法
TW112119560A TW202338789A (zh) 2014-03-24 2015-03-24 聲音解碼裝置及聲音解碼方法

Family Applications After (2)

Application Number Title Priority Date Filing Date
TW108117901A TWI696994B (zh) 2014-03-24 2015-03-24 聲音解碼裝置、聲音解碼方法、及聲音解碼程式
TW104109387A TWI608474B (zh) 2014-03-24 2015-03-24 聲音解碼裝置、聲音編碼裝置、聲音解碼方法、聲音編碼方法、聲音解碼程式、及聲音編碼程式

Country Status (20)

Country Link
US (3) US10410647B2 (zh)
EP (3) EP3621073B1 (zh)
JP (1) JP6035270B2 (zh)
KR (7) KR102124962B1 (zh)
CN (2) CN107767876B (zh)
AU (7) AU2015235133B2 (zh)
BR (1) BR112016021165B1 (zh)
CA (2) CA2990392C (zh)
DK (2) DK3125243T3 (zh)
ES (2) ES2974029T3 (zh)
FI (1) FI3621073T3 (zh)
HU (1) HUE065961T2 (zh)
MX (1) MX354434B (zh)
MY (1) MY165849A (zh)
PH (1) PH12016501844B1 (zh)
PL (2) PL3125243T3 (zh)
PT (2) PT3621073T (zh)
RU (7) RU2654141C1 (zh)
TW (6) TWI807906B (zh)
WO (1) WO2015146860A1 (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5997592B2 (ja) 2012-04-27 2016-09-28 株式会社Nttドコモ 音声復号装置
JP6035270B2 (ja) 2014-03-24 2016-11-30 株式会社Nttドコモ 音声復号装置、音声符号化装置、音声復号方法、音声符号化方法、音声復号プログラム、および音声符号化プログラム
EP2980795A1 (en) * 2014-07-28 2016-02-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoding and decoding using a frequency domain processor, a time domain processor and a cross processor for initialization of the time domain processor
DE102017204181A1 (de) 2017-03-14 2018-09-20 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Sender zum Emittieren von Signalen und Empfänger zum Empfangen von Signalen
EP3382700A1 (en) 2017-03-31 2018-10-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for post-processing an audio signal using a transient location detection
EP3382701A1 (en) * 2017-03-31 2018-10-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for post-processing an audio signal using prediction based shaping
WO2020031483A1 (ja) * 2018-08-08 2020-02-13 ソニー株式会社 復号装置、復号方法、プログラム
CN111314778B (zh) * 2020-03-02 2021-09-07 北京小鸟科技股份有限公司 基于多种压缩制式的编解码融合处理方法、***及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009530679A (ja) * 2006-03-20 2009-08-27 フランス テレコム オーディオデコーダ内で信号を後処理する方法
JP2013242514A (ja) * 2012-04-27 2013-12-05 Ntt Docomo Inc 音声復号装置、音声符号化装置、音声復号方法、音声符号化方法、音声復号プログラム、および音声符号化プログラム

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS523077B1 (zh) 1970-01-08 1977-01-26
JPS5913508B2 (ja) 1975-06-23 1984-03-30 オオツカセイヤク カブシキガイシヤ アシルオキシ置換カルボスチリル誘導体の製造法
JP3155560B2 (ja) 1991-05-27 2001-04-09 株式会社コガネイ マニホールドバルブ
JP3283413B2 (ja) 1995-11-30 2002-05-20 株式会社日立製作所 符号化復号方法、符号化装置および復号装置
DE60233032D1 (de) * 2001-03-02 2009-09-03 Panasonic Corp Audio-kodierer und audio-dekodierer
US7447631B2 (en) 2002-06-17 2008-11-04 Dolby Laboratories Licensing Corporation Audio coding system using spectral hole filling
JP4649208B2 (ja) * 2002-07-16 2011-03-09 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ オーディオコーディング
JP2004134900A (ja) * 2002-10-09 2004-04-30 Matsushita Electric Ind Co Ltd 符号化信号復号化装置および復号化方法
US7672838B1 (en) * 2003-12-01 2010-03-02 The Trustees Of Columbia University In The City Of New York Systems and methods for speech recognition using frequency domain linear prediction polynomials to form temporal and spectral envelopes from frequency domain representations of signals
CA2457988A1 (en) * 2004-02-18 2005-08-18 Voiceage Corporation Methods and devices for audio compression based on acelp/tcx coding and multi-rate lattice vector quantization
TWI498882B (zh) * 2004-08-25 2015-09-01 Dolby Lab Licensing Corp 音訊解碼器
EP1815462A1 (en) * 2004-11-09 2007-08-08 Koninklijke Philips Electronics N.V. Audio coding and decoding
JP4800645B2 (ja) * 2005-03-18 2011-10-26 カシオ計算機株式会社 音声符号化装置、及び音声符号化方法
CA2603246C (en) * 2005-04-01 2012-07-17 Qualcomm Incorporated Systems, methods, and apparatus for anti-sparseness filtering
EP1829424B1 (en) * 2005-04-15 2009-01-21 Dolby Sweden AB Temporal envelope shaping of decorrelated signals
MX2008012324A (es) * 2006-03-28 2008-10-10 Fraunhofer Ges Zur Foeerderung Metodo mejorado para la modulacion de señales en la reconstruccion de audio multicanal.
US8260609B2 (en) * 2006-07-31 2012-09-04 Qualcomm Incorporated Systems, methods, and apparatus for wideband encoding and decoding of inactive frames
JP5547081B2 (ja) * 2007-11-02 2014-07-09 華為技術有限公司 音声復号化方法及び装置
DE102008009719A1 (de) * 2008-02-19 2009-08-20 Siemens Enterprise Communications Gmbh & Co. Kg Verfahren und Mittel zur Enkodierung von Hintergrundrauschinformationen
CN101335000B (zh) * 2008-03-26 2010-04-21 华为技术有限公司 编码的方法及装置
JP5203077B2 (ja) 2008-07-14 2013-06-05 株式会社エヌ・ティ・ティ・ドコモ 音声符号化装置及び方法、音声復号化装置及び方法、並びに、音声帯域拡張装置及び方法
CN101436406B (zh) * 2008-12-22 2011-08-24 西安电子科技大学 音频编解码器
JP4921611B2 (ja) 2009-04-03 2012-04-25 株式会社エヌ・ティ・ティ・ドコモ 音声復号装置、音声復号方法、及び音声復号プログラム
JP4932917B2 (ja) * 2009-04-03 2012-05-16 株式会社エヌ・ティ・ティ・ドコモ 音声復号装置、音声復号方法、及び音声復号プログラム
PL3352168T3 (pl) * 2009-06-23 2021-03-08 Voiceage Corporation Postępowe tłumienie aliasingu w dziedzinie czasu z zastosowaniem w ważonej albo pierwotnej dziedzinie sygnału
ES2441069T3 (es) 2009-10-08 2014-01-31 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Decodificador multimodo para señal de audio, codificador multimodo para señal de audio, procedimiento y programa de computación que usan un modelado de ruido en base a linealidad-predicción-codificación
MX2012004648A (es) * 2009-10-20 2012-05-29 Fraunhofer Ges Forschung Codificacion de señal de audio, decodificador de señal de audio, metodo para codificar o decodificar una señal de audio utilizando una cancelacion del tipo aliasing.
JP5695074B2 (ja) * 2010-10-18 2015-04-01 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 音声符号化装置および音声復号化装置
JP2012163919A (ja) * 2011-02-09 2012-08-30 Sony Corp 音声信号処理装置、および音声信号処理方法、並びにプログラム
MY164797A (en) * 2011-02-14 2018-01-30 Fraunhofer Ges Zur Foederung Der Angewandten Forschung E V Apparatus and method for processing a decoded audio signal in a spectral domain
KR101897455B1 (ko) * 2012-04-16 2018-10-04 삼성전자주식회사 음질 향상 장치 및 방법
JP6035270B2 (ja) 2014-03-24 2016-11-30 株式会社Nttドコモ 音声復号装置、音声符号化装置、音声復号方法、音声符号化方法、音声復号プログラム、および音声符号化プログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009530679A (ja) * 2006-03-20 2009-08-27 フランス テレコム オーディオデコーダ内で信号を後処理する方法
JP2013242514A (ja) * 2012-04-27 2013-12-05 Ntt Docomo Inc 音声復号装置、音声符号化装置、音声復号方法、音声符号化方法、音声復号プログラム、および音声符号化プログラム

Also Published As

Publication number Publication date
EP4293667A2 (en) 2023-12-20
PT3125243T (pt) 2020-02-14
TWI608474B (zh) 2017-12-11
AU2019257487B2 (en) 2020-12-24
AU2015235133A1 (en) 2016-10-06
EP3125243A4 (en) 2017-05-17
EP3125243A1 (en) 2017-02-01
PL3125243T3 (pl) 2020-05-18
RU2707722C2 (ru) 2019-11-28
CN107767876A (zh) 2018-03-06
AU2018201468A1 (en) 2018-03-22
US11437053B2 (en) 2022-09-06
US20220366924A1 (en) 2022-11-17
MX2016012393A (es) 2016-11-30
AU2021200604A1 (en) 2021-03-04
AU2021200603A1 (en) 2021-03-04
TW201810251A (zh) 2018-03-16
TWI696994B (zh) 2020-06-21
US20190355371A1 (en) 2019-11-21
AU2021200607B2 (en) 2022-03-24
TWI807906B (zh) 2023-07-01
KR20200074279A (ko) 2020-06-24
EP3125243B1 (en) 2020-01-08
KR20160119252A (ko) 2016-10-12
TW202338789A (zh) 2023-10-01
MX354434B (es) 2018-03-06
RU2741486C1 (ru) 2021-01-26
KR101782935B1 (ko) 2017-09-28
JP2015184470A (ja) 2015-10-22
KR20190122896A (ko) 2019-10-30
RU2718421C1 (ru) 2020-04-02
DK3125243T3 (da) 2020-02-17
DK3621073T3 (da) 2024-03-11
US20170117000A1 (en) 2017-04-27
AU2019257495A1 (en) 2019-11-21
HUE065961T2 (hu) 2024-06-28
RU2018115787A (ru) 2019-10-28
KR20200028512A (ko) 2020-03-16
KR101906524B1 (ko) 2018-10-10
CA2942885A1 (en) 2015-10-01
RU2631155C1 (ru) 2017-09-19
KR102038077B1 (ko) 2019-10-29
ES2772173T3 (es) 2020-07-07
EP3621073A1 (en) 2020-03-11
PH12016501844A1 (en) 2016-12-19
KR102124962B1 (ko) 2020-07-07
PL3621073T3 (pl) 2024-05-20
US10410647B2 (en) 2019-09-10
TWI773992B (zh) 2022-08-11
RU2654141C1 (ru) 2018-05-16
KR102089602B1 (ko) 2020-03-16
KR102208915B1 (ko) 2021-01-27
TW201603007A (zh) 2016-01-16
JP6035270B2 (ja) 2016-11-30
KR20180110244A (ko) 2018-10-08
AU2015235133B2 (en) 2017-11-30
CA2942885C (en) 2018-02-20
RU2018115787A3 (zh) 2019-10-28
KR20170110175A (ko) 2017-10-10
AU2019257487A1 (en) 2019-11-21
AU2021200604B2 (en) 2022-03-17
BR112016021165B1 (pt) 2020-11-10
EP4293667A3 (en) 2024-06-12
CN106133829A (zh) 2016-11-16
CN106133829B (zh) 2017-11-10
AU2021200603B2 (en) 2022-03-10
WO2015146860A1 (ja) 2015-10-01
TW201937483A (zh) 2019-09-16
CA2990392C (en) 2021-08-03
RU2751150C1 (ru) 2021-07-08
EP3621073B1 (en) 2024-02-14
ES2974029T3 (es) 2024-06-25
KR20200030125A (ko) 2020-03-19
MY165849A (en) 2018-05-17
AU2021200607A1 (en) 2021-03-04
AU2019257495B2 (en) 2020-12-24
CA2990392A1 (en) 2015-10-01
PH12016501844B1 (en) 2016-12-19
RU2732951C1 (ru) 2020-09-24
TW202036541A (zh) 2020-10-01
AU2018201468B2 (en) 2019-08-29
FI3621073T3 (fi) 2024-03-13
PT3621073T (pt) 2024-03-12
CN107767876B (zh) 2022-08-09
KR102126044B1 (ko) 2020-07-08
TW202242854A (zh) 2022-11-01

Similar Documents

Publication Publication Date Title
TWI666632B (zh) Voice coding device and voice coding method
JP6691251B2 (ja) 音声復号装置、音声復号方法、および音声復号プログラム
JP6872056B2 (ja) 音声復号装置および音声復号方法
JP6511033B2 (ja) 音声符号化装置および音声符号化方法