CN101091206B - 语音编码装置和语音编码方法 - Google Patents

语音编码装置和语音编码方法 Download PDF

Info

Publication number
CN101091206B
CN101091206B CN2005800450680A CN200580045068A CN101091206B CN 101091206 B CN101091206 B CN 101091206B CN 2005800450680 A CN2005800450680 A CN 2005800450680A CN 200580045068 A CN200580045068 A CN 200580045068A CN 101091206 B CN101091206 B CN 101091206B
Authority
CN
China
Prior art keywords
signal
channel signal
prediction
monophonic
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN2005800450680A
Other languages
English (en)
Other versions
CN101091206A (zh
Inventor
吉田幸司
后藤道代
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
III Holdings 12 LLC
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Publication of CN101091206A publication Critical patent/CN101091206A/zh
Application granted granted Critical
Publication of CN101091206B publication Critical patent/CN101091206B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S5/00Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation 

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Reduction Or Emphasis Of Bandwidth Of Signals (AREA)
  • Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)

Abstract

能够由立体声信号生成适当的单声道信号,从而抑制单声道信号的编码效率降低的语音编码装置。在该装置的单声道信号生成单元(101)中,信道间预测分析单元(201)求预测参数,该预测参数基于第1ch语音信号与第2ch语音信号之间的延迟差和振幅比;中间预测参数生成单元(202)求预测参数的中间的参数(称为中间预测参数),以使最终生成的单声道信号为第1ch语音信号和第2ch语音信号的中间的信号;单声道信号计算单元(203)使用中间预测参数来计算单声道信号。

Description

语音编码装置和语音编码方法 
技术领域
本发明涉及语音编码装置和语音编码方法,特别涉及由立体声的语音输入信号生成单声道信号并对其进行编码的语音编码装置和语音编码方法。 
背景技术
随着在移动通信和IP通信中的传输频带的宽带化以及服务的多样化,在语音通信中,对高音质化和更富于现场感的需求日益增高。例如,今后可以预料对下述的服务的需求会增多,即,电视电话服务中的免提(Handsfree)形式的通话、在电视会议中的语音通信、例如在多个地点多个说话者同时进行会话等的多地点语音通信、在保持现场感的同时能够传输周围的声音环境的语音通信等的服务。那时,人们期待例如比单声道信号更富于现场感并能够认识多个说话者的说话位置的使用立体声语音的语音通信的实现。为了实现这样的使用立体声语音的语音通信,必须进行对立体声语音的编码。 
另外,在IP网络上的语音数据通信中,为了实现网络上的业务控制和组播通信,具有可扩展结构的语音编码备受期望。可扩展结构是指在接收端即使由一部分编码数据也可进行语音数据的解码的结构。 
因此,在对立体声语音进行编码并传输时,也人们期望具有在单声道/立体声之间的可扩展结构(单声道/立体声可扩展结构)的编码,其可以在接收端选择立体声信号的解码或使用一部分编码数据的单声道信号的解码。 
在这样的具有单声道/立体声可扩展结构的语音编码中,由立体声的输入信号生成单声道信号。作为单声道信号的生成方法,例如有对立体声信号双方的信道(以下适宜地简写为”ch”)的信号进行平均而获得单声道信号的方法(参照非专利文献1)。 
(非专利文献1)ISO/IEC 14496-3,”Information Technology-Coding ofaudio-visual objects-Part 3:Audio”,subpart-4,4.B.14 Scalable AAC with corecoder,pp.304-305,Sep.2000. 
发明内容
本发明需要解决的问题 
然而,在简单地对立体声信号双方的信道的信号进行平均而生成单声道信号时,尤其在语音方面,有可能成为对于所输入的立体声信号产生了失真的单声道信号,或成为波形形状与所输入的立体声信号极为不同的单声道信号。也就是说,有可能传输本该传输的输入信号恶化后的信号,或者传输与本该传输的输入信号不同的信号。并且,在将对输入的立体声信号产生了失真的单声道信号或波形形状与被输入的立体声信号极为不同的单声道信号以CELP编码等的适合于语音信号固有的特性的编码模式进行编码时,不同于语音信号固有的特性的复杂的信号成为编码对象,其结果,导致编码效率的降低。 
本发明的目的是提供语音编码装置和语音编码方法,它能够由立体声信号生成适当的单声道信号,从而抑制单声道信号的编码效率的降低。 
解决问题的方案 
本发明的语音编码装置所采用的结构包括:第一生成单元,以包含第一信道信号和第二信道信号的立体声信号作为输入信号,基于所述第一信道信号与所述第二信道信号之间的时间差,以及所述第一信道信号与所述第二信道信号的振幅比,求两信道间的预测参数,并根据所述预测参数计算中间预测参数,继而使用所述中间预测参数,由所述第一信道信号和所述第二信道信号生成单声道信号;编码单元,对所述单声道信号进行编码;以及合成单元,基于从所述单声道信号获得的信号,合成所述第一信道信号和所述第二信道信号的预测信号。 
本发明的语音编码方法包括:生成步骤,以包含第一信道信号和第二信道信号的立体声信号作为输入信号,基于所述第一信道信号与所述第二信道信号之间的时间差,以及所述第一信道信号与所述第二信道信号的振幅比,求两信道间的预测参数,并根据所述预测参数计算中间预测参数,继而使用所述中间预测参数,由所述第一信道信号和所述第二信道信号生成单声道信号;编码步骤,对所述单声道信号进行编码;以及合成步骤,基于从所述单声道信号获得的信号,合成所述第一信道信号和所述第二信道信号的预测信号。 
本发明的有益效果 
附图说明
根据本发明,能够由立体声信号生成适当的单声道信号,从而抑制单声道信号的编码效率的降低。 
图1是表示本发明实施方式1的语音编码装置的结构的方框图。 
图2是表示本发明实施方式1的单声道信号生成单元的结构的方框图。 
图3是本发明实施方式1的信号波形图。 
图4是表示本发明实施方式1的单声道信号生成单元的结构的方框图。 
图5是表示本发明实施方式2的语音编码装置的结构的方框图。 
图6是表示本发明实施方式2的第1ch、第2ch预测信号合成单元的结构的方框图。 
图7是表示本发明实施方式2的第1ch、第2ch预测信号合成单元的结构的方框图。 
图8是表示本发明实施方式2的语音解码装置的结构的方框图。 
图9是表示本发明实施方式3的语音编码装置的结构的方框图。 
图10是表示本发明实施方式4的单声道信号生成单元的结构的方框图。 
图11是表示本发明实施方式5的语音编码装置的结构的方框图。 
图12是表示本发明实施方式5的语音解码装置的结构的方框图。 
具体实施方式
下面,参照附图详细地说明本发明的实施方式。另外,在以下的说明中,将以帧为单位的动作作为前提进行说明。 
(实施方式1) 
图1表示本实施方式的语音编码装置的结构。图1所示的语音编码装置10包括单声道信号生成单元101和单声道信号编码单元102。 
单声道信号生成单元101由立体声的输入语音信号(第1ch语音信号和第2ch语音信号)生成单声道信号,并输出到单声道信号编码单元102。单声道信号生成单元101的详细说明将后述。 
单声道信号编码单元102对单声道信号进行编码并输出单声道信号编码数据,即对于单声道信号的语音编码数据。单声道信号编码单元102可以使用任意的编码方式对单声道信号进行编码。例如,可以使用以适合于语音信号的有效率的编码的CELP编码为基础的编码方式。另外,还可以使用其它语音编码方式,或者以AAC(Advanced Audio Coding)为代表的音频编码方式。 
接着,使用图2说明单声道信号生成单元101的详细情况。如该图所示,单声道信号生成单元101包括信道间预测分析单元201、中间预测参数生成单元202以及单声道信号计算单元203。 
信号间预测分析单元201,从第1ch语音信号和第2ch语音信号通过分析而求两信道间的预测参数。该预测参数是利用第1ch语音信号和第2ch语音信号之间的相关性而实现信道信号间的相互预测的参数,是基于两信道间的延迟差和振幅比的参数。具体来说,在以式(1)和式(2)表示从第2ch语音信号s_ch2(n)预测到的第1ch语音信号sp_ch1(n),以及从第1ch语音信号s_ch1(n)预测到的第2ch语音信号sp_ch2(n)时,以信道间的相互的延迟差D12、D21以 及振幅比(以帧为单位的平均振幅的比)g12、g21作为预测参数。 
sp_ch1(n)=g21·s_ch2(n-D21)  其中,n=0~NF-1  …式(1) 
sp_ch2(n)=g12·s_ch1(n-D12)  其中,n=0~NF-1  …式(2) 
其中,sp_ch1(n)是第1ch的预测信号,g21是第1ch输入信号相对于第2ch输入信号的振幅比,s_ch2(n)是第2ch的输入信号,D21是第1ch输入信号相对于第2ch输入信号的延迟时间差,sp_ch2(n)是第2ch的预测信号,g12是第2ch输入信号相对于第1ch输入信号的振幅比,s_ch1(n)是第1ch的输入信号,D12是第2ch输入信号相对于第1ch输入信号的延迟时间差,NF是帧长度。 
然后,信道间预测分析单元201求使以式(3)和(4)表示的失真最小的预测参数g21、D21、g12和D12,并输出到中间预测参数生成单元202。该失真是各个信道的输入语音信号s_ch1(n)、s_ch2(n)(n=0~NF-1)与通过式(1)和(2)所预测的各个信道的预测信号sp_ch1(n)、sp_ch2(n)之间的失真Dist1和Dist2。 
Dist 1 = Σ n = 0 NF - 1 { s _ ch 1 ( n ) - sp _ ch 1 ( n ) } 2 · · · 式(3) 
Dist 2 = Σ n = 0 NF - 1 { s _ ch 2 ( n ) - sp _ ch 2 ( n ) } 2 · · · 式(4) 
另外,信道间预测分析单元201也可求使信道信号间的相互相关最大的延迟时间差或以帧为单位的信道信号间的平均振幅比作为预测参数,由此取代于求预测参数,以使失真Dist1和Dist2最小。 
中间预测参数生成单元202为了使最后生成的单声道信号为第1ch语音信号和第2ch语音信号的中间信号,通过式(5)~(8)求预测参数D12、D21、g12 和g21的中间参数(以下称为中间预测参数)D1m、D2m、g1m和g2m,并输出到单声道信号计算单元203。 
D1m=D12/2  …式(5) 
D2m=D21/2  …式(6) 
g 1 m = g 12 · · · 式(7) 
g 2 m = g 21 · · · 式(8) 
其中,D1m、g1m是以第1ch为基准的中间预测参数(延迟时间差、振幅比),D2m、g2m是以第2ch为基准的中间预测参数(延迟时间差、振幅比)。 
另外,也可以通过式(9)~(12),只从第2ch语音信号与第1ch语音信号的延迟时间差D12和振幅比g12求中间预测参数,以取代式(5)~(8)。另外还可以相反地只从第1ch语音信号与第2ch语音信号的延迟时间差D21和振幅比g21,通过同样的方法求中间预测参数。 
D1m=D12/2      …式(9) 
D2m=D1m-D12    …式(10) 
g 1 m = g 12 …式(11) 
g2m=1/g1m      …式(12) 
另外,振幅比g1m和g2m也可以为固定值(例如1.0),以取代通过式(7)、(8)、(11)、(12)求出的值。再者,还可以将在时间上对D1m、D2m、g1m和g2m进行平均而得到的值作为中间预测参数。 
另外,只要是能够计算出第1ch与第2ch之间的延迟时间差和振幅比的中间附近的值的方法,作为中间预测参数的计算方法也可使用除上述以外的方法。 
单声道信号计算单元203使用在中间预测参数生成单元202获得的中间预测参数,通过式(13)计算单声道信号s_mono(n)。 
s_mono(n)={g1m·s_ch1(n-D1m)+g2m·s_ch2(n-D2m)}/2 
其中,n=0~NF-1…式(13) 
另外,也可以只从一方的信道的输入语音信号计算单声道信号,以取代通过如上述那样使用双方信道的输入语音信号生成单声道信号。 
这里,图3示出被输入到单声道信号生成单元101的第1ch语音信号的波形31以及第2ch语音信号的波形32的一个例子。在此情况下,在图示通过单声道信号生成单元101由这些第1ch语音信号和第2ch语音信号生成的单声道信号时,呈现出波形33。另外,波形34是通过单纯地对第1ch语音信号和第2ch语音信号进行平均而生成的单声道信号(现有方法)。 
在第1ch语音信号(波形31)与第2ch语音信号(波形32)之间存在如图示的延迟时间差和振幅比时,在单声道信号生成单元101获得的单声道信号的波形33成为相似于第1ch语音信号和第2ch语音信号的双方且具有其中间的延迟时间和振幅的波形。另一方面,通过现有方法而生成的单声道信号(波形34)与波形33相比,与第1ch语音信号和第2ch语音信号波形的相似性较小。这是因为:以两信道间的延迟时间差和振幅比成为两信道间的中间的值的方 式生成的单声道信号(波形33),近似地相当于在两个地点的中间地点被接收的信号,该两个地点是在两信道的语音信号被输出的空间上的两个地点,因此,与未考虑空间上的特性而被生成的单声道信号(波形34)相比,为作为单声道信号更适当的信号,即,相似于输入信号的失真较小的信号。 
另外,通过单纯地对两信道的信号进行平均而生成的单声道信号(波形34),是未考虑两信道的信号间的延迟时间差和振幅比而通过单纯的平均值计算来生成的信号,因此,例如在两信道的信号间的延迟时间差较大等时,两信道的语音信号维持在时间上产生偏差的状态而被重叠,由此成为对于输入语音信号产生了失真或波形极为不同的信号。其结果,在对单声道信号以CELP编码等适合于语音信号的特性的编码模式进行编码时,导致编码效率的降低。 
相对于此,因为在单声道信号生成单元101获得的单声道信号(波形33)是以使两信道的语音信号之间的延迟时间差缩小的方式调整后的信号,所以成为相似于输入语音信号的失真较小的信号。因此,能够抑制对单声道信号进行编码时的编码效率的降低。 
另外,单声道信号生成单元101也可以设置如下。 
即,除了延迟时间差和振幅比以外,还可使用其它参数作为预测参数。例如,在以式(14)和(15)表示信道间的相互预测时,以两信道的信号间的延迟时间差、振幅比以及预测系数序列{akl(0),akl(1),akl(2),...,akl(P)}(P:预测次数、akl(0)=1.0、(k,l)=(1,2)or(2,1))作为预测参数。 
sp _ ch 1 ( n ) = Σ k = 0 P { g 21 · a 21 ( k ) · sp _ ch 2 ( n - D 21 - k ) } · · · 式(14) 
sp _ ch 2 ( n ) = Σ k = 0 P { g 12 · a 12 ( k ) · sp _ ch 1 ( n - D 12 - k ) } · · · 式(15) 
另外,还可以对第1ch语音信号和第2ch语音信号进行频带分割而分割成两个以上的频带,并生成各个频带的输入信号,并对于该整个频带或一部分频带的信号,如上述那样,对各个频带生成单声道信号。 
另外,如图4所示,还可以在单声道信号生成单元101中具备中间预测参数量化单元204,它对中间预测参数进行量化并输出量化中间预测参数和中间预测参数量化码,以便将在中间预测参数生成单元202获得的中间预测参数与编码数据一同传输,或者通过在后级的编码使用中间预测参数而削减 编码时所需的运算量。 
(实施方式2) 
在本实施方式,对具有单声道/立体声可扩展结构的语音编码进行说明。图5表示本实施方式的语音编码装置的结构。图5所示的语音编码装置500包括用于单声道信号的核心层编码单元510和用于立体声信号的扩展层编码单元520。另外,核心层编码单元510包括实施方式1的语音编码装置10(图1的单声道信号生成单元101和单声道信号编码单元102)。 
在核心层编码单元510中,单声道信号生成单元101如实施方式1说明的那样生成单声道信号s_mono(n),并输出到单声道信号编码单元102。 
单声道信号编码单元102对单声道信号进行编码,并将该单声道信号的编码数据输出到单声道信号解码单元511。另外,该单声道信号的编码数据被与从扩展层编码单元520输出的量化码和编码数据复用,并作为编码数据被传输到语音解码装置。 
单声道信号解码单元511由单声道信号的编码数据生成单声道的解码信号,并输出到扩展层编码单元520。 
在扩展层编码单元520中,第1ch预测参数分析单元521从第1ch语音信号s_ch1(n)和单声道解码信号求第1ch预测参数并将其量化,将第1ch预测量化参数输出到第1ch预测信号合成单元522。另外第1ch预测参数分析单元521输出对第1ch预测量化参数进行了编码后的第1ch预测参数量化码。该第1ch预测参数量化码被与其它编码数据和量化码进行复用,作为编码数据被传输到语音解码装置。 
第1ch预测信号合成单元522由单声道解码信号和第1ch预测量化参数合成第1ch预测信号,并将该第1ch预测信号输出到减法器523。第1ch预测信号合成单元522的详细说明将后述。 
减法器523求作为输入信号的第1ch语音信号与第1ch预测信号之间的差,即,第1ch预测信号相对于第1ch输入语音信号的残差分量的信号(第1ch预测残差信号),并输出到第1ch预测残差信号编码单元524。 
第1ch预测残差信号编码单元524对第1ch预测残差信号进行编码,并输出第1ch预测残差编码数据。该第1ch预测残差编码数据被与其它编码数据和量化码复用,作为编码数据被传输到语音解码装置。 
另一方面,第2ch预测参数分析单元525从第2ch语音信号s_ch2(n)和 单声道解码信号求第2ch预测参数并将其量化,将第2ch预测量化参数输出到第2ch预测信号合成单元526。另外第2ch预测参数分析单元525输出对第2ch预测量化参数进行了编码后的第2ch预测参数量化码。该第2ch预测参数量化码被与其它编码数据和量化码进行复用,作为编码数据传输到语音解码装置。 
第2ch预测信号合成单元526由单声道解码信号和第2ch预测量化参数合成第2ch预测信号,并将该第2ch预测信号输出到减法器527。第2ch预测信号合成单元526的详细说明将后述。 
减法器527求作为输入信号的第2ch语音信号与第2ch预测信号之间的差,即,第2ch预测信号相对于第2ch输入语音信号的残差分量的信号(第2ch预测残差信号),并输出到第2ch预测残差信号编码单元528。 
第2ch预测残差信号编码单元528对第2ch预测残差信号进行编码,并输出第2ch预测残差编码数据。该第2ch预测残差编码数据被与其它编码数据和量化码进行复用,作为编码数据被传输到语音解码装置。 
下面,说明第1ch预测信号合成单元522和第2ch预测信号合成单元526的详细情况。第1ch预测信号合成单元522和第2ch预测信号合成单元526的结构为如图6<结构例1>或图7<结构例2>所示。结构例1和2都是基于单声道信号和各个信道信号之间的相关性,使用单声道信号与各个信道信号的延迟差(D样本)和振幅比(g)作为预测量化参数,由单声道信号合成各个信道的预测信号。 
<结构例1> 
在结构例1中,如图6所示,第1ch预测信号合成单元522和第2ch预测信号合成单元526包括延迟器531和乘法器532,通过以式(16)表示的预测,由单声道解码信号sd_mono(n)合成各个信道的预测信号sp_ch(n)。 
sp_ch(n)=g·sd_mono(n-D)  …式(16) 
<结构例2> 
在结构例2中,如图7所示,除了图6所示的结构以外还包括延迟器533-1~p、乘法器534-1~P和加法器535。并且,作为预测量化参数,除了单声道信号与各个信道信号的延迟差(D样本)和振幅比(g)以外,还使用预测系数序列{a(0),a(1),a(2),.,a(P)}(P是预测次数,a(0)=1.0),通过以式(17)表示的预测,由单声道解码信号sd_mono(n)合成各个信道的预测信号sp_ch(n)。 
sp _ ch ( n ) = &Sigma; k = 0 P { g &CenterDot; a ( k ) &CenterDot; sd _ mono ( n - D - k ) } &CenterDot; &CenterDot; &CenterDot; 式(17) 
相对于此,第1ch预测参数分析单元521和第2ch预测参数分析单元525求预测参数,该预测参数使以式(3)和(4)表示的失真Dist1、Dist2最小,并将对该预测参数进行量化后的预测量化参数输出到采用上述结构的第1ch预测信号合成单元522和第2ch预测信号合成单元526。另外,第1ch预测参数分析单元521和第2ch预测参数分析单元525输出对预测量化参数进行编码后的预测参数量化码。 
另外,对于结构例1,第1ch预测参数分析单元521和第2ch预测参数分析单元525可以求使单声道解码信号与各个信道的输入语音信号之间的相互相关最大的延迟差D以及以帧为单位的平均振幅的比g作为预测参数。 
下面,说明本实施方式的语音解码装置。图8所示本实施方式的语音解码装置的结构。图8所示的语音解码装置600包括用于单声道信号的核心层解码单元610和用于立体声信号的扩展层解码单元620。 
单声道信号解码单元611对所输入的单声道信号的编码数据进行解码,将单声道解码信号输出到扩展层解码单元620,同时将其作为最后输出而输出。 
第1ch预测参数解码单元621对所输入的第1ch预测参数量化码进行解码,将第1ch预测量化参数输出到第1ch预测信号合成单元622。 
第1ch预测信号合成单元622采用与语音编码装置500的第1ch预测信号合成单元522相同的结构,从单声道解码信号和第1ch预测量化参数来预测第1ch语音信号,并将该第1ch预测语音信号输出到加法器624。 
第1ch预测残差信号解码单元623对所输入的第1ch预测残差编码数据进行解码,将第1ch预测残差信号输出到加法器624。 
加法器624通过将第1ch预测语音信号与第1ch预测残差信号相加而求第1ch的解码信号,将其作为最终输出而输出。 
另一方面,第2ch预测参数解码单元625对所输入的第2ch预测参数量化码进行解码,将第2ch预测量化参数输出到第2ch预测信号合成单元626。 
第2ch预测信号合成单元626采用与语音编码装置500的第2ch预测信号合成单元526相同的结构,从单声道解码信号和第2ch预测量化参数来预测第2ch语音信号,并将该第2ch预测语音信号输出到加法器628。 
第2ch预测残差信号解码单元627对所输入的第2ch预测残差编码数据进行解码,将第2ch预测残差信号输出到加法器628。 
加法器628通过将第2ch预测语音信号与第2ch预测残差信号相加而求第2ch的解码信号,将其作为最终输出而输出。 
在采用这样的结构的语音解码装置600中,在单声道/立体声可扩展结构中,在输出语音为单声道语音时,以只从单声道信号的编码数据获得的解码信号作为单声道解码信号而输出,在输出语音为立体声语音时,使用所接收的所有编码数据和量化码来解码并输出第1ch解码信号和第2ch解码信号。 
这样,根据本实施方式,对相似于第1ch语音信号和第2ch语音信号的双方且具有其中间的延迟时间和振幅的单声道信号进行解码而获得单声道解码信号,并使用该单声道解码信号来合成第1ch预测信号和第2ch预测信号,因此,能够提高这些预测信号的预测性能。 
另外,也可以将CELP编码用于核心层的编码和扩展层的编码。此时,在扩展层,使用由CELP编码获得的单声道编码驱动声源信号,进行各个信道信号的LPC预测残差信号的预测。 
另外,在作为核心层的编码和扩展层的编码采用CELP编码时,也可以进行频域上的声源信号的编码,以代替在时域上进行驱动声源的搜索。 
另外,还可以使用在单声道信号生成单元101获得的中间预测参数以及通过对单声道解码信号或单声道信号进行CELP编码而获得的单声道驱动声源信号,进行各个信道信号的预测或各个信道信号的LPC预测残差信号的预测。 
并且,还可以仅以立体声输入信号中的一个信道信号为对象,进行上述已说明的使用基于单声道信号的预测的编码。此时,在语音解码装置,能够基于立体声输入信号与单声道信号之间的关系(式(12)等),由解码单声道信号和一个信道信号生成另一个信道的解码信号。 
(实施方式3) 
本实施方式的语音编码装置使用单声道信号与各个信道信号之间的延迟时间差和振幅比作为预测参数,并且,使用第1ch预测参数进行第2ch预测参数的量化。图9表示本实施方式的语音编码装置700的结构。另外,在图9中,对与实施方式2(图5)相同的结构赋予相同标号,并省略说明。 
第2ch预测参数分析单元701在第2ch预测参数的量化中,基于第1ch 预测参数与第2ch预测参数之间的相关性(依赖关系),由第1ch预测参数分析单元521所获得的第1ch预测量化参数而估计第2ch预测参数,并利用该第2ch预测参数进行高效率的量化。具体地说,如以下那样。 
将在第1ch预测参数分析单元521所获得的第1ch预测量化参数(延迟时间差和振幅比)假设为Dq1和gq1,并将通过分析而求出的第2ch预测参数(量化以前)假设为D2和g2。如上述,单声道信号是作为第1ch语音信号与第2ch语音信号的中间的信号而被生成的信号,因此第1ch预测参数与第2ch预测参数之间的相关性较大。于是,使用第1ch预测量化参数,通过式(18)和(19)来估计第2ch预测参数Dp2和gp2。 
Dp2=-Dq1   …式(18) 
gp2=1/gq1  …式(19) 
并且,以式(20)和式(21)表示的估计残差(与估计值之间的差分值)δD2和δg2作为对象来进行第2ch预测参数的量化。这些估计残差与第2ch预测参数本身相比分散较小,因此能够进行效率更高的量化。 
δD2=D2-Dp2    …式(20) 
δg2=g2-gp2    …式(21) 
另外,式(18)和式(19)仅仅是一个例子,也可以通过利用第1ch预测参数和第2ch预测参数的相关性(依赖关系)的其它方法,进行第2ch预测参数的估计和量化。还有,也可以准备以第1ch预测参数和第2ch预测参数为一组的码本,并通过矢量量化来进行量化。再者,可以使用由图2或图4的结构获得的中间预测参数,对第1ch预测参数和第2ch预测参数进行分析和量化。此时,因为能够预先估计第1ch预测参数和第2ch预测参数,所以可削减分析所需的运算量。 
本实施方式的语音解码装置的结构与实施方式2(图8)大致相同。但有如下不同,即,第2ch预测参数解码单元625在第2ch预测参数量化码的解码时,使用第1ch预测量化参数进行解码等等,进行适应于语音编码装置700的结构的解码处理。 
(实施方式4) 
在第1ch语音信号和第2ch语音信号之间的相关较小时,即使进行由实施方式1说明的单声道信号的生成,有时不能够完全地生成在空间特性上的中间信号。因此,本实施方式的语音编码装置基于第1ch与第2ch之间的相 关性而切换单声道信号的生成方法。图10表示本实施方式的单声道信号生成单元101的结构。另外,在图10中,对与实施方式1(图2)相同的结构赋予相同标号,并省略说明。 
相关判定单元801计算第1ch语音信号与第2ch语音信号之间的相关度,并判定该相关度是否大于阈值。并且,相关判定单元801基于判定结果来控制切换单元802和804。例如,通过求各个信道信号间的互相关函数的最大值(归一化值)并将其与预定的阈值进行比较,而进行相关度的计算和阈值判定。 
相关判定单元801在相关度大于阈值时,对切换单元802进行切换以使第1ch语音信号和第2ch语音信号被输入到信道间预测分析单元201和单声道信号计算单元203。同时将切换单元804切换到单声道信号计算单元203端。由此,在第1ch和第2ch的相关度大于阈值时,通过如实施方式1说明的那样来生成单声道信号。 
另一方面,相关判定单元801在相关度为阈值以下时,对切换单元802进行切换以使第1ch语音信号和第2ch语音信号被输入到平均值信号计算单元803,同时将切换单元804切换到平均值信号计算单元803端。因此,此时由平均值信号计算单元803通过式(22)来计算第1ch语音信号和第2ch语音信号的平均值的信号s_av(n),并将其作为单声道信号输出。 
s_av(n)=(s_ch1(n)+s_ch2(n))/2  其中,n=0~NF-1  …式(22) 
这样,根据本实施方式,在第1ch语音信号和第2ch语音信号之间的相关较小时,使第1ch语音信号和第2ch语音信号的平均值的信号为单声道信号,因此能够防止在第1ch语音信号和第2ch语音信号之间的相关较小时的音质恶化。并且,因为以基于两信道间的相关性的适当的编码模式进行编码,所以能够实现编码效率的提高。 
另外,也可以对如上述基于第1ch与第2ch之间的相关性切换生成方法而并生成的单声道信号,进行与第1ch与第2ch之间的相关性对应的可扩展编码。在第1ch与第2ch之间的相关度大于阈值时,通过在实施方式2或实施方式3所示的结构,在核心层对单声道信号进行编码,而在扩展层利用采用单声道解码信号的各个信道信号预测而进行编码。另一方面,在第1ch与第2ch之间的相关度为阈值以下时,在核心层对单声道信号进行编码后,在扩展层通过适合于两信道间的相关性较低的情况的其它的可扩展结构而进行 编码。以适合于相关性较低的情况的另外的可扩展结构进行的编码有,例如,不使用信道间预测而对各个信道的信号与单声道解码信号的差分信号直接编码的方法。另外,在将CELP编码适用于核心层的编码和扩展层的编码时,有在扩展层的编码中不使用信道间预测,而直接使用单声道驱动声源信号来进行编码等的方法。 
(实施方式5) 
本实施方式的语音编码装置,在扩展层编码单元中仅对第1ch进行编码,并且,在该编码中,使用量化中间预测参数来合成第1ch预测信号。图11表示本实施方式的语音编码装置900的结构。另外,在图11中,对与实施方式2(图5)相同的结构赋予相同标号,并省略说明。 
在本实施方式中,单声道信号生成单元101采用如上述图4所示的结构。即,单声道信号生成单元101具备中间预测参数量化单元204。该中间预测参数量化单元204对中间预测参数进行量化,并输出量化中间预测参数和中间预测参数量化码。这里,量化中间预测参数是对上述的D1m、D2m、g1m和g2m进行量化后的参数。量化中间预测参数被输入到扩展层编码单元520的第1ch预测信号合成单元901。另外,中间预测参数量化码与单声道信号编码数据和第1ch预测残差编码数据复用,作为编码数据传输到语音解码装置。 
在扩展层编码单元520中,第1ch预测信号合成单元901由单声道解码信号和量化中间预测参数合成第1ch预测信号,并将该第1ch预测信号输出到减法器523。具体而言,第1ch预测信号合成单元901通过式(23)所示的预测,由单声道解码信号sd_mono(n)合成第1ch的预测信号sp_ch1(n)。 
sp_ch1(n)=(1/g1m)·sd_mono(n+D1m
其中,n=0~NF-1…式(23) 
下面,说明本实施方式的语音解码装置。图12表示本实施方式的语音解码装置1000的结构。另外,在图12中,对与实施方式2(图8)相同的结构赋予相同标号,并省略说明。 
在扩展层解码单元620中,中间预测参数解码单元1001对输入的中间预测参数量化码进行解码,将量化中间预测参数输出到第1ch预测信号合成单元1002和第2ch解码信号生成单元1003。 
第1ch预测信号合成单元1002从单声道解码信号和量化中间预测参数来预测第1ch语音信号,并将该第1ch预测语音信号输出到加法器624。具体而 言,第1ch预测信号合成单元1002与语音编码装置900的第1ch预测信号合成单元901同样地,通过上述式(23)所示的预测,由单声道解码信号sd_mono(n)合成第1ch的预测信号sp_ch1(n)。 
另一方面,单声道解码信号和第1ch解码信号也被输入到第2ch解码信号生成单元1003。然后,第2ch解码信号生成单元1003由量化中间预测参数、单声道解码信号和第1ch解码信号生成第2ch解码信号。具体而言,第2ch解码信号生成单元1003根据从上述的式(13)的关系而获得的式(24),而生成第2ch解码信号。另外,在式(24)中,sd_ch1是第1ch解码信号。 
sd_ch2(n)=1/g2m·{2·sd_mono(n+D2m)-g1m·sd_ch1(n-D1m+D2m)} 
其中,n=0~NF-1…式(24) 
另外,在上述说明中,说明了在扩展层编码单元520仅合成第1ch的预测信号的结构,但也可以是仅合成第2ch的预测信号的结构而取代第1ch。也就是说,在本实施方式中,采用在扩展层编码单元520中仅对立体声信号中的一个信道进行编码的结构。 
这样,根据本实施方式,采用在扩展层编码单元520中仅对立体声信号的一个信道进行编码的结构,并且,将用于合成该一个信道的预测信号的预测参数共用为单声道信号生成用的中间预测参数,因此能够提高编码效率。另外,因为采用在扩展层编码单元520中仅对立体声信号的一个信道进行编码的结构,所以与对双方信道进行编码的结构相比,能够提高扩展层编码单元的编码效率并实现低比特率化。 
另外,在本实施方式中,作为在单声道信号生成单元101获得的中间预测参数,除了如上述的方法分别计算以第1ch和第2ch为基准的不同的参数外,也可以计算双方信道公用的参数。例如,将通过式(25)和(26)计算出的参数Dm和gm的量化码作为编码数据而传输到语音解码装置1000,并以根据式(27)~(30)从参数Dm和gm计算出的D1m、g1m、D2m和g2m,作为以第1ch和第2ch为基准的中间预测参数使用。通过这样的方法,能够进一步提高向语音解码装置1000传输的中间预测参数的编码效率。 
Dm={(D12-D21)/2}/2  …式(25) 
g m = { g 12 &CenterDot; ( 1 / g 21 ) } &CenterDot; &CenterDot; &CenterDot; 式(26) 
D1m=Dm    …式(27) 
D2m=-Dm    …式(28) 
g1m=gm    …式(29) 
g2m=1/gm    …式(30) 
另外,也可以准备多个中间预测参数的候补,并该多个候补中,将使在扩展层编码单元520的编码后的编码失真(仅在扩展层编码单元520中的失真,或者在核心层编码单元510中的失真和在扩展层编码单元520中的失真的总和)最小的中间预测参数,用于扩展层编码单元520中的编码。由此,能够选择可提高在扩展层合成预测信号时的预测性能的、最适当的参数,并能够实现音质的进一步的提高。具体的步骤如下。 
<步骤1:生成单声道信号> 
在单声道信号生成单元101输出中间预测参数的多个候补,同时输出对应于各个候补而生成的单声道信号。例如,以预测失真小的顺序,或者以各个信道信号间的相互相关大的顺序,以规定数的中间预测参数作为多个候补输出等等。 
<步骤2:编码单声道信号> 
在单声道信号编码单元102中,使用对应于中间预测参数的多个候补而生成的单声道信号来进行单声道信号的编码,并对多个候补的每一个,输出单声道信号编码数据和编码失真(单声道信号编码失真)。 
<步骤3:第1ch编码> 
在扩展层编码单元520中,使用中间预测参数的多个候补来合成多个第1ch预测信号,并进行第1ch的编码,并且,对多个候补的每一个,输出编码数据(第1ch预测残差编码数据)和编码失真(立体声编码失真)。 
<步骤4:选择最小编码失真> 
在扩展层编码520中,从中间预测参数的多个候补中,决定使在步骤2和步骤3获得的编码失真的总和(或者,在步骤2获得的编码失真的总和或是在步骤3获得的编码失真的总和的任意一方)最小的中间预测参数为用于编码的参数。并将与该中间预测参数对应的单声道信号编码数据、中间预测参数量化码以及第1ch预测残差编码数据传输到语音解码装置1000。 
另外,也可以由核心层编码单元510和扩展层编码单元520以如下前提下的比特分配进行编码,即,作为中间预测参数的多个候补之一,包含D1m=D2m=0、g1m=g2m=1.0(相当于一般的单声道信号的生成),并在将该候补用于编码时不传输中间预测参数的前提(仅传输选择信息(1比特)作为一般的单声道化模式的选择标记)。如此一来,能够实现依照编码失真最小化基准的最 适当的编码,其包含一般的单声道化模式作为候补。并且,因为在选择一般的单声道化模式时不需传输中间预测参数,所以通过对其它编码数据分配比特而能够实现音质的提高。 
另外,在本实施方式,也可以在核心层的编码和扩展层的编码中使用CELP编码。此时,在扩展层使用通过CELP编码而获得的单声道编码驱动声源信号,进行各个信道信号的LPC预测残差信号的预测。 
另外,在作为核心层的编码和扩展层的编码使用CELP编码时,也可以在频域对声源信号进行编码,以取代在时域进行驱动声源的搜索。 
另外,上述各个实施方式的语音编码装置和语音解码装置可装载于移动通信***中所使用的无线通信移动台装置和无线通信基站装置等无线通信装置。 
另外,在上述各个实施方式中,举例说明了以硬件构成本发明的情况,但也能够以软件实现本发明。 
另外,用于上述各个实施方式的说明中的各功能块通常被作为集成电路的LSI来实现。这些块既可以被单独地集成为一个芯片,也可以一部分或全部被集成为一个芯片。 
虽然此处称为LSI,但根据集成程度,可以被称为IC、***LSI、超大LSI(Super LSI)、或特大LSI(Ultra LSI)。 
另外,实现集成电路化的方法不仅限于LSI,也可使用专用电路或通用处理器来实现。也可以使用在LSI制造后可编程的FPGA(Field ProgrammableGate Array),或者可重构LSI内部的电路单元的连接和设定的可重构处理器。 
再者,随着半导体的技术进步或随之派生的其它技术的出现,如果能够出现替代LSI集成电路化的新技术,当然可利用新技术进行功能块的集成化。还存在着适用生物技术等的可能性。 
本说明书是根据2004年12月28日申请的日本专利申请第2004-380980号以及2005年5月30日申请的日本专利申请2005-157808号。其内容全部包含于此。 
工业实用性 
本发明可适用于移动通信***或使用因特网协议的分组通信***等中的通信装置。 

Claims (6)

1.一种语音编码装置,包括:
第一生成单元,以包含第一信道信号和第二信道信号的立体声信号作为输入信号,基于所述第一信道信号与所述第二信道信号之间的时间差,以及所述第一信道信号与所述第二信道信号的振幅比,求两信道间的预测参数,并根据所述预测参数计算中间预测参数,继而使用所述中间预测参数,由所述第一信道信号和所述第二信道信号生成单声道信号;
编码单元,对所述单声道信号进行编码;以及
合成单元,基于从所述单声道信号获得的信号,合成所述第一信道信号和所述第二信道信号的预测信号。
2.如权利要求1所述的语音编码装置,其中,还包括:
第二生成单元,以所述立体声信号作为输入信号,对所述第一信道信号和所述第二信道信号进行平均而生成单声道信号;以及
切换单元,基于所述第一信道信号和所述第二信道信号之间的相关度,在所述第一生成单元和所述第二生成单元之间切换所述立体声信号的输入目的地,
所述切换单元在所述相关度大于阈值时,将所述立体声信号的输入目的地切换到第一生成单元侧,而在所述相关度为阈值以下时,将所述立体声信号的输入目的地切换到第二生成单元侧。
3.如权利要求1所述的语音编码装置,其中,
所述合成单元使用所述第一信道信号或所述第二信道信号相对于所述单声道信号的延迟差和振幅比,合成所述预测信号。
4.一种无线通信移动台装置,包括权利要求1所述的语音编码装置。
5.一种无线通信基站装置,包括权利要求1所述的语音编码装置。
6.一种语音编码方法,包括:
生成步骤,以包含第一信道信号和第二信道信号的立体声信号作为输入信号,基于所述第一信道信号与所述第二信道信号之间的时间差,以及所述第一信道信号与所述第二信道信号的振幅比,求两信道间的预测参数,并根据所述预测参数计算中间预测参数,继而使用所述中间预测参数,由所述第一信道信号和所述第二信道信号生成单声道信号;
编码步骤,对所述单声道信号进行编码;以及
合成步骤,基于从所述单声道信号获得的信号,合成所述第一信道信号和所述第二信道信号的预测信号。
CN2005800450680A 2004-12-28 2005-12-26 语音编码装置和语音编码方法 Expired - Fee Related CN101091206B (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2004380980 2004-12-28
JP380980/2004 2004-12-28
JP2005157808 2005-05-30
JP157808/2005 2005-05-30
PCT/JP2005/023809 WO2006070757A1 (ja) 2004-12-28 2005-12-26 音声符号化装置および音声符号化方法

Publications (2)

Publication Number Publication Date
CN101091206A CN101091206A (zh) 2007-12-19
CN101091206B true CN101091206B (zh) 2011-06-01

Family

ID=36614874

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2005800450680A Expired - Fee Related CN101091206B (zh) 2004-12-28 2005-12-26 语音编码装置和语音编码方法

Country Status (8)

Country Link
US (1) US7797162B2 (zh)
EP (2) EP2138999A1 (zh)
JP (1) JP5046653B2 (zh)
KR (1) KR20070090219A (zh)
CN (1) CN101091206B (zh)
AT (1) ATE448539T1 (zh)
DE (1) DE602005017660D1 (zh)
WO (1) WO2006070757A1 (zh)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4887288B2 (ja) * 2005-03-25 2012-02-29 パナソニック株式会社 音声符号化装置および音声符号化方法
BRPI0616624A2 (pt) 2005-09-30 2011-06-28 Matsushita Electric Ind Co Ltd aparelho de codificação de fala e método de codificação de fala
US7991611B2 (en) * 2005-10-14 2011-08-02 Panasonic Corporation Speech encoding apparatus and speech encoding method that encode speech signals in a scalable manner, and speech decoding apparatus and speech decoding method that decode scalable encoded signals
US8112286B2 (en) * 2005-10-31 2012-02-07 Panasonic Corporation Stereo encoding device, and stereo signal predicting method
WO2007116809A1 (ja) * 2006-03-31 2007-10-18 Matsushita Electric Industrial Co., Ltd. ステレオ音声符号化装置、ステレオ音声復号装置、およびこれらの方法
WO2008007700A1 (fr) 2006-07-12 2008-01-17 Panasonic Corporation Dispositif de décodage de son, dispositif de codage de son, et procédé de compensation de trame perdue
US8150702B2 (en) * 2006-08-04 2012-04-03 Panasonic Corporation Stereo audio encoding device, stereo audio decoding device, and method thereof
JPWO2008016098A1 (ja) * 2006-08-04 2009-12-24 パナソニック株式会社 ステレオ音声符号化装置、ステレオ音声復号装置およびこれらの方法
US20100100372A1 (en) * 2007-01-26 2010-04-22 Panasonic Corporation Stereo encoding device, stereo decoding device, and their method
KR101453732B1 (ko) * 2007-04-16 2014-10-24 삼성전자주식회사 스테레오 신호 및 멀티 채널 신호 부호화 및 복호화 방법및 장치
WO2008132850A1 (ja) * 2007-04-25 2008-11-06 Panasonic Corporation ステレオ音声符号化装置、ステレオ音声復号装置、およびこれらの方法
GB2453117B (en) * 2007-09-25 2012-05-23 Motorola Mobility Inc Apparatus and method for encoding a multi channel audio signal
JPWO2009142017A1 (ja) * 2008-05-22 2011-09-29 パナソニック株式会社 ステレオ信号変換装置、ステレオ信号逆変換装置およびこれらの方法
EP2293292B1 (en) * 2008-06-19 2013-06-05 Panasonic Corporation Quantizing apparatus, quantizing method and encoding apparatus
US20110137661A1 (en) * 2008-08-08 2011-06-09 Panasonic Corporation Quantizing device, encoding device, quantizing method, and encoding method
WO2010017833A1 (en) * 2008-08-11 2010-02-18 Nokia Corporation Multichannel audio coder and decoder
WO2010091555A1 (zh) * 2009-02-13 2010-08-19 华为技术有限公司 一种立体声编码方法和装置
WO2010098120A1 (ja) * 2009-02-26 2010-09-02 パナソニック株式会社 チャネル信号生成装置、音響信号符号化装置、音響信号復号装置、音響信号符号化方法及び音響信号復号方法
US8666752B2 (en) * 2009-03-18 2014-03-04 Samsung Electronics Co., Ltd. Apparatus and method for encoding and decoding multi-channel signal
CN102157150B (zh) 2010-02-12 2012-08-08 华为技术有限公司 立体声解码方法及装置
CN102157152B (zh) 2010-02-12 2014-04-30 华为技术有限公司 立体声编码的方法、装置
CN104781877A (zh) * 2012-10-31 2015-07-15 株式会社索思未来 音频信号编码装置以及音频信号解码装置
CN109215667B (zh) 2017-06-29 2020-12-22 华为技术有限公司 时延估计方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1200645A (zh) * 1997-05-23 1998-12-02 德国汤姆逊-布朗特公司 多声道音频信号中误差掩蔽的方法和装置
EP1016319B1 (de) * 1997-09-26 2001-08-29 Fraunhofer-Gesellschaft Zur Förderung Der Angewandten Forschung E.V. Verfahren und vorrichtung zum codieren eines zeitdiskreten stereosignals
CN1524400A (zh) * 2001-07-10 2004-08-25 ���뼼�����ɷݹ�˾ 用于低比特率音频编码应用的高效可标度参数立体声编码

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04324727A (ja) 1991-04-24 1992-11-13 Fujitsu Ltd ステレオ符号化伝送方式
SE519981C2 (sv) 2000-09-15 2003-05-06 Ericsson Telefon Ab L M Kodning och avkodning av signaler från flera kanaler
US7292901B2 (en) * 2002-06-24 2007-11-06 Agere Systems Inc. Hybrid multi-channel/cue coding/decoding of audio signals
ES2323294T3 (es) * 2002-04-22 2009-07-10 Koninklijke Philips Electronics N.V. Dispositivo de decodificacion con una unidad de decorrelacion.
US8498422B2 (en) * 2002-04-22 2013-07-30 Koninklijke Philips N.V. Parametric multi-channel audio representation
KR101049751B1 (ko) * 2003-02-11 2011-07-19 코닌클리케 필립스 일렉트로닉스 엔.브이. 오디오 코딩
ES2355240T3 (es) 2003-03-17 2011-03-24 Koninklijke Philips Electronics N.V. Procesamiento de señales de múltiples canales.
JP2004325633A (ja) * 2003-04-23 2004-11-18 Matsushita Electric Ind Co Ltd 信号符号化方法、信号符号化プログラム及びその記録媒体
JP4324727B2 (ja) 2003-06-20 2009-09-02 カシオ計算機株式会社 撮影モードの設定情報転送システム
JP2005157808A (ja) 2003-11-26 2005-06-16 Star Micronics Co Ltd カード保管装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1200645A (zh) * 1997-05-23 1998-12-02 德国汤姆逊-布朗特公司 多声道音频信号中误差掩蔽的方法和装置
EP1016319B1 (de) * 1997-09-26 2001-08-29 Fraunhofer-Gesellschaft Zur Förderung Der Angewandten Forschung E.V. Verfahren und vorrichtung zum codieren eines zeitdiskreten stereosignals
CN1524400A (zh) * 2001-07-10 2004-08-25 ���뼼�����ɷݹ�˾ 用于低比特率音频编码应用的高效可标度参数立体声编码

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JP特开2004-325633A 2004.11.18
JP特开平4-324727A 1992.11.13

Also Published As

Publication number Publication date
JPWO2006070757A1 (ja) 2008-06-12
KR20070090219A (ko) 2007-09-05
JP5046653B2 (ja) 2012-10-10
EP2138999A1 (en) 2009-12-30
EP1821287A4 (en) 2008-03-12
EP1821287B1 (en) 2009-11-11
EP1821287A1 (en) 2007-08-22
WO2006070757A1 (ja) 2006-07-06
US7797162B2 (en) 2010-09-14
ATE448539T1 (de) 2009-11-15
DE602005017660D1 (de) 2009-12-24
CN101091206A (zh) 2007-12-19
US20080091419A1 (en) 2008-04-17

Similar Documents

Publication Publication Date Title
CN101091206B (zh) 语音编码装置和语音编码方法
CN101091208B (zh) 语音编码装置和语音编码方法
CN101167124B (zh) 语音编码装置和语音编码方法
CN101128866B (zh) 多声道音频编码中的优化保真度和减少的信令
CN101842832B (zh) 编码装置和解码装置
CN101167126B (zh) 语音编码装置和语音编码方法
CN103339670B (zh) 确定多通道音频信号的通道间时间差
CN103180899B (zh) 立体声信号的编码装置、解码装置、编码方法及解码方法
JP4498677B2 (ja) 複数チャネル信号の符号化及び復号化
JP2018533057A (ja) セカンダリチャンネルを符号化するためにプライマリチャンネルのコーディングパラメータを使用するステレオ音声信号を符号化するための方法およびシステム
EP1801783B1 (en) Scalable encoding device, scalable decoding device, and method thereof
CN101006495A (zh) 语音编码装置、语音解码装置、通信装置以及语音编码方法
CN103187066A (zh) 处理音频帧以在不同编解码器之间转变的方法和装置
JP4464707B2 (ja) 通信装置
US8612239B2 (en) Apparatus and method for coding audio data based on input signal distribution characteristics of each channel
CN101147191A (zh) 语音编码装置和语音编码方法
Eriksson et al. Exploiting interframe correlation in spectral quantization: a study of different memory VQ schemes
JPH1097295A (ja) 音響信号符号化方法及び復号化方法
US8024187B2 (en) Pulse allocating method in voice coding
JPH10240299A (ja) 音声符号化及び復号装置
US20080243489A1 (en) Multiple stream decoder
WO2024051955A1 (en) Decoder and decoding method for discontinuous transmission of parametrically coded independent streams with metadata
CN116110424A (zh) 一种语音带宽扩展方法及相关装置
CN117334204A (zh) 信号处理方法、装置、计算机设备、存储介质及程序产品
CN103733256A (zh) 音频信号处理方法、音频编码设备、音频解码设备和采用所述方法的终端

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
ASS Succession or assignment of patent right

Owner name: MATSUSHITA ELECTRIC (AMERICA) INTELLECTUAL PROPERT

Free format text: FORMER OWNER: MATSUSHITA ELECTRIC INDUSTRIAL CO, LTD.

Effective date: 20140722

C41 Transfer of patent application or patent right or utility model
TR01 Transfer of patent right

Effective date of registration: 20140722

Address after: California, USA

Patentee after: PANASONIC INTELLECTUAL PROPERTY CORPORATION OF AMERICA

Address before: Osaka Japan

Patentee before: Matsushita Electric Industrial Co.,Ltd.

TR01 Transfer of patent right

Effective date of registration: 20170523

Address after: Delaware

Patentee after: III Holdings 12 LLC

Address before: California, USA

Patentee before: PANASONIC INTELLECTUAL PROPERTY CORPORATION OF AMERICA

TR01 Transfer of patent right
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20110601

CF01 Termination of patent right due to non-payment of annual fee