CN101636919A - 用于处理音频信号的方法和装置 - Google Patents

用于处理音频信号的方法和装置 Download PDF

Info

Publication number
CN101636919A
CN101636919A CN200880008659A CN200880008659A CN101636919A CN 101636919 A CN101636919 A CN 101636919A CN 200880008659 A CN200880008659 A CN 200880008659A CN 200880008659 A CN200880008659 A CN 200880008659A CN 101636919 A CN101636919 A CN 101636919A
Authority
CN
China
Prior art keywords
information
standalone
enhancing
strengthens
downward mixing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN200880008659A
Other languages
English (en)
Other versions
CN101636919B (zh
Inventor
吴贤午
郑亮源
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of CN101636919A publication Critical patent/CN101636919A/zh
Application granted granted Critical
Publication of CN101636919B publication Critical patent/CN101636919B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/20Vocoders using multiple modes using sound class specific coding, hybrid encoders or object based coding
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Mathematical Physics (AREA)
  • Theoretical Computer Science (AREA)
  • Stereophonic System (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

本发明公开了一种用于处理音频信号的方法和装置。在这里,所述方法包括接收向下混频信息,该向下混频信息具有向下混频的至少两个独立对象和背景对象;使用第一增强对象信息将所述向下混频信息分离成第一独立对象和临时背景对象;以及使用第二增强对象信息从临时背景对象中提取第二独立对象。

Description

用于处理音频信号的方法和装置
技术领域
本发明涉及一种用于处理音频信号的方法和装置,更特别地,涉及一种可以处理通过数字介质、广播信号等接收到的音频信号的用于处理音频信号的方法和装置。
背景技术
通常,在将多个对象向下混频(downmix)成单声道或立体声信号的处理中,从每个对象信号中提取参数。可以在解码器中使用此类参数,且可以由用户的选择来控制每个对象的摇摆(panning)和增益。
发明公布
技术问题
为了控制每个对象信号,应对包括在向下混频中的每个源进行适当的定位和摇摆。
此外,为了保证使用面向通道的解码方法的向下兼容性,应将对象信息灵活地转换成用于向上混频的多通道参数。
技术解决方案
为了解决所述问题而设计的本发明的一个目的在于,提供一种可以控制对象的增益和摇摆的用于处理音频信号的方法和装置,但不限于此。
为了解决所述问题而设计的本发明的另一个目的在于,提供一种可以基于用户的选择来控制对象的增益和摇摆的用于处理音频信号的方法和装置。
为了解决所述问题而设计的本发明的又一目的在于,提供一种用于处理音频信号的方法和装置,即使已在大范围内调节了口声(vocalsound)(或音乐)或背景音乐的增益时,该方法和装置也不产生声音质量方面的失真。
有利效果
本发明具有以下效果和优点。
首先,可以控制对象的增益和摇摆。
其次,可以基于用户的选择来控制对象的增益和摇摆。
第三,即使当口声(或音乐)和背景音乐中的任一个被完全抑制时,也可以防止由于增益调节而引起的声音质量方面的失真。
而且,最后,当存在诸如口声等至少两个独立对象时(即当存在立体声通道或多个语音信号时),也可以防止由于增益调节而引起的声音质量方面的失真。
附图说明
图1图解示出根据本发明的实施例的用于处理音频信号的装置的结构的框图。
图2图解示出包括在根据本发明的实施例的用于处理音频信号的装置中的增强对象编码器的结构的详细框图。
图3示出增强对象生成单元和对象信息生成单元的第一示例。
图4示出增强对象生成单元和对象信息生成单元的第二示例。
图5示出增强对象生成单元和对象信息生成单元的第三示例。
图6示出增强对象生成单元和对象信息生成单元的第四示例。
图7示出增强对象生成单元和对象信息生成单元的第五示例。
图8示出边信息(side information)位流的各种示例。
图9图解示出包括在根据本发明的实施例的用于处理音频信号的装置中的信息生成单元的结构的详细框图。
图10示出增强对象信息解码单元的详细结构的示例。
图11示出对象信息解码单元的详细结构的示例。
具体实施方式
本发明的目的可以通过提供一种用于处理音频信号的方法来实现,该方法包括:接收向下混频信息,该向下混频信息具有向下混频的至少两个独立对象和背景对象;使用第一增强对象信息将所述向下混频信息分离成第一独立对象和临时背景对象;以及使用第二增强对象信息从临时背景对象中提取第二独立对象。
根据本发明,所述独立对象可以对应于基于对象的信号,且所述背景对象可以对应于一信号,该信号包括至少一个基于通道的信号或具有向下混频的至少一个基于通道的信号。
根据本发明,所述背景对象可以包括左通道信号和右通道信号。
根据本发明,所述第一增强对象信息和所述第二增强对象信息可以对应于残留信号。
根据本发明,所述第一增强对象信息和所述第二增强对象信息可以包括在边信息位流中,且包括在边信息位流中的增强对象的数目和包括在向下混频信息中的独立对象的数目可以彼此相等。
根据本发明,可以由使用N个输入生成(N+1)个输出的模块来执行将所述向下混频信息分离。
根据本发明,所述方法还可以包括接收对象信息和混频信息;以及使用所述对象信息和所述混频信息生成用于调节所述第一独立对象和所述第二独立对象的增益的多通道信息。
根据本发明,可以基于对象位置信息、对象增益信息、以及重放配置信息中的至少一个生成所述混频信息。
根据本发明,提取第二独立对象可以对应于提取第二临时背景对象和第二独立对象,并且还可以包括使用第二增强对象信息从第二临时背景对象中提取第三独立对象。
根据本发明,本发明的另一目的可以通过提供一种能够使用计算机来读取的其中存储有程序的记录介质来实现,所述程序执行:接收向下混频信息,该向下混频信息具有向下混频的至少两个独立对象和背景对象;使用第一增强对象信息将所述向下混频信息分离成第一独立对象和临时背景对象;以及使用第二增强对象信息从临时背景对象中提取第二独立对象。
本发明的另一目的可以通过提供一种用于处理音频信号的装置来实现,该装置包括:信息接收单元,其接收向下混频信息,该向下混频信息具有向下混频的至少两个独立对象和背景对象;第一增强对象信息解码单元,其使用第一增强对象信息将所述向下混频分离成第一独立对象和临时背景对象;以及第二增强对象信息解码单元,其使用第二增强对象信息从临时背景对象中提取第二独立对象。
本发明的另一目的可以通过提供一种用于处理音频信号的方法来实现,该方法包括:使用第一独立对象和背景对象生成临时背景对象和第一增强对象信息;使用第二独立对象和临时背景对象生成第二增强对象信息;以及发送所述第一增强对象信息和所述第二增强对象信息。
本发明的另一目的可以通过提供一种用于处理音频信号的装置来实现,该装置包括:第一增强对象信息生成单元,其使用第一独立对象和背景对象生成临时背景对象和第一增强对象信息;第二增强对象信息生成单元,其使用第二独立对象和临时背景对象生成第二增强对象信息;以及多路复用器,其发送所述第一增强对象信息和所述第二增强对象信息。
本发明的另一目的可以通过提供一种用于处理音频信号的方法来实现,该方法包括:接收向下混频信息,该向下混频信息具有向下混频的独立对象和背景对象;生成用于控制所述独立对象的第一多通道信息;以及使用所述向下混频信息和所述第一多通道信息生成用于控制所述背景对象的第二多通道信息。
根据本发明,生成第二多通道信息可以包括从所述向下混频信息中减去具有应用于其中的第一多通道信息的信号。
根据本发明,可以在时域和频域之一内执行从所述向下混频信息中减去信号。
根据本发明,当所述向下混频信息的通道的数目与具有应用于其中的第一多通道信息的所述信号的通道的数目彼此相等时,可以相对于每个通道执行从所述向下混频信息中减去信号。
根据本发明,所述方法还可以包括使用所述第一多通道信息和所述第二多通道信息从所述向下混频信息生成输出通道。
根据本发明,所述方法还可以包括接收增强对象信息;以及使用所述增强对象信息将所述独立对象和所述背景对象从所述向下混频信息分离。
根据本发明,所述方法还可以包括接收混频信息,且可以基于所述混频信息来执行生成第一多通道信息和生成第二多通道信息。
根据本发明,可以基于对象位置信息、对象增益信息、以及重放配置信息中的至少一个生成所述混频信息。
根据本发明,可以经由广播信号来接收所述向下混频信息。
根据本发明,可以在数字介质上接收所述向下混频信息。
根据本发明,本发明的另一目的可以通过提供一种能够使用计算机来读取的其中存储有程序的记录介质来实现,所述程序执行:接收向下混频信息,该向下混频信息具有向下混频的独立对象和背景对象;生成用于控制所述独立对象的第一多通道信息;以及使用所述向下混频信息和所述第一多通道信息生成用于控制所述背景对象的第二多通道信息。
本发明的另一目的可以通过提供一种用于处理音频信号的装置来实现,该装置包括:信息接收单元,其接收向下混频信息,该向下混频信息具有向下混频的独立对象和背景对象;以及多通道生成单元,其生成用于控制所述独立对象的第一多通道信息,并使用所述向下混频信息和所述第一多通道信息生成用于控制所述背景对象的第二多通道信息。
本发明的另一目的可以通过提供一种用于处理音频信号的方法来实现,该方法包括:接收向下混频信息,该向下混频信息具有向下混频的至少一个独立对象和背景对象;接收对象信息和混频信息;以及使用所述对象信息和增强对象信息从所述向下混频信息中提取至少一个独立对象。
根据本发明,所述对象信息可以对应于与所述独立对象和所述背景对象相关的信息。
根据本发明,所述对象信息可以包括所述独立对象与所述背景对象之间的相关性信息和电平信息中的至少一个。
根据本发明,所述增强对象信息可以包括残留信号。
根据本发明,可以在将至少一个基于对象的信号分组为增强对象的处理期间提取所述残留信号。
根据本发明,所述独立对象可以对应于基于对象的信号,且所述背景对象可以对应于一信号,该信号包括至少一个基于通道的信号或具有向下混频的至少一个基于通道的信号。
根据本发明,所述背景对象可以包括左通道信号和右通道信号。
根据本发明,可以经由广播信号来接收所述向下混频信息。
根据本发明,可以在数字介质上接收所述向下混频信息。
根据本发明,本发明的另一目的可以通过提供一种能够使用计算机来读取的具有存储在其中的程序的记录介质来实现,所述程序执行:接收向下混频信息,该向下混频信息具有向下混频的至少一个独立对象和背景对象;接收对象信息和混频信息;以及使用所述对象信息和增强对象信息从所述向下混频信息中提取至少一个独立对象。
本发明的又一目的可以通过提供一种用于处理音频信号的装置来实现,该装置包括:信息接收单元,其接收向下混频信息,该向下混频信息具有向下混频的至少一个独立对象和背景对象,并接收对象信息和混频信息;以及信息生成单元,其使用所述对象信息和所述增强对象信息从所述向下混频中提取至少一个独立对象。
发明实施方式
现在将对本发明的优选实施例进行详细参考,其示例在附图中示出。另外,虽然本发明中使用的术语选自通常已知和使用的术语,但本发明的说明书中提及的一些术语已经过申请人缜密选择,其详细意义在本说明书的相关部分中被描述。此外,需要并非简单地通过使用的实际术语而是通过每个术语中包含的意义来理解本发明。而且本发明的说明中所描述的实施例和附图中所示的结构仅仅是本发明的示例性最优选实施例。而且,由于优选实施例不能整体地表示本发明的技术精神和范围,所以意图在于本发明涵盖本发明的修改和变更,只要它们在随附权利要求及其等价物的范围内。
具体是,在本发明的说明中,信息共同地表示术语值、参数、系数、元素等等。而且,在某些情况下,可以以不同的方式来解释术语的定义。然而,本发明将不限于此类定义。
特别地,术语对象是包括基于对象的信号和基于通道的信号两者的概念。然而,在某些情况下,术语对象可以只指示基于对象的信号。
图1图解示出根据本发明的实施例的用于处理音频信号的装置的结构的框图。参照图1,根据本发明的实施例的用于处理音频信号的装置包括编码器100和解码器200。在这里,编码器100包括对象编码器110、增强对象编码器120、以及多路复用器130。并且,解码器200包括解复用器210、信息生成单元220、向下混频处理单元230、以及多通道解码器240。在这里,在简要地描述包括在根据本发明的实施例的用于处理音频信号的装置中的每个部分之后,将在稍后处理中参照图2至图11详细描述编码器100的增强对象编码器120和解码器220的信息生成单元220。
首先,对象编码器110使用至少一个对象(objN)以便生成对象信息(OP)。在这里,对象信息(OP)对应于与基于对象的信号有关的信息且可以包括对象电平信息、对象相关性信息等等。同时,对象编码器110将至少一个对象分组以便生成向下混频。此处理可以与将参照图2描述的通过使增强对象生成单元122将至少一个对象分组生成增强对象的处理相同。然而,本发明将不仅限于此示例。
增强对象编码器120使用至少一个对象(objN)以便生成增强对象信息(OP)和向下混频(DMX)(LL和RL)。更具体地,将至少一个基于对象的信号分组以便生成增强对象(EO),并使用基于通道的信号和增强对象(EO)以便生成增强对象信息(EOP)。首先,增强对象信息(EOP)可以对应于稍后将参照图2详细描述的能量信息(包括电平信息)、残留信号等。同时,本文所述的基于通道的信号对应于不能由每个对象控制且在后文中将称为背景对象的背景信号。并且,由于可以由每个对象独立地控制增强对象,所以可以将增强对象称为独立对象。
多路复用器130将由对象编码器110生成的对象信息(OP)和由增强对象编码器120生成的增强对象信息(EOP)复用,从而生成边信息位流。同时,该边信息位流可以包括对应于基于通道的信号的空间信息(或空间参数)(SP)(未示出)。在这里,空间信息对应于将基于通道的信号解码所需的信息,且空间信息可以包括通道电平信息、通道相关性信息等等。然而,本发明将不限于此示例。
解码器的解复用器210从边信息位流中提取对象信息(OP)和增强对象信息(EOP)。而且,当在边信息位流中包括空间信息(SP)时,解复用器210还提取空间信息(SP)。
信息生成单元220使用对象信息(OP)和增强对象信息(EOP)以便生成多通道信息(MI)和向下混频处理信息(DPI)。在生成多通道信息(MI)和向下混频处理信息(DPI)时,可以使用向下混频信息(DMX),这将稍后参照图8详细描述。
向下混频处理单元230使用向下混频处理信息(DPI)以便处理向下混频(DMX)。例如,可以处理向下混频(DMX)以便调节对象的增益或摇摆。
多通道解码器240接收经处理的向下混频并使用多通道信息(MI)来将经处理的向下混频信号进行向上混频(upmix),从而生成多通道信号。
在下文中,将参照图2至图6描述根据各种实施例的编码器100的增强对象编码器120的详细结构。而且,将参照图8详细描述边信息位流的各种实施例。而且,最后,将参照图9和图11来详细描述解码器200的信息生成单元220的详细结构。
图2示出包括在根据本发明的实施例的用于处理音频信号的装置中的增强对象编码器的结构的详细框图。参照图2,增强对象编码器120包括增强对象生成单元122、增强对象信息生成单元124、以及多路复用器126。
增强对象生成单元122将至少一个对象(objN)分组以便生成至少一个增强对象(EOL)。在这里,将增强对象(EOL)分组以便提供高质量控制。例如,可以将增强对象(EOL)分组以便使得能够相对于背景对象独立地完全抑制增强对象(EOL)(或进行相反操作,其中,只再现(或重放)增强对象(EOL),并且其中,将背景对象完全抑制)。在这里,将成为用于分组的主体的对象(objN)可以是基于对象的信号而不是基于通道的信号。并且,可以通过使用各种方法生成增强对象(EO),所述多种方法如下:1)可以使用一个对象作为一个增强对象(即EO1=obj1),2)可以将至少两个对象相加以便配置增强对象(即EO2=obj1+obj2)。而且,3)可以使用从向下混频排除了特定对象的信号作为增强对象(即EO3=D-obj2),且可以使用从向下混频排除了至少两个对象的信号作为增强对象(即EO4=D-obj1-obj2)。方法3)和4)中所述的向下混频(D)的概念不同于上述向下混频(DMX)(LL和RL)的概念,且可以称为只具有基于向下混频对象的信号的信号。因此,可以通过上述四种方法中的至少一个生成增强对象(EO)。
增强对象信息生成单元124使用增强对象(EO)以便生成增强对象信息(EOP)。在这里,增强对象信息(EOP)指的是关于增强对象的信息,该信息可以对应于a)增强对象的能量信息(包括电平信息),b)增强对象(EO)与向下混频(D)之间的关系(例如混频增益),c)根据高时间分辨率或高频率分辨率的增强对象电平信息或增强对象相关性信息,d)相对于增强对象(EO)的时域中的预测信息或包络信息,以及e)具有相对于诸如残留信号等增强对象的时域或谱域的信息的位流。
同时,如果如在第一和第三示例(即EO1=obj1和EO3=D-obj2)所示地生成增强对象(EO),则在上述示例中,增强对象信息(EOP)可以分别生成关于第一和第三示例的增强对象(EO1和EO3)中的每一个的增强对象信息(EOP1和EOP3)。这里,根据第一示例的增强对象信息(EOP1)可以对应于控制根据第一示例的增强对象(EO1)所需的信息(或参数)。并且,根据第三示例的增强对象信息(EOP3)可以用来表示(或代表)只有特定对象(obj2)受到抑制的实例。
增强对象信息生成单元124可以包括一个或多个增强对象信息发生器124-1,...,124-L。更具体地说,增强对象信息生成单元124可以包括生成对应于一个增强对象(EO1)的增强对象信息(EOP1)的第一增强对象信息发生器124-1,且还可以包括生成对应于至少两个增强对象(EO1和EO2)的增强对象信息(EOP2)的第二增强对象信息发生器124-2。同时,可以包括第L个增强对象信息发生器124-L,其不仅使用增强对象(EO1)、而且使用第二增强对象信息发生器124-2的输出生成增强对象信息(EOPL)。可以由通过使用(N+1)个输入生成N个输出的模块来操作增强对象信息发生器124-1,...,124-L中的每一个。例如,可以由通过使用3个输入生成2个输出的模块来操作增强对象信息发生器124-1,...,124-L中的每一个。在下文中,将参照图3至图7来详细描述增强对象信息发生器124-1,...,124-L的多种实施例。同时,增强对象信息生成单元124还可以生成增强增强对象(EEOP),这将稍后参照图7描述。
多路复用器126将从增强对象信息生成单元124生成的至少一个增强对象信息(EOP1,...,EOPL)(和增强增强对象(EEOP))复用。
图3和图7分别示出增强对象生成单元和增强对象信息生成单元的第一至第五示例。图3示出增强对象信息生成单元包括第一增强对象信息发生器的示例。图4至图6分别示出串联地包括至少两个增强参数发生器(第一增强对象信息发生器至第L增强对象信息发生器)的示例。同时,图7示出包括生成增强增强对象信息(EEOP)的第一增强增强对象信息发生器的示例。
首先,参照图3,增强对象生成单元122A接收左通道信号(L)和右通道信号(R)中的每一个作为基于通道的信号,而且接收立体声有声信号(vocal signal)(Vocal1L、Vocal1R、Vocal2L、Vocal2R)作为基于对象的信号,以便生成单个增强对象(有声)。首先,基于通道的信号(L和R)可以对应于具有向下混频的多通道信号(例如,L、R、Ls、Rs、C、LFE)的信号。如上所述,在此处理期间提取的空间信息可以包括边信息位流。
同时,对应于基于对象的信号的立体声有声信号(Vocal1L、Vocal1R、Vocal2L、Vocal2R)可以包括对应于歌手1的口声(Vocal1)的左通道信号(Vocal1L)和右通道信号(Vocal1R)和对应于歌手2的口声(Vocal2)的左通道信号(Vocal2L)和右通道信号(Vocal2R)。同时,虽然在本示例中将其在立体声对象信号中示出,但很明显,可以接收多通道对象信号(Vocal1L、Vocal1R、Vocal1Ls、Vocal1Rs、Vocal1C、Vocal1LFE)并将其分组为单个增强对象(有声)。
如上所述,由于生成单个增强对象(有声),所以增强对象信息生成单元124A只包括对应于单个增强对象(有声)的第一增强对象信息发生器124A-1。第一增强对象信息发生器124A-1使用增强对象(有声)和基于通道的信号(L和R)以便生成第一残留信号(res1)作为增强对象信息(EOP1)和临时背景对象(L1和R1)。临时背景对象(L1和R1)对应于具有基于通道的信号的信号,即添加到增强对象(有声)的背景对象(L和R)。所以,在只存在单个增强对象信息发生器的第三示例中,临时背景对象(L1和R1)可以对应于最终向下混频信号(L1和R1)。
参照图4,如图3的第一示例所示,接收立体声有声信号(Vocal1L、Vocal1R、Vocal2L、Vocal2R)。然而,图4的第二示例中的不同之处在于立体声有声信号被分组成两个增强对象(Vocal1和Vocal2),而不是被分组成单个增强对象。由于存在两个增强对象,所以如上所述,增强对象生成单元124B包括第一增强对象发生器124B-1和第二增强对象发生器124B-2。
第一增强对象发生器124B-1使用背景信号(基于通道的信号(L和R)和第一增强对象信号(Vocal1)),以便生成第一增强对象信息(res1)和临时背景对象(L1和R1)。
第二增强对象发生器124B-2不仅使用第二增强对象信号(Vocal2)而且使用第一临时背景对象(L1和R1),以便生成第二增强对象信息(res2)和背景对象(L2和R2)作为最终向下混频(L1和R1)。在图4所示的第二示例中,增强对象(EO)的数目和增强对象(EOP:res)的数目均等于′2′。。
参照图5,如图4的第二示例所示,增强对象信息生成单元124C包括第一增强对象信息发生器124C-1和第二增强对象发生器124C-2。然而,本示例中的唯一不同在于增强对象(Vocal1L和Vocal1R)由单个基于对象的信号(Vocal1L和Vocal1R)构成而不是由两个基于对象的信号构成。在第三示例中,增强对象(EO)的数目(L)和增强对象信息(EOP)的数目(L)彼此相等。
参照图6,该结构非常类似于图4所示的第二示例。然而,本示例的不同之处在于在增强对象生成单元122中生成总共L个增强对象(Vocal1,...,VocalL)。本示例的另一不同之处在于,除第一增强对象信息发生器124D-1和第二增强对象信息124D-2之外,在增强对象生成单元124D中包括直至第L个增强对象信息发生器124D-L。第L个增强对象信息发生器124D-L使用由第二增强对象信息发生器124D-2生成的第二背景对象(L2和R2)和第L个增强对象(VocalL)以便生成第L个增强对象信息(EOPL和resL)和向下混频信息(LL和RL)(DMX)。
参照图7,图6所示的第四示例的增强对象信息生成单元还包括第一增强增强对象信息发生器124EE-1。可以如下文所示地定义从向下混频(DMX:LL和RL)中去除(或减去)增强对象(EOL)的信号(DDMX)。
[等式1]
DDMX=DMX-EOL
增强增强对象信息(EEOP)不对应于向下混频(DMX:LL和RL)与增强对象(EOL)之间的信息,而是对应于等式1中定义的信号(DDMX)与增强对象(EOL)之间的信息。当从向下混频(DMX)中减去增强对象(EOL)时,可能相对于该增强对象生成量化噪声。可以通过使用对象信息(OP)来消除此类量化噪声,从而增强声音质量。(稍后将参照图9至图11来详细描述此处理)。在这种情况下,相对于包括增强对象(EO)的向下混频(DMX)来控制量化噪声。然而,基本上,存在于从向下混频中去除了增强对象(EO)的向下混频内的量化噪声受到控制。因此,为了以更高的准确度消除(或去除)量化噪声,需要有用于相对于从向下混频中去除了增强对象(EO)的向下混频而消除量化噪声的信息。在这里,可以使用上文定义的增强增强参数(EEOP)。这里,可以通过使用与用于生成对象信息(OP)的方法相同的方法生成增强增强参数。
通过设置有上述部分,根据本发明的实施例的用于处理音频信号的装置的编码器100生成向下混频和边信息位流。
图8示出边信息位流的各种示例。参照图8,更具体地参照图8的(a)和(b),如图8的(a)所示,边信息位流可以只包括由对象编码器110生成的对象信息(OP),且如图8的(b)所示,边信息位流不仅也可以包括对象信息(OP),而且可以包括由增强对象编码器120生成的增强对象信息(EOP)。同时,参照图8的(c),除对象信息(OP)和增强对象信息(EOP)之外,边信息位流还包括增强增强对象信息(EEOP)。因为在一般对象解码器中可以只使用对象信息(OP)来将音频信号解码,所以当此类解码器接收到图8的(b)或(c)所示的位流时,增强对象信息(EOP)和/或增强增强对象信息(EEOP)被丢弃,且只有对象信息(OP)被提取以便用于解码处理。
参照图8的(d),在位流中包括增强对象信息(EOP1,...,EOPL)。如上所述,可以通过使用各种方法生成增强对象信息(EOP)。如果通过使用第一方法生成第一增强对象信息(EOP1)和第二增强对象信息(EOP2),且通过使用第二方法生成第三增强对象信息(EOP3)至第五增强对象信息(EOP5),则可以在位流中包括用于指示生成参数的每种方法的标识符(F1和F2)。如图8(d)所示,可以只将用于分别指示生成参数的每种方法的标识符(F1和F2)插在通过使用与该参数相同的方法生成的每个增强对象信息前面一次。然而,可以将标识符(F1和F2)插在每个增强对象信息前面。
根据本发明的实施例的用于处理音频信号的装置的解码器200接收如上所述地生成的边信息位流和向下混频,以便执行解码。
图9图解示出包括在根据本发明的实施例的用于处理音频信号的装置中的信息生成单元的结构的详细框图。信息生成单元220包括对象信息解码单元、和增强对象信息解码单元224、及多通道信息生成单元226。同时,当从解复用器210接收到用于控制背景对象的空间信息(SP)时,可以将空间信息(SP)直接发送到多通道信息生成单元226,而不在增强对象信息解码单元224和对象信息解码单元222中使用该空间信息(SP)。
首先,增强对象信息解码单元224使用从解复用器210接收到的对象信息(OP)和增强对象信息(EOP)以便提取增强对象(EO),从而输出背景对象(L和R)。将参照图10来详细描述增强对象信息解码单元224的结构。
参照图10,增强对象信息解码单元224包括第一增强对象信息解码器224-1至第L增强对象信息解码器224-L。在这里,第一增强对象信息解码器224-1使用第一增强对象信息(EOPL)以便生成用于将向下混频(MXI)分离成第一增强对象(EOL)(第一独立对象)和第一临时背景对象(LL-1和RL-1)的背景参数(BP)。在这里,第一增强对象可以对应于中心通道,且第一临时背景对象可以对应于左通道和右通道。
同样地,第L增强对象信息解码器224-L使用第L增强对象信息(EOP1)以便生成用于将第(L-1)个临时背景对象(L和R)分离成第L个增强对象(EO1)和背景对象(L和R)的背景参数(BP)。
同时,可以用通过使用N个输入生成N+1个输出(例如通过使用2个输入生成3个输出)的模块来表示第一增强对象信息解码器224-1至第L增强对象信息解码器224-L。
同时,为了生成上述背景参数(BP),增强对象信息解码单元224不仅可以使用增强对象信息(EOP),而且可以使用对象信息(OP)。
在下文中,现在将详细描述使用对象信息(OP)的目的和相关优点。
本发明的目的之一是从向下混频(DMX)中丢弃(或去除)增强对象(EO)。在这里,根据将向下混频编码的方法和将增强对象信息编码的方法,在相应的输出中可能包括量化噪声。在这种情况下,由于量化噪声与原始信号相关联,更具体地说,通过使用对象信息(OP)--其对应于与被分组为增强对象之前的对象有关的信息,可以另外增强声音质量。例如,当第一对象对应于有声对象时,第一对象信息(OP1)包括与口声的时间、频率、以及空间相关的信息。从向下混频(DMX)中减去口声的输出对应于下文所示的等式。在这里,当对从中去除口声的输出使用第一对象信息(OP1)以便抑制口声时,此输出对仍留在口声最初出现的那部分内的量化噪声执行附加抑制。
[等式2]
输出=DMX-EO1
(在这里,DMX指示输入向下混频信号,且EO1′表示编码解码器内的已编码/解码第一增强对象)。
因此,通过相对于特定对象应用增强对象信息(EOP)和对象信息(OP),可以另外增强本发明的性能,且此类增强对象信息(EOP)和对象信息(OP)的应用可以是顺次或同时的。同时,对象信息(OP)可以对应于关于增强对象(独立对象)和背景对象的信息。
返回参照图9,对象信息解码单元222将从解复用器210接收到的对象信息(OP)和从增强对象信息解码单元224接收到的关于增强对象(EO)的对象信息(OP)解码。将参照图11来描述对象信息解码单元222的详细结构。
参照图11,对象信息解码单元222包括第一对象信息解码器222-1至第L对象信息解码器222-L。第一对象信息解码器222-1使用至少一个对象信息(OPN)以便生成可以将第一增强对象(EO1)分离为一个或多个对象(例如Vocal1和Vocal2)的独立参数(IP)。同样地,第L对象信息解码器222-L使用至少一个对象信息(OPN)以便生成可以将第L增强对象(EO)分离成一个或多个对象(例如Vocal4)的独立参数(IP)。如上所述,可以通过使用对象信息(OP)来单独控制被分组为增强对象(EO)的每个对象。
返回参照图9,多通道信息生成单元226通过用户接口来接收混频信息(MXI)并在数字介质、广播介质等上接收向下混频(DMX)。然后,通过使用接收到的混频信息(MXI)和向下混频(DMX),生成用于呈现背景对象(L和R)和/或增强对象(EO)的多通道信息(MI)。
在这里,混频信息(MXI)对应于基于对象位置信息、对象增益信息、重放配置信息等生成的信息。在这里,所述对象位置信息指的是由用户输入以便控制每个对象的位置或摇摆的信息。所述对象增益信息指的是由用户输入以便控制每个对象的增益的信息。所述重放配置信息指的是包括扬声器的数目、扬声器的位置、环境信息(扬声器的虚拟位置)等的信息。在这里,可以从用户处接收重放配置信息,可以将其预存储在***内,或者可以从另一装置(或设备)接收。
为了生成多通道信息(MI),多通道信息生成单元226可以使用从对象信息解码单元222接收到的独立参数(IP)和/或从增强对象信息解码单元224接收到的背景参数(BP)。首先,依照混频信息(MXI)生成用于控制增强对象(独立对象)的第一多通道信息(MI1)。例如,如果用户输入了控制信息以便完全抑制诸如有声信号等增强对象,则依照具有对其应用有上述控制信息的混频信息(MXI)生成用于控制来自向下混频(DMX)的增强对象的第一多通道信息。
在生成用于控制独立对象的第一多通道信息(MI1)之后,如上所述,通过使用第一多通道信息(MI1)和从解复用器210发送过来的空间参数(SP)生成用于控制背景对象的第二多通道信息(MI2)。更具体地说,如下列等式所示,可以通过从向下混频(DMX)中减去对其应用有第一多通道信息(MI1)的信号(即增强对象(EO))生成第二多通道信息(MI2)。
[等式3]
BO=DMX-EOL
(在这里,BO表示背景对象信号,DMX表示向下混频信号,且EOL表示第L个增强对象)。
在这里,可以在时域或频域上执行从向下混频中减去增强对象的处理。此外,当向下混频(DMX)的通道的数目和对其应用有第一多通道信息的信号的通道的数目(即增强对象的数目)彼此相等时,可以相对于每个通道执行减去增强对象的处理。
然后,生成包括第一多通道信息(MI1)和第二多通道信息(MI2)的多通道信息(MI)并将其发送到多通道解码器240。
多通道解码器240接收经处理的向下混频,然后,使用多通道信息(MI)来将经处理的向下混频信号进行向上混频,从而生成多通道信号。
对于本领域的技术人员来说显而易见的是,在不脱离本发明的精神或范围的情况下,可以对本发明进行各种修改和变更。因此,本发明旨在涵盖本发明的修改和变更,只要它们在随附权利要求及其等价物的范围内。
工业实用件
本发明可以应用于将音频信号编码和解码。

Claims (15)

1.一种用于处理音频信号的方法,包括:
接收向下混频信息,该向下混频信息具有向下混频的至少两个独立对象和背景对象;
使用第一增强对象信息将所述向下混频信息分离成第一独立对象和临时背景对象;以及
使用第二增强对象信息从所述临时背景对象中提取第二独立对象。
2.如权利要求1所述的方法,其中,所述独立对象对应于基于对象的信号,并且其中,所述背景对象对应于一信号,该信号包括至少一个基于通道的信号或具有向下混频在其中的至少一个基于通道的信号。
3.如权利要求2所述的方法,其中,所述背景对象包括左通道信号和右通道信号。
4.如权利要求1所述的方法,其中,所述第一增强对象信息和所述第二增强对象信息对应于残留信号。
5.如权利要求1所述的方法,其中,所述第一增强对象信息和所述第二增强对象信息包括在边信息位流中,并且
其中,包括在所述边信息位流中的增强对象信息的数目和包括在所述向下混频信息中的独立对象的数目彼此相等。
6.如权利要求1所述的方法,其中,由使用N个输入生成(N+1)个输出的模块来执行将所述向下混频信息分离。
7.如权利要求1所述的方法,进一步包括:
接收对象信息和混频信息;以及
使用所述对象信息和所述混频信息生成用于调节所述第一独立对象和所述第二独立对象的增益的多通道信息。
8.如权利要求7所述的方法,其中,基于对象位置信息、对象增益信息、以及重放配置信息中的至少一个生成所述混频信息。
9.如权利要求1所述的方法,其中,所述提取第二独立对象对应于提取第二临时背景对象和第二独立对象,并且
其中,所述提取第二独立对象还包括:
使用第二增强对象信息从所述第二临时背景对象中提取第三独立对象。
10.如权利要求1所述的方法,其中,经由广播信号来接收所述向下混频信息。
11.如权利要求1所述的方法,其中,在数字介质上接收所述向下混频信息。
12.一种能够使用计算机读取的记录介质,该记录介质具有存储在其中的用于执行权利要求1的方法的程序。
13.一种用于处理音频信号的装置,包括:
信息接收单元,接收向下混频信息,该向下混频信息具有向下混频的至少两个独立对象和背景对象;
第一增强对象信息解码单元,使用第一增强对象信息将所述向下混频分离成第一独立对象和临时背景对象;以及
第二增强对象信息解码单元,使用第二增强对象信息从所述临时背景对象中提取第二独立对象。
14.一种用于处理音频信号的方法,包括:
使用第一独立对象和背景对象生成临时背景对象和第一增强对象信息;
使用第二独立对象和所述临时背景对象生成第二增强对象信息;以及
发送所述第一增强对象信息和所述第二增强对象信息。
15.一种用于处理音频信号的装置,包括:
第一增强对象信息生成单元,使用第一独立对象和背景对象生成临时背景对象和第一增强对象信息;
第二增强对象信息生成单元,使用第二独立对象和所述临时背景对象生成第二增强对象信息;以及
多路复用器,发送所述第一增强对象信息和所述第二增强对象信息。
CN2008800086594A 2007-03-16 2008-03-17 用于处理音频信号的方法和装置 Expired - Fee Related CN101636919B (zh)

Applications Claiming Priority (12)

Application Number Priority Date Filing Date Title
US89531407P 2007-03-16 2007-03-16
US60/895,314 2007-03-16
KR1020080024248A KR101100214B1 (ko) 2007-03-16 2008-03-17 오디오 신호 처리 방법 및 장치
KR10-2008-0024248 2008-03-17
KR1020080024247A KR20080084757A (ko) 2007-03-16 2008-03-17 오디오 신호 처리 방법 및 장치
PCT/KR2008/001496 WO2008114984A1 (en) 2007-03-16 2008-03-17 A method and an apparatus for processing an audio signal
KR1020080024245 2008-03-17
KR10-2008-0024245 2008-03-17
KR1020080024248 2008-03-17
KR1020080024247 2008-03-17
KR10-2008-0024247 2008-03-17
KR1020080024245A KR101100213B1 (ko) 2007-03-16 2008-03-17 오디오 신호 처리 방법 및 장치

Publications (2)

Publication Number Publication Date
CN101636919A true CN101636919A (zh) 2010-01-27
CN101636919B CN101636919B (zh) 2013-10-30

Family

ID=40024880

Family Applications (3)

Application Number Title Priority Date Filing Date
CN2008800085799A Active CN101636917B (zh) 2007-03-16 2008-03-17 用于处理音频信号的方法和装置
CN2008800086594A Expired - Fee Related CN101636919B (zh) 2007-03-16 2008-03-17 用于处理音频信号的方法和装置
CN200880008649A Pending CN101636918A (zh) 2007-03-16 2008-03-17 用于处理音频信号的方法和装置

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN2008800085799A Active CN101636917B (zh) 2007-03-16 2008-03-17 用于处理音频信号的方法和装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN200880008649A Pending CN101636918A (zh) 2007-03-16 2008-03-17 用于处理音频信号的方法和装置

Country Status (6)

Country Link
US (4) US8725279B2 (zh)
EP (3) EP2130304A4 (zh)
JP (3) JP4851598B2 (zh)
KR (3) KR20080084757A (zh)
CN (3) CN101636917B (zh)
WO (3) WO2008114985A1 (zh)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101911180A (zh) * 2007-10-22 2010-12-08 韩国电子通信研究院 多对象音频编码和解码方法以及其设备
EP2194526A1 (en) 2008-12-05 2010-06-09 Lg Electronics Inc. A method and apparatus for processing an audio signal
KR101187075B1 (ko) * 2009-01-20 2012-09-27 엘지전자 주식회사 오디오 신호 처리 방법 및 장치
US8620008B2 (en) * 2009-01-20 2013-12-31 Lg Electronics Inc. Method and an apparatus for processing an audio signal
KR101387808B1 (ko) * 2009-04-15 2014-04-21 한국전자통신연구원 가변 비트율을 갖는 잔차 신호 부호화를 이용한 고품질 다객체 오디오 부호화 및 복호화 장치
EP2522016A4 (en) 2010-01-06 2015-04-22 Lg Electronics Inc DEVICE FOR PROCESSING AN AUDIO SIGNAL AND METHOD THEREFOR
US9530421B2 (en) 2011-03-16 2016-12-27 Dts, Inc. Encoding and reproduction of three dimensional audio soundtracks
EP2717265A1 (en) * 2012-10-05 2014-04-09 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Encoder, decoder and methods for backward compatible dynamic adaption of time/frequency resolution in spatial-audio-object-coding
EP2717261A1 (en) 2012-10-05 2014-04-09 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Encoder, decoder and methods for backward compatible multi-resolution spatial-audio-object-coding
JP6196437B2 (ja) * 2012-11-07 2017-09-13 日本放送協会 受信機、及びプログラム
WO2014112793A1 (ko) 2013-01-15 2014-07-24 한국전자통신연구원 채널 신호를 처리하는 부호화/복호화 장치 및 방법
KR102213895B1 (ko) 2013-01-15 2021-02-08 한국전자통신연구원 채널 신호를 처리하는 부호화/복호화 장치 및 방법
JP6231762B2 (ja) * 2013-04-10 2017-11-15 日本放送協会 受信装置及びプログラム
EP2830045A1 (en) 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Concept for audio encoding and decoding for audio channels and audio objects
EP2830048A1 (en) 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for realizing a SAOC downmix of 3D audio content
EP2830047A1 (en) 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for low delay object metadata coding
KR102243395B1 (ko) * 2013-09-05 2021-04-22 한국전자통신연구원 오디오 부호화 장치 및 방법, 오디오 복호화 장치 및 방법, 오디오 재생 장치
US9779739B2 (en) 2014-03-20 2017-10-03 Dts, Inc. Residual encoding in an object-based audio system
KR101814403B1 (ko) * 2014-05-21 2018-01-04 엘지전자 주식회사 방송 신호 송/수신 처리 방법 및 장치

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03236691A (ja) 1990-02-14 1991-10-22 Hitachi Ltd テレビジョン受信機用音声回路
US5155971A (en) * 1992-03-03 1992-10-20 Autoprod, Inc. Packaging apparatus
JPH0654400A (ja) * 1992-07-29 1994-02-25 Mitsubishi Electric Corp 音場再生装置
JP2001100792A (ja) 1999-09-28 2001-04-13 Sanyo Electric Co Ltd 符号化方法、符号化装置およびそれを備える通信システム
JP2001268697A (ja) * 2000-03-22 2001-09-28 Sony Corp データ伝送システム、データ伝送装置、データ伝送方法
US20040096065A1 (en) * 2000-05-26 2004-05-20 Vaudrey Michael A. Voice-to-remaining audio (VRA) interactive center channel downmix
JP2002044793A (ja) * 2000-07-25 2002-02-08 Yamaha Corp 音響信号処理方法及び装置
KR101016982B1 (ko) * 2002-04-22 2011-02-28 코닌클리케 필립스 일렉트로닉스 엔.브이. 디코딩 장치
KR100807917B1 (ko) * 2004-03-03 2008-02-27 크레이튼 폴리머즈 리서치 비.브이. 높은 유동성의 블록공중합체를 함유하는 엘라스토머성이성분섬유
SE0400998D0 (sv) * 2004-04-16 2004-04-16 Cooding Technologies Sweden Ab Method for representing multi-channel audio signals
US7391870B2 (en) * 2004-07-09 2008-06-24 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E V Apparatus and method for generating a multi-channel output signal
US8046217B2 (en) * 2004-08-27 2011-10-25 Panasonic Corporation Geometric calculation of absolute phases for parametric stereo decoding
JP2006100869A (ja) * 2004-09-28 2006-04-13 Sony Corp 音声信号処理装置および音声信号処理方法
JP5106115B2 (ja) 2004-11-30 2012-12-26 アギア システムズ インコーポレーテッド オブジェクト・ベースのサイド情報を用いる空間オーディオのパラメトリック・コーディング
EP1691348A1 (en) * 2005-02-14 2006-08-16 Ecole Polytechnique Federale De Lausanne Parametric joint-coding of audio sources
US7573912B2 (en) 2005-02-22 2009-08-11 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschunng E.V. Near-transparent or transparent multi-channel encoder/decoder scheme
CN2807615Y (zh) 2005-05-27 2006-08-16 熊猫电子集团有限公司 外差式am同步解调广播接收机
US8073702B2 (en) * 2005-06-30 2011-12-06 Lg Electronics Inc. Apparatus for encoding and decoding audio signal and method thereof
JP2009500656A (ja) * 2005-06-30 2009-01-08 エルジー エレクトロニクス インコーポレイティド オーディオ信号をエンコーディング及びデコーディングするための装置とその方法
US8147979B2 (en) * 2005-07-01 2012-04-03 Akzo Nobel Coatings International B.V. Adhesive system and method
ATE523877T1 (de) 2005-07-14 2011-09-15 Koninkl Philips Electronics Nv Audiodecodierung
US8081764B2 (en) * 2005-07-15 2011-12-20 Panasonic Corporation Audio decoder
KR100733965B1 (ko) * 2005-11-01 2007-06-29 한국전자통신연구원 객체기반 오디오 전송/수신 시스템 및 그 방법
EP2068307B1 (en) * 2006-10-16 2011-12-07 Dolby International AB Enhanced coding and parameter representation of multichannel downmixed object coding
EP2076900A1 (en) * 2007-10-17 2009-07-08 Fraunhofer-Gesellschaft zur Förderung der Angewandten Forschung e.V. Audio coding using upmix

Also Published As

Publication number Publication date
EP2137824A1 (en) 2009-12-30
EP2137824A4 (en) 2012-04-04
US20100111319A1 (en) 2010-05-06
JP2010521703A (ja) 2010-06-24
US20100087938A1 (en) 2010-04-08
EP2137825A1 (en) 2009-12-30
US20140222440A1 (en) 2014-08-07
KR101100214B1 (ko) 2011-12-28
KR20080084756A (ko) 2008-09-19
US8725279B2 (en) 2014-05-13
WO2008114984A1 (en) 2008-09-25
US8712060B2 (en) 2014-04-29
CN101636918A (zh) 2010-01-27
EP2130304A1 (en) 2009-12-09
JP5161893B2 (ja) 2013-03-13
JP4851598B2 (ja) 2012-01-11
WO2008114982A1 (en) 2008-09-25
JP2010521867A (ja) 2010-06-24
CN101636917A (zh) 2010-01-27
WO2008114985A1 (en) 2008-09-25
US20100106271A1 (en) 2010-04-29
EP2137825A4 (en) 2012-04-04
JP2010521866A (ja) 2010-06-24
US9373333B2 (en) 2016-06-21
KR20080084757A (ko) 2008-09-19
KR20080084758A (ko) 2008-09-19
EP2130304A4 (en) 2012-04-04
CN101636917B (zh) 2013-07-24
KR101100213B1 (ko) 2011-12-28
CN101636919B (zh) 2013-10-30

Similar Documents

Publication Publication Date Title
CN101636917B (zh) 用于处理音频信号的方法和装置
KR101328962B1 (ko) 오디오 신호 처리 방법 및 장치
KR101221916B1 (ko) 오디오 신호 처리 방법 및 장치
CN101553867B (zh) 用于处理音频信号的方法和装置
CN101542596B (zh) 用于编码和解码基于对象的音频信号的方法和装置
WO2015056383A1 (ja) オーディオエンコード装置及びオーディオデコード装置
CN101253808B (zh) 用于编码和解码音频信号的装置及其方法
CN101479785A (zh) 用于编码和解码基于对象的音频信号的方法和装置
AU2008215232A1 (en) Methods and apparatuses for encoding and decoding object-based audio signals
RU2437247C1 (ru) Способ и устройство для обработки звукового сигнала

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20131030

Termination date: 20180317

CF01 Termination of patent right due to non-payment of annual fee