CN101690230A - 多视图编码视频的单环解码 - Google Patents

多视图编码视频的单环解码 Download PDF

Info

Publication number
CN101690230A
CN101690230A CN200880022424A CN200880022424A CN101690230A CN 101690230 A CN101690230 A CN 101690230A CN 200880022424 A CN200880022424 A CN 200880022424A CN 200880022424 A CN200880022424 A CN 200880022424A CN 101690230 A CN101690230 A CN 101690230A
Authority
CN
China
Prior art keywords
view
video content
anchor
view video
single loop
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN200880022424A
Other languages
English (en)
Inventor
珀文·B·潘迪特
尹澎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of CN101690230A publication Critical patent/CN101690230A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

提供了在编码器和解码器处用于支持多视图编码视频的单环解码的方法和装置。装置包括:编码器(100),用于对多视图视频内容进行编码,以使得当使用视图间预测对多视图视频内容进行编码时能够进行多视图视频内容的单环解码。类似地,还描述了用于对多视图视频内容进行编码、以在使用视图间预测对多视图视频内容进行编码时支持多视图视频内容的单环解码的方法(400)。还描述了对应的解码器(200)装置和方法(500)。

Description

多视图编码视频的单环解码
相关申请的交叉引用
本申请要求于2007年6月28日提交的序列号为60/946,932的美国临时申请的权益,通过引用将其整体合并于此。此外,本申请涉及题为“METHODSAND APPARATUS AT AN ENCODER AND DECODER FOR SUPPORTINGSINGLE LOOP DECODING OF MULTI-VIEW CODED VIDEO”的代理案号PU080067的非临时申请,其是共同受让的,在此通过引用而被并入,并且与本申请同时提交。
技术领域
本原理通常涉及视频编码和解码,更具体地,涉及在编码器和解码器处用于支持多视图编码视频的单环解码的方法和装置。
背景技术
多视图视频编码(MVC)服务于广泛的各种应用,包括自由视点和三维(3D)视频应用、家庭娱乐以及监视。在这些多视图应用中,所涉及的视频数据量是巨大的。
由于多视图视频源包括相同或类似的场景的多个视图,因此在多视图图像之间存在高度的相关性。因此,除了时间冗余之外,还可以利用视图冗余,并且通过跨相同或类似的场景的不同视图执行视图预测来实现视图冗余。
在第一现有技术途径中,提出了运动跳跃模式以改进用于MVC的编码效率。该第一现有技术途径源于在两个相邻视图之间关于运动存在相似性的构思。
运动跳跃模式直接从相同时间瞬时处的相邻视图中的对应宏块推断运动信息(如宏块类型、运动向量和参考索引)。该方法分解为下述两个阶段:(1)搜索对应的宏块;和(2)获得(derivation)运动信息。在第一阶段,使用全局视差向量(GDV)来指示相邻视图的画面中的对应位置(宏块)。通过当前画面与相邻视图的画面之间的单元的宏块大小来测量该全局视差向量。可以周期性地、例如每锚点(anchor)画面地对全局视差向量进行估计并且对其进行解码。在此情况下,使用来自锚点画面的新近的全局视差向量来***非锚点画面的全局视差向量。在第二阶段,从相邻视图的画面中的对应宏块获得运动信息,并且将该运动信息应用到当前宏块。由于第一现有技术途径的所提出的方法利用来自相邻视图的画面来表示用于视图间预测处理的另一方式,因此在当前宏块处于基本视图的画面中或处于在联合多视图视频模型(JMVM)中定义的锚点画面中的情况下,禁用运动跳跃模式。
为了向解码器通知运动跳跃模式的使用,在用于多视图视频编码的宏块层语法元素的报头中包括motion_skip_flag。如果使得能够进行motion_skip_flag,则当前宏块从相邻视图中的对应宏块获得宏块类型、运动向量和参考索引。
然而,在实际情形中,将使用不同类的照相机(camera)或尚未完全校准的照相机来建立包括大量照相机的多视图视频***。在如此多的照相机的情况下,解码器的存储器需求以及复杂度可能显著地增加。此外,某些应用可以仅要求对来自一组视图的一些视图进行解码。结果,可以无需完全地重构输出不需要的视图。
发明内容
针对在编码器和解码器处用于支持多视图编码视频的单环解码的方法和装置的本原理处理现有技术的这些和其它缺点和劣势。
根据本原理的一方面,提供一种装置。该装置包括:编码器,用于对多视图视频内容进行编码,以使得当使用视图间预测对多视图视频内容进行编码时,能够进行多视图视频内容的单环解码。
根据本原理的另一方面,提供一种方法。该方法包括:对多视图视频内容进行编码以使得当使用视图间预测对多视图视频内容进行编码时,支持多视图视频内容的单环解码。
根据本原理的又一方面,提供一种装置。该装置包括:解码器,用于当使用视图间预测对多视图视频内容进行编码时,使用单环解码对多视图视频内容进行解码。
根据本原理的再一方面,提供一种方法。该方法包括:当使用视图间预测对多视图视频内容进行编码时,使用单环解码对多视图视频内容进行解码。
从将结合附图阅读的示例性实施例的下述详细的描述中,本原理的这些和其它方面、特点和优点将变得明显。
附图说明
根据以下示例性附图可以更好地理解本原理,其中:
图1是根据本原理实施例的可以应用本原理的示例性多视图视频编码(MVC)编码器的方框图;
图2是根据本原理实施例的可以应用本原理的示例性多视图视频编码(MVC)解码器的方框图;
图3是根据本原理实施例的可以应用本原理的具有8视图的示例性MVC***的编码结构的图;
图4是根据本原理实施例的用于对多视图视频内容进行编码以支持单环解码的示例性方法的流程图;
图5是根据本原理实施例的用于多视图视频内容的单环解码的示例性方法的流程图;
图6是根据本原理实施例的用于对多视图视频内容进行编码以支持单环解码的另一示例性方法的流程图;和
图7是根据本原理实施例的用于多视图视频内容的单环解码的另一示例性方法的流程图。
具体实施方式
本原理针对在编码器和解码器处用于支持多视图编码视频的单环解码的方法和装置。
本描述例示本原理。因此应理解本领域技术人员将能够设计出虽然未在这里明确描述或示出、但是体现本原理并且包括在本原理的精神和范围内的各种布置。
这里所叙述的所有例子和条件语句意在教学目的,以帮助读者理解由发明人贡献以促进本领域技术的本原理和构思,并被解释为不限制为这样具体叙述的例子和条件。
此外,这里叙述本原理的原理、方面、以及实施例的所有陈述、以及本原理的具体例子意在包含本原理的结构的和功能的等价物。另外,意在这样的等价物包括当前已知的等价物以及将来发展的等价物,即,无论结构如何、执行相同功能的所开发的任何元件。
因此,例如,本领域技术人员将理解:这里呈现的框图表示体现本原理的示例电路的概念性视图。类似地,将理解:任何流程图示、流程图、状态转换图、伪代码等等表示各种处理,所述各种处理可以基本上在计算机可读介质中表示,并因此由计算机或处理器执行,无论这样的计算机或处理器是否被明确示出。
附图中所示的各种元件的功能可以通过使用专用硬件以及能够与适合的软件相关联而执行软件的硬件来提供。当由处理器提供时,所述功能可以由单个专用处理器、单个共享处理器、或其中一些可以被共享的多个独立处理器提供。此外,术语“处理器”或“控制器”的明确使用不应被解释为唯一地代表能够执行软件的硬件,其也可以隐含地、不受限制地包括数字信号处理器(“DSP”)硬件、用于存储软件的只读存储器(“ROM”)、随机存取存储器(“RAM”)、以及非易失性存储装置。
也可以包括其它的传统的和/或定制的硬件。类似地,附图中所示的任何开关只是概念性的。它们的功能可以通过程序逻辑的操作、通过专用逻辑、通过程序控制和专用逻辑间的交互作用、或甚至手动地执行,具体技术可由实施者选择,如从上下文中被更具体地理解的。
在本权利要求书中,表示为执行指定功能的部件的任何元件意在包含执行该功能的任何方式,所述方式包括:例如,a)执行该功能的电路元件的组合,或者b)任何形式的软件,因此包括与用于执行该软件的适合的电路结合以执行该功能的固件、微代码等等。由这样的权利要求书限定的本原理归于这样的事实:由各种所叙述的部件提供的功能以权利要求书要求的方式组合并集合。因此认为:能够提供那些功能的任何部件等价于这里所示的那些部件。
说明书中引用的本原理的“一个实施例”或者“实施例”指结合所述实施例描述的特定特征、结构、特性等等包含在本原理的至少一个实施例中。由此,在贯穿说明书的各处出现的短语“在一个实施例中”或者“在实施例中”的出现不一定都指同一实施例。此外,短语“在另一个实施例中”不排除使所描述的实施例的主题与另一实施例的整体或部分上的组合。
另外,应该理解,术语“和/或”和“至少一个”的使用,例如在“A和/或B”和“A和B中的至少一个”的情况下,意在涵盖仅选择所列的第一选项(A)、或者仅选择所列的第二选项(B)、或者选择两个选项(A与B)。作为进一步的例子,在“A、B、和/或C”和“A、B、C中的至少一个”的情况下,此类短语意在涵盖仅选择所列的第一选项(A)、或者仅选择所列的第二选项(B)、或者仅选择所列的第三选项(C)、或者仅选择所列的第一与第二选项(A与B)、或者仅选择所列的第一与第三选项(A与C)、或者仅选择所列的第二与第三选项(B与C)、或者选择全部三个选项(A与B与C)。本领域与相关领域的普通技术人员容易理解,可以将此扩展到所列的诸多项目。
如在此使用的那样,“多视图视频序列”指从不同的视点捕捉相同场景的一组两个或更多个视频序列。
进一步,如在此可互换使用的那样,“交叉视图”和“视图间”两者都指属于除了当前视图之外的某一视图的画面。
另外,如在此使用的那样,短语“无需完全重构”指当没有在编码环或解码环中执行运动补偿时的情况。
此外,应理解,虽然在此关于MPEG 4AVC标准的多视图视频编码扩展来描述本原理,但本原理不唯一地限于此标准和对应的扩展,因此在保持本原理精神的同时,可以对与多视图视频编码有关的其它视频编码标准、建议及其扩展来利用本原理。
转至图1,附图标记100总地指示示例性的多视图视频编码(MVC)编码器。编码器100包括组合器105,其具有以信号通信方式而与变换器110的输入连接的输出。变换器110的输出以信号通信的方式而与量化器115的输入连接。量化器115的输出以信号通信的方式而与熵编码器120的输入和逆量化器125的输入连接。逆量化器125的输出以信号通信的方式而与逆变换器130的输入连接。逆变换器130的输出以信号通信的方式而与组合器135的第一同相输入连接。组合器135的输出以信号通信的方式而与帧内预测器145的输入和去块滤波器150的输入连接。去块滤波器150的输出以信号通信的方式而与参考画面存储155(用于视图i)的输入连接。参考画面存储155的输出以信号通信的方式而与运动补偿器175的第一输入和运动估计器180的第一输入连接。运动估计器180的输出以信号通信的方式而与运动补偿器175的第二输入连接。
参考画面存储160(用于其它视图)的输出以信号通信的方式而与视差/照度估计器170的第一输入和视差/照度补偿器165的第一输入连接。视差/照度估计器170的输出以信号通信的方式而与视差/照度补偿器165的第二输入连接。
熵解码器120的输出可用作编码器100的输出。组合器105的正相输入可用作编码器100的输入,并且以信号通信的方式而与视差/照度估计器170的第二输入和运动估计器180的第二输入连接。开关185的输出以信号通信的方式而与组合器135的第二同相输入连接并且与组合器105的反相输入连接。开关185包括以信号通信的方式而与运动补偿器175的输出连接的第一输入、以信号通信的方式而与视差/照度补偿器165的输出连接的第二输入、以及以信号通信的方式而与帧内预测器145的输出连接的第三输入。
模式判决模块140具有连接到开关185的输出,用于控制开关185选择哪个输入。
转至图2,附图标记200总地指示示例性的多视图视频编码(MVC)解码器。解码器200包括熵解码器205,其具有以信号通信的方式而与逆量化器210的输入连接的输出。逆量化器的输出以信号通信的方式而与逆变换器215的输入连接。逆变换器215的输出以信号通信的方式而与组合器220的第一正相输入连接。组合器220的输出以信号通信的方式而与去块滤波器225的输入和帧内预测器230的输入连接。去块滤波器225的输出以信号通信的方式而与参考画面存储240(用于视图i)的输入连接。参考画面存储240的输出以信号通信的方式而与运动补偿器235的第一输入连接。
参考画面存储245(用于其它视图)的输出以信号通信的方式而与视差/照度补偿器250的第一输入连接。
熵编码器205的输入可用作进入解码器200的输入,用于接收残余比特流。此外,模式模块260的输入也可用作进入解码器200的输入,用于接收控制语法以控制开关255选择哪个输入。而且,运动补偿器235的第二输入可用作解码器200的输入,用于接收运动向量。此外,视差/照度补偿器250的第二输入可用作进入解码器200的输入,用于接收视差向量和照度补偿语法。
开关255的输出以信号通信的方式而与组合器220的第二正相输入连接。开关255的第一输入以信号通信的方式而与视差/照度补偿器250的输出连接。开关255的第二输入以信号通信的方式而与运动补偿器235的输出连接。开关255的第三输入以信号通信的方式而与帧内预测器230的输出连接。模式模块260的输出以信号通信的方式而与开关255连接,用于控制开关255选择哪个输入。去块滤波器225的输出可用作解码器的输出。
如上所述,本原理针对在编码器和解码器处用于支持多视图编码视频的单环解码的方法和装置。
本原理特别地适合于当仅将要对多视图视频内容的某些视图进行解码时的情况。这些应用不包括完全地重构参考视图(即像素数据)。在实施例中,可以推断来自那些视图的某些元素,并且可以将其用于其它视图,因此节约了存储器和时间。
当前多视图视频编码规范要求完全重构所有视图。重构的视图然后可以用作视图间参考。转至图3,附图标记300总地指示用于具有8视图的示例性MVC***的编码结构。
作为重构的视图可以用作视图间参考这一事实的结果,即使可以不输出各个视图,也必须对每一视图进行完全地解码并且将其存储在存储器中。由于人们将需要花费处理器时间来对这些非输出视图进行解码,以及花费存储器来为这种非输出视图存储已解码画面,因此从存储器和处理器利用而言,这并不是非常有效率的。
因此,根据本原理,我们提出了用于支持用于多视图编码序列的单环解码的方法和装置。如上所述,虽然主要关于MPEG-4AVC标准的多视图视频编码扩展来描述在此提供的示例,但是,给出了对在此提供的本原理的教学,容易理解,在保持本原理的精神的同时,本领域或相关领域普通技术人员可以容易地将本原理应用到任何多视图视频编码***。
在单环解码的一个实施例中,仅锚点画面将使用完全重构的画面作为参考,而非锚点画面不使用完全重构的画面作为参考。为了改进用于非锚点画面的编码效率,我们提出了使用视图间预测,从而视图间预测从相邻视图推断某些数据而不需要完全重构相邻视图。表1中示出的序列参数集语法指示相邻参考视图。表1示出了根据本原理实施例的用于MPEG-4AVC标准的多视图视频编码扩展的序列参数集(SPS)语法。
  seq_parameter_set_mvc_extension(){   c   描述符
     num_views_minus_1   ue(v)
     for(i=0;i<=num_views_minus_1;i++)
        view_id[i]   ue(v)
     for(i=0;i<=num_views_minus_1;i++){
        num_anchor_refs_I0[i]   ue(v)
        for(j=0;j<num_anchor_refs_I0[i];j++)
           anchor_ref_I0[i][j]   ue(v)
        num_anchor_refs_I1[i]   ue(v)
        for(j=0;j<num_anchor_refs_I1[i];j++)
           anchor_ref_I1[i][j]   ue(v)
     }
     for(i=0;i<=num_views_minus_1;i++){
        num_non_anchor_refs_I0[i]   ue(v)
        for(j=0;j<num_non_anchor_refs_I0[i];j++)
           non anchor_ref_I0[i][j]   ue(v)
        num_non_anchor_refs_I1[i]   ue(v)
        for(j=0;j<num_non_anchor_refs_I1[i];j++)
           non_anchor_ref_I1[i][j]   ue(v)
     }
  }
表1
可以从相邻参考视图推断而无需完全重构的信息可以是下述一个或多个的组合:(1)运动和模式信息;(2)残余预测;(3)帧内预测模式;(4)照度补偿偏移;(5)深度信息;以及(6)去块强度。应理解,前面类型的信息仅仅是示例性的,并且本原理不唯一地限于关于可以从相邻视图推断而无需完全重构的信息的前面类型的信息。例如,应理解,在保持本原理的精神的同时,根据本原理可以使用与来自相邻视图的至少一部分画面的特性有关的任何类型的信息,包括与对这些画面或画面部分进行编码和/或解码有关的任何类型的信息。此外,在保持本原理的精神的同时,可以从语法和/或其它源推断这种信息。
关于运动和模式信息,这与当前多视图视频编码规范中的运动跳跃模式类似,其中从相邻视图推断运动向量、模式和参考索引信息。此外,可以通过发送额外的数据来提炼(refine)所推断的运动信息。此外,还可以推断视差信息。
关于残余预测,这里将来自相邻视图的残余数据用作用于当前宏块的残留的预测数据。可以通过发送用于当前宏块的额外数据来进一步提炼该残余数据。
关于帧内预测模式,也可以推断这些模式。可以将重构的帧内宏块直接用作预测数据,或可以将帧内预测模式直接用于当前宏块。
关于照度补偿偏移,可以推断以及此外进一步提炼照度补偿偏移值。
关于深度信息,也可以推断深度信息。
为了确定多视图视频编码序列是否支持单环解码,可以以下述中的一个或多个来表示高级语法:序列参数集(SPS);画面参数集(PPS);网络抽象层(NAL)单元报头;片报头(slice header);以及补充增强信息(SEI)消息。也可以将单环多视图视频解码指定为简档(profile)。
表2示出了所提出的根据实施例的用于MPEG-4AVC标准的多视图视频编码扩展的序列参数集(SPS)语法,其包括non_anchor_single_loop_decoding_flag语法元素。non_anchor_single_loop_decoding_flag是在以信号通知非锚点画面参考的环中添加的额外语法元素。添加non_anchor_single_loop_decoding_flag语法元素,以便以信号通知是否应该对用于视图“i”的非锚点画面的参考进行完全解码以对视图“i”进行解码。non_anchor_single_loop_decoding_flag语法元素具有下述语义:
non_anchor_single_loop_decoding_flag[i]等于1指示不需要对用于视图id等于view_id[i]的视图的非锚点画面的参考视图进行完全重构以对该视图进行解码。non_anchor_single_loop_decoding_flag[i]等于0指示应该对用于视图id等于view-id[i]的视图的非锚点画面的参考视图进行完全重构以对该视图进行解码。
表2
  seq_parameter_set_mvc_extension(){   c   描述符
     num_views_minus_1   ue(v)
     for(i=0;i<=num_views_minus_1;i++)
         view_id[i]   ue(v)
     for(i=0;i<=num_views_minus_1;i++){
         num_anchor_refs_I0[i]   ue(v)
         for(j=0;j<num_anchor_refs_I0[i];j++)
             anchor_ref_I0[i][j]   ue(v)
         num_anchor_refs_I1[i]   ue(v)
         for(j=0;j<num_anchor_refs_I1[i];j++)
             anchor_ref_I1[i][j]   ue(v)
     }
     for(i=0;i<=num_views_minus_1;i++){
         num_non_anchor_refs_I0[i]   ue(v)
         non_anchor_single_loop_decoding_flag[i]   u(1)
         for(j=0;j<num_non_anchor_refs_I0[i];j++)
             non_anchor_ref_I0[i][j]   ue(v)
         num_non_anchor_refs_I1[i]   ue(v)
         for(j=0;j<num_non_anchor_refs_I1[i];j++)
             non_anchor_ref_I1[i][j]   ue(v)
     }
  }
表3示出了所提出的根据另一实施例的用于MPEG-4AVC标准的多视图视频编码扩展的序列参数集(SPS)语法,其包括non_anchor_single_loop_decoding_flag语法元素。non_anchor_single_loop_decoding_flag语法元素用来指示对于整个序列,可以对所有的非锚点画面进行解码而无需完全重构参考视图。non_anchor_single_loop_decoding_flag语法元素具有下述语义:
non_anchor_single_loop_decoding_flag等于1指示可以对所有视图的所有非锚点画面进行解码而无需完全重构对应的参考视图的画面。
表3
  seq_parameter_set_mvc_extension(){   c   描述符
     num_views_minus_1   ue(v)
     non_anchor_single_loop_decoding_flag   u(1)
     for(i=0;i<=num_views_minus_1;i++)
         view_id[i]   ue(v)
     for(i=0;i<=num_views_minus_1;i++){
         num_anchor_refs_I0[i]   ue(v)
         for(j=0;j<num_anchor_refs_I0[i];j++)
             anchor_ref_I0[i][j]   ue(v)
         num_anchor_refs_I1[i]   ue(v)
         for(j=0;j<num_anchor_refs_I1[i];j++)
             anchor_ref_I1[i][j]   ue(v)
     }
     for(i=0;i<=num_views_minus_1;i++){
         num_non_anchor_refs_I0[i]   ue(v)
         for(j=0;j<num_non_anchor_refs_I0[i];j++)
             non_anchor_ref_I0[i][j]   ue(v)
         num_non_anchor_refs_I1[i]   ue(v)
         for(j=0;j<num_non_anchor_refs_I1[i];j++)
             non_anchor_ref_I1[i][j]   ue(v)
     }
  }
在单环解码的另一实施例中,甚至关于单环解码使能锚点画面。表4示出了所提出的根据另一实施例的用于MPEG-4AVC标准的多视图视频编码扩展的序列参数集(SPS)语法,其包括anchor_single_loop_decoding_flag语法元素。anchor_single_loop_decoding_flag语法元素可以存在,用于序列参数集中的锚点画面依赖性环。anchor_single_loop_decoding_flag语法元素具有下述语义:
anchor_single_loop_decoding_flag[i]等于1指示不需要对用于视图id等于view_id[i]的视图的锚点画面的参考视图进行完全重构以对该视图进行解码。anchor_single_loop_decoding_flag[i]等于0指示应该对用于视图id等于view_id[i]的视图的锚点画面的参考视图进行完全重构以对该视图进行解码。
表4
  seq_parameter_set_mvc_extension(){   c   描述符
     num_views_minus_1   ue(v)
     for(i=0;i<=num_views_minus_1;i++)
         view_id[i]   ue(v)
     for(i=0;i<=num_views_minus_1;i++){
         num_anchor_refs_I0[i]   ue(v)
         anchor_single_loop_decoding_flag[i]   u(1)
         for(j=0;j<num_anchor_refs_I0[i];j++)
             anchor_ref_I0[i][j]   ue(v)
         num_anchor_refs_I1[i]   ue(v)
         for(j=0;j<num_anchor_refs_I1[i];j++)
             anchor_ref_I1[i][j]   ue(v)
     }
     for(i=0;i<=num_views_minus_1;i++){
         num_non_anchor_refs_I0[i]   ue(v)
         non_anchor_single_loop_decoding_flag[i]   u(1)
         for(j=0;j<num_non_anchor_refs_I0[i];j++)
             non_anchor_ref_I0[i][j]   ue(v)
         num_non_anchor_refs_I1[i]   ue(v)
         for(j=0;j<num_non_anchor_refs_I1[i];j++)
             non_anchor_ref_I1[i][j]   ue(v)
     }
  }
表5示出了所提出的根据另一实施例的用于MPEG-4AVC标准的多视图视频编码扩展的序列参数集(SPS)语法,其包括anchor_single_loop_decoding_flag语法元素。anchor_single_loop_decoding_flag语法元素具有下述语义:
anchor_single_loop_decoding_flag等于1指示可以对所有视图的所有锚点画面进行解码而无需完全重构对应的参考视图的画面。
表5
  seq_parameter_set_mvc_extension(){   c   描述符
     num_views_minus_1   ue(v)
     anchor_single_loop_decoding_flg   u(1)
     non_anchor_single_loop_decoding_flag   u(1)
     for(i=0;i<=num_views_minus_1;i++)
         view_id[i]   ue(v)
     for(i=0;i<=num_views_minus_1;i++){
         num_anchor_refs_I0[i]   ue(v)
         for(j=0;j<num_anchor_refs_I0[i];j++)
             anchor_ref_I0[i][j]   ue(v)
         num_anchor_refs_I1[i]   ue(v)
         for(j=0;j<num_anchor_refs_I1[i];j++)
             anchor_ref_I1[i][j]   ue(v)
      }
      for(i=0;i<=num_views_minus_1;i++){
          num_non_anchor_refs_I0[i]   ue(v)
          for(j=0;j<num_non_anchor_refs_I0[i];j++)
              non_anchor_ref_I0[i][j]   ue(v)
          num_non_anchor_refs_I1[i]   ue(v)
          for(j=0;j<num_non_anchor_refs_I1[i];j++)
              non_anchor_ref_I1[i][j]   ue(v)
       }
  }
转至图4,附图标记400总地指示用于对多视图视频内容进行编码以支持单环解码的示例性方法。
方法400包括将控制传递到功能块410的开始块405。功能块405解析编码器配置文件,并且将控制传递到判决块415。判决块415确定变量i是否比要编码的视图的数量少。如果是,则将控制传递到判决块420。否则,将控制传递到结束块499。
判决块420确定是否使得单环编码能够用于视图i的锚点画面。如果是,则将控制传递到功能块425。否则,将控制传递到功能块460。
功能块425设置anchor_single_loop_decoding_flag[i]等于1,并且将控制传递到判决块430。判决块430确定是否使得单环编码能够用于视图i的非锚点画面。如果是,则将控制传递到功能块435。否则,将控制传递到功能块465。
功能块435将non_anchor_single_loop_decoding_flag[i]设置为1,并且将控制传递到功能块440。
功能块440将anchor_single_loop_decoding_flag[i]和non_anchor_single_loop_decoding_flag[i]写入用于视图i的序列参数集(SPS)、画面参数集(PPS)、网络抽象层(NAL)单元报头和/或片报头,并且将控制传递到功能块445。功能块445从SPS考虑视图间依赖性,同时当不包括视图间预测时对视图的宏块进行编码,并且将控制传递到功能块450。功能块450推断用于单环编码的运动信息、帧间预测模式、残余数据、视差数据、帧内预测模式和深度信息的组合,并且将控制传递到功能块455。功能块455将变量i增加1,并且将控制返回到判决块415。
功能块460将anchor_single_loop_decoding_flag[i]设置为等于0,并且将控制传递到判决块430。
功能块465将non_anchor_single_loop_decoding_flag[i]设置为等于0,并且将控制传递到功能块440。
转至图5,附图标记500总地指示用于多视图视频内容的单环解码的示例性方法。
方法500包括将控制传递到功能块510的起始块505。功能块510从用于视图i的序列参数集(SPS)、画面参数集(PPS)、网络抽象层(NAL)单元报头或片报头中读取anchor_single_loop_decoding_flag[i]和non_anchor_single_loop_decoding_flag[i],并且将控制传递到判决块515。判决块515确定变量i是否小于要解码的视图的数量。如果是,则将控制传递到判决块520。否则,将控制传递到结束块599。
判决块520确定当前画面是否为锚点画面。如果是,则将控制传递到判决块525。否则,将控制传递到判决块575。
判决块525确定anchor_single_loop_decoding_flag[i]是否为1。如果是,则将控制传递到功能块530。否则,将控制传递到功能块540。
在当不包括视图间预测时对视图i的宏块进行解码的时候,功能块530从序列参数集(SPS)中考虑视图间依赖性,并且将控制传递到功能块535。功能块535推断用于运动跳跃宏块的运动信息、帧间预测模式、残余数据、视差数据、帧内预测模式、深度信息的组合,并且将控制传递到功能块570。
功能块570将变量i增加1,并且将控制返回到判决块515。
在当包括视图间预测时对视图i的宏块进行解码的同时,功能块540从序列参数集(SPS)中考虑视图间依赖性,并且将控制传递到功能块545。功能块545推断运动信息、帧间预测模式、残余数据、视差数据、帧内预测模式和深度信息的组合,并且将控制传递到功能块570。
判决块575确定non_anchor_single_loop_decoding_flag[i]是否为1。如果是,则将控制传递到功能块550。否则,将控制传递到功能块560。
在当不包括视图间预测时对视图i的宏块进行解码的同时,功能块550从序列参数集(SPS)中考虑视图间依赖性,并且将控制传递到功能块555。功能块555推断用于运动跳跃宏块的运动信息、帧间预测模式、残余数据、视差数据、视图内模式和深度信息的组合,并且将控制传递到功能块570。
在当包括视图间预测时对视图i的宏块进行解码的同时,功能块560从序列参数集(SPS)中考虑视图间依赖性,并且将控制传递到功能块565。功能块565推断运动信息、帧间预测模式、残余数据、视差数据、帧内预测模式和深度信息的组合,并且将控制传递到功能块570。
转至图6,附图标记600总地指示用于对多视图视频内容进行编码以支持单环解码的另一示例性方法。
方法600包括用于将控制传递到功能块610的起始块605。功能块610解析编码器配置文件,并且将控制传递到判决块615。判决块615确定是否使得单环编码能够用于每一视图的所有锚点画面。如果是,则将控制传递到功能块620。否则,将控制传递到功能块665。
功能块620将anchor_single_loop_decoding_flag设置为等于1,并且将控制传递到判决块625。判决块625确定是否使得单环编码能够用于每一视图的所有非锚点画面。如果是,则将控制传递到功能块630。否则,将控制传递到功能块660。
功能块630将non_anchor_single_loop_decoding_flag设置为等于1,并且将控制传递到功能块635。功能块635将anchor_single_loop_decoding_flag写入序列参数集(SPS)、画面参数集(PPS)、网络抽象层(NAL)单元报头和/或片报头,并且将控制传递到判决块640。判决块640确定变量i是否小于要编码的视图的数量。如果是,则将控制传递到功能块645。否则,将控制传递到结束块699。
在当不包括视图间预测时对视图的宏块进行编码的同时,功能块645从SPS中考虑视图间依赖性,并且将控制传递到功能块650。功能块650推断用于单环编码的运动信息、帧间预测模式、残余数据、视差数据、帧内预测模式、深度信息的组合,并且将控制传递到功能块655。功能块655将变量i增加1,并且将控制返回到判决块640。
功能块665将anchor_single_loop_decoding_flag设置为等于0,并且将控制传递到判决块625。
功能块660将non_anchor_single_loop_decoding_flag设置为等于0,并且将控制传递到功能块635。
转至图7,附图标记700总地指示用于多视图视频内容的单环解码的另一示例性方法。
方法700包括将控制传递到功能块710的起始块705。功能块710从用于视图i的序列参数集(SPS)、画面参数集(PPS)、网络抽象层(NAL)单元报头或片报头中读取anchor_single_loop_decoding_flag和non_anchor_single_loop_decoding_flag,并且将控制传递到判决块715。判决块715确定变量i是否小于要解码的视图的数量。如果是,则将控制传递到判决块720。否则,将控制传递到结束块799。
判决块720确定当前画面是否是锚点画面。如果是,则将控制传递到判决块725。否则,将控制传递到判决块775。
判决块725确定anchor_single_loop_decoding_flag是否等于1。如果是,则将控制传递到功能块730。否则,将控制传递到功能块740。
在当不包括视图间预测时对视图i的宏块进行解码的时候,功能块730从序列参数集(SPS)中考虑视图间依赖性,并且将控制传递到功能块735。功能块735推断用于运动跳跃宏块的运动信息、帧间预测模式、残余数据、视差数据、帧内预测模式、深度信息的组合,并且将控制传递到功能块770。
功能块770将变量i增加1,并且将控制返回到判决块715。
在当包括视图间预测时对视图i的宏块进行解码的同时,功能块740从序列参数集(SPS)中考虑视图间依赖性,并且将控制传递到功能块745。功能块745推断运动信息、帧间预测模式、残余数据、视差数据、帧内预测模式和深度信息的组合,并且将控制传递到功能块770。
判决块775确定non_anchor_single_loop_decoding是否等于1。如果是,则将控制传递到功能块750。否则,将控制传递到功能块760。
在当不包括视图间预测时对视图i的宏块进行解码的同时,功能块750从序列参数集(SPS)中考虑视图间依赖性,并且将控制传递到功能块755。功能块755推断用于运动跳跃宏块的运动信息、帧间预测模式、残余数据、视差数据、帧内预测模式和深度信息的组合,并且将控制传递到功能块770。
在当包括视图间预测时对视图i的宏块进行解码的同时,功能块760从序列参数集(SPS)中考虑视图间依赖性,并且将控制传递到功能块765。功能块765推断运动信息、帧间预测模式、残余数据、视差数据、帧内预测模式和深度信息的组合,并且将控制传递到功能块770。
现在将给出对于本原理的许多伴随优点/特点中的一些伴随优点/特点的描述,其中一些已经在上面提到。例如,一个优点/特点是具有如下这样的编码器的装置,所述编码器用于当使用视图间预测对多视图视频内容进行编码时,对多视图视频内容进行编码以使得能够进行多视图视频内容的单环解码。
另一优点/特点是具有如上所描述的编码器的装置,其中所述多视图视频内容包括参考视图和其它视图。所述其它视图能够被重构而无需所述参考视图的完全重构。
又一优点/特点是具有如上所描述的编码器的装置,其中视图间预测包括:从多视图视频内容的参考视图推断运动信息、帧间预测模式、帧内预测模式、参考索引、残余数据、深度信息、照度补偿偏移、去块强度和视差数据中的至少一个。
再一优点/特点是具有如上所描述的编码器的装置,其中视图间预测包括:从如下特性推断用于多视图内容的给定视图的信息,所述特性与来自关于所述给定视图的所述多视图视频内容的参考视图中的至少一个画面的至少一部分的至少一个有关;并且对与所述至少一个画面的至少一部分有关的信息进行解码。
此外,另一优点/特点是具有如上所描述的编码器的装置,其中使用高级语法元素来指示使得单环解码能够用于多视图视频内容。
此外,另一优点/特点是具有使用所描述的高级语法的编码器的装置,其中所述高级语法元素分别进行以下之一:指示是否使得所述单环解码能够用于多视图视频内容中的锚点画面和非锚点画面,基于视图指示是否使得能够进行所述单环解码,基于序列指示是否使得能够进行所述单环解码,并且指示仅对于多视图视频内容中的非锚点画面使得能够进行所述单环解码。
基于这里的教学,相关领域中的普通技术人员可以容易地确定本原理的这些和其他特点和优势。应当理解,可以在各种形式的硬件、软件、固件、专用处理器或它们的组合中实施本原理的教学。
最优选地,本原理的教导被实现为硬件和软件的组合。另外,软件可以实现为以有形方式实现在程序存储单元上的应用程序。该应用程序可以被上载到包含任何适当架构的机器并且由其执行。优选地,所述机器被实现在计算机平台之上,其具有诸如一个或者多个中央处理单元(“CPU”)、随机存取存储器(“RAM”)、以及输入/输出(“I/O”)接口之类的硬件。计算机平台还可以包括操作***和微指令代码。此处描述的各种处理和功能可以为微指令代码的一部分或者为应用程序的一部分,或者其任何组合,其可以由CPU执行。另外,例如附加的数据存储单元以及打印单元的各种其他外设单元可以连接到计算机平台。
此外,要理解的是,对于在其上编码有视频信号数据的存储介质的引用,无论在说明书还是权利要求中对其进行引用,都包括在其上记录了这种数据的任何类型的计算机可读存储介质。
还应该理解,因为在附图中所示的某些***构成组件与方法优选地以软件实现,所以***组件或者处理功能块之间的实际连接可能依赖于本原理的编排方式而不同。给出此处的教学,相关领域的普通技术人员将能够设想本原理的这些以及类似的实现或者配置。
虽然此处参照附图描述了说明性实施例,但是应该理解本原理不限于这些确切的实施例,并且相关领域的普通技术人员在不脱离本原理的范围与精神的情况下,可以在其中进行各种改变和修改。所有这些改变和修改都意在包含在权利要求书所提出的本原理的范围之内。

Claims (18)

1.一种装置,包括:
编码器(100),用于对多视图视频内容进行编码,以使得当使用视图间预测对所述多视图视频内容进行编码时能够进行所述多视图视频内容的单环解码。
2.如权利要求1所述的装置,其中,所述多视图视频内容包括参考视图和其它视图,所述其它视图能够被重构而无需所述参考视图的完全重构。
3.如权利要求1所述的装置,其中,所述视图间预测包括:从所述多视图视频内容的参考视图推断运动信息、帧间预测模式、帧内预测模式、参考索引、残余数据、深度信息、照度补偿偏移、去块强度和视差数据中的至少一个。
4.如权利要求1所述的装置,其中,所述视图间预测包括:从如下这样的特性推断用于所述多视图内容的给定视图的信息,所述特性与来自关于所述给定视图的所述多视图视频内容的参考视图的至少一个画面的至少一部分中的至少一个有关;并且对与所述至少一个画面的至少一部分有关的信息进行解码。
5.如权利要求1所述的装置,其中,使用高级语法元素来指示使得所述单环解码能够用于所述多视图视频内容。
6.如权利要求5所述的装置,其中,所述高级语法元素分别进行以下之一:指示是否使得所述单环解码能够用于所述多视图视频内容中的锚点画面和非锚点画面,基于视图指示是否使得能够进行所述单环解码,基于序列指示是否使得能够进行所述单环解码,指示仅对于所述多视图视频内容中的非锚点画面使得能够进行所述单环解码。
7.一种方法,包括:
对多视图视频内容进行编码,以当使用视图间预测对所述多视图视频内容进行编码时,支持所述多视图视频内容的单环解码(420)。
8.如权利要求7所述的方法,其中,所述多视图视频内容包括参考视图和其它视图,所述其它视图能够被重构而无需所述参考视图的完全重构(450)。
9.如权利要求7所述的方法,其中,所述视图间预测包括:从多视图视频内容的参考视图推断运动信息、帧间预测模式、帧内预测模式、参考索引、残余数据、深度信息、照度补偿偏移、去块强度和视差数据中的至少一个(450)。
10.如权利要求7所述的方法,其中,所述视图间预测包括:从如下这样的特性推断用于所述多视图内容的给定视图的信息,所述特性与来自关于所述给定视图的所述多视图视频内容的参考视图的至少一个画面的至少一部分中的至少一个有关;并且对与所述至少一个画面的所述至少一部分有关的信息进行解码。
11.如权利要求7所述的方法,其中,使用高级语法元素来指示使得所述单环解码能够用于所述多视图视频内容(425,460)。
12.如权利要求11所述的方法,其中,所述高级语法元素分别进行以下之一:指示是否使得所述单环解码能够用于所述多视图视频内容中的锚点画面和非锚点画面(425,435,460,465),基于视图指示是否使得能够进行所述单环解码(420,425,435,460,465),基于序列指示是否使得能够进行所述单环解码(615,620,625,630,665,660),并且指示仅对于所述多视图视频内容中的非锚点画面使得能够进行所述单环解码。
13.一种在其上编码有视频信号数据的存储介质,包括:
多视图视频内容,其被编码以当使用视图间预测对所述多视图视频内容进行编码时,支持所述多视图视频内容的单环解码。
14.如权利要求13所述的存储介质,其中,所述多视图视频内容包括参考视图和其它视图,所述其它视图能够被重构而无需所述参考视图的完全重构。
15.权利要求13所述的存储介质,其中,所述视图间预测包括:从所述多视图视频内容的参考视图推断运动信息、帧间预测模式、帧内预测模式、参考索引、残余数据、深度信息、照度补偿偏移、去块强度和视差数据中的至少一个。
16.如权利要求13所述的存储介质,其中,所述视图间预测包括:从如下这样的特性推断用于所述多视图内容的给定视图的信息,所述特性与来自关于所述给定视图的所述多视图视频内容的参考视图的至少一个画面的至少一部分中的至少一个有关;并且对与所述至少一个画面的所述至少一部分有关的信息进行解码。
17.如权利要求13所述的存储介质,其中,使用高级语法元素来指示使得所述单环解码能够用于所述多视图视频内容。
18.如权利要求17所述的存储介质,其中,所述高级语法元素分别进行以下之一:指示是否使得所述单环解码能够用于所述多视图视频内容中的锚点画面和非锚点画面,基于视图指示是否使得能够进行所述单环解码,基于序列指示是否使得能够进行所述单环解码,并且指示仅对于所述多视图视频内容中的非锚点画面使得能够进行所述单环解码。
CN200880022424A 2007-06-28 2008-06-24 多视图编码视频的单环解码 Pending CN101690230A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US94693207P 2007-06-28 2007-06-28
US60/946,932 2007-06-28
PCT/US2008/007894 WO2009005658A2 (en) 2007-06-28 2008-06-24 Single loop decoding of multi-vieuw coded video

Publications (1)

Publication Number Publication Date
CN101690230A true CN101690230A (zh) 2010-03-31

Family

ID=40040168

Family Applications (2)

Application Number Title Priority Date Filing Date
CN200880022444A Pending CN101690231A (zh) 2007-06-28 2008-06-24 多视图编码视频的单环解码
CN200880022424A Pending CN101690230A (zh) 2007-06-28 2008-06-24 多视图编码视频的单环解码

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN200880022444A Pending CN101690231A (zh) 2007-06-28 2008-06-24 多视图编码视频的单环解码

Country Status (7)

Country Link
US (2) US20100135388A1 (zh)
EP (2) EP2168380A2 (zh)
JP (2) JP5583578B2 (zh)
KR (2) KR101548717B1 (zh)
CN (2) CN101690231A (zh)
BR (2) BRPI0811469A8 (zh)
WO (2) WO2009005626A2 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103765902B (zh) * 2011-08-30 2017-09-29 英特尔公司 多视角视频编码方案

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7817865B2 (en) 2006-01-12 2010-10-19 Lg Electronics Inc. Processing multiview video
US20070177671A1 (en) * 2006-01-12 2007-08-02 Lg Electronics Inc. Processing multiview video
KR101276847B1 (ko) 2006-01-12 2013-06-18 엘지전자 주식회사 다시점 비디오의 처리
KR101370919B1 (ko) 2006-07-12 2014-03-11 엘지전자 주식회사 신호처리방법 및 장치
KR101366092B1 (ko) * 2006-10-13 2014-02-21 삼성전자주식회사 다시점 영상의 부호화, 복호화 방법 및 장치
US8548261B2 (en) 2007-04-11 2013-10-01 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding multi-view image
CN101999228A (zh) * 2007-10-15 2011-03-30 诺基亚公司 针对多视角视频内容的运动跳跃和单环路编码
CN101540652B (zh) * 2009-04-09 2011-11-16 上海交通大学 多视角视频码流的终端异构自匹配传输方法
JP5614900B2 (ja) * 2009-05-01 2014-10-29 トムソン ライセンシングThomson Licensing 3d映像符号化フォーマット
KR20110007928A (ko) * 2009-07-17 2011-01-25 삼성전자주식회사 다시점 영상 부호화 및 복호화 방법과 장치
KR101054875B1 (ko) 2009-08-20 2011-08-05 광주과학기술원 깊이 영상의 부호화를 위한 양방향 예측 방법 및 장치
KR101289269B1 (ko) * 2010-03-23 2013-07-24 한국전자통신연구원 영상 시스템에서 영상 디스플레이 장치 및 방법
EP2617194A1 (en) 2010-09-14 2013-07-24 Thomson Licensing Compression methods and apparatus for occlusion data
RU2480941C2 (ru) 2011-01-20 2013-04-27 Корпорация "Самсунг Электроникс Ко., Лтд" Способ адаптивного предсказания кадра для кодирования многоракурсной видеопоследовательности
CN103907346B (zh) * 2011-10-11 2017-05-24 联发科技股份有限公司 运动矢量预测子及视差矢量导出方法及其装置
EP2777273B1 (en) 2011-11-11 2019-09-04 GE Video Compression, LLC Efficient multi-view coding using depth-map estimate for a dependent view
KR102029401B1 (ko) 2011-11-11 2019-11-08 지이 비디오 컴프레션, 엘엘씨 깊이-맵 추정 및 업데이트를 사용한 효율적인 멀티-뷰 코딩
EP2781091B1 (en) 2011-11-18 2020-04-08 GE Video Compression, LLC Multi-view coding with efficient residual handling
WO2014005548A1 (en) * 2012-07-05 2014-01-09 Mediatek Inc. Method and apparatus of unified disparity vector derivation for 3d video coding
WO2014023024A1 (en) * 2012-08-10 2014-02-13 Mediatek Singapore Pte. Ltd. Methods for disparity vector derivation
CN103686165B (zh) * 2012-09-05 2018-01-09 乐金电子(中国)研究开发中心有限公司 深度图像帧内编解码方法及视频编解码器
US9426462B2 (en) 2012-09-21 2016-08-23 Qualcomm Incorporated Indication and activation of parameter sets for video coding
EP2904803A1 (en) 2012-10-01 2015-08-12 GE Video Compression, LLC Scalable video coding using derivation of subblock subdivision for prediction from base layer
KR20140048783A (ko) * 2012-10-09 2014-04-24 한국전자통신연구원 깊이정보값을 공유하여 움직임 정보를 유도하는 방법 및 장치
EP2919464A4 (en) * 2012-11-07 2016-05-11 Lg Electronics Inc DEVICE AND METHOD FOR PROCESSING VIDEO SIGNALS
WO2014073877A1 (ko) * 2012-11-07 2014-05-15 엘지전자 주식회사 다시점 비디오 신호의 처리 방법 및 이에 대한 장치
US10334259B2 (en) 2012-12-07 2019-06-25 Qualcomm Incorporated Advanced residual prediction in scalable and multi-view video coding
US9621906B2 (en) 2012-12-10 2017-04-11 Lg Electronics Inc. Method for decoding image and apparatus using same
WO2014104242A1 (ja) * 2012-12-28 2014-07-03 シャープ株式会社 画像復号装置、および画像符号化装置
US9516306B2 (en) * 2013-03-27 2016-12-06 Qualcomm Incorporated Depth coding modes signaling of depth data for 3D-HEVC
WO2015006922A1 (en) * 2013-07-16 2015-01-22 Mediatek Singapore Pte. Ltd. Methods for residual prediction
WO2015139187A1 (en) * 2014-03-17 2015-09-24 Mediatek Inc. Low latency encoder decision making for illumination compensation and depth look-up table transmission in video coding
WO2015141613A1 (ja) * 2014-03-20 2015-09-24 日本電信電話株式会社 画像符号化装置及び方法、画像復号装置及び方法、及び、それらのプログラム
CN110574069B (zh) * 2017-04-27 2023-02-03 联发科技股份有限公司 用于将虚拟现实图像映射成分段球面投影格式的方法以及装置

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3055438B2 (ja) * 1995-09-27 2000-06-26 日本電気株式会社 3次元画像符号化装置
US7924923B2 (en) * 2004-11-30 2011-04-12 Humax Co., Ltd. Motion estimation and compensation method and device adaptive to change in illumination
KR101199498B1 (ko) * 2005-03-31 2012-11-09 삼성전자주식회사 카메라 파라미터를 이용한 다시점 영상의 부호화 장치 및생성 장치, 그 방법과, 이를 수행하기 위한 프로그램이기록된 기록 매체
KR100732961B1 (ko) * 2005-04-01 2007-06-27 경희대학교 산학협력단 다시점 영상의 스케일러블 부호화, 복호화 방법 및 장치
US8228994B2 (en) * 2005-05-20 2012-07-24 Microsoft Corporation Multi-view video coding based on temporal and view decomposition
JP4414379B2 (ja) * 2005-07-28 2010-02-10 日本電信電話株式会社 映像符号化方法、映像復号方法、映像符号化プログラム、映像復号プログラム及びそれらのプログラムを記録したコンピュータ読み取り可能な記録媒体
US8559515B2 (en) * 2005-09-21 2013-10-15 Samsung Electronics Co., Ltd. Apparatus and method for encoding and decoding multi-view video
US8644386B2 (en) * 2005-09-22 2014-02-04 Samsung Electronics Co., Ltd. Method of estimating disparity vector, and method and apparatus for encoding and decoding multi-view moving picture using the disparity vector estimation method
KR101276720B1 (ko) * 2005-09-29 2013-06-19 삼성전자주식회사 카메라 파라미터를 이용하여 시차 벡터를 예측하는 방법,그 방법을 이용하여 다시점 영상을 부호화 및 복호화하는장치 및 이를 수행하기 위한 프로그램이 기록된 기록 매체
KR101244911B1 (ko) * 2005-10-11 2013-03-18 삼성전자주식회사 카메라 파라미터를 이용한 다시점 동영상 부호화 및 복호화장치 및 방법과 이를 수행하기 위한 프로그램이 기록된기록매체
KR100763194B1 (ko) * 2005-10-14 2007-10-04 삼성전자주식회사 단일 루프 디코딩 조건을 만족하는 인트라 베이스 예측방법, 상기 방법을 이용한 비디오 코딩 방법 및 장치
US7903737B2 (en) * 2005-11-30 2011-03-08 Mitsubishi Electric Research Laboratories, Inc. Method and system for randomly accessing multiview videos with known prediction dependency
JP4570159B2 (ja) * 2006-01-06 2010-10-27 Kddi株式会社 多視点映像符号化方法、装置及びプログラム
CN101401440A (zh) * 2006-01-09 2009-04-01 诺基亚公司 可伸缩视频编码中的差错恢复模式判决
US8315308B2 (en) * 2006-01-11 2012-11-20 Qualcomm Incorporated Video coding with fine granularity spatial scalability
KR100772873B1 (ko) * 2006-01-12 2007-11-02 삼성전자주식회사 스무딩 예측을 이용한 다계층 기반의 비디오 인코딩 방법,디코딩 방법, 비디오 인코더 및 비디오 디코더
US7817865B2 (en) * 2006-01-12 2010-10-19 Lg Electronics Inc. Processing multiview video
KR100754205B1 (ko) * 2006-02-07 2007-09-03 삼성전자주식회사 다시점 동영상 부호화 장치 및 방법
US8170116B2 (en) * 2006-03-27 2012-05-01 Nokia Corporation Reference picture marking in scalable video encoding and decoding
US8699583B2 (en) * 2006-07-11 2014-04-15 Nokia Corporation Scalable video coding and decoding
WO2008023968A1 (en) * 2006-08-25 2008-02-28 Lg Electronics Inc A method and apparatus for decoding/encoding a video signal
JP4793366B2 (ja) * 2006-10-13 2011-10-12 日本ビクター株式会社 多視点画像符号化装置、多視点画像符号化方法、多視点画像符号化プログラム、多視点画像復号装置、多視点画像復号方法、及び多視点画像復号プログラム
FR2907575B1 (fr) * 2006-10-18 2009-02-13 Canon Res Ct France Soc Par Ac Procede et dispositif de codage d'images representant des vues d'une meme scene
EP2080382B1 (en) * 2006-10-20 2016-07-20 Nokia Technologies Oy System and method for implementing low-complexity multi-view video coding
WO2008088175A1 (en) * 2007-01-17 2008-07-24 Lg Electronics Inc. Method and apparatus for processing a video signal
US8548261B2 (en) * 2007-04-11 2013-10-01 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding multi-view image
EP2149262A4 (en) * 2007-04-25 2010-09-01 Lg Electronics Inc METHOD AND DEVICE FOR DECODING / CODING A VIDEO SIGNAL

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103765902B (zh) * 2011-08-30 2017-09-29 英特尔公司 多视角视频编码方案

Also Published As

Publication number Publication date
KR101548717B1 (ko) 2015-09-01
US20100118942A1 (en) 2010-05-13
EP2168383A2 (en) 2010-03-31
JP2010531622A (ja) 2010-09-24
WO2009005626A2 (en) 2009-01-08
KR20100030625A (ko) 2010-03-18
WO2009005658A2 (en) 2009-01-08
US20100135388A1 (en) 2010-06-03
EP2168380A2 (en) 2010-03-31
CN101690231A (zh) 2010-03-31
JP2010531623A (ja) 2010-09-24
BRPI0811458A2 (pt) 2014-11-04
KR20100032390A (ko) 2010-03-25
BRPI0811469A2 (pt) 2014-11-04
WO2009005626A3 (en) 2009-05-22
JP5583578B2 (ja) 2014-09-03
WO2009005658A3 (en) 2009-05-14
BRPI0811469A8 (pt) 2019-01-22
JP5738590B2 (ja) 2015-06-24
KR101395659B1 (ko) 2014-05-19

Similar Documents

Publication Publication Date Title
CN101690230A (zh) 多视图编码视频的单环解码
CN101366286B (zh) 用于多视角视频编码的方法和装置
CN102301708B (zh) 视频编码和解码中用于变换选择的方法和装置
CN101288311B (zh) 用于可分级视频编码和解码中的加权预测的方法和装置
JP6395667B2 (ja) 多視点映像符号化及び復号化用の、ハイレベルシンタックスを使用した改善されたシグナリングのための方法及び装置
KR101361896B1 (ko) 멀티-뷰 비디오 코딩 방법 및 디바이스
JP5474546B2 (ja) 低減された解像度の分割の方法及び装置
CN101496407B (zh) 用于针对多视角视频编码和解码解耦合帧号和/或图像顺序计数(poc)的方法和装置
CN101518089B (zh) 编/解码方法、编/解码器及寻找最佳匹配块的方法及装置
CN101682769A (zh) 用于视频编码和解码的跳过-直接模式的取决于环境的合并的方法和装置
CN102857746A (zh) 环路滤波编解码方法及装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C12 Rejection of a patent application after its publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20100331