CN104737536A - 用于在预测3维图像的视点间运动矢量时导出视差矢量的方法 - Google Patents

用于在预测3维图像的视点间运动矢量时导出视差矢量的方法 Download PDF

Info

Publication number
CN104737536A
CN104737536A CN201380055266.XA CN201380055266A CN104737536A CN 104737536 A CN104737536 A CN 104737536A CN 201380055266 A CN201380055266 A CN 201380055266A CN 104737536 A CN104737536 A CN 104737536A
Authority
CN
China
Prior art keywords
block
degree
depth
vector
size
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201380055266.XA
Other languages
English (en)
Inventor
李忠九
李溶宰
金辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Humax Co Ltd
Original Assignee
Humax Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Humax Co Ltd filed Critical Humax Co Ltd
Priority claimed from PCT/KR2013/009375 external-priority patent/WO2014065547A1/ko
Publication of CN104737536A publication Critical patent/CN104737536A/zh
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0085Motion estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

在一种用于在预测3D图像的视点间运动矢量时导出视差矢量的方法中,通过根据当前块的大小,例如预测单元的大小自适应地搜索块内的不同数量的深度样本,并且接着获得最大深度值,来导出视差矢量。因此,与用于针对固定的块大小而搜索深度样本的方法相比,能够增加编码增益/解码增益。

Description

用于在预测3维图像的视点间运动矢量时导出视差矢量的方法
技术领域
本发明涉及用于编码3维(3D)图像的方法和设备,并且更具体地,涉及用于在预测3D图像的视点间运动矢量时导出视差矢量的方法。
背景技术
多视点3D电视具有下述优点:因为能够观看到取决于观察者的位置的3D图像,所以提供了更自然的3D效果,但是多视点3D电视具有下述缺点:不可能提供所有视点的图像,以及甚至在传输方面需要大量成本。因此,需要通过使用经传输的图像针对不存在的视点来制作图像的中间视点图像合成技术。
在中间视点图像合成中,关键核心是通过获得两个图像的相似度而将视差表示为视差矢量(DV)的视差估计。
此外,在3D图像的情况下,每个像素包括归因于图像的特征的深度信息和像素信息,并且编码器可以计算深度信息或深度图,以将多视点图像信息以及深度信息传输至解码器。
在这种情况下,使用运动矢量预测。当前预测单元的相邻块的运动矢量被用作预测运动矢量的候选块,并且具有深度信息的3D图像需要一种用于通过使用深度信息或深度图来简单并高效地导出视差矢量的方法。
发明内容
本发明提供了用于在预测3D图像的视点间运动矢量时导出视差矢量的方法,该方法被用于降低当在预测3D图像的视点间运动矢量过程中导出视差矢量时的复杂度。
本发明还提供了用于在预测使用所述方法的3D图像的视点间运动矢量时导出视差矢量的方法。
一方面,所述方法当目标参考图像是预测3D图像的视点间运动矢量时的视点间预测图像并且当前块的相邻块的视点间运动矢量不可用时,根据与所述当前块相关联的深度图中的最大深度值来导出视差矢量,以代替所述不可用的视点间运动矢量,该方法包括通过下述操作来导出视差矢量:通过针对当前块搜索与当前块相关联的深度图中的预定数量的深度样本而获得最大深度值。
可以通过下述操作来导出最大视差矢量:通过针对由四个8×8大小的块组成的16×16的块大小搜索各个8×8大小的块的四个角的深度样本而获得最大深度值。
可以通过下述操作来导出最大视差矢量:通过针对由十六个8×8大小的块组成的32×32的块大小搜索各个8×8大小的块的四个角的深度样本而获得最大深度值。
另一方面,所述方法当目标参考图像是预测3D图像的视点间运动矢量时的视点间预测图像并且当前块的相邻块的视点间运动矢量不可用时,根据与所述当前块相关联的深度图中的最大深度值来导出视差矢量,以代替所述不可用的视点间运动矢量,该方法包括通过下述操作来导出视差矢量:通过根据当前块的大小自适应地搜索与当前块相关联的深度图中的不同数量的深度样本而获得最大深度值。
可以通过下述操作来导出最大视差矢量:通过根据预测单元(PU)的大小自适应地仅搜索K(K是正整数)个深度样本而获得最大深度值。
可以通过下述操作来导出最大视差矢量:通过针对由四个8×8大小的块组成的16×16的块大小搜索各个8×8大小的块的四个角的深度样本而获得最大深度值。
可以通过下述操作来导出最大视差矢量:通过针对由十六个8×8大小的块组成的32×32的块大小搜索各个8×8大小的块的四个角的深度样本而获得最大深度值。
又一方面,所述方法当目标参考图像是预测3D图像的视点间运动矢量时的视点间预测图像并且当前块的相邻块的视点间运动矢量不可用时,根据与所述当前块相关联的深度图中的最大深度值来导出视差矢量,以代替所述不可用的视点间运动矢量,该方法包括通过下述操作来导出视差矢量:在不考虑当前块的大小的情况下,通过针对具有预定大小的当前块搜索与所述具有预定大小的当前块相关联的深度图中的不同数量的深度样本而获得最大深度值。
根据用于在预测3D图像的视点间运动矢量时导出视差矢量的方法,在当前块的相邻块的特定视点间运动矢量不可用时,通过下述操作来导出视差矢量:搜索当前块中的预定数量的深度样本,并且接着获得最大深度值。因此,与用于通过针对N×N大小的当前块中的所有N×N深度样本获得最大深度值来导出视差矢量的方法相比,能够显著改善复杂度。
此外,在当前块的相邻块的特定视点间运动矢量不可用时,通过下述操作来导出视差矢量:通过根据当前块的大小,例如预测单元的大小自适应地搜索相应块中的不同数量的深度样本,并且接着获得最大深度值。因此,与用于针对固定的块大小而搜索深度样本的方法相比,能够增加编码增益/解码增益。
附图说明
图1A与图1B是描述根据本发明的示例性实施方式的用于导出视差矢量的方法的示意图。
图2A至图2I是描述根据本发明的另一示例性实施方式的用于导出视差矢量的方法的示意图。
图3是描述根据本发明的示例性实施方式的用于导出视差矢量的方法的流程图。
具体实施方式
本发明可以具有各种修改和各种示例性实施方式,并且将在附图中示出并详细地描述具体的示例性实施方式。
但是,这并不将本发明局限于具体的示例性实施方式,并且应当理解的是,本发明涵盖在本发明的思想和技术范围内的所有的修改、等同物以及替换物。
诸如第一或第二的术语可以被用以描述各种部件,但所述各种部件不被上述术语所限制。上述术语仅用以区分一个部件与另一部件。例如,在不偏离本发明的范围的情况下,第二部件可以被称为第一部件,并且类似地,第一部件可以被称为第二部件。诸如和/或的术语包括多个相关项的组合或者多个相关项中的任何项。
应当理解的是,当描述将元件“耦接”或“连接”到另一元件时,可以将该元件“直接耦接”或“直接连接”到另一元件,或者通过第三元件将其“耦接”或“连接”到另一元件。与此相反,应当理解的是:当描述将元件“直接耦接”或“直接连接”到另一元件时,应当理解为在该元件与该另一元件之间没有元件存在。
在本申请中使用的术语仅用以描述具体的示例性实施方式,并且不意图限制本发明。如果在上下文中不存在明显相反的含义,则单数形式可以包括复数形式。在本申请中,应当理解的是,术语“包括”或“具有”表示存在说明书中描述的特征、数量、步骤、操作、部件、零件或其组合,但术语“包括”或“具有”不事先排除存在或添加一个或更多个其他特征、数量、步骤、操作、部件、零件或组合的可能性。
如果没有被相反地定义,则本文中所使用的包括技术术语或科学术语的所有术语具有与本领域的普通技术人员通常所理解的含义相同的含义。通常使用的词典中所定义的术语应当被解释为具有与相关领域的背景下的含义相同的含义,并且除非在本发明中被明确定义,否则不被解释为理想地或过于正式的含义。
在下文中,将参考附图更详细地描述本发明的优选实施方式。在描述本发明时,为了便于全面理解,相同的附图标记指的是相同的元件,并且将省略对相同元件的重复描述。
在下文中,编码单元(CU)具有正方形像素大小,并且可以具有2N2N(单位:像素)的可变的大小。CU可以具有递归编码单元结构。可以由CU单元来配置帧间预测、帧内预测、变换、量化、去块滤波和熵编码。
预测单元(PU)是用于执行帧间预测或帧内预测的基本单元。
当基于H.264/AVC来执行3D视频编码时,在执行时间运动矢量预测以及视点间运动矢量预测的情况下,如果目标参考图像是时间预测图像,则当前块的相邻块的时间运动矢量被用于运动矢量预测。在这种情况下,当时间运动矢量不可用时,则使用零矢量。通过当前块的相邻块的运动矢量的中值来导出时间运动矢量预测。
另一方面,当基于H.264/AVC或者比H.264/AVC更高效的视频编码方法来执行3D视频编码时,在执行视点间运动矢量预测的情况下,如果目标参考图像是视点间预测图像,则当前块的相邻块的视点间运动矢量被用于运动矢量预测被用于视点间预测。在这种情况下,当相邻块的特定视点间运动矢量不可用时,则使用由与当前块有关的深度块(可替选地,深度图)中的最大深度值所变换(可替选地,导出)的最大视差矢量来代替不可用的特定视点间运动矢量。另外,如现有的H.264/AVC的运动矢量预测那样,可以通过当前块的相邻块的视点间运动矢量的中值来导出视点间运动矢量预测。
这样,当基于H.264/AVC或者比H.264/AVC更高效的视频编码方法来执行3D视频编码时,在如上所述的当前块的相邻块的特定视点间运动矢量不可用的情况下,为了通过使用深度块(可替选地,深度图)中的最大深度值来获得最大视差矢量(DV),例如,在PU是16×16的宏块的情况下,因为需要搜索256个深度样本,所以需要执行255次比较操作并且其计算是非常复杂的。从而,在这种情况下,作为导出视差矢量的更简单的方法,通过下述操作来导出最大视差矢量:仅搜索K个深度样本,例如当K=4时的16×16的宏块的角的四个深度样本而不是256个深度样本,并且接着获得最大深度值。通过简化,要被访问的深度样本的数量从256大大减少到4,并且需要的比较次数从255大大减少到3。
根据本发明的示例性实施方式,当基于H.264/AVC或者比H.264/AVC更高效的视频编码方法来执行3D视频编码时,根据PU的大小(例如,16×16、64×64或者32×32像素),通过自适应地仅搜索K个深度样本并且获得最大深度值来导出最大视差矢量,例如K是等于4、16、32、60、61、74以及90的正整数。
具体地,当考虑到使用比H.264/AVC的16×16的宏块更大的32×32像素以及64×64像素的块大小作为编码单元或预测单元的情况时,在当前块的相邻块的特定视点间运动矢量不可用的情况下,为了通过使用深度块(可替选地,深度图)中的最大深度值来获得最大视差矢量(DV),需要搜索32×32和64×64的所有深度样本,因此,该过程非常复杂。从而,在这种情况下,通过下述操作来导出最大视差矢量:通过根据块大小,例如PU的大小而自适应地仅搜索不同数量的深度样本,而不是32×32和64×64的所有深度样本,并且接着获得最大深度值。因此,能够增加编码增益/解码增益。
图1A和图1B是描述根据本发明的示例性实施方式的用于通过下述操作来导出视差矢量的方法的示意图:根据块大小自适应地仅搜索相应的块中的不同数量的深度样本。
参考图1A,针对由四个具有8×8大小的块组成的16×16的块的大小,通过下述操作来导出最大视差矢量:搜索具有8×8大小的每个块的四个角的深度样本,即总共16个角的深度样本,并且接着获得最大深度值。
参考图1B,针对由16个具有8×8大小的块组成的32×32的块的大小,通过下述操作来导出最大视差矢量:搜索具有8×8大小的每个块的四个角的深度样本,即总共64个角的深度样本,并且接着获得最大深度值。
此外,根据本发明的另一示例性实施方式,当基于H.264/AVC或者比H.264/AVC更高效的视频编码方法来执行3D视频编码时,在不考虑PU的大小(例如,16×16像素、64×64像素或者32×32像素)的情况下,通过下述操作来导出最大深度值:针对具有预定大小的块仅搜索不同数量(K1、K2、K3、......)的深度样本,并且接着获得最大深度值。
图2A至图2I是描述根据本发明的另一示例性实施方式的用于通过下述操作来导出视差矢量的方法的示意图:在不考虑块的大小的情况下,针对具有预定大小的块仅搜索相应的块中的不同数量的深度样本。
参考图2A至图2I,可以通过下述操作来导出最大视差矢量:针对具有16×16的预定大小的块搜索每个块中的不同数量的深度样本,并且接着获得最大深度值。
在下文中,由(x,y)表示X轴方向上的位置x与y轴方向上的位置y。
参考图2A,针对16×16的块来搜索对应于四个边缘的深度样本。也就是说,可以通过下述操作来导出视差矢量:仅搜索对应于x=1且y=1至16的深度样本、对应于x=16且y=1至16的深度样本、对应于x=1至16且y=1的深度样本、对应于x=1至16且y=16的深度样本的总共60个深度样本,并且接着获得最大深度值。
参考图2B,针对16×16的块,可以通过下述操作来导出视差矢量:仅搜索对应于x=1且y=1至16的深度样本、对应于x=9且y=1至16的深度样本、对应于x=1至16且y=1的深度样本、对应于x=1至16且y=9的深度样本的总共60个深度样本,并且接着获得最大深度值。
参考图2C,针对16×16的块,可以通过下述操作来导出视差矢量:仅搜索对应于x=1且y=1至16的深度样本、对应于x=9且y=1至16的深度样本的总共30个深度样本,并且接着获得最大深度值。
参考图2D,针对16×16的块,可以通过下述操作来导出视差矢量:仅搜索对应于x=1至16且y=1的深度样本、对应于x=1至16并且y=9的深度样本的总共32个深度样本,并且接着获得最大深度值。
参考图2E,针对16×16的块来搜索对应于四个边缘和中心的深度样本。也就是说,可以通过下述操作来导出视差矢量:仅搜索对应于x=1且y=1至16的深度样本、对应于x=9且y=1至16的深度样本、对应于x=16且y=1至16的深度样本的总共72个深度样本,并且接着获得最大深度值。
参考图2F,针对16×16的块来搜索对应于四个边缘和中心的深度样本。也就是说,可以通过下述操作来导出视差矢量:仅搜索对应于x=1且y=1至16的深度样本、对应于x=1至16且y=9的深度样本、对应于x=1至16且y=1的深度样本、对应于x=1至16且y=16的深度样本的总共74个深度样本,并且接着获得最大深度值。
参考图2G,针对16×16的块,可以通过下述操作来导出视差矢量:仅搜索对应于x=1且y=1至16的深度样本、对应于x=1至16且y=9的深度样本、对应于x=1至16且y=16的深度样本、对应于x=1至16且y=9的深度样本的总共61个深度样本,并且接着获得最大深度值。
参考图2H,针对16×16的块,可以通过下述操作来导出视差矢量:仅搜索对应于x=1且y=1至16的深度样本、对应于x=1至16且y=9的深度样本、对应于x=1至16且y=16的深度样本、对应于x=9且y=1至16的深度样本的总共61个深度样本,并且接着获得最大深度值。
参考图2I,针对16×16的块来搜索对应于四个边缘和中心的深度样本。也就是说,可以通过下述操作来导出视差矢量:仅搜索对应于x=1且y=1至16的深度样本、对应于x=9且y=1至16的深度样本、对应于x=16且y=1至16的深度样本、对应于x=1至16且y=1的深度样本、对应于x=1至16且y=9的深度样本、对应于x=1至16且y=16的深度样本的总共90个深度样本,并且接着获得最大深度值。
图3是描述根据本发明的示例性实施方式的用于导出视差矢量的方法的流程图。
参考图3,当基于H.264/AVC或者比H.264/AVC更高效的视频编码方法来执行3D视频编码时,首先,确定块,例如PU的大小(例如,16×16像素、64×64像素或者32×32像素)(S310),通过考虑块的大小而自适应地仅搜索K个深度样本来获得最大深度值,例如K是等于4、16、32、60、61、74和90的正整数(S320),并且基于找到的最大深度值来导出视差矢量(S330)。
虽然已针对优选实施方式示出并描述了本发明,但本领域的技术人员应当理解的是,在不偏离如所附权利要求中所限定的本发明的精神和范围的情况下,可以做出各种改变和修改。

Claims (8)

1.一种方法,所述方法当目标参考图像是预测3D图像中的视点间运动矢量时的视点间预测图像并且当前块的相邻块的视点间运动矢量不可用时,根据与所述当前块相关联的深度图中的最大深度值来导出视差矢量,以代替所述不可用的视点间运动矢量,所述方法包括:
通过下述操作来导出所述视差矢量:通过针对所述当前块搜索与所述当前块相关联的所述深度图中的预定数量的深度样本而获得所述最大深度值。
2.根据权利要求1所述的方法,其中,通过下述操作来导出最大视差矢量:通过针对由四个8×8大小的块组成的16×16的块大小搜索各个8×8大小的块的四个角的深度样本而获得所述最大深度值。
3.根据权利要求1所述的方法,其中,通过下述操作来导出最大视差矢量:通过针对由十六个8×8大小的块组成的32×32的块大小搜索各个8×8大小的块的四个角的深度样本而获得所述最大深度值。
4.一种方法,所述方法当目标参考图像是预测3D图像中的视点间运动矢量时的视点间预测图像并且当前块的相邻块的视点间运动矢量不可用时,根据与所述当前块相关联的深度图中的最大深度值来导出视差矢量,以代替所述不可用的视点间运动矢量,所述方法包括:
通过下述操作来导出所述视差矢量:通过根据所述当前块的大小自适应地搜索与所述当前块相关联的所述深度图中的不同数量的深度样本而获得所述最大深度值。
5.根据权利要求4所述的方法,其中,通过下述操作来导出最大视差矢量:通过根据预测单元(PU)的大小自适应地仅搜索K个深度样本而获得所述最大深度值,所述K是正整数。
6.根据权利要求4所述的方法,其中,通过下述操作来导出最大视差矢量:通过针对由四个8×8大小的块组成的16×16的块大小搜索各个8×8大小的块的四个角的深度样本而获得所述最大深度值。
7.根据权利要求4所述的方法,其中,通过下述操作来导出最大视差矢量:通过针对由十六个8×8大小的块组成的32×32的块大小搜索各个8×8大小的块的四个角的深度样本而获得所述最大深度值。
8.一种方法,所述方法当目标参考图像是预测3D图像的视点间运动矢量时的视点间预测图像并且当前块的相邻块的视点间运动矢量不可用时,根据与所述当前块相关联的深度图中的最大深度值来导出视差矢量,以代替所述不可用的视点间运动矢量,所述方法包括:
通过下述操作来导出所述视差矢量:在不考虑所述当前块的大小的情况下,通过针对具有预定大小的当前块搜索与具有所述预定大小的所述当前块相关联的所述深度图中的不同数量的深度样本而获得所述最大深度值。
CN201380055266.XA 2012-10-22 2013-10-21 用于在预测3维图像的视点间运动矢量时导出视差矢量的方法 Pending CN104737536A (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
KR20120117011 2012-10-22
KR10-2012-0117011 2012-10-22
KR10-2013-0125014 2013-10-21
KR1020130125014A KR20140051790A (ko) 2012-10-22 2013-10-21 3차원 영상의 뷰간(inter-view) 움직임 벡터 예측에서의 변이 벡터 유도 방법
PCT/KR2013/009375 WO2014065547A1 (ko) 2012-10-22 2013-10-21 3차원 영상의 뷰간(inter-view) 움직임 벡터 예측에서의 변이 벡터 유도 방법

Publications (1)

Publication Number Publication Date
CN104737536A true CN104737536A (zh) 2015-06-24

Family

ID=50885362

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201380055266.XA Pending CN104737536A (zh) 2012-10-22 2013-10-21 用于在预测3维图像的视点间运动矢量时导出视差矢量的方法

Country Status (3)

Country Link
US (1) US20150256809A1 (zh)
KR (1) KR20140051790A (zh)
CN (1) CN104737536A (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10638165B1 (en) * 2018-11-08 2020-04-28 At&T Intellectual Property I, L.P. Adaptive field of view prediction

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014000664A1 (en) * 2012-06-28 2014-01-03 Mediatek Inc. Method and apparatus of disparity vector derivation in 3d video coding
WO2014005548A1 (en) * 2012-07-05 2014-01-09 Mediatek Inc. Method and apparatus of unified disparity vector derivation for 3d video coding

Also Published As

Publication number Publication date
KR20140051790A (ko) 2014-05-02
US20150256809A1 (en) 2015-09-10

Similar Documents

Publication Publication Date Title
CN105379282B (zh) 用于纹理译码的先进残余预测(arp)的方法和设备
CN103503460B (zh) 译码视频数据的方法和设备
KR101706309B1 (ko) 3차원 비디오 코딩을 위한 뷰간 후보자 유도 방법 및 장치
US20180255319A1 (en) Method and apparatus for encoding and decoding a light field basde image, and corresponding computer program product
CN104838651A (zh) 可缩放及多视角视频译码中的高级残差预测
RU2631990C2 (ru) Способ и устройство для предсказания межкадровых векторов движения и векторов диспаратности при 3d кодировании видеосигналов
CN105325001A (zh) 面向深度的视图间运动向量预测
CN105009586A (zh) 多视图或3维视频译码中的视图间残余预测
US10244259B2 (en) Method and apparatus of disparity vector derivation for three-dimensional video coding
CN101222627A (zh) 一种多视点视频编解码***以及预测向量的方法和装置
RU2661331C2 (ru) Способ и устройство кодирования изображений с эффектом глубины при кодировании видео
WO2014166304A1 (en) Method and apparatus of disparity vector derivation in 3d video coding
US20170289573A1 (en) Method and device for encoding/decoding 3d video
CN105637874A (zh) 解码多视图视频的视频解码装置和方法
CN101895749B (zh) 一种快速视差估计和运动估计方法
CN114208171A (zh) 用于推导用于生成预测样本的权重索引信息的图像解码方法和装置
KR20110124447A (ko) 입체영상 부호화 장치 및 방법
JP2016537871A (ja) マルチビュービデオのデコード方法及び装置
CN102263952B (zh) 一种基于对象的快速双目立体视频分形压缩与解压缩方法
CN102263953B (zh) 一种基于对象的快速多目立体视频分形压缩与解压缩方法
CN104737536A (zh) 用于在预测3维图像的视点间运动矢量时导出视差矢量的方法
CN105122808A (zh) 用于三维及多视图视频编码的视差向量推导的方法及装置
CN104853216B (zh) 基于深度的块分割方法和电子装置
WO2015055143A1 (en) Method of motion information prediction and inheritance in multi-view and three-dimensional video coding
CN104782123A (zh) 用于预测视点间运动的方法以及用于确定3维视频中的视点间合并候选的方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C41 Transfer of patent application or patent right or utility model
TA01 Transfer of patent application right

Effective date of registration: 20160406

Address after: Gyeonggi Do, South Korea

Applicant after: Humax Co., Ltd.

Address before: Gyeonggi Do, South Korea

Applicant before: HUMAX CO., LTD.

WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20150624