CN106134191B - 用于低延迟亮度补偿处理以及基于深度查找表的编码的方法 - Google Patents

用于低延迟亮度补偿处理以及基于深度查找表的编码的方法 Download PDF

Info

Publication number
CN106134191B
CN106134191B CN201580010353.2A CN201580010353A CN106134191B CN 106134191 B CN106134191 B CN 106134191B CN 201580010353 A CN201580010353 A CN 201580010353A CN 106134191 B CN106134191 B CN 106134191B
Authority
CN
China
Prior art keywords
band
current image
luminance compensation
reference picture
picture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201580010353.2A
Other languages
English (en)
Other versions
CN106134191A (zh
Inventor
陈渏纹
张凯
林建良
黄毓文
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
HFI Innovation Inc
Original Assignee
HFI Innovation Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by HFI Innovation Inc filed Critical HFI Innovation Inc
Publication of CN106134191A publication Critical patent/CN106134191A/zh
Application granted granted Critical
Publication of CN106134191B publication Critical patent/CN106134191B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本发明揭露了一种三维以及多视图编码***中用于低延迟亮度补偿的方法以及装置。根据本发明,编码器基于分别与已选择的参考图片或条带相关联的统计数据相关、或分别与所述当前图片或条带相关联的高等级编码信息相关的条件,确定是否启用或禁用用于当前图片或条带的亮度补偿。与所述当前图片或条带相关联的高等级编码信息不包括分别与所述当前图片或条带相关的像素值的任何信息。接着,根据编码器做出的决定,应用亮度补偿。类似低延迟方法也被应用到基于深度查找表的编码中。

Description

用于低延迟亮度补偿处理以及基于深度查找表的编码的方法
【相关申请的交叉引用】
本发明主张申请于2014年3月17日,序列号为PCT/CN2014/073555的PCT专利申请的优先权。将此PCT专利申请以参考的方式并入本文中。
【技术领域】
本发明涉及三维以及多视图视频编码。特别地,本发明涉及用于低延迟亮度补偿处理以及基于深度查找表的编码的方法。
【背景技术】
三维(3D)电视技术是近年来的技术发展趋势,其目标是给观看者带来轰动的观看体验(viewing experience)。多视图视频是一种用于捕捉及渲染3D视频的技术。通常的,多视图视频是通过同时使用多个相机捕捉场景来创建的,其中,多个照相机都被合适地定位,以使每个照相机从一个视角捕捉场景。具有大量与视图相关联的视频序列的多视图视频表示了巨量的数据(massive amount data)。因此,多视图视频将需要大量的存储空间来存储和/或需要高的带宽来传送。因此,在本领域中,多视图视频编码技术被开发出来以减少所需要的存储空间以及传送带宽。一个直接方法可以简单地应用于现有的视频编码技术,使每个单个视图视频序列独立且忽视不同视图中的任何关联。这样的直接的技术将导致低下的编码性能。为了提高多视图视频编码效率,多视图视频编码总是利用视图间冗余。两个视图之间的视差是由两个相关相机的位置以及角度而导致。
图1所示为用于3D视频编码的通用测试条件中的示范性预测结构。对应于特定照相机位置的视频图片以及深度图由视图标识符(即,图1中的V0、V1以及V2)来指示。属于相同照相机位置的所有纹理图片以及深度图通过相同视图标识符(即,viewId)被关联。视图标识符被用于在存取单元中指定编码顺序,且于易出错环境中检测丢失的视图(missingview)。存取单元包括对应于相同时刻的所有视频图片以及深度图。于存取单元中,如果存在viewId等于0的深度图,则viewId等于0的视频图片及相关的深度图首先被编码,接下来是viewId等于1的视频图片以及深度图等。viewId等于0(即,图1中的V0)的视图也被称作基础视图或独立视图。基础视图视频图片不依赖于其它视图,可使用现有的HEVC视频编码器来编码。
图1所示的示例对应于于从V0(即,基础视图)到V1,以及随后到V2的视图编码顺序。正被编码的当前图片中的当前块位于V2中。根据HTM-6.0,先前已编码视图中的参考块的所有MV可被认为是视图间候选。于图1中,帧110、120、以及130分别对应于来自视图V0、V1、以及V2的于时间t1的视频图片或深度图。块132是当前视图中的当前块,且块112以及122分别是V0以及V1的当前块。对于V0中的当前块112,视差向量116用于定位视图间对应块114。类似地,对于V1中的当前块122,视差向量126用于定位视图间对应块124。
亮度补偿(Illumination compensation,IC)
IC是一种用于减少由在不同位置的不同相机捕捉的两个视图的不同亮度区域所导致的视图间的亮度差的技术。于HTM中,线性IC模型由Liu等(Liu et al.)作者于JCT3V-B0045(“3D-CE2.h:Results of Illumination Compensation for Inter-ViewPrediction”,Joint Collaborative Team on 3D Video Coding Extension Developmentof ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,2nd Meeting:Shanghai,CN,13–19 Oct.2012,Document:JCT3V-B0045)中揭露以补偿不同视图之间的亮度差。IC模型中的参数使用可用的最近的重建相邻像素被估计,以用于每个预测单元。因此,不需要传送IC参数到解码器。是否应用IC是于编码单元(coding unit,CU)等级来决定的,且IC旗标被编码以指示是否于CU等级启用IC。旗标仅出现于使用视图间预测来编码的CU。如果用于CU的IC被启用,且CU中的预测单元(prediction unit,PU)是由时间预测(即,帧间预测)来编码,PU块被推断为IC禁用。用于视图间预测的线性IC模型如方程(1)所示:
p(i,j)=aIC·r(i+dvx,j+dvy)+bIC where(i,j)∈PUc (1)
其中,PUc为当前PU,(i,j)为PUc中的像素坐标,(dvx,dvy)是PUc的视差向量,p(i,j)为PUc的预测,r(·,·)为来自相邻视图的PU的参考图片,且aIC以及bIC为线性IC模型的参数。
为了估计用于PU的参数aIC以及bIC,如图2A以及图2B所示的两组像素被使用。如图2A所示,相邻像素由当前CU(由粗线框指示)的左侧列以及上方行(由圆圈所示)中的重建的相邻像素组成,其中,CU包含当前PU。如图2B所示,其它组的像素对应于当前CU的参考块(由粗线框指示)的相邻像素(由圆圈所示)。当前CU的参考块使用当前PU的位置以及当前PU的视差向量来定位。
用于视图间视频编码的自适应亮度补偿工具由Mishurovskiy等(Mishurovskiyet al.)作者于JCT3V-B0031(“CE2.A results on inter-view coding with adaptiveluminance compensation,"Joint Collaborative Team on 3D Video Coding ExtensionDevelopment of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,2nd Meeting:Shanghai,CN,13–19 Oct.2012,Document:JCT3V-B0031)中揭露。此自适应亮度补偿仅被应用于P条带。宏区块(macroblock,MB)等级旗标被传送以用于跳过MB(Skip MB)、P16x16、P16x8、P8x16以及P8x8MB来启用或禁用自适应亮度补偿。
IC的传送(Signaling)
亮度补偿是否被使用是被传送于编码单元等级。于跳过/合并模式(Skip/Mergemode)中,ic_flag依据merge_idx以及条带片段标头旗标slice_ic_disable_merge_zero_idx_flag被有条件地发送。如果ic_flag没有发送于合并模式,则ic_flag被推断为0。于基于高效视频编码的三维视频编码(Three-Dimensional Video Coding based on HighEfficiency Video Coding,3D-HEVC)测试模型HTM-7.0中,用于导出视差向量预测子的过程被称为相邻块视差向量(Neighboring Block Disparity Vector,NBDV)。接着,由NBDV导出的视差向量被用于获取(fetch)参考视图的深度图像中的深度块。已获取的深度块将具有与当前PU相同的尺寸,且接着,其被用于执行用于当前PU的后向扭曲(backwardwarping)。
当merge_idx等于0时,时间视图间运动预测子候选通常被使用。在此情况下,视图间预测不会被经常使用。在merge_idx等于0的情况下,为了减少与传送ic_flag相关联的开销,亮度补偿是不被允许的。此***配置是通过将条带等级的控制旗标(例如,slice_ic_disable_merge_zero_idx_flag)的值设置为1来指示。对于某些视图间预测可能被频繁使用的图片,以上假设是不成立的。在此情况下,基于merge_idx的ic_flag跳过仅于(POC%帧内周期)不为0的条件下被应用,其中,POC对应于图片顺序计数(Picture Order Count)。此基于POC的决定是由编码器做出的。在merge_idx为0的情况下,编码器可通过发送条带标头旗标(例如,slice_ic_disable_merge_zero_idx_flag)来指示关于是否启用ic_flag跳过的决定。这允许编码器控制依据编码结构或序列的条件。此外,对于视图间编码PU(inter-coded PU),当高级残差预测(Advanced Residual Prediction,ARP)被应用时,亮度补偿总是被禁用的。因此,当用于视图间编码PU的ARP权重因子不等于0时,ic_flag的传送被跳过,且其值被设置为0。
IC的编码
根据当前HTM,编码器决定用于当前条带/图片的IC是否被启用。决定是基于当前图片的像素以及视图间参考图片的像素的统计数据做出的。因此,在统计数据被收集之前,此决定是不能做出的,当IC控制旗标被传送于条带等级时,这引起了至少一个条带的延迟。
特别地,编码器将首先根据当前HTM检查当前条带/图片的参考图片列表是否存在任何视图间参考图片。如果参考列表中没有视图间参考图片,用于当前条带/图片的IC将被禁用。如果参考列表中存在至少一个视图间参考图片,其将基于当前图片以及视图间参考图片导出像素值的两个直方图(histogram)。于两个直方图被导出后,计算两个直方图的对应条目的绝对差值的和(summation of the absolute differences,SAD)。如果绝对差值的和大于预定义的阈值,则用于当前条带/图片的IC被启用。否则,用于当前条带/图片的IC的被禁用。
深度查找表(Depth lookup table,DLT)
深度查找表已经被应用到3D-HEVC中。通常,只有有限的值出现于深度分量中。因此,DLT是块中有效值的简洁表示。当CU被编码于帧内简化深度编码(simplified depthcoding,SDC)模式或深度图建模(depth map modeling,DMM)模式,DLT用于将有效的深度值映射到DLT索引。图3所示为图片中深度值的DLT表示的示例。当深度值的范围是从0到255,只有5个深度值(即,50、108、110、112以及200)出现于图片中。因此,DLT包括索引从0到4的5个值。DLT被传送于图片参数集(picture parameter set,PPS),且它是由编码器来产生DLT。
根据当前HTM,于编码过程开始前,用于视图的样本图片集中的24个或更多深度图片首先被分析。所有出现于样本图片集中的深度值被包括于用于此视图的DLT中。这种方法导致了高编码延迟且不能很好地适应动态环境(例如,场景改变)。
需要开发一种用于IC和/或DLT编码的方法,其不会于编码器侧遭受用于IC和/或DLT设计的长延迟。
【发明内容】
本发明揭露了一种于三维以及多视图编码***中用于低延迟亮度补偿的方法以及装置。根据本发明,编码器基于分别与已选择的参考图片或条带相关联的统计数据相关、或分别与当前图片或条带相关联的高等级编码信息相关的条件来确定是否启用或禁用用于当前图片或条带的亮度补偿。与当前图片或条带相关联的高等级编码信息不包括分别与当前图片或条带的像素值相关的任何信息。接着,根据编码器做出的决定,应用亮度补偿。
在一个实施例中,已选择的参考图片或条带分别对应于具有第一时间标识符(identifier,ID)的最新重建图片或条带(latest reconstructed picture or slice),其中,第一时间ID小于当前图片或条带的第二时间ID。已选择的参考图片的统计数据对应于最新重建图片的编码单元(coding unit,CU)等级启用比(enabling ratio),且条件对应于CU等级启用比是否大于阈值。CU等级启用比对应于最新重建图片或条带中启用了亮度补偿的CU的第一数量与最新重建图片或条带中具有IC旗标的CU的第二数量的比,其中,IC旗标用于指示亮度补偿是否被启用或禁用。如果条件被确定,则用于当前图片或条带的亮度补偿被启用,且如果条件没有被确定,则用于当前图片或条带的亮度补偿被禁用。
已选择的参考图片或条带可分别对应于具有第一量化参数(quantizationparameter,QP)的最新重建图片或条带,其中,第一QP小于当前图片或条带的第二QP。已选择的参考图片的统计数据还可对应于已选择的参考图片与对应已选择的参考图片的视图间参考图片之间的平均像素差,且所述条件对应于平均像素差是否大于阈值。
与当前图片或条带相关联的高等级编码信息相关的条件可分别对应于当前图片或条带的参考列表中是否存在任何视图间参考图片。所述条件还可分别对应于当前图片或条带的参考列表中是否没有时间参考图片,或当前图片或条带与时间参考图片或条带之间的最小POC距离是否分别大于阈值。
本发明揭露了一种于三维以及多视图编码***中使用深度查找表的深度编码方法。编码器确定DLT,且基于与已选择的参考图片或条带相关联的统计数据相关的条件,分别使用用于当前图片或条带的所述DLT,确定是否启用或禁用DLT编码。根据编码器所做的决定,应用或跳过用于当前图片或条带的DLT编码。
已选择的参考图片或条带可分别对应于先前重建的图片或条带,且先前重建的图片或条带属于当前图片或条带的参考图片。在另一实施例中,不论先前重建的图片或条带是否属于当前图片或条带的参考图片,任何先前重建的图片或条带可被使用。先前重建的图片或条带可分别位于当前图片或条带的相同视图或不同视图中。如果已选择的参考图片或条带不存在,则用于当前图片或条带的DLT编码可被禁用,或使用默认DLT的DLT编码可被应用到当前图片或条带。
DLT还可被在DLT编码的编码顺序或显示顺序中分别跟随当前图片或条带的下一图片或条带使用。当DLT被下一图片或条带使用时,只有出现于已选择的参考图片或条带的深度值将被包括于DLT中。如果出现的深度值的数量大于阈值,则DLT编码被禁用于当前图片或条带或下一图片或条带,其中,阈值大于0且小于深度值中的的最大值。
【附图说明】
图1所示为三维/多视图编码的示例,其中,运动补偿预测(motion compensatedprediction,MCP)以及视差补偿预测(disparity compensated prediction,DCP)被使用。
图2所示为被用于导出亮度补偿参数的当前块以及参考块的相邻像素的示例。
图3所示为示范性深度查找表(depth lookup table,DLT),其包括由0到4的索引表示的对应于50、108、110、112以及200的5个出现的深度值。
图4所示为基于先前重建图片的统计数据,用于当前图片的DLT导出的示例。
图5所示为基于两个先前重建图片的统计数据,用于当前图片的DLT导出的示例。
图6所示为基于先前重建图片的每隔一行的统计数据,用于当前图片的DLT导出的示例。
图7所示为基于先前重建图片中的每四个深度样本选择一个的统计数据,用于当前图片的DLT导出的示例。
图8所示为根据本发明实施例的三维以及多视图编码***中用于低延迟亮度补偿的示范性流程图。
图9所示为根据本发明实施例的三维以及多视图编码***中基于低延迟深度查找表编码的示范性流程图。
【具体实施方式】
如上所述,现存的IC以及DLT设计会遭受长延迟,且需要开发出一种方法来克服编码器侧与IC以及DLT设计相关联的长延迟问题。下面的描述是实施本发明的最佳预期模式。此描述是为了说明本发明的一般原理的目的,并不应当作为对本发明的限制。本发明的范围可通过参考所附权利要求做最好的确定。
亮度补偿(illumination compensation,IC)的编码器决定
为了克服编码器侧与现存的IC以及DLT设计相关联的长延迟问题,本发明的实施例根据与已选择的参考图片/条带(即,已解码图片/条带)的信息或当前图片/条带的高等级编码信息相关的条件,决定是否启用或禁用用于当前图片/条带的IC,而不需要存取当前图片/条带的像素值,以实现低延迟IC编码。各实施例如下所示。
实施例1:基于已选择的参考图片/条带的IC决定
根据本实施例,编码器依据已选择的参考图片/条带的统计数据简单决定是否启用或禁用用于当前图片/条带的IC。已选择的参考图片/条带可对应于先前重建图片/条带。如果已选择的参考图片/条带没有被找到,则用于当前图片/条带的条带等级IC启用旗标(slice level IC enabling flag)被设置为默认值(启用或禁用)。
各种统计数据可以基于已选择的图片/条带被收集。例如,统计数据可对应于:
·CU等级IC旗标的启用比。如果已选择的参考图片的IC启用比大于预定义的阈值,用于当前图片/条带的IC被设置为启用;否则,用于当前图片/条带的IC被设置为禁用。CU等级启用比被定义为最新重建图片或条带中启用了亮度补偿的CU的第一数量与最新重建图片或条带中具有IC旗标的CU的第二数量的比,其中,IC旗标用于指示亮度补偿是否被启用或禁用。
·已选择的参考图片的平均像素差以及其视图间参考图片。如果已选择的参考图片以及其视图间参考图片之间的平均像素值大于预定义的阈值,用于编码当前图片/条带的IC被设置为启用;否则,用于当前图片/条带的IC被设置为禁用。
各种参考图片/条带可用作“已选择的参考图片/条带”。例如,已选择的参考图片/条带可以是:
·最新重建图片/条带,
·具有的时间ID小于当前图片/条带的时间ID的最新重建图片/条带,
·具有的时间ID小于或等于当前图片/条带的时间ID的最新重建图片/条带,
·具有的QP小于当前图片/条带的QP的最新重建图片/条带,或
·具有的QP小于或等于当前图片/条带的QP的最新重建图片/条带。
实施例2:基于当前图片/条带的高等级编码信息的IC决定
根据本实施例,编码器依据与当前图片/条带的高等级编码信息相关的条件简单决定是否启用或禁用用于当前图片/条带的IC。高等级编码信息可对应于:
·如果当前图片/条带的参考图片列表中不存在视图间参考图片,则用于当前图片/条带的IC被设置为禁用;否则,用于当前图片/条带的IC被设置为启用。
·如果当前图片/条带的参考图片列表中不存在时间参考图片,且列表中只有视图间参考图片,则用于当前图片/条带的IC被设置为启用。
·如果当前图片/条带与时间参考图片之间的最小POC距离(smallest pictureorder count distance)大于阈值,则用于当前图片/条带的IC被设置为启用;否则,用于当前图片/条带的IC被设置为禁用。如果没有时间参考图片存在,则最小POC距离被推断为大于已定义阈值的默认值。
·如果当前图片/条带为对照图片/条带(anchor picture/slice),则用于当前图片/条带的IC被设置为启用;否则,用于当前图片/条带的IC被设置为禁用。
·如果当前图片/条带的QP大于阈值,则用于当前图片/条带的IC被设置为启用;否则,用于当前图片/条带的IC被设置为禁用。
·对于时间ID等于0的图片/条带,IC被设置为启用。
·对于图片/条带,IC被周期性地设置为启用。周期可以为N个POC,其中,N为正整数。
·根据条带类型(slice TYPE),IC被设置为启用。例如,只有用于B条带的IC被启用。
实施例3:基于已选择的图片/条带的单个样本模式决定
被称为“单个样本模式”或“单个样本编码模式”的使用单个样本值来表示视频数据(屏幕内容数据或深度数据)的平滑区域的编码方法已经被揭露于相关的申请中。当块于单个样本编码模式被编码时,整个当前块被作为单个像素值来编码。换句话说,当块于单个样本编码模式被编码时,通过将单个样本值(即,深度值或像素值)填充到块的所有像素来重建整个块。像素可对应于任何颜色格式(例如:YUV444、YUV420、YUV422、YUV400、或RGB)。
根据实施例3,编码器依据已选择的参考图片/条带的统计数据以及当前图片/条带的高等级编码信息简单决定是否启用或禁用用于当前图片/条带的单个样本模式。以上实施例1中揭露的用于IC决定的已选择的参考图片/条带的各种统计数据以及当前图片/条带的高等级编码信息也被应用于实施例3。
根据本发明的IC决定的示例被揭露如下:
IC决定示例1。如果当前图片/条带的参考图片列表中不存在视图间参考图片,则用于当前图片/条带的IC被设置为禁用;否则,编码器选择具有的时间ID小于当前图片/条带的时间ID的最新重建图片/条带作为已选择的参考图片。接着,编码器检查已选择的参考图片的IC启用比是否大于阈值。如果IC启用比大于阈值,则用于当前图片/条带的IC被设置为启用;否则,用于当前图片/条带的IC被设置为禁用。如果已选择的参考图片没有被找到,则用于当前图片/条带的IC被设置为启用。
IC决定示例2。如果当前图片/条带的参考图片列表中不存在视图间参考图片,则用于当前图片/条带的IC被设置为禁用;否则,编码器选择具有的QP小于当前图片/条带的QP的最新重建图片/条带作为已选择的参考图片。接着,编码器检查已选择的参考图片的IC启用比是否大于阈值。如果IC启用比大于阈值,则用于当前图片/条带的IC被设置为启用;否则,用于当前图片/条带的IC被设置为禁用。如果已选择的参考图片不能被找到,则用于当前图片/条带的IC被设置为启用。
IC决定示例3。如果当前图片/条带与时间参考图片之间的最小POC距离大于阈值,则用于当前图片/条带的IC被设置为启用;否则,用于当前图片/条带的IC被设置为禁用。如果时间参考图片不存在,则最小POC距离被推断为大于已定义阈值的默认值。
实施例4:基于已选择的参考图片/条带的统计数据的DLT决定
根据本实施例,编码器确定DLT,且依据已选择的参考图片/条带的统计数据确定是否使用用于当前图片/条带的DLT。已选择的参考图片/条带可对应于先前重建图片/条带。如果已选择的参考图片/条带不能被找到,则编码器可执行以下步骤中的一个:
·关闭用于当前图片/条带的DLT;
·依据当前图片/条带的统计数据导出用于当前图片/条带的DLT;
·使用默认DLT;或
·依据先前重建图片/条带的统计数据导出用于当前图片/条带的DLT,其中,先前重建图片/条带不是用于当前图片的参考图片/条带。
实施例5:基于先前重建图片/条带的统计数据的DLT决定
根据本实施例,编码器确定DLT,且不论先前重建图片/条带是否为当前图片/条带的参考图片/条带,依据先前重建图片/条带的统计数据确定是否使用用于当前图片/条带的DLT。
实施例6:基于两个或者更多已选择的参考图片/条带的统计数据的DLT决定
根据本实施例,编码器确定DLT,且依据两个或者更多已选择的参考图片/条带的统计数据确定是否使用用于当前图片/条带的DLT。已选择的参考图片/条带是先前重建图片/条带。如果已选择的参考图片/条带不能被找到,则编码器可执行以下步骤中的一个:
·关闭用于当前图片/条带的DLT;
·依据当前图片/条带的统计数据确定用于当前图片/条带的DLT;
·使用默认DLT;或
·依据一个、两个、或者更多先前重建图片/条带的统计数据确定用于当前图片/条带的DLT,其中,一个、两个、或者更多先前重建图片/条带不是用于当前图片的参考图片/条带。
实施例7:基于两个或者更多先前重建图片/条带的统计数据的DLT决定
根据本实施例,不论两个或者更多先前重建图片/条带是否为当前图片/条带的参考图片/条带,编码器都依据两个或者更多先前重建图片/条带的统计数据确定用于当前图片/条带的DLT。
实施例4到实施例7中被用于导出用于当前图片/条带的DLT的先前重建图片可位于当前图片的相同视图或不同视图中。
并且,实施例4到实施例7中获得的DLT可被在编码顺序或显示顺序中跟随当前图片的一个或多个图片/条带使用。
于实施例4到实施例7中,出现于先前重建图片/条带中用于统计的深度值被包含于用于当前视图的DLT中,而没有出现于先前重建图片/条带的统计数据中的深度值不被包含于用于当前视图的DLT中。此外,只有先前重建图片/条带的一部分可用于统计。出现于先前重建图片/条带中特定部分的用于统计的深度值被包含于用于当前视图的DLT中,而没有出现于先前重建图片/条带中特定部分的统计数据的深度值不被包含于用于当前视图的DLT中。
以上实施例与DLT决定相关,可对原始图片/条带做统计,以替代对重建图片/条带做统计。并且,如果出现的值的数量大于数量M,则用于当前图片/条带或跟随于当前图片/条带的更多图片/条带的DLT可被关闭,其中,M大于0且小于MaxDepthValue,其中,MaxDepthValue对应于用于深度样本的最大值。例如,M可以是MaxDepthValue/2或(MaxDepthValue+1)/2。
根据本发明的DLT决定的示例
图4所示为基于先前重建图片的统计数据的用于当前图片的DLT导出的示例。因为用于当前图片的DLT是从先前重建图片导出,因此,不需要等待当前图片中用于确定DLT的所有深度值被搜集。因此,减小了用于DLT的处理延迟。
图5所示为基于两个先前重建图片的统计数据的用于当前图片的DLT导出的示例。再一次说明,不需要等待当前图片中用于确定DLT的所有深度值被搜集。因此,减小了用于DLT的处理延迟。
图6所示为基于每个重建图片的每隔一行的统计数据,用于当前图片的DLT导出的示例。与图4中的方法相比较,图6中的方法仅使用先前重建图片的样本的一半。
图7所示为基于先前重建图片中的每四个样本选择一个的统计数据,用于当前图片的DLT导出的示例。与图4中的方法相比较,图7中的方法仅使用先前重建图片的样本的四分之一。
表1所示是结合了根据本发明实施例的低延迟亮度补偿的3D/多视图视频编码***的性能与基于HTM-10.0的现有***的比较。性能比较是基于第一列中列出的不同组的测试数据。于基于HTM-10.0的***中,IC决定使用当前图片中样本,其导致了帧延迟。另一方面,与本发明实施例结合的***使用来自先前重建图片中用于IC启用/禁用决定的样本。用于视图0/1/2(视频0/1/2)的纹理图片的BD率差值被示出。BD率的负值意味着本发明具有更佳的性能。第二组性能为仅用于纹理视频的比特率度量(视频/视频比特率)、用于纹理视频的总比特率(纹理比特率以及深度比特率)(视频/总比特率)、以及用于已编码以及已合成视频的总比特率(合成/总比特率)。如表1所示,平均性能与传统的HTM-10.0大概相同。换句话说,通过使用根据本发明实施例的低延迟IC,性能并没有下降。处理时间(编码时间、解码时间、以及渲染时间)也被比较。
表1
图8所示为根据本发明实施例的三维以及多视图编码***中用于低延迟亮度补偿的示范性流程图。如步骤810所示,***接收附属视图中的当前图片或条带。附属视图中的当前图片或条带可以从存储器(例如,计算机存储器,缓冲器(RAM或DRAM)或其它媒体)或处理器中得到。如步骤820所示,***基于分别与已选择的参考图片或条带相关联的统计数据相关、或分别与当前图片或条带相关联的高等级编码信息相关的条件来确定是否启用或禁用用于当前图片或条带的亮度补偿。与当前图片或条带相关联的高等级编码信息不包括分别与当前图片或条带的像素值相关的任何信息。于步骤830中,检查亮度补偿是否被启用。如果结果为“是”,则如步骤840所示,将亮度补偿分别应用到当前图片或条带。如果结果为“否”,则如步骤850所示,跳过分别用于当前图片或条带的亮度补偿。
图9所示为根据本发明实施例的三维以及多视图编码***中基于低延迟深度查找表编码的示范性流程图。如步骤910所示,***接收当前深度图片或条带。如步骤920所示,***确定DLT,且基于与已选择的参考图片或条带相关联的统计数据相关的条件,分别使用用于当前图片或条带的DLT来确定是否启用或禁用DLT编码。如步骤930所示,检查DLT编码是否被启用。如果结果为“是”,如步骤940所示,将DLT编码分别应用于当前图片或条带。如果结果为“否”,如步骤950所示,跳过分别用于当前图片或条带的DLT编码。
根据本发明的实施例,以上所示的流程图旨在说明于三维以及多视图编码中分别使用低延迟亮度补偿以及DLT编码的3D/多视图编码的示例。本领域技术人员可以在不脱离本发明的精神实质的情况下修改每个步骤,重新排列所述步骤,分割步骤,或合并步骤来实施本发明。
以上描述可使本领域的普通技术人员如特定应用及其要求的上下文提供的来实践本发明。对本领域技术人员来说,对所描述的实施例的各种修改是显而易见的,且本文定义的一般原理可被应用于其它实施例。因此,本发明并非意在限定于以上所示及所描述的特定实施例,而是要符合与此公开揭露的原理和新颖特征相一致的最宽范围。在以上详细描述中,各种具体细节被示出以便提供本发明的彻底理解。然而,本领域技术人员应知晓本发明是可被实践的。
如上所述,本发明的实施例可以由各种硬件,软件代码,或两者的组合来实现。例如,本发明的实施例可以是被集成到视频压缩芯片的电路,或被集成于视频压缩软件的程序代码以执行本文所描述的处理过程。本发明的实施例还可以是执行于数字信号处理器上的程序代码,以执行本文所描述的处理过程。本发明还可包含由计算机处理器,数字信号处理器,微处理器,或现场可编程门阵列执行的多个功能。根据本发明,通过执行定义本发明所体现的特定方法的机器可读软件代码或固件代码,这些处理器可被配置为执行特定任务。软件代码或固件代码可被开发为不同的编程语言以及不同的格式或风格。软件代码还可被编译以用于不同的目标平台。然而,根据本发明的不同的软件代码的代码格式、风格及语言,以及用于配置代码以执行任务的其他方式,均不会背离本发明的精神以及范围。
在不脱离其精神或本质特征的情况下,本发明可以其它特定形式来体现。所描述的示例在所考虑的所有的方面都只是说明性的而不是限制性的。因此,本发明的范围是由其所附的权利要求来指示的,而不是由上文的描述来指示的。在权利要求的等效范围及含义内的所有改变均包含于本发明范围之内。

Claims (10)

1.一种三维以及多视图编码***中亮度补偿的方法,其特征在于,所述方法包括:
接收附属视图中的当前图片或条带;
基于分别与已选择的参考图片或条带相关联的统计数据相关、或分别与所述当前图片或条带相关联的高等级编码信息相关的条件,确定是否启用或禁用用于所述当前图片或条带的所述亮度补偿,其中,与所述当前图片或条带相关联的所述高等级编码信息以及已选择的参考图片或条带相关联的统计数据不包括分别与所述当前图片或条带的像素值相关的信息;
其中,所述已选择的参考图片的所述统计数据对应于所述已选择的参考图片的编码单元等级启用比,且所述条件对应于所述编码单元等级启用比是否大于阈值,其中,所述编码单元等级启用比对应于所述已选择的参考图片或条带的启用了所述亮度补偿的编码单元的第一数量与所述已选择的参考图片或条带的具有亮度补偿旗标的编码单元的第二数量的比,其中,所述亮度补偿旗标用于指示所述亮度补偿是否被启用或禁用;
如果所述亮度补偿被启用,将所述亮度补偿分别应用到所述当前图片或条带;以及
如果所述亮度补偿被禁用,跳过分别用于所述当前图片或条带的所述亮度补偿。
2.如权利要求1所述的三维以及多视图编码***中亮度补偿的方法,其特征在于,所述已选择的参考图片或条带分别对应于具有第一时间标识符的最新重建图片或条带,其中,所述第一时间标识符小于所述当前图片或条带的第二时间标识符。
3.如权利要求2所述的三维以及多视图编码***中亮度补偿的方法,其特征在于,所述已选择的参考图片的所述统计数据对应于所述最新重建图片的编码单元等级启用比,且所述条件对应于所述编码单元等级启用比是否大于阈值,其中,所述编码单元等级启用比对应于所述最新重建图片或条带中启用了所述亮度补偿的编码单元的第一数量与所述最新重建图片或条带中具有亮度补偿旗标的编码单元的第二数量的比,其中,所述亮度补偿旗标用于指示所述亮度补偿是否被启用或禁用。
4.如权利要求3所述的三维以及多视图编码***中亮度补偿的方法,其特征在于,如果所述条件被确定,用于所述当前图片或条带的所述亮度补偿被启用,且如果所述条件没有被确定,用于所述当前图片或条带的亮度补偿被禁用。
5.如权利要求1所述的三维以及多视图编码***中亮度补偿的方法,其特征在于,所述已选择的参考图片或条带分别对应于具有第一量化参数的最新重建图片或条带,其中,所述第一量化参数小于所述当前图片或条带的第二量化参数。
6.如权利要求1所述的三维以及多视图编码***中亮度补偿的方法,其特征在于,与所述当前图片或条带相关联的所述高等级编码信息相关的所述条件分别对应于所述当前图片或条带的参考列表中是否存在视图间参考图片。
7.如权利要求1所述的三维以及多视图编码***中亮度补偿的方法,其特征在于,与所述当前图片或条带相关联的所述高等级编码信息相关的所述条件分别对应于所述当前图片或条带的参考列表中是否没有时间参考图片。
8.如权利要求1所述的三维以及多视图编码***中亮度补偿的方法,其特征在于,与所述当前图片或条带相关联的所述高等级编码信息相关的所述条件对应于所述当前图片或条带与时间参考图片或条带之间的最小图片顺序计数距离是否分别大于阈值。
9.如权利要求1所述的三维以及多视图编码***中亮度补偿的方法,其特征在于,如果所述条件被确定,用于所述当前图片或条带的所述亮度补偿被启用,且如果所述条件没有被确定,用于所述当前图片或条带的亮度补偿被禁用。
10.一种三维以及多视图编码***中亮度补偿的装置,其特征在于,所述装置包括:
接收附属视图中的当前图片或条带的电路;
基于分别与已选择的参考图片或条带相关联的统计数据相关、或分别与所述当前图片或条带相关联的高等级编码信息相关的条件,确定是否启用或禁用用于所述当前图片或条带的所述亮度补偿的电路,其中,与所述当前图片或条带相关联的所述高等级编码信息以及已选择的参考图片或条带相关联的统计数据不包括分别与所述当前图片或条带的深度值相关的信息;
其中,所述已选择的参考图片的所述统计数据对应于所述已选择的参考图片的编码单元等级启用比,且所述条件对应于所述编码单元等级启用比是否大于阈值,其中,所述编码单元等级启用比对应于所述已选择的参考图片或条带的启用了所述亮度补偿的编码单元的第一数量与所述已选择的参考图片或条带的具有亮度补偿旗标的编码单元的第二数量的比,其中,所述亮度补偿旗标用于指示所述亮度补偿是否被启用或禁用;
如果所述亮度补偿被启用,将所述亮度补偿分别应用到所述当前图片或条带的电路;以及
如果所述亮度补偿被禁用,跳过分别用于所述当前图片或条带的所述亮度补偿的电路。
CN201580010353.2A 2014-03-17 2015-03-17 用于低延迟亮度补偿处理以及基于深度查找表的编码的方法 Active CN106134191B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CNPCT/CN2014/073555 2014-03-17
PCT/CN2014/073555 WO2015139187A1 (en) 2014-03-17 2014-03-17 Low latency encoder decision making for illumination compensation and depth look-up table transmission in video coding
PCT/CN2015/074371 WO2015139605A1 (en) 2014-03-17 2015-03-17 Method for low-latency illumination compensation process and depth lookup table based coding

Publications (2)

Publication Number Publication Date
CN106134191A CN106134191A (zh) 2016-11-16
CN106134191B true CN106134191B (zh) 2019-03-22

Family

ID=54143622

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201580010353.2A Active CN106134191B (zh) 2014-03-17 2015-03-17 用于低延迟亮度补偿处理以及基于深度查找表的编码的方法

Country Status (6)

Country Link
US (1) US10349083B2 (zh)
EP (1) EP3100454B1 (zh)
KR (1) KR101834688B1 (zh)
CN (1) CN106134191B (zh)
CA (1) CA2941085C (zh)
WO (2) WO2015139187A1 (zh)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015139203A1 (en) * 2014-03-18 2015-09-24 Mediatek Singapore Pte. Ltd. Dlt signaling in 3d video coding
EP3518543A1 (en) 2018-01-26 2019-07-31 Thomson Licensing Illumination compensation flag in frame rate up-conversion with template matching
CN110662059B (zh) 2018-06-29 2021-04-20 北京字节跳动网络技术有限公司 使用查找表存储先前编码的运动信息并用其编码后续块的方法和装置
CN114466197A (zh) 2018-06-29 2022-05-10 北京字节跳动网络技术有限公司 用于查找表更新的编码的运动信息的选择
EP3794825A1 (en) 2018-06-29 2021-03-24 Beijing Bytedance Network Technology Co. Ltd. Update of look up table: fifo, constrained fifo
CN110662054B (zh) 2018-06-29 2023-01-06 北京字节跳动网络技术有限公司 用于视频处理的方法、装置、计算机可读存储介质
CA3105330C (en) 2018-06-29 2023-12-05 Beijing Bytedance Network Technology Co., Ltd. Interaction between lut and amvp
CN110662064B (zh) 2018-06-29 2022-06-14 北京字节跳动网络技术有限公司 Lut中的运动候选的检查顺序
WO2020003283A1 (en) 2018-06-29 2020-01-02 Beijing Bytedance Network Technology Co., Ltd. Conditions for updating luts
CN110662053B (zh) 2018-06-29 2022-03-25 北京字节跳动网络技术有限公司 使用查找表的视频处理方法、装置和存储介质
TWI734133B (zh) 2018-07-02 2021-07-21 大陸商北京字節跳動網絡技術有限公司 更新查找表的規則
TW202025760A (zh) 2018-09-12 2020-07-01 大陸商北京字節跳動網絡技術有限公司 要檢查多少個hmvp候選
EP3906676A4 (en) * 2018-12-31 2022-03-16 Beijing Dajia Internet Information Technology Co., Ltd. SYSTEM AND METHOD FOR SIGNALING MOTION BLENDING MODES DURING VIDEO CODING
JP7275286B2 (ja) 2019-01-10 2023-05-17 北京字節跳動網絡技術有限公司 Lut更新の起動
CN113383554B (zh) 2019-01-13 2022-12-16 北京字节跳动网络技术有限公司 LUT和共享Merge列表之间的交互
WO2020147773A1 (en) 2019-01-16 2020-07-23 Beijing Bytedance Network Technology Co., Ltd. Inserting order of motion candidates in lut
WO2020192611A1 (en) 2019-03-22 2020-10-01 Beijing Bytedance Network Technology Co., Ltd. Interaction between merge list construction and other tools
US11432004B2 (en) * 2019-04-25 2022-08-30 Hfi Innovation Inc. Method and apparatus of constraining merge flag signaling in video coding

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101529921A (zh) * 2006-10-18 2009-09-09 汤姆森特许公司 无显式信令的局部照明和色彩补偿
CN101710985A (zh) * 2009-12-11 2010-05-19 哈尔滨工业大学 一种用于图像编码的图像亮度补偿方法
CN101711480A (zh) * 2007-06-26 2010-05-19 三星电子株式会社 用于多视点视频编码中的亮度补偿的方法和设备
CN101715652A (zh) * 2007-06-25 2010-05-26 三星电子株式会社 用于多视点视频编码中的亮度补偿的方法和设备
CN102609680A (zh) * 2011-12-22 2012-07-25 中国科学院自动化研究所 一种基于三维深度图像信息的并行统计学习人体部位检测方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100856411B1 (ko) * 2006-12-01 2008-09-04 삼성전자주식회사 조도 보상 방법 및 그 장치와 그 방법을 기록한 컴퓨터로 읽을 수 있는 기록매체
US20100118942A1 (en) * 2007-06-28 2010-05-13 Thomson Licensing Methods and apparatus at an encoder and decoder for supporting single loop decoding of multi-view coded video
US9363535B2 (en) 2011-07-22 2016-06-07 Qualcomm Incorporated Coding motion depth maps with depth range variation
US9615090B2 (en) * 2012-12-28 2017-04-04 Qualcomm Incorporated Parsing syntax elements in three-dimensional video coding

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101529921A (zh) * 2006-10-18 2009-09-09 汤姆森特许公司 无显式信令的局部照明和色彩补偿
CN101715652A (zh) * 2007-06-25 2010-05-26 三星电子株式会社 用于多视点视频编码中的亮度补偿的方法和设备
CN101711480A (zh) * 2007-06-26 2010-05-19 三星电子株式会社 用于多视点视频编码中的亮度补偿的方法和设备
CN101710985A (zh) * 2009-12-11 2010-05-19 哈尔滨工业大学 一种用于图像编码的图像亮度补偿方法
CN102609680A (zh) * 2011-12-22 2012-07-25 中国科学院自动化研究所 一种基于三维深度图像信息的并行统计学习人体部位检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
3D-CE5.h related: Removal of parsing dependency for illumination compensation;ZHANG K ET AL;《Joint Collaborative Team on 3D Video Coding Extension Development of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,4th Meeting: Incheon, KR, 20–26 Apr. 2013》;20130426;摘要,第2部分,表1 *
CE4.h related :coding of illumination compensation flag;KANG J ET AL;《Joint Collaborative Team on 3D Video Coding Extensions of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,5th Meeting: Vienna, AU, July 27– Aug. 2, 2013》;20130802;第2.1部分 *

Also Published As

Publication number Publication date
EP3100454A4 (en) 2017-03-29
KR101834688B1 (ko) 2018-03-05
EP3100454A1 (en) 2016-12-07
WO2015139187A1 (en) 2015-09-24
EP3100454B1 (en) 2018-12-26
US20170013276A1 (en) 2017-01-12
WO2015139605A1 (en) 2015-09-24
CA2941085A1 (en) 2015-09-24
US10349083B2 (en) 2019-07-09
CN106134191A (zh) 2016-11-16
CA2941085C (en) 2019-09-24
KR20160129903A (ko) 2016-11-09

Similar Documents

Publication Publication Date Title
CN106134191B (zh) 用于低延迟亮度补偿处理以及基于深度查找表的编码的方法
US11917200B2 (en) Hybrid video coding supporting intermediate view synthesis
US11405635B2 (en) Multi-view coding with effective handling of renderable portions
US20150172714A1 (en) METHOD AND APPARATUS of INTER-VIEW SUB-PARTITION PREDICTION in 3D VIDEO CODING
US11689738B2 (en) Multi-view coding with exploitation of renderable portions
CN105122796B (zh) 三维或多视图编码及解码***中照度补偿的方法
US10075692B2 (en) Method of simple intra mode for video coding
EP3111642B1 (en) Method and apparatus of single sample mode for video coding
US20130287289A1 (en) Synthetic Reference Picture Generation
Shao et al. Asymmetric multi-view video coding based on chrominance reconstruction
CN105144714A (zh) 三维视频编码的视差向量推导的方法及装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant