CN103260018B - 帧内图像预测编解码方法及视频编解码器 - Google Patents

帧内图像预测编解码方法及视频编解码器 Download PDF

Info

Publication number
CN103260018B
CN103260018B CN201210035252.9A CN201210035252A CN103260018B CN 103260018 B CN103260018 B CN 103260018B CN 201210035252 A CN201210035252 A CN 201210035252A CN 103260018 B CN103260018 B CN 103260018B
Authority
CN
China
Prior art keywords
mrow
msub
current
munderover
rec
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201210035252.9A
Other languages
English (en)
Other versions
CN103260018A (zh
Inventor
贾杰
刘鸿彬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics China Research and Development Center Co Ltd
Original Assignee
LG Electronics China Research and Development Center Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics China Research and Development Center Co Ltd filed Critical LG Electronics China Research and Development Center Co Ltd
Priority to CN201210035252.9A priority Critical patent/CN103260018B/zh
Publication of CN103260018A publication Critical patent/CN103260018A/zh
Application granted granted Critical
Publication of CN103260018B publication Critical patent/CN103260018B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Color Television Systems (AREA)

Abstract

本发明公开了一种帧内图像预测编解码方法及视频编解码器,其中帧内图像预测编码方法包括采用如下色度帧内预测模式进行帧内图像预测编码:获得当前变换单元TU亮度分量Y的重构值;用当前TU亮度分量Y的重构值,对当前TU色度分量U进行预测;获得当前TU色度分量U的重构值;用当前TU色度分量U的重构值,对当前TU色度分量V进行预测。采用本发明可以充分利用色度分量V和色度分量U之间的相关性,提高帧内图像预测编解码效率。

Description

帧内图像预测编解码方法及视频编解码器
技术领域
本发明涉及图像视频编解码和帧内图像预测技术领域,尤其涉及帧内图像预测编解码方法及视频编解码器。
背景技术
YUV是被欧洲电视***所采用的一种颜色编码方法,是彩色电视制式采用的颜色空间。其中,Y是亮度分量,表示明亮度(Luma),也就是灰阶值;而U和V是色度分量,表示的则是色度(Chroma),作用是描述影像色彩及饱和度,用于指定像素的颜色。采用YUV颜色空间的重要性是它的亮度分量Y与色度分量U和分度分量V是分离的。如果只有亮度分量Y而没有色度分量U和色度分量V,那么这样表示的图像就是黑白灰度图像。彩色电视采用YUV颜色空间可用亮度分量Y解决彩色电视机与黑白电视机的相容问题,使黑白电视机也能接收彩色电视信号。
图像视频压缩编解码总体上分为帧间图像预测编解码和帧内图像预测编解码两种预测编解码技术。帧内图像预测编码利用来自当前帧已经编码图像单元的信息对当前编码图像单元进行预测编码;帧内图像预测解码利用来自当前帧已经解码图像单元的信息对当前解码图像单元进行预测解码。
现有的帧内图像预测编解码方法中,是采用LM(Luma-based chroma intraprediction Mode,基于亮度的色度帧内预测模式)进行帧内图像预测编解码。LM假设色度分量U和色度分量V与亮度分量Y之间有线性关系,基于该假设,在编码色度时,LM用亮度分量Y的重构值对色度分量U和色度分量V进行预测。
在HM4.0中,LM用亮度分量Y的重构值对色度分量U和色度分量V进行预测,并且为色度分量U和色度分量V分别计算系数αL和βL。在LM中,采用如下的线性模型来预测色度分量U和色度分量V:
PredC[x,y]=αL·Rec′L[x,y]+βL
其中,PredC[x,y]是当前TU(Transform Unit,变换单元)色度分量U或色度分量V的预测值,RecL[x,y]是当前TU亮度分量Y的重构值,Rec′L[x,y]是滤波后的当前TU亮度分量Y的重构值,x,y=0,...,N-1,当前TU色度块的宽度和高度均为N。
用来计算系数αL和βL的样本点如图1所示。图1中,Rec′L是滤波后的当前TU亮度块相邻左侧一列和上侧一行像素亮度分量Y的重构值,RecC是当前TU色度块相邻左侧一列和上侧一行像素色度分量U或色度分量V的重构值。
但是,现有的帧内图像预测编解码方法采用LM进行帧内图像预测编解码时,没有充分利用色度分量V和色度分量U之间的相关性,使得帧内图像预测编解码效率较低。
发明内容
本发明实施例提供一种帧内图像预测编码方法,用以提高帧内图像预测编码效率,该方法包括采用如下色度帧内预测模式进行帧内图像预测编码:
获得当前变换单元TU亮度分量Y的重构值;
用当前TU亮度分量Y的重构值,对当前TU色度分量U进行预测;
获得当前TU色度分量U的重构值;
用当前TU色度分量U的重构值,对当前TU色度分量V进行预测。
本发明实施例提供一种帧内图像预测解码方法,用以提高帧内图像预测解码效率,该方法包括:
确定采用上述色度帧内预测模式进行帧内图像预测解码;
获得当前TU亮度分量Y的重构值;
用当前TU亮度分量Y的重构值,对当前TU色度分量U进行预测;
获得当前TU色度分量U的重构值;
用当前TU色度分量U的重构值,对当前TU色度分量V进行预测。
本发明实施例还提供一种视频编码器,用以提高帧内图像预测编码效率,该视频编码器包括采用如下色度帧内预测模式进行帧内图像预测编码的第一获得模块、第一预测模块、第二获得模块和第二预测模块:
第一获得模块,用于获得当前TU亮度分量Y的重构值;
第一预测模块,用于用当前TU亮度分量Y的重构值,对当前TU色度分量U进行预测;
第二获得模块,用于获得当前TU色度分量U的重构值;
第二预测模块,用于用当前TU色度分量U的重构值,对当前TU色度分量V进行预测。
本发明实施例还提供一种视频解码器,用以提高帧内图像预测解码效率,该视频解码器包括:
模式确定模块,用于确定采用上述色度帧内预测模式进行帧内图像预测解码;
第一获得模块,用于获得当前TU亮度分量Y的重构值;
第一预测模块,用于用当前TU亮度分量Y的重构值,对当前TU色度分量U进行预测;
第二获得模块,用于获得当前TU色度分量U的重构值;
第二预测模块,用于用当前TU色度分量U的重构值,对当前TU色度分量V进行预测。
本发明实施例的帧内图像预测编解码方法及视频编解码器采用的色度帧内预测模式,是用当前TU亮度分量Y的重构值对当前TU色度分量U进行预测,用当前TU色度分量U的重构值对当前TU色度分量V进行预测,与现有LM用当前TU亮度分量Y的重构值对当前TU色度分量U和色度分量V进行预测的技术方案相比,充分利用了色度分量V和色度分量U之间的相关性,可以提高帧内图像预测编解码效率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。在附图中:
图1为现有技术中用来计算系数αL和βL的样本点的示意图;
图2为本发明实施例中帧内图像预测编码方法的示意图;
图3为本发明实施例中用当前TU色度分量U的重构值对当前TU色度分量V进行预测的示意图;
图4为本发明实施例中计算系数αV和βV使用的样本点的示意图;
图5为本发明实施例中帧内图像预测解码方法的示意图;
图6为本发明实施例中视频编码器的结构示意图;
图7为本发明实施例中视频编码器的一个具体实例的结构示意图;
图8为本发明实施例中视频解码器的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚明白,下面结合附图对本发明实施例做进一步详细说明。在此,本发明的示意性实施例及其说明用于解释本发明,但并不作为对本发明的限定。
为了充分利用色度分量V和色度分量U之间的相关性,提高帧内图像预测编解码效率,本发明实施例对现有LM进行了修改。现有LM假设色度分量U和色度分量V与亮度分量Y之间有线性关系,基于该假设,在编码色度时,LM用亮度分量Y的重构值对色度分量U和色度分量V进行预测。而本发明实施例的帧内图像预测编解码方法及视频编解码器采用的色度帧内预测模式,仍假设色度分量U和色度分量V与亮度分量Y之间有线性关系,并用亮度分量Y的重构值对色度分量U进行预测,这与现有LM相同;与LM不同的是,本发明实施例还假设色度分量V与色度分量U之间也有线性关系,该线性关系比色度分量V与亮度分量Y之间的线性关系更强,且考虑到预测色度分量V时,色度分量U已经重构完毕,因此用色度分量U的重构值而不是亮度分量Y的重构值来预测色度分量V。
为便于描述,本发明实施例的帧内图像预测编解码方法及视频编解码器采用的色度帧内预测模式,可称之为LUM(luma-based U and U-based V chroma intra predictionmode,从亮度预测U从U预测V的色度帧内预测模式)。
图2为本发明实施例的帧内图像预测编码方法的示意图。如图2所示,本发明实施例的帧内图像预测编码方法包括采用如下色度帧内预测模式(LUM)进行帧内图像预测编码:
步骤201、获得当前变换单元TU亮度分量Y的重构值;
步骤202、用当前TU亮度分量Y的重构值,对当前TU色度分量U进行预测;
步骤203、获得当前TU色度分量U的重构值;
步骤204、用当前TU色度分量U的重构值,对当前TU色度分量V进行预测。
由图2所示流程可以得知,本发明实施例采用的色度帧内预测模式(LUM)中,色度分量U的预测方法与现有LM相同,而与现有LM不同的是,用色度分量U的重构值而不是亮度分量Y的重构值来预测色度分量V。
具体实施时,用当前TU色度分量U的重构值,对当前TU色度分量V进行预测,可以包括:
用当前TU色度分量U的重构值,通过线性关系对当前TU色度分量V进行预测。
具体实施时,可以按如下公式,用当前TU色度分量U的重构值,通过线性关系对当前TU色度分量V进行预测:
PredV[x,y]=αV·RecU[x,y]+βV
其中,PredV[x,y]是当前TU色度分量V的预测值,RecU[x,y]是当前TU色度分量U的重构值,x,y=0,...,N-1,当前TU色度块的宽度和高度均为N,计算系数αV和βV使用的样本点是当前TU色度块相邻左侧一列和上侧一行像素色度分量U的重构值和色度分量V的重构值。
图3为本发明实施例中用当前TU色度分量U的重构值对当前TU色度分量V进行预测的示意图。
图4为本发明实施例中计算系数αV和βV使用的样本点的示意图。图4中,RecU是当前TU色度块相邻左侧一列和上侧一行像素色度分量U的重构值,RecV是当前TU色度块相邻左侧一列和上侧一行像素色度分量V的重构值。
具体实施时,可以按如下公式,计算系数αV和βV
其中,RecU(i)是当前TU色度块相邻左侧一列和上侧一行像素色度分量U的重构值,RecV(i)是当前TU色度块相邻左侧一列和上侧一行像素色度分量V的重构值,i=0,...,2N-1,遍历当前TU色度块相邻左侧一列和上侧一行像素,当前TU色度块的宽度和高度均为N。
计算系数αV和βV的详细过程可参见后文工作草案(working draft)JCTVC-G1103_d4的新增部分8.3.3.1.19小节。
本发明实施例的帧内图像预测编码方法采用的色度帧内预测模式(LUM),可以与现有LM一起进行率失真最优化选择。
具体实施时,可以在实施图2所示流程的基础上,再采用现有LM进行帧内图像预测编码:获得当前TU亮度分量Y的重构值;用当前TU亮度分量Y的重构值,对当前TU色度分量U和色度分量V进行预测。后续再进行率失真最优化选择,即在LUM和LM中,选择最小率失真代价对应的色度帧内预测模式进行帧内图像预测编码。
具体实施时,本发明实施例的帧内图像预测编码方法还可以包括:编码色度帧内预测模式的码字,以指示采用何种色度帧内预测模式(如LUM或LM等)进行帧内图像预测编码。表1为HM4.0中色度帧内预测模式的码字:
表1:HM4.0中色度帧内预测模式的码字
引入LUM后,需要对色度帧内预测模式的码字进行了调整,如表2所示。
表2:调整后的色度帧内预测模式的码字
色度帧内预测模式 码字
DM 0
LM 10
LUM 110
Planar 1110
Vertical 11110
Horizontal 111110
DC 111111
对比表1和表2可以看出,在编码色度帧内预测模式的码字时,色度帧内预测模式的码字在HM4.0的基础上发生了改变,并且码字的最大长度从5增加到了6。
基于同一发明构思,本发明实施例中还提供了一种帧内图像预测解码方法,如下面的实施例所述。由于帧内图像预测解码方法解决问题的原理与帧内图像预测编码方法相似,因此帧内图像预测解码方法的实施可以参见帧内图像预测编码方法的实施,重复之处不再赘述。
图5为本发明实施例的帧内图像预测解码方法的示意图。如图5所示,本发明实施例的帧内图像预测解码方法可以包括:
步骤501、确定采用LUM进行帧内图像预测解码;
步骤502、获得当前TU亮度分量Y的重构值;
步骤503、用当前TU亮度分量Y的重构值,对当前TU色度分量U进行预测;
步骤504、获得当前TU色度分量U的重构值;
步骤505、用当前TU色度分量U的重构值,对当前TU色度分量V进行预测。
具体实施时,确定采用LUM进行帧内图像预测解码,可以包括:
解码色度帧内预测模式的码字;
根据色度帧内预测模式的码字,确定采用LUM进行帧内图像预测解码。
HM4.0中,色度帧内预测模式的码字如表1所示。本发明实施例的帧内图像预测解码方法增加了LUM,色度帧内预测模式的码字发生了变化,如表2所示。因此对比表1和表2可以看出,在解码色度帧内预测模式的码字时,首先,解码码字的最大长度从5增加到了6;其次,码字代表的色度帧内预测模式也发生了变化,需要根据表2得到码字对应的色度帧内预测模式。
具体实施时,用当前TU色度分量U的重构值,对当前TU色度分量V进行预测,可以包括:
用当前TU色度分量U的重构值,通过线性关系对当前TU色度分量V进行预测。
具体实施时,可以按如下公式,用当前TU色度分量U的重构值,通过线性关系对当前TU色度分量V进行预测:
PredV[x,y]=αV·RecU[x,y]+βV
其中,PredV[x,y]是当前TU色度分量V的预测值,RecU[x,y]是当前TU色度分量U的重构值,x,y=0,...,N-1,当前TU色度块的宽度和高度均为N,计算系数αV和βV使用的样本点是当前TU色度块相邻左侧一列和上侧一行像素色度分量U的重构值和色度分量V的重构值。
具体实施时,可以按如下公式,计算系数αV和βV
其中,RecU(i)是当前TU色度块相邻左侧一列和上侧一行像素色度分量U的重构值,RecV(i)是当前TU色度块相邻左侧一列和上侧一行像素色度分量V的重构值,i=0,...,2N-1,遍历当前TU色度块相邻左侧一列和上侧一行像素,当前TU色度块的宽度和高度均为N。
计算系数αV和βV的详细过程可参见后文工作草案JCTVC-G1103_d4的新增部分8.3.3.1.19小节。
具体实施时,本发明实施例的帧内图像预测编解码方法引入LUM也需要对工作草案JCTVC-G1103_d4进行修改,具体修改如下,修改部分在表8-1和表8-4中已由下划线标出,修改部分还包括8.3.3.1.19小节。
8.3.1 Derivation process for luma intra prediction mode(亮度帧内预测模式推导过程)
……
Table 8-1 Specification of intra prediction mode and associated names(表8-1帧内预测模式与对应名称的说明)
……
8.3.2 Derivation process for chroma intra prediction mode(色度帧内预测模式推导过程)
……
Table 8-4 Specification of IntraPredModeC according to the values ofintra_chroma_pred_mode and IntraPredMode[xB][yB]when chroma_pred_from_luma_enabled_flag is equal to 1(表8-4当chroma_pred_from_luma_enabled_flag(允许从亮度预测色度的标志位)等于1时,利用intra_chroma_pred_mode(色度帧内预测方法)和IntraPredMode(帧内预测模式)[xB][yB]确定IntraPredModeC(色度帧内预测模式)的说明)
……
8.3.3.1.19 Intra_FromLumaAndU(帧内由亮度和色度U预测)预测模式的说明
当intraPredMode(帧内预测模式)等于36时,执行以下步骤:
1、执行8.3.3.1.18小节中的帧内像素预测过程来预测U;
2、执行8.3.3重构U之后,然后执行下面的帧内像素预测过程来预测V:
本过程的输入是:
相邻U的重构值recSamplesU[x,y],其中x,y=-1..nS-1,其中x=0,y=0代表当前块的左上角位置;
相邻V的重构值recSamplesV[x,y],其中y=-1,x=0..nS-1或x=-1,y=0..nS-1,其中x=0,y=0代表当前块的左上角位置;
变量nS,用来指出当前块大小。
本过程的输出是:
V的预测值predSamplesV[x,y],x,y=0..nS-1,其中x=0,y=0代表当前块的左上角位置;
V的预测值predSamplesV[x,y],x,y=0..nS-1,通过以下步骤得到:
1)、计算变量k3和样本pU,pV如下:
k3=Max(0,BitDepthc+log2(nS)-14)
pU[x,y]=recSamplesU[x,y],x,y=-1..nS-1
pV[x,y]=recSamplesV[x,y],y=-1,x=0..nS-1或x=-1,y=0..nS-1
2)、计算变量L,C,LL,LC和k2如下:
k2=log2((2*nS)>>k3)
3)、计算变量a,b和k如下:
a1=(LC<<k2)-L*C
a2=(LL<<k2)-L*L
k1=Max(0,log2(abs(a2))-5)-Max(0,log2(abs(a1))-14)+2
a1s=a1>>Max(0,log2(abs(a1))-14)
a2s=abs(a2>>Max(0,log2(abs(a2))-5))
a3=a2s<1?0:Clip3(-215,215-1,a1s*lmDiv+(1<<(k1-1))>>k1)
a=a3>>Max(0,log2(abs(a3))-6)
k=13-Max(0,log2(a))-6)
b=(L-((a*C)>>k1)+(1<<(k2-1)))>>k2
其中lmDiv通过用a2s查表8-10得到。
4)、最后,计算V的预测值predSamplesV[x,y]如下:
predSamplesV[x,y]=Clip1C(((pU[x,y]*a)>>k)+b),x,y=0..nS-1
基于同一发明构思,本发明实施例中还提供了一种视频编码器和视频解码器,如下面的实施例所述。由于视频编码器和视频解码器解决问题的原理与帧内图像预测编码和解码方法相似,因此视频编码器和视频解码器的实施可以参见帧内图像预测编码和解码方法的实施,重复之处不再赘述。
图6为本发明实施例中视频编码器的结构示意图。如图6所示,本发明实施例中视频编码器可以包括:
采用如下色度帧内预测模式(LUM)进行帧内图像预测编码的第一获得模块601、第一预测模块602、第二获得模块603和第二预测模块604:
第一获得模块601,用于获得当前TU亮度分量Y的重构值;
第一预测模块602,用于用当前TU亮度分量Y的重构值,对当前TU色度分量U进行预测;
第二获得模块603,用于获得当前TU色度分量U的重构值;
第二预测模块604,用于用当前TU色度分量U的重构值,对当前TU色度分量V进行预测。
一个实施例中,第二预测模块604具体可以用于:
用当前TU色度分量U的重构值,通过线性关系对当前TU色度分量V进行预测。
一个实施例中,第二预测模块604具体可以用于:
按如下公式,用当前TU色度分量U的重构值,通过线性关系对当前TU色度分量V进行预测:
PredV[x,y]=αV·RecU[x,y]+βV
其中,PredV[x,y]是当前TU色度分量V的预测值,RecU[x,y]是当前TU色度分量U的重构值,x,y=0,...,N-1,当前TU色度块的宽度和高度均为N,计算系数αV和βV使用的样本点是当前TU色度块相邻左侧一列和上侧一行像素色度分量U的重构值和色度分量V的重构值。
一个实施例中,第二预测模块604具体可以用于:
按如下公式,计算系数αV和βV
其中,RecU(i)是当前TU色度块相邻左侧一列和上侧一行像素色度分量U的重构值,RecV(i)是当前TU色度块相邻左侧一列和上侧一行像素色度分量V的重构值,i=0,...,2N-1。
如图7所示,一个实施例中,图6所示的视频编码器还可以包括:
模式编码模块701,用于编码色度帧内预测模式的码字,以指示采用LUM进行帧内图像预测编码。
图8为本发明实施例中视频解码器的结构示意图。如图8所示,本发明实施例中视频解码器可以包括:
模式确定模块801,用于确定采用LUM进行帧内图像预测解码;
第一获得模块802,用于获得当前TU亮度分量Y的重构值;
第一预测模块803,用于用当前TU亮度分量Y的重构值,对当前TU色度分量U进行预测;
第二获得模块804,用于获得当前TU色度分量U的重构值;
第二预测模块805,用于用当前TU色度分量U的重构值,对当前TU色度分量V进行预测。
一个实施例中,确定模块801具体可以用于:
解码色度帧内预测模式的码字;
根据色度帧内预测模式的码字,确定采用LUM进行帧内图像预测解码。
一个实施例中,第二预测模块805具体可以用于:
用当前TU色度分量U的重构值,通过线性关系对当前TU色度分量V进行预测。
一个实施例中,第二预测模块805具体可以用于:
按如下公式,用当前TU色度分量U的重构值,通过线性关系对当前TU色度分量V进行预测:
PredV[x,y]=αV·RecU[x,y]+βV
其中,PredV[x,y]是当前TU色度分量V的预测值,RecU[x,y]是当前TU色度分量U的重构值,x,y=0,...,N-1,当前TU色度块的宽度和高度均为N,计算系数αV和βV使用的样本点是当前TU色度块相邻左侧一列和上侧一行像素色度分量U的重构值和色度分量V的重构值。
一个实施例中,第二预测模块805具体可以用于:
按如下公式,计算系数αV和βV
其中,RecU(i)是当前TU色度块相邻左侧一列和上侧一行像素色度分量U的重构值,RecV(i)是当前TU色度块相邻左侧一列和上侧一行像素色度分量V的重构值,i=0,...,2N-1。
将本发明实施例的帧内图像预测编解码方法及视频编解码器采用的色度帧内预测模式集成到HM4.0(LM bug-fixed版本)中,并且与HM4.0进行比较。实验是根据JCTVC-F900中的通用测试条件进行的。实验的测试环境是:Intel(R)Xeon(R)CPU [email protected],6核,,内存12GB,Windows 7,32位编译器。
实验结果如表3所示。可以看出,本发明实施例在“高效率帧内编码(All IntraHE)”和“低复杂度帧内编码(All Intra LC)”情况下可以分别降低色度分量V的码率达0.72%和1.33%。亮度分量Y和色度分量U在“高效率帧内编码”情况下码率没有增加,在“低复杂度帧内编码”情况下码率略有增加(亮度分量Y平均码率增加0.03%,最坏情况码率增加0.11%;色度分量U平均码率降低0.07%,最坏情况码率增加0.88%)。在“低复杂度帧内编码”情况下的码率增加主要归结于Planar、Vertical、Horizontal和DC四种模式码字的增加(与HM4.0比,这四种模式码字都增加了1)和LCEC(low complexity entropy coder,低复杂度熵编码器)编码码字时的低效率。当LUM被选中的概率比较低时,它所带来的性能提高不足以补偿上述四种模式码字增加所导致的性能下降,这时总体性将略微下降。
表3:实验结果:-xx%表示码率降低xx%
综上所述,本发明实施例的帧内图像预测编解码方法及视频编解码器采用的色度帧内预测模式,是用当前TU亮度分量Y的重构值对当前TU色度分量U进行预测,用当前TU色度分量U的重构值对当前TU色度分量V进行预测,与现有LM用当前TU亮度分量Y的重构值对当前TU色度分量U和色度分量V进行预测的技术方案相比,可以充分利用色度分量V和色度分量U之间的相关性,提高帧内图像预测编解码效率,尤其是在色度分量U与色度分量V之间的线性关系比亮度分量Y与色度分量V之间的线性关系更强时,可以为色度分量V生成比LM更好的预测值。
本领域内的技术人员应明白,本发明的实施例可提供为方法、***、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(***)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (12)

1.一种帧内图像预测编码方法,其特征在于,包括采用如下色度帧内预测模式进行帧内图像预测编码:
获得当前变换单元TU亮度分量Y的重构值;
用当前TU亮度分量Y的重构值,对当前TU色度分量U进行预测;
获得当前TU色度分量U的重构值;
用当前TU色度分量U的重构值,对当前TU色度分量V进行预测;
用当前TU色度分量U的重构值,对当前TU色度分量V进行预测,包括:
按如下公式,用当前TU色度分量U的重构值,通过线性关系对当前TU色度分量V进行预测:
PredV[x,y]=αV·RecU[x,y]+βV
其中,PredV[x,y]是当前TU色度分量V的预测值,RecU[x,y]是当前TU色度分量U的重构值,x,y=0,...,N-1,当前TU色度块的宽度和高度均为N,计算系数αV和βV使用的样本点是当前TU色度块相邻左侧一列和上侧一行像素色度分量U的重构值和色度分量V的重构值。
2.如权利要求1所述的方法,其特征在于,按如下公式,计算系数αV和βV
<mrow> <msub> <mi>&amp;alpha;</mi> <mi>V</mi> </msub> <mo>=</mo> <mfrac> <mrow> <mn>2</mn> <mi>N</mi> <mo>&amp;CenterDot;</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>0</mn> </mrow> <mrow> <mn>2</mn> <mi>N</mi> <mo>-</mo> <mn>1</mn> </mrow> </munderover> <msub> <mi>Rec</mi> <mi>V</mi> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> <mo>&amp;CenterDot;</mo> <msub> <mi>Rec</mi> <mi>U</mi> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> <mo>-</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>0</mn> </mrow> <mrow> <mn>2</mn> <mi>N</mi> <mo>-</mo> <mn>1</mn> </mrow> </munderover> <msub> <mi>Rec</mi> <mi>V</mi> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> <mo>&amp;CenterDot;</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>0</mn> </mrow> <mrow> <mn>2</mn> <mi>N</mi> <mo>-</mo> <mn>1</mn> </mrow> </munderover> <msub> <mi>Rec</mi> <mi>U</mi> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mn>2</mn> <mi>N</mi> <mo>&amp;CenterDot;</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>0</mn> </mrow> <mrow> <mn>2</mn> <mi>N</mi> <mo>-</mo> <mn>1</mn> </mrow> </munderover> <msub> <mi>Rec</mi> <mi>U</mi> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> <mo>&amp;CenterDot;</mo> <msub> <mi>Rec</mi> <mi>U</mi> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> <mo>-</mo> <msup> <mrow> <mo>(</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>0</mn> </mrow> <mrow> <mn>2</mn> <mi>N</mi> <mo>-</mo> <mn>1</mn> </mrow> </munderover> <msub> <mi>Rec</mi> <mi>U</mi> </msub> <mo>(</mo> <mi>i</mi> <mo>)</mo> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mrow> </mfrac> </mrow>
<mrow> <msub> <mi>&amp;beta;</mi> <mi>V</mi> </msub> <mo>=</mo> <mfrac> <mrow> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>0</mn> </mrow> <mrow> <mn>2</mn> <mi>N</mi> <mo>-</mo> <mn>1</mn> </mrow> </munderover> <msub> <mi>Rec</mi> <mi>V</mi> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> <mo>-</mo> <msub> <mi>&amp;alpha;</mi> <mi>V</mi> </msub> <mo>&amp;CenterDot;</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>0</mn> </mrow> <mrow> <mn>2</mn> <mi>N</mi> <mo>-</mo> <mn>1</mn> </mrow> </munderover> <msub> <mi>Rec</mi> <mi>U</mi> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mn>2</mn> <mi>N</mi> </mrow> </mfrac> </mrow>
其中,RecU(i)是当前TU色度块相邻左侧一列和上侧一行像素色度分量U的重构值,RecV(i)是当前TU色度块相邻左侧一列和上侧一行像素色度分量V的重构值,i=0,...,2N-1。
3.如权利要求1至2任一项所述的方法,其特征在于,还包括:
编码色度帧内预测模式的码字,以指示采用所述色度帧内预测模式进行帧内图像预测编码。
4.一种帧内图像预测解码方法,其特征在于,包括:
确定采用权利要求1所述色度帧内预测模式进行帧内图像预测解码;
获得当前TU亮度分量Y的重构值;
用当前TU亮度分量Y的重构值,对当前TU色度分量U进行预测;
获得当前TU色度分量U的重构值;
用当前TU色度分量U的重构值,对当前TU色度分量V进行预测;
用当前TU色度分量U的重构值,对当前TU色度分量V进行预测,包括:
按如下公式,用当前TU色度分量U的重构值,通过线性关系对当前TU色度分量V进行预测:
PredV[x,y]=αV·RecU[x,y]+βV
其中,PredV[x,y]是当前TU色度分量V的预测值,RecU[x,y]是当前TU色度分量U的重构值,x,y=0,...,N-1,当前TU色度块的宽度和高度均为N,计算系数αV和βV使用的样本点是当前TU色度块相邻左侧一列和上侧一行像素色度分量U的重构值和色度分量V的重构值。
5.如权利要求4所述的方法,其特征在于,确定采用所述色度帧内预测模式进行帧内图像预测解码,包括:
解码色度帧内预测模式的码字;
根据色度帧内预测模式的码字,确定采用所述色度帧内预测模式进行帧内图像预测解码。
6.如权利要求4所述的方法,其特征在于,按如下公式,计算系数αV和βV
<mrow> <msub> <mi>&amp;alpha;</mi> <mi>V</mi> </msub> <mo>=</mo> <mfrac> <mrow> <mn>2</mn> <mi>N</mi> <mo>&amp;CenterDot;</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>0</mn> </mrow> <mrow> <mn>2</mn> <mi>N</mi> <mo>-</mo> <mn>1</mn> </mrow> </munderover> <msub> <mi>Rec</mi> <mi>V</mi> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> <mo>&amp;CenterDot;</mo> <msub> <mi>Rec</mi> <mi>U</mi> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> <mo>-</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>0</mn> </mrow> <mrow> <mn>2</mn> <mi>N</mi> <mo>-</mo> <mn>1</mn> </mrow> </munderover> <msub> <mi>Rec</mi> <mi>V</mi> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> <mo>&amp;CenterDot;</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>0</mn> </mrow> <mrow> <mn>2</mn> <mi>N</mi> <mo>-</mo> <mn>1</mn> </mrow> </munderover> <msub> <mi>Rec</mi> <mi>U</mi> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mn>2</mn> <mi>N</mi> <mo>&amp;CenterDot;</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>0</mn> </mrow> <mrow> <mn>2</mn> <mi>N</mi> <mo>-</mo> <mn>1</mn> </mrow> </munderover> <msub> <mi>Rec</mi> <mi>U</mi> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> <mo>&amp;CenterDot;</mo> <msub> <mi>Rec</mi> <mi>U</mi> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> <mo>-</mo> <msup> <mrow> <mo>(</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>0</mn> </mrow> <mrow> <mn>2</mn> <mi>N</mi> <mo>-</mo> <mn>1</mn> </mrow> </munderover> <msub> <mi>Rec</mi> <mi>U</mi> </msub> <mo>(</mo> <mi>i</mi> <mo>)</mo> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mrow> </mfrac> </mrow>
<mrow> <msub> <mi>&amp;beta;</mi> <mi>V</mi> </msub> <mo>=</mo> <mfrac> <mrow> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>0</mn> </mrow> <mrow> <mn>2</mn> <mi>N</mi> <mo>-</mo> <mn>1</mn> </mrow> </munderover> <msub> <mi>Rec</mi> <mi>V</mi> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> <mo>-</mo> <msub> <mi>&amp;alpha;</mi> <mi>V</mi> </msub> <mo>&amp;CenterDot;</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>0</mn> </mrow> <mrow> <mn>2</mn> <mi>N</mi> <mo>-</mo> <mn>1</mn> </mrow> </munderover> <msub> <mi>Rec</mi> <mi>U</mi> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mn>2</mn> <mi>N</mi> </mrow> </mfrac> </mrow>
其中,RecU(i)是当前TU色度块相邻左侧一列和上侧一行像素色度分量U的重构值,RecV(i)是当前TU色度块相邻左侧一列和上侧一行像素色度分量V的重构值,i=0,...,2N-1。
7.一种视频编码器,其特征在于,包括采用如下色度帧内预测模式进行帧内图像预测编码的第一获得模块、第一预测模块、第二获得模块和第二预测模块:
第一获得模块,用于获得当前TU亮度分量Y的重构值;
第一预测模块,用于用当前TU亮度分量Y的重构值,对当前TU色度分量U进行预测;
第二获得模块,用于获得当前TU色度分量U的重构值;
第二预测模块,用于用当前TU色度分量U的重构值,对当前TU色度分量V进行预测;
所述第二预测模块具体用于:
按如下公式,用当前TU色度分量U的重构值,通过线性关系对当前TU色度分量V进行预测:
PredV[x,y]=αV·RecU[x,y]+βV
其中,PredV[x,y]是当前TU色度分量V的预测值,RecU[x,y]是当前TU色度分量U的重构值,x,y=0,...,N-1,当前TU色度块的宽度和高度均为N,计算系数αV和βV使用的样本点是当前TU色度块相邻左侧一列和上侧一行像素色度分量U的重构值和色度分量V的重构值。
8.如权利要求7所述的视频编码器,其特征在于,所述第二预测模块具体用于:
按如下公式,计算系数αV和βV
<mrow> <msub> <mi>&amp;alpha;</mi> <mi>V</mi> </msub> <mo>=</mo> <mfrac> <mrow> <mn>2</mn> <mi>N</mi> <mo>&amp;CenterDot;</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>0</mn> </mrow> <mrow> <mn>2</mn> <mi>N</mi> <mo>-</mo> <mn>1</mn> </mrow> </munderover> <msub> <mi>Rec</mi> <mi>V</mi> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> <mo>&amp;CenterDot;</mo> <msub> <mi>Rec</mi> <mi>U</mi> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> <mo>-</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>0</mn> </mrow> <mrow> <mn>2</mn> <mi>N</mi> <mo>-</mo> <mn>1</mn> </mrow> </munderover> <msub> <mi>Rec</mi> <mi>V</mi> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> <mo>&amp;CenterDot;</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>0</mn> </mrow> <mrow> <mn>2</mn> <mi>N</mi> <mo>-</mo> <mn>1</mn> </mrow> </munderover> <msub> <mi>Rec</mi> <mi>U</mi> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mn>2</mn> <mi>N</mi> <mo>&amp;CenterDot;</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>0</mn> </mrow> <mrow> <mn>2</mn> <mi>N</mi> <mo>-</mo> <mn>1</mn> </mrow> </munderover> <msub> <mi>Rec</mi> <mi>U</mi> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> <mo>&amp;CenterDot;</mo> <msub> <mi>Rec</mi> <mi>U</mi> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> <mo>-</mo> <msup> <mrow> <mo>(</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>0</mn> </mrow> <mrow> <mn>2</mn> <mi>N</mi> <mo>-</mo> <mn>1</mn> </mrow> </munderover> <msub> <mi>Rec</mi> <mi>U</mi> </msub> <mo>(</mo> <mi>i</mi> <mo>)</mo> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mrow> </mfrac> </mrow> 2
<mrow> <msub> <mi>&amp;beta;</mi> <mi>V</mi> </msub> <mo>=</mo> <mfrac> <mrow> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>0</mn> </mrow> <mrow> <mn>2</mn> <mi>N</mi> <mo>-</mo> <mn>1</mn> </mrow> </munderover> <msub> <mi>Rec</mi> <mi>V</mi> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> <mo>-</mo> <msub> <mi>&amp;alpha;</mi> <mi>V</mi> </msub> <mo>&amp;CenterDot;</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>0</mn> </mrow> <mrow> <mn>2</mn> <mi>N</mi> <mo>-</mo> <mn>1</mn> </mrow> </munderover> <msub> <mi>Rec</mi> <mi>U</mi> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mn>2</mn> <mi>N</mi> </mrow> </mfrac> </mrow>
其中,RecU(i)是当前TU色度块相邻左侧一列和上侧一行像素色度分量U的重构值,RecV(i)是当前TU色度块相邻左侧一列和上侧一行像素色度分量V的重构值,i=0,...,2N-1。
9.如权利要求7至8任一项所述的视频编码器,其特征在于,还包括:
模式编码模块,用于编码色度帧内预测模式的码字,以指示采用所述色度帧内预测模式进行帧内图像预测编码。
10.一种视频解码器,其特征在于,包括:
模式确定模块,用于确定采用权利要求7所述色度帧内预测模式进行帧内图像预测解码;
第一获得模块,用于获得当前TU亮度分量Y的重构值;
第一预测模块,用于用当前TU亮度分量Y的重构值,对当前TU色度分量U进行预测;
第二获得模块,用于获得当前TU色度分量U的重构值;
第二预测模块,用于用当前TU色度分量U的重构值,对当前TU色度分量V进行预测;
所述第二预测模块具体用于:
按如下公式,用当前TU色度分量U的重构值,通过线性关系对当前TU色度分量V进行预测:
PredV[x,y]=αV·RecU[x,y]+βV
其中,PredV[x,y]是当前TU色度分量V的预测值,RecU[x,y]是当前TU色度分量U的重构值,x,y=0,...,N-1,当前TU色度块的宽度和高度均为N,计算系数αV和βV使用的样本点是当前TU色度块相邻左侧一列和上侧一行像素色度分量U的重构值和色度分量V的重构值。
11.如权利要求10所述的视频解码器,其特征在于,所述确定模块具体用于:
解码色度帧内预测模式的码字;
根据色度帧内预测模式的码字,确定采用所述色度帧内预测模式进行帧内图像预测解码。
12.如权利要求10所述的视频解码器,其特征在于,所述第二预测模块具体用于:
按如下公式,计算系数αV和βV
<mrow> <msub> <mi>&amp;alpha;</mi> <mi>V</mi> </msub> <mo>=</mo> <mfrac> <mrow> <mn>2</mn> <mi>N</mi> <mo>&amp;CenterDot;</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>0</mn> </mrow> <mrow> <mn>2</mn> <mi>N</mi> <mo>-</mo> <mn>1</mn> </mrow> </munderover> <msub> <mi>Rec</mi> <mi>V</mi> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> <mo>&amp;CenterDot;</mo> <msub> <mi>Rec</mi> <mi>U</mi> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> <mo>-</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>0</mn> </mrow> <mrow> <mn>2</mn> <mi>N</mi> <mo>-</mo> <mn>1</mn> </mrow> </munderover> <msub> <mi>Rec</mi> <mi>V</mi> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> <mo>&amp;CenterDot;</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>0</mn> </mrow> <mrow> <mn>2</mn> <mi>N</mi> <mo>-</mo> <mn>1</mn> </mrow> </munderover> <msub> <mi>Rec</mi> <mi>U</mi> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mn>2</mn> <mi>N</mi> <mo>&amp;CenterDot;</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>0</mn> </mrow> <mrow> <mn>2</mn> <mi>N</mi> <mo>-</mo> <mn>1</mn> </mrow> </munderover> <msub> <mi>Rec</mi> <mi>U</mi> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> <mo>&amp;CenterDot;</mo> <msub> <mi>Rec</mi> <mi>U</mi> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> <mo>-</mo> <msup> <mrow> <mo>(</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>0</mn> </mrow> <mrow> <mn>2</mn> <mi>N</mi> <mo>-</mo> <mn>1</mn> </mrow> </munderover> <msub> <mi>Rec</mi> <mi>U</mi> </msub> <mo>(</mo> <mi>i</mi> <mo>)</mo> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mrow> </mfrac> </mrow>
<mrow> <msub> <mi>&amp;beta;</mi> <mi>V</mi> </msub> <mo>=</mo> <mfrac> <mrow> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>0</mn> </mrow> <mrow> <mn>2</mn> <mi>N</mi> <mo>-</mo> <mn>1</mn> </mrow> </munderover> <msub> <mi>Rec</mi> <mi>V</mi> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> <mo>-</mo> <msub> <mi>&amp;alpha;</mi> <mi>V</mi> </msub> <mo>&amp;CenterDot;</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>0</mn> </mrow> <mrow> <mn>2</mn> <mi>N</mi> <mo>-</mo> <mn>1</mn> </mrow> </munderover> <msub> <mi>Rec</mi> <mi>U</mi> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mn>2</mn> <mi>N</mi> </mrow> </mfrac> </mrow>
其中,RecU(i)是当前TU色度块相邻左侧一列和上侧一行像素色度分量U的重构值,RecV(i)是当前TU色度块相邻左侧一列和上侧一行像素色度分量V的重构值,i=0,...,2N-1。
CN201210035252.9A 2012-02-16 2012-02-16 帧内图像预测编解码方法及视频编解码器 Expired - Fee Related CN103260018B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201210035252.9A CN103260018B (zh) 2012-02-16 2012-02-16 帧内图像预测编解码方法及视频编解码器

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201210035252.9A CN103260018B (zh) 2012-02-16 2012-02-16 帧内图像预测编解码方法及视频编解码器

Publications (2)

Publication Number Publication Date
CN103260018A CN103260018A (zh) 2013-08-21
CN103260018B true CN103260018B (zh) 2017-09-22

Family

ID=48963684

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210035252.9A Expired - Fee Related CN103260018B (zh) 2012-02-16 2012-02-16 帧内图像预测编解码方法及视频编解码器

Country Status (1)

Country Link
CN (1) CN103260018B (zh)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101683175B1 (ko) * 2014-03-06 2016-12-06 삼성전자주식회사 영상 복호화 방법 및 그 장치, 영상 부호화 방법 및 그 장치
WO2016115736A1 (en) * 2015-01-23 2016-07-28 Mediatek Singapore Pte. Ltd. Additional intra prediction modes using cross-chroma-component prediction
US10321140B2 (en) 2015-01-22 2019-06-11 Mediatek Singapore Pte. Ltd. Method of video coding for chroma components
CN105306944B (zh) * 2015-11-30 2018-07-06 哈尔滨工业大学 混合视频编码标准中色度分量预测方法
WO2017139937A1 (en) * 2016-02-18 2017-08-24 Mediatek Singapore Pte. Ltd. Advanced linear model prediction for chroma coding
GB2571311B (en) * 2018-02-23 2021-08-18 Canon Kk Methods and devices for improvement in obtaining linear component sample prediction parameters
CN110858903B (zh) * 2018-08-22 2022-07-12 华为技术有限公司 色度块预测方法及装置
CN110876061B (zh) * 2018-09-03 2022-10-11 华为技术有限公司 色度块预测方法及装置
CN111699681B (zh) * 2019-06-25 2023-11-14 北京大学 一种视频图像处理方法、设备及存储介质
JP2022539786A (ja) * 2019-07-10 2022-09-13 オッポ広東移動通信有限公司 画像成分の予測方法、エンコーダ、デコーダ及び記憶媒体
CN110602491B (zh) * 2019-08-30 2022-07-19 中国科学院深圳先进技术研究院 帧内色度预测方法、装置、设备及视频编解码***
WO2021035717A1 (zh) * 2019-08-30 2021-03-04 中国科学院深圳先进技术研究院 帧内色度预测方法、装置、设备及视频编解码***

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1574970A (zh) * 2003-05-16 2005-02-02 三星电子株式会社 使用图像残余预测编码/解码图像的方法和设备
CN101057506A (zh) * 2004-12-30 2007-10-17 三星电子株式会社 使用色度分量间相关性的彩色图像编码和解码方法和设备
WO2008020687A1 (en) * 2006-08-16 2008-02-21 Samsung Electronics Co, . Ltd. Image encoding/decoding method and apparatus
WO2011126348A3 (en) * 2010-04-09 2012-01-26 Lg Electronics Inc. Method and apparatus for processing video data

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1574970A (zh) * 2003-05-16 2005-02-02 三星电子株式会社 使用图像残余预测编码/解码图像的方法和设备
CN101057506A (zh) * 2004-12-30 2007-10-17 三星电子株式会社 使用色度分量间相关性的彩色图像编码和解码方法和设备
WO2008020687A1 (en) * 2006-08-16 2008-02-21 Samsung Electronics Co, . Ltd. Image encoding/decoding method and apparatus
WO2011126348A3 (en) * 2010-04-09 2012-01-26 Lg Electronics Inc. Method and apparatus for processing video data

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Chroma intra prediction by reconstructed luma samples;Jianle Chen等;《Joint Collaborative Team on Video Coding(JCT-VC)of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11》;20101015;第2节,图1 *
intra prediction method based on the linear relationship between the channels for YUV 4:2:0 intra coding;Sang Heon Lee等;《2009 16th IEEE International Conference on Image Processing》;20091110;全文 *
Intra-prediction for color image coding using YUV correlation;Luis F.R等;《2010 17th IEEE International conference on Image Processing》;20100929;全文 *

Also Published As

Publication number Publication date
CN103260018A (zh) 2013-08-21

Similar Documents

Publication Publication Date Title
CN103260018B (zh) 帧内图像预测编解码方法及视频编解码器
CN113411577B (zh) 编码方法及装置
US9225984B2 (en) Simplification of LM mode
US9307237B2 (en) Reference pixel reduction for intra LM prediction
US9438904B2 (en) Reduced look-up table for LM mode calculation
CN107147911A (zh) 基于局部亮度补偿lic的快速帧间编码模式选择方法及装置
US20160373767A1 (en) Encoding and Decoding Methods and Apparatuses
US20150036745A1 (en) Method and apparatus of simplified luma-based chroma intra prediction
KR102661224B1 (ko) 화상의 블록을 인트라 예측하는 방법
EP4362462A1 (en) Chroma block prediction method and apparatus
TWI727826B (zh) 使用內預測之寫碼技術
KR20210107131A (ko) 이미지 예측 방법, 장치 및 시스템, 디바이스 및 저장 매체
KR20230149344A (ko) 비디오 픽처 디코딩 및 인코딩 방법 및 장치
US10999604B2 (en) Adaptive implicit transform setting
US20230396780A1 (en) Illumination compensation method, encoder, and decoder
KR102631517B1 (ko) 픽처 분할 방법 및 장치
CN103260019B (zh) 帧内图像预测编解码方法及视频编解码器
CN103237225B (zh) 利用yuv与rgb空间联合修正视频编解码误差的方法
CN116916029A (zh) 一种帧间预测方法、编码器、解码器及存储介质
EP4354858A1 (en) Encoding method and apparatus using inter-frame prediction, device, and readable storage medium
US20240007628A1 (en) Separate tree coding restrictions
US20230403392A1 (en) Intra prediction method and decoder
CN107801040A (zh) Hevc/h.265编码器架构及其帧内与帧间的预测方法
CN103262540B (zh) 通过帧内模式预测而用于帧内编码的改进的多个预测器集合
TW202335499A (zh) 多模型跨分量線性模型預測

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20170922

Termination date: 20220216

CF01 Termination of patent right due to non-payment of annual fee