CN1487748A - B图像的直接模式运动矢量计算方法 - Google Patents
B图像的直接模式运动矢量计算方法 Download PDFInfo
- Publication number
- CN1487748A CN1487748A CNA031016235A CN03101623A CN1487748A CN 1487748 A CN1487748 A CN 1487748A CN A031016235 A CNA031016235 A CN A031016235A CN 03101623 A CN03101623 A CN 03101623A CN 1487748 A CN1487748 A CN 1487748A
- Authority
- CN
- China
- Prior art keywords
- sequence
- motion vector
- direct model
- reference picture
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 239000013598 vector Substances 0.000 title claims abstract description 391
- 238000000034 method Methods 0.000 title claims abstract description 78
- 238000013459 approach Methods 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims description 3
- 239000000284 extract Substances 0.000 claims 10
- 238000009795 derivation Methods 0.000 abstract 1
- 239000000872 buffer Substances 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/577—Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/521—Processing of motion vectors for estimating the reliability of the determined motion vectors or motion vector field, e.g. for smoothing the motion vector field or for correcting motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/573—Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/56—Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Image Analysis (AREA)
- Studio Devices (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Gyroscopes (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
- Color Television Systems (AREA)
- Processing Or Creating Images (AREA)
Abstract
在运动图像编码***中,一种用于计算B(双向预测)图像的直接模式运动矢量的方法,以提取B图像的直接模式运动矢量。当直接模式序列1参考图像在时间上超前或者落后于B图像时,则不论相同位置块的运动矢量的模式(序列0模式和/或序列1模式),将序列1参考图像中的相同位置块的任何一个运动矢量确定为运动矢量,以得到直接模式运动矢量。对所确定的运动矢量进行缩放,以得到序列0运动矢量MVF和序列1运动矢量MVB。另外,将所确定的运动矢量指向的参考图像确定为直接模式的序列0参考图像。
Description
技术领域
本发明涉及运动图像编码方法,尤其涉及用于计算在下一代运动图像压缩技术中定义的B(双向预测)图像的直接模式运动矢量的技术。
现有技术
传统的B图像具有五种类型的预测模式,包括前向模式、后向模式、双向模式、直接模式和帧内模式。在前向模式、后向模式和双向模式中,因为方向信息包含在模式名称中,所以可以从模式名称中识别出运动矢量的方向。在直接模式中,基于时间冗余特征,即在两个相邻图像之间不变地保持运动连续性,从相邻图像的相同位置块的运动中,可以得出两个方向的两个运动矢量。此直接模式在编码效率方面具有优点,因为不把运动信息发送到解码器。
另一方面,在诸如H.264或者MPEG-4第10部分的下一代运动图像压缩技术中所采用的B图像具有如下特征,即因为能够将B图像存储在参考图像缓冲器中,所以允许将B图像用作参考图像。该B图像还具有如下特征,即,其具有5种类型的预测模式,即序列0模式,序列1模式,双向预测模式,直接模式和帧内模式。
序列0模式与传统的前向模式类似,分别使用ref_id×_l0和mvd_l0指示诸如参考图像索引和运动矢量差值的运动信息。序列1模式与传统的后向模式类似,分别使用ref_id×_l1和mvd_l1指示诸如参考图像索引和运动矢量差值的运动信息。双向预测模式具有两个参考图像,两个参考图像在时间上可以同时处于B图像之前或之后,或者分别处于B图像之前和之后。在此情况下,分别使用ref_id×_l0,ref_id×_l1,mvd_l0和mvd_l1指示两个参考图像索引和两个运动矢量差值,并且每一个参考图像都具有图像顺序计数(POC)数据,这是一个时间位置信息。
在直接模式中,通过选择空间技术和时间技术中的任意一种而获得运动矢量。空间直接模式技术用于从所要编码的宏块的相邻块中得出序列0和序列1参考图像索引和运动矢量。时间直接模式技术通过对直接模式的序列1参考图像中相同位置块的序列0运动矢量进行缩放(该参考图像与传统的B图像类似),从而得出序列0运动矢量MVF和序列1运动矢量MVB。此处,直接模式的序列1参考图像是这样一个图像:序列1预测的索引为0,直接模式序列0参考图像是直接模式序列1参考图像中的相同位置块的运动矢量所指向的序列0参考图像。
图1a到1c分别显示的是,当可用的序列0和序列1参考图像的数目(或者短期缓冲器的大小)为6时,在IBBBP模式中,序列0预测的缺省索引,序列1预测的缺省索引和各个B图像的直接模式序列1参考图像。此处,序列0预测的缺省索引和序列1预测的缺省索引取决于先前解码的参考图像的输出顺序,或POC值,而与解码顺序无关。在图1中,所有的B图像使用在时间上紧随的P图像作为直接模式序列1参考图像。
图2a到2c分别显示的是,在仅使用B图像的IBBB模式中,序列0预测的缺省索引,序列1预测的缺省索引和各个B图像的直接模式序列1参考图像。在图2a中,当要编码的B图像为B8时,具有序列1索引0的、在时间上超前的B5为直接模式序列1参考图像。如图2b所示,接着要解码的B7的直接模式序列1参考图像是时间上落后的B8。最后,如图2C所示,接着要解码的B9的直接模式序列1参考图像是时间上超前的B7。
因此,如图1a到2c所示,直接模式序列1参考图像可以是在时间上落后于所要编码的B图像的P或B图像,或者在时间上超前于它的B图像。
图3a到3h显示的是当序列1参考图像在时间上落后于B图像时,直接模式序列1参考图像中的相同位置块所可以具有的模式。在这种情况下,因为序列1参考图像可以是P图像或者是B图像,从而它的相同位置块具有一个或者两个运动矢量,或者帧内模式。下一代的运动图像压缩技术,诸如H.264或者MPEG-4第10部分,允许在“片(slice)”的级别上对参考图像索引进行重新排序,从而将序列1预测的索引0分配给B图像之后的图像。即,由于序列1参考图像能够紧随B图像之后,所以相同位置块的运动矢量可以指向前或者后。
图4a到4h显示的是当序列1参考图像在时间上超前于B图像时,直接模式序列1参考图像中的相同位置块所可以具有的模式。如上所述,在这种情况下,相同位置块具有一个或者两个运动矢量,或者帧内模式。序列1参考图像和B图像之间可以有其它的参考图像,从而相同位置块的运动矢量可以指向时间上超前或者落后的方向。
如图3a到4h所示,直接模式序列1参考图像可以具有不同的预测模式,使得需要开发出一种方法,用于根据不同的情况,计算直接模式运动矢量。
发明内容
因此,本发明已经考虑了上述问题,并且本发明的一个目的是提供一种计算在下一代运动图像压缩技术中定义的B(双向预测)图像的直接模式运动矢量的方法,其中,提出了一种用于计算B图像的直接模式运动矢量的方法,以提高将直接模式选作为宏块预测模式的概率,从而提高B图像编码效率。
根据本发明的一个方面,通过提供一种在运动图像编码***中计算B(双向预测)图像的直接模式运动矢量的方法,以提取B图像的直接模式运动矢量,从而实现本发明的上述和其它目的,该方法包括如下步骤:如果直接模式序列1参考图像中的相同位置块具有两个运动矢量,则选择两个运动矢量中的任何一个(序列0运动矢量或者序列1运动矢量),并且从所选择的运动矢量中得出B图像的直接模式运动矢量。
优选地,上述步骤包括如下步骤:选择序列0和序列1运动矢量中的一个,其指向在时间上接近于直接模式序列1参考图像的图像,作为运动矢量以得出直接模式运动矢量;如果两个运动矢量指向相同的参考图像,则将序列0运动矢量选作为运动矢量,以得出直接模式运动矢量;将所选择的运动矢量指向的参考图像确定为直接模式序列0参考图像;并且计算B图像的直接模式运动矢量。作为选择,上述步骤可以包括如下步骤:与时间距离无关地,无条件地将序列0运动矢量选择作为运动矢量以计算直接模式运动矢量;将序列0运动矢量所指向的参考图像确定为直接模式序列0参考图像;并且计算B图像的直接模式运动矢量。
根据本发明的另外一个方面,提供了一种在运动图像编码***中,用于计算B(双向预测)图像的直接模式运动矢量的方法,以提取B图像的直接模式运动矢量,从而实现本发明的上述和其它目的,该方法包括如下步骤:与相同位置块的运动矢量的模式(序列0模式和/或序列1模式)无关地,将直接模式序列1参考图像的相同位置块的任何一个运动矢量确定为运动矢量,以得出直接模式运动矢量;将所选择的运动矢量所指向的参考图像确定为直接模式序列0参考图像;计算B图像的直接模式运动矢量。已经提出过一种传统的方法,该方法用于从相同位置块的序列0运动矢量中,计算直接模式运动矢量。如果将此传统方法应用到在序列1参考图像中的相同位置块仅具有一个序列1运动矢量的情况,则因为序列0运动矢量为0,所以所有的直接模式运动矢量将成为0。然而,本发明能够解决此问题。
根据本发明的另外一个方面,提供了一种在运动图像编码***中,用于计算B(双向预测)图像的直接模式运动矢量的方法,以提取B图像的直接模式运动矢量,从而实现本发明的上述和其它目的,该方法包括如下步骤:如果直接模式序列1参考图像中的相同位置块仅具有一个序列1运动矢量,考虑到相同位置块具有零运动,将在时间上正好位于B图像之前的解码图像确定为直接模式序列0参考图像,并且得出B图像的直接模式运动矢量。
根据本发明的另外一个方面,提供了一种在运动图像编码***中,用于计算B(双向预测)图像的直接模式运动矢量的方法,以提取B图像的直接模式运动矢量,从而实现本发明的上述和其它目的,该方法包括如下步骤:如果在直接模式序列1参考图像中的相同位置块仅具有一个序列1运动矢量,则将相同位置块的序列1运动矢量用作为运动矢量以计算直接模式运动矢量;将在时间上正好位于B图像之前的解码图像确定为直接模式序列0参考图像;并且计算B图像的直接模式运动矢量。
根据本发明的另外一个方面,提供了一种在运动图像编码***中,用于计算B(双向预测)图像的直接模式运动矢量的方法,以提取B图像的直接模式运动矢量,该方法包括如下步骤:如果在直接模式序列1参考图像中的相同位置块仅具有一个序列1运动矢量,则将相同位置块的序列1运动矢量用作为运动量以计算直接模式运动矢量;将相同位置块的序列1运动矢量所指向的参考图像确定为直接模式序列0参考图像;并且计算B图像的直接模式运动矢量。
根据本发明的另外一个方面,提供了一种在运动图像编码***中,用于计算B(双向预测)图像的直接模式运动矢量的方法,以提取B图像的直接模式运动矢量,该方法包括如下步骤:将最新解码的图像设定为直接模式序列1参考图像,对直接模式序列1参考图像中的相同位置块的运动矢量进行缩放,以得出序列0运动矢量MVF和序列1运动矢量MVB,并且计算B图像的直接模式运动矢量。在传统方法中,将具有序列1预测的索引0的图像定义为直接模式序列1参考图像。当在B图像和具有索引0的图像之间解码不同的图像时,必须保持具有索引0的图像的运动信息和参考图像信息,这导致使用附加的存储器。然而,本方法能够避免使用附加的存储器。
根据本发明的另外一个方面,提供了一种在运动图像编码***中,用于计算B(双向预测)图像的直接模式运动矢量的方法,以提取B图像的直接模式运动矢量,该方法包括如下步骤:如果直接模式序列1参考图像在时间上超前于B图像,则对直接模式序列1参考图像中的相同位置块的运动矢量进行缩放,以得到序列0运动矢量MVF和序列1运动矢量MVB,并且计算B图像的直接模式运动矢量。
优选地,上述步骤可以包括如下步骤:如果B图像的宏块和序列1参考图像的相同位置宏块处于帧模式,而直接模式序列0参考图像在时间上超前于序列1参考图像,则按照下面的公式计算B图像的直接模式运动矢量MVF和MVB:
MVF=TDB×MV/TDD
MVB=(TDB-TDD)×MV/TDD
或者
Z=TDB×256/TDD MVF=(Z×MV+128)>>8
W=Z-256 MVB=(W×MV+128)>>8
其中,TDB表示当前B帧和序列0参考帧之间的时间距离,TDD表示序列1参考帧和序列0参考帧之间的时间距离,MV表示在直接模式序列1参考图像中的相同位置块的运动矢量。
另外,上述步骤可以包括如下步骤:如果B图像的宏块和序列1参考图像的相同位置宏块处于帧模式,而直接模式序列0参考图像在时间上落后于序列1参考图像,则按照下面的公式计算B图像的直接模式运动矢量MVF和MVB:
MVF=-TDB×MV/TDD
MVB=-(TDB+TDD)×MV/TDD
或者
Z=-TDB×256/TDD MVF=(Z×MV+128)>>8
W=Z-256 MVB=(W×MV+128)>>8
其中,TDB表示当前B帧和序列0参考帧之间的时间距离,TDD表示序列1参考帧和序列0参考帧之间的时间距离,MV表示直接模式序列1参考图像中的相同位置块的运动矢量。
另外,上述步骤可以包括如下步骤:如果B图像的宏块和序列1参考图像的相同位置宏块处于场模式,而直接模式序列0参考图像在时间上超前于序列1参考图像,则按照下面的公式计算B帧各个场的直接模式运动矢量MVF,i和MVB,i:
MVF,i=TDB,i×MVi/TDD,i
MVB,i=(TDB,i-TDD,i)×MVi/TDD,i
或者
Z=TDB,i×256/TDD,i MVF,i=(Z×MVi+128)>>8
W=Z-256 MVB,i=(W×MVi+128)>>8
其中,TDB,i表示当前B场和序列0参考场之间的时间距离,TDD,i表示序列1参考场和序列0参考场之间的时间距离,MVi表示直接模式序列1参考场中相同位置块的运动矢量。
另外,上述步骤可以包括如下步骤:如果B图像的宏块和序列1参考图像的相同位置宏块处于场模式,而直接模式序列0参考图像在时间上落后于序列1参考图像,则按照下面的公式计算B帧各个场的直接模式运动矢量MVF,i和MVB,i:
MVF,i=-TDB,i×MVi/TDD,i
MVB,i=-(TDB,i+TDD,i)×MVi/TDD,i
或者
Z=-TDB,i×256/TDD,i MVF,i=(Z×MVi+128)>>8
W=Z-256 MVB,i=(W×MVi+128)>>8
其中,TDB,i表示当前B场和序列0参考场之间的时间距离,TDD,i表示序列1参考场和序列0参考场之间的时间距离,MVi表示直接模式序列1参考场中相同位置块的运动矢量。
另外,上述步骤可以包括如下步骤:如果B图像的宏块处于场模式,序列1参考图像的相同位置宏块处于帧模式,而直接模式序列0参考图像在时间上超前于序列1参考图像,则按照下面的公式计算B帧各个场的直接模式运动矢量MVF,i和MVB,i:
MVF,i=TDB,i×MV/TDD
MVB,i=(TDB,i-TDD)×MV/TDD
或者
Z=TDB,i×256/TDD MVF,i=(Z×MV+128)>>8
W=Z-256 MVB,i=(W×MV+128)>>8
其中,TDB,i表示当前B场和序列0参考场之间的时间距离,TDD表示序列1参考帧和序列0参考帧之间的时间距离,MV表示直接模式序列1参考帧中相同位置块的运动矢量。
另外,上述步骤可以包括如下步骤:如果B图像的宏块处于场模式,序列1参考图像的相同位置宏块处于帧模式,而直接模式序列0参考图像在时间上落后于序列1参考图像,则按照下面的公式计算B帧各个场的直接模式运动矢量MVF,i和MVB,i:
MVF,i=-TDB,i×MV/TDD
MVB,i=-(TDB,i+TDD)×MV/TDD
或者
Z=-TDB,i×256/TDD MVF,i=(Z×MV+128)>>8
W=Z-256 MVB,i=(W×MV+128)>>8
其中,TDB,i表示当前B场和序列0参考场之间的时间距离,TDD表示序列1参考帧和序列0参考帧之间的时间距离,MV表示直接模式序列1参考帧中相同位置块的运动矢量。
另外,上述步骤可以包括如下步骤:如果B图像的宏块处于帧模式,序列1参考图像的相同位置宏块处于场模式,而直接模式序列0参考图像在时间上超前于序列1参考图像,则由下面的公式计算B帧的直接模式运动矢量MVF和MVB,其中只用序列1参考帧的场1中的相同位置块的运动信息来计算直接模式运动矢量:
MVF=TDB×MV1/TDD,1
MVB=(TDB-TDD,1)×MV1/TDD,1
或者
Z=TDB×256/TDD,1 MVF=(Z×MV1+128)>>8
W=Z-256 MVB=(W×MV1+128)>>8
其中,TDB表示当前B帧和序列0参考帧之间的时间距离,TDD,1表示序列1参考帧的场1和序列0参考场之间的时间距离,MV1表示直接模式序列1参考帧的场1中相同位置块的运动矢量。
另外,上述步骤可以包括如下步骤:如果B图像的宏块处于帧模式,序列1参考图像的相同位置宏块处于场模式,而直接模式序列0参考图像在时间上落后于序列1参考图像,则由下面的公式计算B帧的直接模式运动矢量MVF和MVB,其中使用序列1参考帧的场1中的相同位置块的运动信息来计算直接模式运动矢量:
MVF=-TDB×MV1/TDD,1
MVB=-(TDB,+TDD,1)×MV1/TDD,1
或者
Z=-TDB×256/TDD,1 MVF=(Z×MV1+128)>>8
W=Z-256 MVB=(W×MV1+128)>>8
其中,TDB表示当前B帧和序列0参考帧之间的时间距离,TDD,1表示序列1参考帧的场1和序列0参考场之间的时间距离,MV1表示直接模式序列1参考帧的场1中相同位置块的运动矢量。
根据本发明的另外一个方面,提供了一种在运动图像编码***中,用于计算B(双向预测)图像的直接模式运动矢量的方法,以提取B图像的直接模式运动矢量,该方法包括如下步骤:如果直接模式序列0参考图像和序列1参考图像均在时间上落后于B图像,则对直接模式序列1参考图像中的相同位置块的运动矢量进行缩放,以得到序列0运动矢量MVF和序列1运动矢量MVB,并且计算B图像的直接模式运动矢量。
优选地,上述步骤可以包括如下步骤:如果B图像的宏块和序列1参考图像的相同位置宏块处于帧模式,而直接模式序列0参考图像在时间上落后于序列1参考图像,则按照下面的公式计算B图像的直接模式运动矢量MVF和MVB:
MVF=TDB×MV/TDD
MVB=(TDB-TDD)×MV/TDD
或者
Z=TDB×256/TDD MVF=(Z×MV+128)>>8
W=Z-256 MVB=(W×MV+128)>>8
其中,TDB表示当前B帧和序列0参考帧之间的时间距离,TDD表示序列1参考帧和序列0参考帧之间的时间距离,MV表示直接模式序列1参考图像中相同位置块的运动矢量。
另外,上述步骤可以包括如下步骤:如果B图像的宏块和序列1参考图像的相同位置宏块都处于帧模式,而直接模式序列0参考图像在时间上超前于序列1参考图像,则按照下面的公式计算B图像的直接模式运动矢量MVF和MVB:
MVF=-TDB×MV/TDD
MVB=-(TDB+TDD)×MV/TDD
或者
Z=-TDB×256/TDD MVF=(Z×MV+128)>>8
W=Z-256 MVB=(W×MV+128)>>8
其中,TDB表示当前B帧和序列0参考帧之间的时间距离,TDD表示序列1参考帧和序列0参考帧之间的时间距离,MV表示直接模式序列1参考图像中相同位置块的运动矢量。
另外,上述步骤可以包括如下步骤:如果B图像的宏块和序列1参考图像的相同位置宏块都处于场模式,而直接模式序列0参考图像在时间上落后于序列1参考图像,则按照下面的公式计算B帧各个场的直接模式运动矢量MVF,i和MVB,i:
MVF,i=TDB,i MVi/TDD,i
MVB,i=(TDB,i-TDD,i)×MVi/TDD,i
或者
Z=TDB,i×256/TDD,i MVF,i=(Z×MVi+128)>>8
W=Z-256 MVB,i=(W×MVi+128)>>8
其中,TDB,i表示当前B场和序列0参考场之间的时间距离,TDD,i表示序列1参考场和序列0参考场之间的时间距离,MVi表示直接模式序列1参考场中相同位置块的运动矢量。
另外,上述步骤可以包括如下步骤:如果B图像的宏块和序列1参考图像的相同位置宏块都处于场模式,而直接模式序列0参考图像在时间上超前于序列1参考图像,则按照下面的公式计算B帧各个场的直接模式运动矢量MVF,i和MVB,i:
MVF,i=-TDB,i×MVi/TDD,i
MVB,i=-(TDB,i+TDD,i)×MVi/TDD,i
或者
Z=-TDB,i×256/TDD,i MVF,i=(Z×MVi+128)>>8
W=Z-256 MVB,i=(W×MVi+128)>>8
其中,TDB,i表示当前B场和序列0参考场之间的时间距离,TDD,i表示序列1参考场和序列0参考场之间的时间距离,MVi表示直接模式序列1参考场中相同位置块的运动矢量。
另外,上述步骤可以包括如下步骤:如果B图像的宏块处于场模式,序列1参考图像的相同位置宏块处于帧模式,而直接模式序列0参考图像在时间上落后于序列1参考图像,则按照下面的公式计算B帧各个场的直接模式运动矢量MVF,i和MVB,i:
MVF,i=TDB,i×MV/TDD
MVB,i=(TDB,i-TDD)×MV/TDD
或者
Z=TDB,i×256/TDD MVF,i=(Z×MV+128)>>8
W=Z-256 MVB,i=(W×MV+128)>>8
其中,TDB,i表示当前B场和序列0参考场之间的时间距离,TDD表示序列1参考帧和序列0参考帧之间的时间距离,MV表示直接模式序列1参考帧中相同位置块的运动矢量。
另外,上述步骤可以包括如下步骤:如果B图像的宏块处于场模式,序列1参考图像的相同位置宏块处于帧模式,而直接模式序列0参考图像在时间上超前于序列1参考图像,则按照下面的公式计算B帧各个场的直接模式运动矢量MVF,i和MVB,i:
MVF,i=-TDB,i×MV/TDD
MVB,i=-(TDB,i+TDD)×MV/TDD
或者
Z=-TDB,i×256/TDD MVF,i=(Z×MV+128)>>8
W=Z-256 MVB,i=(W×MV+128)>>8
其中,TDB,i表示当前B场和序列0参考场之间的时间距离,TDD表示序列1参考帧和序列0参考帧之间的时间距离,MV表示直接模式序列1参考帧中相同位置块的运动矢量。
另外,上述步骤可以包括如下步骤:如果B图像的宏块处于帧模式,而序列1参考图像的相同位置宏块处于场模式,而直接模式序列0参考图像在时间上落后于序列1参考图像,则由下面的公式计算B帧的直接模式运动矢量MVF和MVB,其中使用序列1参考帧的场0中的相同位置块的运动信息来计算直接模式运动矢量:
MVF=TDB×MV0/TDD,0
MVB=(TDB-TDD,0)×MV0/TDD,0
或者
Z=TDB×256/TDD,0 MVF=(Z×MV0+128)>>8
W=Z-256 MVB=(W×MV0+128)>>8
其中,TDB表示当前B帧和序列0参考帧之间的时间距离,TDD,0表示序列1参考帧的场0和序列0参考场之间的时间距离,MV0表示直接模式序列1参考帧的场0中相同位置块的运动矢量。
另外,上述步骤可以包括如下步骤:如果B图像的宏块处于帧模式,而序列1参考图像的相同位置宏块处于场模式,而直接模式序列0参考图像在时间上超前于序列1参考图像,则由下面的公式计算B帧的直接模式运动矢量MVF和MVB,其中使用序列1参考帧的场0中的相同位置块的运动信息来计算直接模式运动矢量:
MVF=-TDB×MV0/TDD,0
MVB=-(TDB+TDD,0)×MV0/TDD,0
或者
Z=-TDB×256/TDD,0 MVF=(Z×MV0+128)>>8
W=Z-256 MVB=(W×MV0+128)>>8
其中,TDB表示当前B帧和序列0参考帧之间的时间距离,TDD,0表示序列1参考帧的场0和序列0参考场之间的时间距离,MV0表示直接模式序列1参考帧的场0中相同位置块的运动矢量。
根据本发明的另外一个方面,提供了一种在运动图像编码***中,用于计算B(双向预测)图像的直接模式运动矢量的方法,以提取B图像的直接模式运动矢量,该方法包括如下步骤:为图像间时间距离值指定符号,与直接模式的序列0和序列1参考图像的位置无关地,对直接模式序列1参考图像中相同位置块的运动矢量进行缩放,以得到序列0运动矢量MVF和序列1运动矢量MVB,并且计算B图像的直接模式运动矢量。
优选地,上述步骤可以包括如下步骤:如果B图像宏块和序列1参考图像的相同位置宏块都处于帧模式,则按照下面的公式计算B图像的直接模式运动矢量MVF和MVB:
MVF=TDB×MV/TDD
MVB=(TDB-TDD)×MV/TDD
或者
Z=TDB×256/TDD MVF=(Z×MV+128)>>8
W=Z-256 MVB=(W×MV+128)>>8
其中,TDB表示当前B帧和序列0参考帧之间的时间距离,如果从B帧进行测量,则指定为正(+)号,如果从序列0参考帧进行测量,则指定为负(-)号,TDD表示序列1参考帧和序列0参考帧之间的时间距离,如果从序列1参考帧进行测量,则指定为正(+)号,如果从序列0参考帧进行测量,则指定为负(-)号,MV表示直接模式序列1参考图像中相同位置块的运动矢量。
另外,上述步骤可以包括如下步骤:如果B图像宏块和序列1参考图像的相同位置宏块都处于场模式,则按照下面的公式计算B帧各个场的直接模式运动矢量MVF,i和MVB,i:
MVF,i=TDB,i×MVi/TDD,i
MVB,i=(TDB,i-TDD,i)×MVi/TDD,i
或者
Z=TDB,i×256/TDD,i MVF,i=(Z×MVi+128)>>8
W=Z-256 MVB,i=(W×MVi+128)>>8
其中,TDB,i表示当前B场和序列0参考场之间的时间距离,如果从B场进行测量,则指定为正(+)号,如果从序列0参考场进行测量,则指定为负(-)号,TDD,i表示序列1参考场和序列0参考场之间的时间距离,如果从序列1参考场进行测量,则指定为正(+)号,如果从序列0参考场进行测量,则指定为负(-)号,MVi表示直接模式序列1参考场中相同位置块的运动矢量。
另外,上述步骤可以包括如下步骤:如果B图像的宏块处于场模式,而序列1参考图像的相同位置宏块处于帧模式,则按照下面的公式计算B帧各个场的直接模式运动矢量MVF,i和MVB,i:
MVF,i=TDB,i×MV/TDD
MVB,i=(TDB,i-TDD)×MV/TDD
或者
Z=TDB,i×256/TDD MVF,i=(Z×MV+128)>>8
W=Z-256 MVB,i=(W×MV+128)>>8
其中,TDB,i表示当前B场和序列0参考场之间的时间距离,如果从B场进行测量,则指定为正(+)号,如果从序列0参考场进行测量,则指定为负(-)号,TDD表示序列1参考帧和序列0参考帧之间的时间距离,如果从序列1参考帧进行测量,则指定为正(+)号,如果从序列0参考帧进行测量,则指定为负(-)号,MV表示直接模式序列1参考帧中相同位置块的运动矢量。
另外,上述步骤可以包括如下步骤:如果B图像的宏块处于帧模式,序列1参考图像的相同位置宏块处于场模式,而序列1参考图像在时间上落后于B图像,则由下面的公式计算B帧的直接模式运动矢量MVF和MVB,其中使用序列1参考帧的场1中的相同位置块的运动信息来计算所述的直接模式运动矢量:
MVF=TDB×MV0/TDD,0
MVB=(TDB-TDD,0)×MV0/TDD,0
或者
Z=TDB×256/TDD,0 MVF=(Z×MV0+128)>>8
W=Z-256 MVB=(W×MV0+128)>>8
其中,TDB表示当前B帧和序列0参考帧之间的时间距离,如果从B帧进行测量,则指定为正(+)号,如果从序列0参考场进行测量,则指定为负(-)号,TDD,0表示序列1参考帧的场0和序列0参考场之间的时间距离,如果从序列1参考帧的场0进行测量,则指定为正(+)号,如果从序列0参考场进行测量,则指定为负(-)号,MV0表示直接模式序列1参考帧的场0中相同位置块的运动矢量。
另外,上述步骤可以包括如下步骤:如果B图像的宏块处于帧模式,序列1参考图像的相同位置宏块处于场模式,而直接模式序列0参考图像在时间上超前于所述的B图像,则由下面的公式计算B帧的所述直接模式运动矢量MVF和MVB,其中使用序列1参考帧的场1中的相同位置块的运动信息来计算所述的直接模式运动矢量:
MVF=TDB×MV1/TDD,1
MVB=(TDB-TDD,1)×MV1/TDD,1
或者
Z=TDB×256/TDD,1 MVF=(Z×MV1+128)>>8
W=Z-256 MVB=(W×MV1+128)>>8
其中,TDB表示当前B帧和序列0参考帧之间的时间距离,如果从B帧进行测量,则指定为正(+)号,如果从序列0参考帧进行测量,则指定为负(-)号,TDD,1表示序列1参考帧的场1和序列0参考场之间的时间距离,如果从序列1参考帧的场1进行测量,则指定为正(+)号,如果从序列0参考场进行测量,则指定为负(-)号,MV1表示直接模式序列1参考帧的场1中相同位置块的运动矢量。
根据本发明的另外一个方面,提供了一种在运动图像编码***中,用于计算B(双向预测)图像的直接模式运动矢量的方法,以提取B图像的直接模式运动矢量,该方法包括如下步骤:如果直接模式序列1参考图像的相同位置宏块处于帧内模式,则基于空间冗余,从所要编码的B图像的宏块的相邻块中,预测和计算序列0和序列1参考图像和运动矢量,并且计算B图像的直接模式运动矢量。
优选地,上述步骤可以包括如下步骤:如果所要编码的所述宏块的相邻块A,B和C涉及不同的参考图像,则选择具有最小索引的参考图像作为各个序列的参考图像。
另外,上述步骤可以包括如下步骤:如果所要编码的所述宏块的相邻块中,两个或多个相邻块涉及具有相同索引的参考图像,则选择该参考图像作为各个序列的参考图像。
另外,上述步骤可以包括如下步骤:如果所要编码的所述宏块的相邻块A,B和C处于帧内模式,则将其序列0和序列1运动矢量设定为0;在相邻块中,选择具有和各个序列的参考图像的时间位置相同方向的运动矢量;并且通过中值操作,获得各个序列的运动矢量,或者如果相邻块具有方向相同的两个运动矢量,则从该块的两个运动矢量中仅选择一个,并且通过包含所选择的运动矢量在内的中值操作,获得各个序列的运动矢量。
另外,上述步骤可以包括如下步骤:如果不能获得各个序列模式的有效参考图像索引,则将序列0和序列1参考图像索引指定为0,并且将各个序列模式的运动矢量设定为0。
附图说明
附图帮助更好地理解本发明,并在此结合构成本申请的一部分,附图说明本发明的实施例并和说明书一起解释本发明的原理,附图中:
图1a到1c显示的是在传统的IBBBP模式中,直接模式的序列1参考图像;
图2a到2c显示的是在普通的IBBB模式中,直接模式的序列1参考图像;
图3a到3h显示的是直接模式序列1参考图像在时间上落后于B图像时的情况(L0 MV:序列0运动矢量,L1 MV:序列1运动矢量);
图4a到4h显示的是直接模式序列1参考图像在时间上超前于B图像时的情况(L0 MV:序列0运动矢量,L1 MV:序列1运动矢量);
图5显示的是在考虑普通的空间冗余时,使用相邻块A,B和C的运动矢量的块E运动矢量预测;
图6a到6c显示的是当B图像的宏块和直接模式序列1参考图像的相同位置宏块均处于帧模式,并且序列1参考图像在时间上落后于B图像时的情况;
图7a到7d显示的是当B图像的宏块和直接模式序列1参考图像的相同位置宏块均处于场模式,并且序列1参考图像在时间上落后于B图像时的情况;
图8a到8c显示的是当B图像的宏块处于场模式,直接模式序列1参考图像的相同位置宏块处于帧模式,并且序列1参考图像在时间上落后于B图像时的情况;
图9a到9c显示的是当B图像的宏块处于帧模式,直接模式序列1参考图像的相同位置宏块处于场模式,并且序列1参考图像在时间上落后于B图像时的情况;
图10a到10b显示的是当B图像的宏块和直接模式序列1参考图像的相同位置宏块均处于帧模式,并且序列1参考图像在时间上超前于B图像时的情况;
图11a到11d显示的是当B图像的宏块和直接模式序列1参考图像的相同位置宏块均处于场模式,并且序列1参考图像在时间上超前于B图像时的情况;
图12a到12b显示的是当B图像的宏块处于场模式,普通直接模式序列1参考图像的相同位置宏块处于帧模式,并且序列1参考图像在时间上超前于B图像时的情况;
图13a到13c显示的是当B图像的宏块处于帧模式,普通直接模式序列1参考图像的相同位置宏块处于场模式,并且序列1参考图像在时间上超前于B图像时的情况。
优选实施例详细说明
本发明提出了一种当直接模式序列1参考图像中的相同位置宏块处于帧内模式时,用于计算直接模式运动矢量的方法,以及在序列1参考图像在时间上落后于B图像的情况下,和在序列1参考图像在时间上超前于B图像的情况下,用于计算直接模式运动矢量的方法。
本发明还提出了一种与直接模式序列0和序列1参考图像的位置无关地计算直接模式运动矢量的方法,其通过为图像间时间距离值指定符号而简化了计算直接模式运动矢量的算法。
另一方面,在图像的级别上进行帧模式和场模式的转换,从而能够将B图像和序列1参考图像编码成为帧模式或者场模式。结果,B图像的宏块和序列1参考图像的相同位置宏块具有四种类型的帧/场编码组合。
[1]序列1参考图像的相同位置宏块处于帧内模式的情况
如图3f和4f所示,不管参考图像的时间位置,直接模式序列1参考图像中的相同位置宏块可以处于帧内模式。由于在此模式下的宏块没有运动信息,所以传统的方法只是简单地将直接模式运动矢量设置为0,而将序列0参考图像定义为最新解码的图像。然而,传统的方法不能保证很高的编码效率。因此,本发明基于空间冗余,从所要编码的B图像的宏块的相邻块中,对序列0和序列1参考图像和运动矢量进行预测和计算。
以下面的方式获得各个序列模式的参考图像索引。图5显示的是在考虑普通的空间冗余时,使用相邻块A,B和C的块E运动矢量预测。
——如果相邻块A,B和C具有不同的参考图像索引,则将参考图像索引中最小的一个确定为直接模式参考图像索引。
——如果相邻块中的两个具有相同的参考图像索引,则将此索引确定为直接模式参考图像索引。
——如果所有的相邻块具有相同的参考图像索引,则将此索引确定为直接模式参考图像索引。
另外,通过下面的运动矢量预测而获得各个序列模式的运动矢量。此时,如果相邻块A、B和C中的任何一个处于帧内模式,则将其序列0和序列1运动矢量设定为0。
——从相邻块中,选择具有与如上得到的各个序列模式的参考图像的时间位置方向相同的运动矢量,并且通过中值操作获得各个序列模式的运动矢量。
——如果相邻块具有方向相同的两个运动矢量,则在该块中仅选择两个运动矢量中的一个,并且进行中值操作。
另一方面,如果不能从相邻块中得到任何一个有效的序列0和序列1参考图像索引,则将其设定为0,并且将各个序列模式的运动矢量设定为0。
[2]直接模式序列1参考图像时间上落后于B图像
第1种情况:B图像的宏块和序列1参考图像的相同位置宏块均处于帧模式
如图3a到3h所示,序列1参考图像的相同位置块可以具有一个运动矢量或者两个运动矢量。在本发明中,如果相同位置块具有两个运动矢量,则选择两个运动矢量中的一个(L0 MV或者L1 MV),并且由所选择的运动矢量得到直接模式运动矢量(下文中根据选择L0MV(序列0运动矢量)的情况进行描述)。
因此,可以分别将图3a和3c简化为图6a,将图3b,3d和3e简化为图6c,将图3g和3h简化为图6b。
如果直接模式序列0参考图像和序列1参考图像分别在时间上超前于或者落后于B图像(图6a),或者如果直接模式的序列0和序列1参考图像在时间上都落后于B图像,且序列0参考图像在时间上落后于序列1参考图像(图6b),则按照下面的公式计算直接模式运动矢量MVF和MVB:
MVF=TDB×MV/TDD
MVB=(TDB-TDD)×MV/TDD
其中,TDB表示当前B帧和序列0参考帧之间的时间距离,TDD表示序列1参考帧和序列0参考帧之间的时间距离。
为了方便,对直接模式运动矢量MVF和MVB的计算结果进行位操作,则上述公式表示为:
Z=TDB×256/TDD MVF=(Z×MV+128)>>8
W=Z-256 MVB=(W×MV+128)>>8
如果直接模式序列0和序列1参考图像均在时间上落后于B图像,而序列0参考图像在时间上超前于序列1参考图像(图6c),则按照下面的公式计算直接模式运动矢量:
MVF=-TDB×MV/TDD
MVB=-(TDB+TDD)×MV/TDD
此公式可以表示如下:
Z=-TDB×256/TDD MVF=(Z×MV+128)>>8
W=Z-256 MVB=(W×MV+128)>>8
第2种情况:B图像的宏块和序列1参考图像的相同位置宏块均处于场模式
图7a到7d显示的是B图像的宏块和序列1参考图像的相同位置宏块均处于场模式的情况。由相同奇偶性的序列1参考场中的相同位置块的运动矢量,得到B图像的宏块的各个运动矢量。
如果直接模式序列0和序列1参考图像分别在时间上超前或者落后于B图像(图7a),或者如果直接模式序列0和序列1参考图像在时间上均落后于B图像,而序列0参考图像在时间上落后于序列1参考图像(图7b),则按照下面的公式计算B帧的各个场i的直接模式序列0和序列1运动矢量MVF,i和MVB,i(i=0表示第1个场,i=1表示第2个场):
MVF,i=TDB,i×MVi/TDD,i
MVB,i=(TDB,i-TDD,i)×MVi/TDD,i
其中,MVi表示在序列1参考帧中,场i的相同位置块的运动矢量,TDB,i表示当前B场和序列0参考场之间的时间距离,而TDD,i表示序列1参考场和序列0参考场之间的时间距离。
上面的公式可以表示如下:
Z=TDB,i×256/TDD,i MVF,i=(Z×MVi+128)>>8
W=Z-256 MVB,i=(W×MVi+128)>>8
如果,因为序列1参考帧中的场i的相同位置块的运动矢量指向一个在时间上落后于B图像的帧中的场,所以直接模式序列0和序列1参考图像均在时间上落后于B图像,且序列0参考图像在时间上超前于序列1参考图像(图7c和7d),则按照下面的公式计算直接模式序列0和序列1运动矢量MVF,i和MVB,i:
MVF,i=-TDB,i×MVi/TDD,i
MVB,i=-(TDB,i+TDD,i)×MVi/TDD,i
上面的公式可以表示如下:
Z=-TDB,i×256/TDD,i MVF,i=(Z×MVi+128)>>8
W=Z-256 MVB,i=(W×MVi+128)>>8
第3种情况:B图像的宏块处于场模式,而序列1参考图像的相同位置宏块处于帧模式
图8a到8c显示的是B图像的宏块处于场模式,而序列1参考图像的相同位置宏块处于帧模式的情况。此处,设当前宏块的纵坐标为ycurrent,设序列1参考图像的相同位置宏块的纵坐标为yco-located,在两个坐标之间建立yco-located=2×ycurrent的关系。另外,在相同奇偶性的序列0和序列1参考帧中分别出现序列0和序列1参考场。
如果直接模式序列0和序列1参考图像分别在时间上超前于和落后于B图像(图8a),或者如果直接模式序列0和序列1参考图像在时间上均落后于B图像,且序列0参考图像在时间上落后于序列1参考图像(图8b),则按照下面的公式计算B帧的各个场i的直接模式序列0和序列1运动矢量MVF,i和MVB,i:
MVF,i=TDB,i×MV/TDD
MVB,i=(TDB,i-TDD)×MV/TDD
上面的公式可以表示如下:
Z=TDB,i×256/TDD MVF,i=(Z×MV+128)>>8
W=Z-256 MVB,i=(W×MV+128)>>8
如果,由于序列1参考图像中的相同位置块的运动矢量指向一个在时间上落后于B图像的帧,所以直接模式序列0和序列1参考图像均在时间上落后于B图像,且序列0参考图像在时间上超前于序列1参考图像(图8c),则按照下面的公式计算B帧各个场i的直接模式序列0和序列1运动矢量MVF,i和MVB,i:
MVF,i=-TDB,i×MV/TDD
MVB,i=-(TDB,i-TDD)×MV/TDD
上面的公式可以表示如下:
Z=-TDB,i×256/TDD MVF,i=(Z×MV+128)>>8
W=Z-256 MVB,i=(W×MV+128)>>8
其中,TDB,i表示当前B场和序列0参考场之间的时间距离,TDD表示序列1参考帧和序列0参考帧之间的时间距离,而MV表示直接模式序列1参考帧中相同位置块的运动矢量。
第4种情况:B图像宏块处于帧模式,而序列1参考图像的相同位置宏块处于场模式
图9a到9c显示的是B图像宏块处于帧模式,而序列1参考图像的相同位置宏块处于场模式的情况。此处,设当前宏块的纵坐标为ycurrent,设序列1参考图像的相同位置宏块的纵坐标为yco-located,在两个坐标之间建立yco-located=ycurrent/2的关系。另外,由于序列1参考帧的场0在时间上比场1更接近于B图像,所以使用场0的相同位置块的运动信息来计算直接模式运动矢量。
如果直接模式序列0和序列1参考图像分别在时间上超前于和落后于B图像(图9a),或者如果直接模式序列0和序列1参考图像在时间上均落后于B图像,且序列0参考图像在时间上落后于序列1参考图像(图9b),则按照下面的公式计算B帧的直接模式序列0和序列1运动矢量MVF和MVB:
MVF=TDB×MV0/TDD,0
MVB=(TDB-TDD,0)×MV0/TDD,0
上面的公式可以表示如下:
Z=TDB×256/TDD,0 MVF=(Z×MV0+128)>>8
W=Z-256 MVB=(W×MV0+128)>>8
如果,由于序列1参考帧的场0的相同位置块的运动矢量指向在时间上落后于B图像的帧中的一个场,所以直接模式序列0和序列1参考图像均在时间上落后于B图像,且序列0参考图像在时间上超前于序列1参考图像(图9c),则按照下面的公式计算B帧各个场i的直接模式序列0和序列1运动矢量MVF和MVB:
MVF=-TDB×MV0/TDD,0
MVB=-(TDB+TDD,0)×MV0/TDD,0
上面的公式可以表示如下:
Z=-TDB×256/TDD,0 MVF=(Z×MV0+128)>>8
W=Z-256 MVB=(W×MV0+128)>>8
其中,TDB表示当前B帧和序列0参考帧之间的时间距离,TDD,0表示序列1参考帧的场0和序列0参考场之间的时间距离,而MV0表示直接模式序列1参考帧的场0中相同位置块的运动矢量。
[3]直接模式序列1参考图像在时间上超前于B图像
在此情况下,序列0和序列1参考图像均在时间上超前于B图像。
第1种情况:B图像的宏块和序列1参考图像的相同位置宏块均处于帧模式
如图4a到4h所示,序列1参考图像中的相同位置块可以具有一个或者两个运动矢量。在本发明中,如果相同位置块具有两个运动矢量,则选择两个运动矢量中的一个(L0 MV或者L1 MV),并且由所选择的运动矢量得到直接模式运动矢量(在下文中,基于选择了L0 MV(序列0运动矢量)的情况进行描述)。
因此,可以分别将图4a,4c,4e,4g和4h简化为图10a,将图4b和4d简化为图10b。
如果直接模式序列0参考图像在时间上超前于直接模式序列1参考图像,则按照下面的公式计算直接模式运动矢量MVF和MVB(图10a):
MVF=TDB×MV/TDD
MVB=(TDB-TDD)×MV/TDD
其中,TDB表示当前B帧和序列0参考帧之间的时间距离,TDD表示序列1参考帧和序列0参考帧之间的时间距离,MV表示直接模式序列1参考图像中相同位置块的运动矢量。
上面的公式可以表示如下:
Z=TDB×256/TDD MVF=(Z×MV+128)>>8
W=Z-256 MVB=(W×MV+128)>>8
如果序列0参考图像在时间上落后于序列1参考图像,则按照如下公式计算直接模式运动矢量MVF和MVB(图10b):
MVF=-TDB×MV/TDD
MVB=-(TDB+TDD)×MV/TDD
该公式可以表示如下:
Z=-TDB×256/TDD MVF=(Z×MV+128)>>8
W=Z-256 MVB=(W×MV+128)>>8
其中,TDB表示当前B帧和序列0参考帧之间的时间距离,TDD表示序列1参考帧和序列0参考帧之间的时间距离,MV表示直接模式序列1参考图像中相同位置块的运动矢量。
第2种情况:B图像的宏块和序列1参考图像的相同位置宏块均处于场模式
如果直接模式序列0参考图像在时间上超前于直接模式序列1参考图像,则按照下面的公式计算B帧各个场i的直接模式序列0和序列1运动矢量MVF,i和MVB,I(图11a和11b):
MVF,i=TDB,i×MVi/TDD,i
MVB,i=(TDB,i-TDD,i)×MVi/TDD,i
上面的公式可以表示如下:
Z=TDB,i×256/TDD,i MVF,i=(Z×MVi+128)>>8
W=Z-256 MVB,i=(W×MVi+128)>>8
其中TDB,i表示当前B场和序列0参考场之间的时间距离,TDD,i表示序列1参考场和序列0参考场之间的时间距离,MV;表示直接模式序列1参考场中相同位置块的运动矢量。
如果,因为序列1参考帧中的场i的相同位置块的运动矢量指向时间上落后的帧中的一个场,所以序列0参考图像在时间上超前于序列1参考图像,则按照如下公式计算直接模式序列0和序列1运动矢量MVF,i和MVB,i(图11c和11d):
MVF,i=-TDB,i×MVi/TDD,i
MVB,i=-(TDB,i+TDD,i)×MVi/TDD,i
上面的公式可以表示如下:
Z=-TDB,i×256/TDD,i MVF,i=(Z×MVi+128)>>8
W=Z-256 MVB,i=(W×MVi+128)>>8
其中TDB,i表示当前B场和序列0参考场之间的时间距离,TDD,i表示序列1参考场和序列0参考场之间的时间距离,MVi表示直接模式序列1参考场中相同位置块的运动矢量。
第3种情况:B图像的宏块处于场模式,而序列1参考图像的相同位置宏块处于帧模式
如果直接模式序列0参考图像在时间上超前于直接模式序列1参考图像,则按照下面的公式计算B帧各个场i的直接模式序列0和序列1运动矢量MVF,i和MVB,I(图12a):
MVF,i=TDB,i×MV/TDD
MVB,i=(TDB,i-TDD)×MV/TDD
上面的公式可以表示如下:
Z=TDB,i×256/TDD MVF,i=(Z×MV+128)>>8
W=Z-256 MVB,i=(W×MV+128)>>8
其中,TDB,i表示当前B场和序列0参考场之间的时间距离,TDD表示序列1参考帧和序列0参考帧之间的时间距离,MV表示直接模式序列1参考帧中相同位置块的运动矢量。
如果,因为序列1参考帧中的相同位置块的运动矢量指向一个时间上落后的帧,所以序列0参考图像在时间上落后于序列1参考图像,则按照如下公式计算B帧各个场i的直接模式序列0和序列1运动矢量MVF,i和MVB,i(图12b):
MVF,i=-TDB,i×MV/TDD
MVB,i=-(TDB,i+TDD)×MV/TDD
上面的公式可以表示如下:
Z=-TDB,i×256/TDD MVF,i=(Z×MV+128)>>8
W=Z-256 MVB,i=(W×MV+128)>>8
其中,TDB,i表示当前B场和序列0参考场之间的时间距离,TDD表示序列1参考帧和序列0参考帧之间的时间距离,MV表示直接模式序列1参考帧中相同位置块的运动矢量。
第4种情况:B图像的宏块处于帧模式,而序列1参考图像的相同位置宏块处于场模式:
因为序列1参考帧的场1 f1比场0 f0在时间上更接近于B图像,所以使用场1 f1的相同位置块的运动信息来计算直接模式运动矢量。
如果直接模式序列0参考图像在时间上超前于直接模式序列1参考图像,则按照下面的公式计算B帧各个场i的直接模式序列0和序列1运动矢量MVF和MVB(图13a):
MVF=TDB×MV1/TDD,1
MVB=(TDB-TDD,1)×MV1/TDD,1
上面的公式可以表示如下:
Z=TDB×256/TDD,1 MVF=(Z×MV1+128)>>8
W=Z-256 MVB=(W×MV1+128)>>8
其中,TDB表示当前B帧和序列0参考帧之间的时间距离,TDD,1表示序列1参考图像的场1和序列0参考场之间的时间距离,而MV1表示直接模式序列1参考帧的场1中相同位置块的运动矢量。
如果,因为序列1参考帧的场1 f1的相同位置块的运动矢量指向时间上落后的帧中的一个场,所以序列0参考图像在时间上落后于序列1参考图像,则按照下面的公式计算直接模式序列0和序列1运动矢量MVF和MVB(图13b):
MVF=-TDB×MV1/TDD,1
MVB=-(TDB+TDD,1)×MV1/TDD,1
上面的公式可以表示如下:
Z=-TDB×256/TDD,1 MVF=(Z×MV1+128)>>8
W=Z-256 MVB=(W×MV1+128)>>8
其中,TDB表示当前B帧和序列0参考帧之间的时间距离,TDD,1表示序列1参考图像的场1和序列0参考场之间的时间距离,而MV1表示直接模式序列1参考帧的场1中相同位置块的运动矢量。
[4]通过为图像间时间距离值指定符号而计算直接模式运动矢量的情况
对于直接模式序列1参考图像在时间上超前或者落后于B图像的情况,对各种情况均给出了两种类型的算法。此算法可以简单地表示为向图像间时间距离值指定符号,如下所示。
第1种情况:B图像的宏块和序列1参考图像的相同位置宏块均处于帧模式
如果B图像的宏块和序列1参考图像的相同位置宏块均处于帧模式,则按照下面的公式计算直接模式运动矢量MVF和MVB:
MVF=TDB×MV/TDD
MVB=(TDB-TDD)×MV/TDD
或者
Z=TDB×256/TDD MVF=(Z×MV+128)>>8
W=Z-256 MVB=(W×MV+128)>>8
其中,TDB表示当前B帧和序列0参考帧之间的时间距离,如果从B帧进行测量,则指定为正(+)号,如果从序列0参考帧进行测量,则指定为负(-)号,TDD表示序列1参考帧和序列0参考帧之间的时间距离,如果从序列1参考帧进行测量,则指定为正(+)号,如果从序列0参考帧进行测量,则指定为负(-)号,MV表示直接模式序列1参考图像中相同位置块的运动矢量。
第2种情况:B图像的宏块和序列1参考图像的相同位置宏块均处于场模式
如果B图像的宏块和序列1参考图像的相同位置宏块均处于场模式,则按照下面的公式计算B帧各个场的直接模式运动矢量MVF,i和MVB,i:
MVF,i=TDB,i×MVi/TDD,i
MVB,i=(TDB,i-TDD,i)×MVi/TDD,i
或者
Z=TDB,i×256/TDD,i MVF,i=(Z×MVi+128)>>8
W=Z-256 MVB,i=(W×MVi+128)>>8
其中,TDB,i表示当前B场和序列0参考场之间的时间距离,如果从B场进行测量,则指定为正(+)号,如果从序列0参考场进行测量,则指定为负(-)号,TDD,i表示序列1参考场和序列0参考场之间的时间距离,如果从序列1参考场进行测量,则指定为正(+)号,如果从序列0参考场进行测量,则指定为负(-)号,MVi表示直接模式序列1参考场中相同位置块的运动矢量。
第3种情况:B图像的宏块处于场模式,序列1参考图像的相同位置宏块处于帧模式
如果B图像的宏块处于场模式,而序列1参考图像的相同位置宏块处于帧模式,则按照下面的公式计算B帧各个场的直接模式运动矢量MVF,i和MVB,i;
MVF,i=TDB,i×MV/TDD
MVB,i=(TDB,i-TDD)×MV/TDD
或者
Z=TDB,i×256/TDD MVF,i=(Z×MV+128)>>8
W=Z-256 MVB,i=(W×MV+128)>>8
其中,TDB,i表示当前B场和序列0参考场之间的时间距离,如果从B场进行测量,则指定为正(+)号,如果从序列0参考场进行测量,则指定为负(-)号,TDD表示序列1参考帧和序列0参考帧之间的时间距离,如果从序列1参考帧进行测量,则指定为正(+)号,如果从序列0参考帧进行测量,则指定为负(-)号,MV表示直接模式序列1参考帧中相同位置块的运动矢量。
第4种情况:B图像的宏块处于帧模式,序列1参考图像的相同位置宏块处于场模式
如果B图像的宏块处于帧模式,而序列1参考图像的相同位置宏块处于场模式,且序列1参考图像在时间上落后于B图像,序列1参考帧的场0比场1在时间上更接近于B图像,则使用场0的相同位置块的运动信息来计算直接模式运动矢量。从而,由下面的公式计算B帧的直接模式运动矢量MVF和MVB,其中使用序列1参考帧的场1中的相同位置块的运动信息来计算直接模式运动矢量:
MVF=TDB×MV0/TDD,0
MVB=(TDB-TDD,0)×MV0/TDD,0
或者
Z=TDB×256/TDD,0 MVF=(Z×MV0+128)>>8
W=Z-256 MVB=(W×MV0+128)>>8
其中,TDB表示当前B帧和序列0参考帧之间的时间距离,如果从B帧进行测量,则指定为正(+)号,如果从序列0参考场进行测量,则指定为负(-)号,TDD,0表示序列1参考帧的场0和序列0参考场之间的时间距离,如果从序列1参考帧的场0进行测量,则指定为正(+)号,如果从序列0参考场进行测量,则指定为负(-)号,MV0表示直接模式序列1参考帧的场0中相同位置块的运动矢量。
如果序列1参考图像在时间上超前于B图像,序列1参考帧的场1比其场0在时间上更接近于B图像,则使用场1的相同位置块的运动信息来计算直接模式运动矢量。从而,由下面的公式计算B帧的直接模式运动矢量MVF和MVB,其中使用序列1参考帧的场1中的相同位置块的运动信息来计算所述的直接模式运动矢量:
MVF=TDB×MV1/TDD,1
MVB=(TDB-TDD,1)×MV1/TDD,1
或者
Z=TDB×256/TDD,1 MVF=(Z×MV1+128)>>8
W=Z-256 MVB=(W×MV1+128)>>8
其中,TDB表示当前B帧和序列0参考帧之间的时间距离,如果从B帧进行测量,则指定为正(+)号,如果从序列0参考场进行测量,则指定为负(-)号,TDD,1表示序列1参考帧的场1和序列0参考场之间的时间距离,如果从序列1参考帧的场1进行测量,则指定为正(+)号,如果从序列0参考场进行测量,则指定为负(-)号,MV1表示直接模式序列1参考帧的场1中相同位置块的运动矢量。
从上面的描述中可以明晰,本发明提供了一种用于计算B(双向预测)图像的直接模式运动矢量的方法,这里的B图像是在下一代运动图像压缩技术中定义的。提出了一种用于计算B图像的直接模式运动矢量的技术,以提高将直接模式选择为宏块预测模式的概率,从而提高了B图像编码效率。
尽管说明性地公布了本发明的优选实施例,但是对于本领域技术人员而言,在不脱离所附权利要求书中限定的精神或本质特征的情况下,显然可以有各种替换、改进和变化。
Claims (37)
1.在运动图像编码***中,一种计算B(双向预测)图像的直接模式运动矢量,以提取B图像的直接模式运动矢量的方法,包括如下步骤:选择直接模式的序列1参考图像中的相同位置块的任何一个运动矢量作为运动矢量以得到所述直接模式运动矢量,而不论所述相同位置块的所述运动矢量的模式(序列0模式和/或序列1模式),将所选择的运动矢量所指向的参考图像确定为所述直接模式的序列0参考图像,并计算所述B图像的所述直接模式运动矢量。
2.在运动图像编码***中,一种计算B(双向预测)图像的直接模式运动矢量,以提取B图像的直接模式运动矢量的方法,包括如下步骤:如果直接模式序列1参考图像中的相同位置块仅具有一个序列1运动矢量,则使用所述的序列1运动矢量作为运动矢量以得到所述直接模式运动矢量,将所述序列1运动矢量所指向的参考图像确定为所述直接模式的序列0参考图像,并计算所述B图像的所述直接模式运动矢量。
3.在运动图像编码***中,一种计算B(双向预测)图像的直接模式运动矢量,以提取B图像的直接模式运动矢量的方法,包括如下步骤:如果直接模式的序列1参考图像中的相同位置块仅具有一个序列1运动矢量,则认为所述的相同位置块具有零运动,将在时间上紧接所述B图像之前的解码图像确定为所述直接模式的序列0参考图像,并得出所述B图像的所述直接模式运动矢量。
4.在运动图像编码***中,一种计算B(双向预测)图像的直接模式运动矢量,以提取B图像的直接模式运动矢量的方法,包括如下步骤:如果直接模式的序列1参考图像中的相同位置块仅具有一个序列1运动矢量,则使用所述相同位置块的所述序列1运动矢量作为运动矢量以得到所述直接模式运动矢量,将在时间上紧接所述B图像之前的解码图像确定为所述直接模式的序列0参考图像,并得出所述B图像的所述直接模式运动矢量。
5.在运动图像编码***中,一种计算B(双向预测)图像的直接模式运动矢量,以提取B图像的直接模式运动矢量的方法,包括如下步骤:如果直接模式的序列1参考图像中的相同位置块具有两个运动矢量,则选择所述两个运动矢量中的任意一个(序列0运动矢量或者序列1运动矢量),并由所选择的运动矢量得出所述B图像的所述直接模式运动矢量。
6.根据权利要求5所述的方法,其中,所述的步骤包括如下步骤:无论时间距离的大小,无条件地选择所述的序列0运动矢量作为运动矢量来得出所述直接模式运动矢量,将所述的序列0运动矢量所指向的参考图像确定为所述直接模式的序列0参考图像,并且得出所述B图像的所述直接模式运动矢量。
7.根据权利要求5所述的方法,其中,所述的步骤包括如下步骤:从所述的序列0和序列1运动矢量中,选择一个指向在时间上更接近于所述直接模式的所述序列1参考图像的图像的运动矢量,作为运动矢量来得出所述直接模式运动矢量,如果所述的两个运动矢量指向同一个参考图像,则选择所述的序列0运动矢量作为用于计算所述直接模式运动矢量的运动矢量,将所选择的运动矢量指向的参考图像确定为所述直接模式的序列0参考图像,并且计算所述B图像的所述直接模式运动矢量。
8.在运动图像编码***中,一种计算B(双向预测)图像的直接模式运动矢量,以提取B图像的直接模式运动矢量的方法,包括如下步骤:将最新解码的图像设定为直接模式的序列1参考图像,对所述直接模式序列1参考图像中的相同位置块的运动矢量进行缩放,以得出序列0运动矢量MVF和序列1运动矢量MVB,并且计算所述B图像的所述直接模式运动矢量。
9.在运动图像编码***中,一种计算B(双向预测)图像的直接模式运动矢量,以提取B图像的直接模式运动矢量的方法,包括如下步骤:如果直接模式的序列1参考图像在时间上超前于所述的B图像,则对所述直接模式序列1参考图像中的相同位置块的运动矢量进行缩放,以得出序列0运动矢量MVF和序列1运动矢量MVB,并且计算所述B图像的所述直接模式运动矢量。
10.根据权利要求9所述的方法,其中,所述的步骤包括如下步骤:如果所述B图像的宏块和所述序列1参考图像的相同位置宏块都处于帧模式,且所述直接模式的序列0参考图像在时间上超前于所述的序列1参考图像,则按照下面的公式计算所述B图像的所述直接模式运动矢量MVF和MVB:
MVF=TDB×MV/TDD
MVB=(TDB-TDD)×MV/TDD
或者
Z=TDB×256/TDD MVF=(Z×MV+128)>>8
W=Z-256 MVB=(W×MV+128)>>8
其中,TDB表示当前B帧和序列0参考帧之间的时间距离,TDD表示序列1参考帧和序列0参考帧之间的时间距离,MV表示所述直接模式的序列1参考图像中,所述相同位置块的运动矢量。
11.根据权利要求9所述的方法,其中,所述的步骤包括如下步骤:如果所述B图像的宏块和所述序列1参考图像的相同位置宏块处于帧模式,且所述直接模式的序列0参考图像在时间上落后于所述的序列1参考图像,则按照下面的公式计算所述B图像的所述直接模式运动矢量MVF和MVB:
MVF=-TDB×MV/TDD
MVB=-(TDB+TDD)×MV/TDD
或者
Z=-TDB×256/TDD MVF=(Z×MV+128)>>8
W=Z-256 MVB=(W×MV+128)>>8
其中,TDB表示当前B帧和序列0参考帧之间的时间距离,TDD表示序列1参考帧和序列0参考帧之间的时间距离,MV表示所述直接模式的序列1参考图像中,所述相同位置块的运动矢量。
12.根据权利要求9所述的方法,其中,所述的步骤包括如下步骤:如果所述B图像的宏块和所述序列1参考图像的相同位置宏块都处于场模式,且所述直接模式的序列0参考图像在时间上超前于所述的序列1参考图像,则按照下面的公式计算B帧各个场i的所述直接模式运动矢量MVF,i和MVB,i:
MVF,i=TDB,i×MVi/TDD,i
MVB,i=(TDB,i-TDD,i)×MVi/TDD,i
或者
Z=TDB,i×256/TDD,i MVF,i=(Z×MVi+128)>>8
W=Z-256 MVB,i=(W×MVi+128)>>8
其中,TDB,i表示当前B场和序列0参考场之间的时间距离,TDD,i表示序列1参考场和序列0参考场之间的时间距离,MVi表示所述直接模式的序列1参考场中相同位置块的运动矢量。
13.根据权利要求9所述的方法,其中,所述的步骤包括如下步骤:如果所述B图像的宏块和所述序列1参考图像的相同位置宏块都处于场模式,且所述直接模式的序列0参考图像在时间上落后于所述的序列1参考图像,则按照下面的公式计算B帧各个场i的所述直接模式运动矢量MVF,i和MVB,i:
MVF,i=-TDB,i×MVi/TDD,i
MVB,i=-(TDB,i+TDD,i)×MVi/TDD,i
或者
Z=-TDB,i×256/TDD,i MVF,i=(Z×MVi+128)>>8
W=Z-256 MVB,i=(W×MVi+128)>>8
其中,TDB,i表示当前B场和序列0参考场之间的时间距离,TDD,i表示序列1参考场和序列0参考场之间的时间距离,MVi表示所述直接模式的序列1参考场中,相同位置块的运动矢量。
14.根据权利要求9所述的方法,其中,所述的步骤包括如下步骤:如果所述B图像的宏块处于场模式,而所述序列1参考图像的相同位置宏块处于帧模式,且所述直接模式的序列0参考图像在时间上超前于所述的序列1参考图像,则按照下面的公式计算B帧各个场i的所述直接模式运动矢量MVF,i和MVB,i:
MVF,i=TDB,i×MV/TDD
MVB,i=(TDB,i-TDD)×MV/TDD
或者
Z=TDB,i×256/TDD MVF,i=(Z×MV+128)>>8
W=Z-256 MVB,i=(W×MV+128)>>8
其中,TDB,i表示当前B场和序列0参考场之间的时间距离,TDD表示序列1参考帧和序列0参考帧之间的时间距离,MV表示所述直接模式的序列1参考帧中相同位置块的运动矢量。
15.根据权利要求9所述的方法,其中,所述的步骤包括如下步骤:如果所述B图像的宏块处于场模式,所述序列1参考图像的相同位置宏块处于帧模式,且所述直接模式的序列0参考图像在时间上落后于所述的序列1参考图像,则按照下面的公式计算B帧各个场i的所述直接模式运动矢量MVF,i和MVB,i:
MVF,i=-TDB,i×MV/TDD
MVB,i=-(TDB,i+TDD)×MV/TDD
或者
Z=-TDB,i×256/TDD MVF,i=(Z×MV+128)>>8
W=Z-256 MVB,i=(W×MV+128)>>8
其中,TDB,i表示当前B场和序列0参考场之间的时间距离,TDD表示序列1参考帧和序列0参考帧之间的时间距离,MV表示所述直接模式的序列1参考帧中相同位置块的运动矢量。
16,根据权利要求9所述的方法,其中,所述的步骤包括如下步骤:如果所述B图像的宏块处于帧模式,所述序列1参考图像的相同位置宏块处于场模式,且所述直接模式的序列0参考图像在时间上超前于所述的序列1参考图像,则由下面的公式计算B帧的所述直接模式运动矢量MVF和MVB,其中使用序列1参考帧的场1中的相同位置块的运动信息来计算所述的直接模式运动矢量:
MVF=TDB×MV1/TDD,1
MVB=(TDB-TDD,1)×MV1/TDD,1
或者
Z=TDB×256/TDD,1 MVF=(Z×MV1+128)>>8
W=Z-256 MVB=(W×MV1+128)>>8
其中,TDB表示当前B帧和序列0参考帧之间的时间距离,TDD,1表示序列1参考帧的场1和序列0参考场之间的时间距离,MV1表示所述直接模式的序列1参考帧的场1中相同位置块的运动矢量。
17.根据权利要求9所述的方法,其中,所述的步骤包括如下步骤:如果所述B图像的宏块处于帧模式,所述序列1参考图像的相同位置宏块处于场模式,且所述直接模式的序列0参考图像在时间上落后于所述的序列1参考图像,则由下面的公式计算B帧的所述直接模式运动矢量MVF和MVB,其中使用序列1参考帧的场1中的相同位置块的运动信息来计算所述的直接模式运动矢量:
MVF=-TDB×MV1/TDD,1
MVB=-(TDB+TDD,1)×MV1/TDD,1
或者
Z=-TDB×256/TDD,1-MVF=(Z×MV1+128)>>8
W=Z-256 MVB=(W×MV1+128)>>8
其中,TDB表示当前B帧和序列0参考帧之间的时间距离,TDD,1表示序列1参考帧的场1和序列0参考场之间的时间距离,MV1表示所述直接模式的序列1参考帧的场1中相同位置块的运动矢量。
18.在运动图像编码***中,一种计算B(双向预测)图像的直接模式运动矢量,以提取B图像的直接模式运动矢量的方法,包括如下步骤:如果直接模式的序列0参考图像和序列1参考图像均在时间上落后于所述的B图像,则对所述直接模式的所述序列1参考图像中的相同位置块的运动矢量进行缩放,以得出序列0运动矢量MVF和序列1运动矢量MVB,并且计算所述B图像的所述直接模式运动矢量。
19,根据权利要求18所述的方法,其中,所述的步骤包括如下步骤:如果所述B图像的宏块和所述序列1参考图像的相同位置宏块都处于帧模式,且所述直接模式的所述序列0参考图像在时间上落后于所述的序列1参考图像,则按照下面的公式计算所述B图像的所述直接模式运动矢量MVF和MVB:
MVF=TDB×MV/TDD
MVB=(TDB-TDD)×MV/TDD
或者
Z=TDB×256/TDD MVF=(Z×MV+128)>>8
W=Z-256 MVB=(W×MV+128)>>8
其中,TDB表示当前B帧和序列0参考帧之间的时间距离,TDD表示序列1参考帧和序列0参考帧之间的时间距离,MV表示所述直接模式的序列1参考图像中,所述相同位置块的运动矢量。
20.根据权利要求18所述的方法,其中,所述的步骤包括如下步骤:如果所述B图像的宏块和所述序列1参考图像的相同位置宏块都处于帧模式,且所述直接模式的所述序列0参考图像在时间上超前于所述的序列1参考图像,则按照下面的公式计算所述B图像的所述直接模式运动矢量MVF和MVB:
MVF=-TDB×MV/TDD
MVB=-(TDB+TDD)×MV/TDD
或者
Z=-TDB×256/TDD MVF=(Z×MV+128)>>8
W=Z-256 MVB=(W×MV+128)>>8
其中,TDB表示当前B帧和序列0参考帧之间的时间距离,TDD表示序列1参考帧和序列0参考帧之间的时间距离,MV表示所述直接模式的序列1参考图像中,所述相同位置块的运动矢量。
21.根据权利要求18所述的方法,其中,所述的步骤包括如下步骤:如果所述B图像的宏块和所述序列1参考图像的相同位置宏块处于场模式,且所述直接模式的所述序列0参考图像在时间上落后于所述的序列1参考图像,则按照下面的公式计算B帧各个场i的所述直接模式运动矢量MVF,i和MVB,i:
MVF,i=TDB,i×MVi/TDD,i
MVB,i=(TDB,i-TDD,i)×MVi/TDD,i
或者
Z=TDB,i×256/TDD,i MVF,i=(Z×MVi+128)>>8
W=Z-256 MVB,i=(W×MVi+128)>>8
其中, TDB,i表示当前B场和序列0参考场之间的时间距离,TDD,i表示序列1参考场和序列0参考场之间的时间距离,MVi表示所述直接模式的序列1参考场中,相同位置块的运动矢量。
22.根据权利要求18所述的方法,其中,所述的步骤包括如下步骤:如果所述B图像的宏块和所述序列1参考图像的相同位置宏块都处于场模式,且所述直接模式的所述序列0参考图像在时间上超前于所述的序列1参考图像,则按照下面的公式计算B帧各个场i的所述直接模式运动矢量MVF,i和MVB,i:
MVF,i=-TDB,i×MVi/TDD,i
MVB,i=-(TDB,i+TDD,i)×MVi/TDD,i
或者
Z=-TDB,i×256/TDD,i MVF,i=(Z×MVi+128)>>8
W=Z-256 MVB,i=(W×MVi+128)>>8
其中,TDB,i表示当前B场和序列0参考场之间的时间距离,TDD,i表示序列1参考场和序列0参考场之间的时间距离,MVi表示所述直接模式的序列1参考场中,相同位置块的运动矢量。
23.根据权利要求18所述的方法,其中,所述的步骤包括如下步骤:如果所述B图像的宏块处于场模式,所述序列1参考图像的相同位置宏块处于帧模式,且所述直接模式的所述序列0参考图像在时间上落后于所述的序列1参考图像,则按照下面的公式计算B帧各个场i的所述直接模式运动矢量MVF,i和MVB,i:
MVF,i=TDB,i×MV/TDD
MVB,i=(TDB,i-TDD)×MV/TDD
或者
Z=TDB,i×256/TDD MVF,i=(Z×MV+128)>>8
W=Z-256 MVB,i=(W×MV+128)>>8
其中,TDB,i表示当前B场和序列0参考场之间的时间距离,TDD表示序列1参考帧和序列0参考帧之间的时间距离,MV表示所述直接模式的序列1参考帧中,相同位置块的运动矢量。
24.根据权利要求18所述的方法,其中,所述的步骤包括如下步骤:如果所述B图像的宏块处于场模式,而所述序列1参考图像的相同位置宏块处于帧模式,且所述直接模式的所述序列0参考图像在时间上超前于所述的序列1参考图像,则按照下面的公式计算B帧各个场i的所述直接模式运动矢量MVF,i和MVB,i:
MVF,i=-TDB,i×MV/TDD
MVB,i=-(TDB,i+TDD)×MV/TDD
或者
Z=-TDB,i×256/TDD MVF,i=(Z×MV+128)>>8
W=Z-256 MVB,i=(W×MV+128)>>8
其中,TDB,i表示当前B场和序列0参考场之间的时间距离,TDD表示序列1参考帧和序列0参考帧之间的时间距离,MV表示所述直接模式的序列1参考帧中,相同位置块的运动矢量。
25.根据权利要求18所述的方法,其中,所述的步骤包括如下步骤:如果所述B图像的宏块处于帧模式,所述序列1参考图像的相同位置宏块处于场模式,且所述直接模式的所述序列0参考图像在时间上落后于所述的序列1参考图像,则由下面的公式计算B帧的所述直接模式运动矢量MVF和MVB,其中使用序列1参考帧的场1中的相同位置块的运动信息来计算所述的直接模式运动矢量:
MVF=TDB×MV0/TDD,0
MVB=(TDB-TDD,0)×MV0/TDD,0
或者
Z=TDB×256/TDD,0 MVF=(Z×MV0+128)>>8
W=Z-256 MVB=(W×MV0+128)>>8
其中,TDB表示当前B帧和序列0参考帧之间的时间距离,TDD,0表示序列1参考帧的场0和序列0参考场之间的时间距离,MV0表示所述直接模式的序列1参考帧的场0中,相同位置块的运动矢量。
26.根据权利要求18所述的方法,其中,所述的步骤包括如下步骤:如果所述B图像的宏块处于帧模式,所述序列1参考图像的相同位置宏块处于场模式,且所述直接模式的所述序列0参考图像在时间上超前于所述的序列1参考图像,则由下面的公式计算B帧的所述直接模式运动矢量MVF和MVB,其中使用序列1参考帧的场0中的相同位置块的运动信息来计算所述的直接模式运动矢量:
MVF=-TDB×MV0/TDD,0
MVB=-(TDB+TDD,0)×MV0/TDD,0
或者
Z=-TDB×256/TDD,0 MVF=(Z×MV0+128)>>8
W=Z-256 MVB=(W×MV0+128)>>8
其中,TDB表示当前B帧和序列0参考帧之间的时间距离,TDD,0表示序列1参考帧的场0和序列0参考场之间的时间距离,MV0表示所述直接模式的序列1参考帧的场0中,相同位置块的运动矢量。
27.在运动图像编码***中,一种计算B(双向预测)图像的直接模式运动矢量,以提取B图像的直接模式运动矢量的方法,包括如下步骤:为图像间的时间距离值指定符号,不论直接模式的序列0和序列1参考图像的位置,对直接模式的序列1参考图像中相同位置块的运动矢量进行缩放,以得出序列0运动矢量MVF和序列1运动矢量MVB,并且计算所述B图像的所述直接模式运动矢量。
28.根据权利要求27所述的方法,其中,所述的步骤包括如下步骤:如果所述B图像的宏块和所述序列1参考图像的相同位置宏块都处于帧模式,则按照下面的公式计算所述B图像的所述直接模式运动矢量MVF和MVB:
MVF=TDB×MV/TDD
MVB=(TDB-TDD)×MV/TDD
或者
Z=TDB×256/TDD MVF=(Z×MV+128)>>8
W=Z-256 MVB=(W×MV+128)>>8
其中,TDB表示当前B帧和序列0参考帧之间的时间距离,如果从B帧进行测量,则指定为正(+)号,如果从序列0参考帧进行测量,则指定为负(-)号,TDD表示序列1参考帧和序列0参考帧之间的时间距离,如果从序列1参考帧进行测量,则指定为正(+)号,如果从序列0参考帧进行测量,则指定为负(-)号,MV表示所述直接模式的序列1参考图像中,所述相同位置块的运动矢量。
29.根据权利要求27所述的方法,其中,所述的步骤包括如下步骤:如果所述B图像的宏块和所述序列1参考图像的相同位置宏块都处于场模式,则按照下面的公式计算B帧各个场i的所述直接模式运动矢量MVF,i和MVB,i:
MVF,i=TDB,i×MVi/TDD,i
MVB,i=(TDB,i-TDD,i)×MVi/TDD,i
或者
Z=TDB,i×256/TDD,i MVF,i=(Z×MVi+128)>>8
W=Z-256 MVB,i=(W×MVi+128)>>8
其中,TDB,i表示当前B场和序列0参考场之间的时间距离,如果从B场进行测量,则指定为正(+)号,如果从序列0参考场进行测量,则指定为负(-)号,TDD,i表示序列1参考场和序列0参考场之间的时间距离,如果从序列1参考场进行测量,则指定为正(+)号,如果从序列0参考场进行测量,则指定为负(-)号,MVi表示所述直接模式的序列1参考场中,相同位置块的运动矢量。
30.根据权利要求27所述的方法,其中,所述的步骤包括如下步骤:如果所述B图像的宏块处于场模式,所述序列1参考图像的相同位置宏块处于帧模式,则按照下面的公式计算B帧各个场i的所述直接模式运动矢量MVF,i和MVB,i:
MVF,i=TDB,i×MV/TDD
MVB,i=(TDB,i-TDD)×MV/TDD
或者
Z=TDB,i×256/TDD MVF,i=(Z×MV+128)>>8
W=Z-256 MVB,i=(W×MV+128)>>8
其中,TDB,i表示当前B场和序列0参考场之间的时间距离,如果从B场进行测量,则指定为正(+)号,如果从序列0参考场进行测量,则指定为负(-)号,TDD表示序列1参考帧和序列0参考帧之间的时间距离,如果从序列1参考帧进行测量,则指定为正(+)号,如果从序列0参考帧进行测量,则指定为负(-)号,MV表示所述直接模式的序列1参考帧中,相同位置块的运动矢量。
31.根据权利要求27所述的方法,其中,所述的步骤包括如下步骤:如果所述B图像的宏块处于帧模式,而所述序列1参考图像的相同位置宏块处于场模式,且所述序列1参考图像在时间上落后于所述的B图像,则由下面的公式计算B帧的所述直接模式运动矢量MVF和MVB,其中使用序列1参考帧的场1中的相同位置块的运动信息来计算所述的直接模式运动矢量:
MVF=TDB×MV0/TDD,0
MVB=(TDB-TDD,0)×MV0/TDD,0
或者
Z=TDB×256/TDD,0 MVF=(Z×MV0+128)>>8
W=Z-256 MVB=(W×MV0+128)>>8
其中,TDB表示当前B帧和序列0参考帧之间的时间距离,如果从B帧进行测量,则指定为正(+)号,如果从序列0参考帧进行测量,则指定为负(-)号,TDD,0表示序列1参考帧的场0和序列0参考场之间的时间距离,如果从序列1参考帧的场0进行测量,则指定为正(+)号,如果从序列0参考场进行测量,则指定为负(-)号,MV0表示所述直接模式的序列1参考帧的场0中,相同位置块的运动矢量。
32.根据权利要求27所述的方法,其中,所述的步骤包括如下步骤:如果所述B图像的宏块处于帧模式,而所述序列1参考图像的相同位置宏块处于场模式,且所述直接模式的所述序列1参考图像在时间上超前于所述的B图像,则由下面的公式计算B帧的所述直接模式运动矢量MVF和MVB,其中使用序列1参考帧的场1中的相同位置块的运动信息来计算所述的直接模式运动矢量:
MVF=TDB×MV1/TDD,1
MVB=(TDB-TDD,1)×MV1/TDD,1
或者
Z=TDB×256/TDD,1 MVF=(Z×MV1+128)>>8
W=Z-256 MVB=(W×MV1+128)>>8
其中,TDB表示当前B帧和序列0参考帧之间的时间距离,如果从B帧进行测量,则指定为正(+)号,如果从序列0参考帧进行测量,则指定为负(-)号,TDD,1表示序列1参考帧的场1和序列0参考场之间的时间距离,如果从序列1参考帧的场1进行测量,则指定为正(+)号,如果从序列0参考场进行测量,则指定为负(-)号,MV1表示所述直接模式的序列1参考帧的场1中,相同位置块的运动矢量。
33.在运动图像编码***中,一种计算B(双向预测)图像的直接模式运动矢量,以提取B图像的直接模式运动矢量的方法,包括如下步骤:如果直接模式的序列1参考图像中的相同位置块处于帧内模式,则基于空间冗余,由所要编码的所述B图像的宏块的相邻块,预测和计算序列0和序列1参考图像和运动矢量,并且计算所述B图像的所述直接模式运动矢量。
34.根据权利要求33所述的方法,其中,所述的步骤包括,如果所要编码的所述宏块的相邻块A、B和C涉及不同的参考图像,则选择具有最小索引的参考图像作为各个序列的所述参考图像。
35.根据权利要求33所述的方法,其中,所述的步骤包括,如果所要编码的所述宏块的相邻块中,两个或者更多的相邻块涉及具有相同索引的参考图像,则选择该参考图像作为各个序列的所述参考图像。
36.根据权利要求33所述的方法,其中,所述的步骤包括,如果所要编码的所述宏块的相邻块A、B和C中任何一个处于帧内模式,则将其序列0和序列1运动矢量设定为0,从相邻块中,选择与各个序列的所述参考图像的时间位置具有相同方向的运动矢量,并且通过中值操作,获得各个序列的所述运动矢量,或者,如果相邻块具有方向相同的两个运动矢量,则仅从该块中选择两个运动矢量中的一个,并且通过包含所选择的运动矢量在内的中值操作,获得各个序列的所述运动矢量。
37.根据权利要求33所述的方法,其中,所述的步骤包括,如果不能获得各个序列模式的有效参考图像索引,则将序列0和序列1参考图像索引指定为0,并且将各个序列模式的所述运动矢量设定为0。
Applications Claiming Priority (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20020060742 | 2002-10-04 | ||
KR60742/2002 | 2002-10-04 | ||
KR61243/2002 | 2002-10-08 | ||
KR20020061243 | 2002-10-08 | ||
KR10-2002-0071226A KR100506864B1 (ko) | 2002-10-04 | 2002-11-15 | 모션벡터 결정방법 |
KR71226/2002 | 2002-11-15 |
Related Child Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CNB2005100488548A Division CN100473170C (zh) | 2002-10-04 | 2003-01-10 | B图像的直接模式运动矢量计算方法 |
CN2005100488533A Division CN1812585B (zh) | 2002-10-04 | 2003-01-10 | B图像的直接模式运动矢量计算方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN1487748A true CN1487748A (zh) | 2004-04-07 |
CN1269361C CN1269361C (zh) | 2006-08-09 |
Family
ID=35871226
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CNB2005100488548A Expired - Lifetime CN100473170C (zh) | 2002-10-04 | 2003-01-10 | B图像的直接模式运动矢量计算方法 |
CN2005100488533A Expired - Lifetime CN1812585B (zh) | 2002-10-04 | 2003-01-10 | B图像的直接模式运动矢量计算方法 |
CNB031016235A Expired - Lifetime CN1269361C (zh) | 2002-10-04 | 2003-01-10 | B图像的直接模式运动矢量计算方法 |
Family Applications Before (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CNB2005100488548A Expired - Lifetime CN100473170C (zh) | 2002-10-04 | 2003-01-10 | B图像的直接模式运动矢量计算方法 |
CN2005100488533A Expired - Lifetime CN1812585B (zh) | 2002-10-04 | 2003-01-10 | B图像的直接模式运动矢量计算方法 |
Country Status (15)
Country | Link |
---|---|
US (31) | US7233621B2 (zh) |
EP (21) | EP2059054B1 (zh) |
JP (19) | JP4020789B2 (zh) |
KR (1) | KR100506864B1 (zh) |
CN (3) | CN100473170C (zh) |
AT (10) | ATE484156T1 (zh) |
CY (10) | CY1106351T1 (zh) |
DE (13) | DE60335046D1 (zh) |
DK (10) | DK1796396T3 (zh) |
ES (1) | ES2281573T3 (zh) |
GB (4) | GB2406459B (zh) |
HK (5) | HK1073556A1 (zh) |
NL (3) | NL1022333C2 (zh) |
PT (10) | PT2015585E (zh) |
SI (10) | SI2009928T1 (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101119493B (zh) * | 2007-08-30 | 2010-12-01 | 威盛电子股份有限公司 | 区块式数字编码图像的译码方法及装置 |
CN102065290A (zh) * | 2009-11-11 | 2011-05-18 | 联发科技股份有限公司 | 视讯译码装置、存储运动矢量信息的方法及存储器分配方法 |
CN101039433B (zh) * | 2006-03-15 | 2011-08-31 | 富士通株式会社 | 视频编码方法和视频编码装置 |
CN103229504A (zh) * | 2010-11-29 | 2013-07-31 | 联发科技股份有限公司 | 在Inter/Merge/Skip模式下获取运动矢量/运动矢量预测值候选装置及方法 |
CN103563364A (zh) * | 2011-06-07 | 2014-02-05 | 索尼公司 | 图像处理设备及方法 |
CN104780363A (zh) * | 2011-07-02 | 2015-07-15 | 三星电子株式会社 | 对视频编码的方法和设备以及对视频解码的方法和设备 |
WO2020140916A1 (zh) * | 2019-01-03 | 2020-07-09 | 深圳市大疆创新科技有限公司 | 视频处理方法和装置 |
Families Citing this family (139)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6499060B1 (en) | 1999-03-12 | 2002-12-24 | Microsoft Corporation | Media coding for loss recovery with remotely predicted data units |
ES2665693T3 (es) | 2001-11-06 | 2018-04-26 | Panasonic Intellectual Property Corporation Of America | Método de codificación de imágenes en movimiento y método de decodificación de imágenes en movimiento |
US20030099294A1 (en) * | 2001-11-27 | 2003-05-29 | Limin Wang | Picture level adaptive frame/field coding for digital video content |
US7003035B2 (en) | 2002-01-25 | 2006-02-21 | Microsoft Corporation | Video coding methods and apparatuses |
JP2004088722A (ja) | 2002-03-04 | 2004-03-18 | Matsushita Electric Ind Co Ltd | 動画像符号化方法および動画像復号化方法 |
KR100931746B1 (ko) | 2002-04-19 | 2009-12-14 | 파나소닉 주식회사 | 움직임 벡터 계산방법 |
US20040001546A1 (en) | 2002-06-03 | 2004-01-01 | Alexandros Tourapis | Spatiotemporal prediction for bidirectionally predictive (B) pictures and motion vector prediction for multi-picture reference motion compensation |
US7088776B2 (en) | 2002-07-15 | 2006-08-08 | Apple Computer, Inc. | Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding |
US7154952B2 (en) | 2002-07-19 | 2006-12-26 | Microsoft Corporation | Timestamp-independent motion vector prediction for predictive (P) and bidirectionally predictive (B) pictures |
US6728315B2 (en) | 2002-07-24 | 2004-04-27 | Apple Computer, Inc. | Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding with reduced requirements for division operations |
US8254461B2 (en) | 2002-07-24 | 2012-08-28 | Apple Inc. | Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding with reduced requirements for division operations |
KR100506864B1 (ko) * | 2002-10-04 | 2005-08-05 | 엘지전자 주식회사 | 모션벡터 결정방법 |
US7499493B2 (en) * | 2003-06-20 | 2009-03-03 | Lsi Corporation | Dual block motion vector storage in compressed form |
US7609763B2 (en) * | 2003-07-18 | 2009-10-27 | Microsoft Corporation | Advanced bi-directional predictive coding of video frames |
US20050013498A1 (en) | 2003-07-18 | 2005-01-20 | Microsoft Corporation | Coding of motion vector information |
US8064520B2 (en) * | 2003-09-07 | 2011-11-22 | Microsoft Corporation | Advanced bi-directional predictive coding of interlaced video |
US8085844B2 (en) * | 2003-09-07 | 2011-12-27 | Microsoft Corporation | Signaling reference frame distances |
US7567617B2 (en) | 2003-09-07 | 2009-07-28 | Microsoft Corporation | Predicting motion vectors for fields of forward-predicted interlaced video frames |
US7616692B2 (en) * | 2003-09-07 | 2009-11-10 | Microsoft Corporation | Hybrid motion vector prediction for interlaced forward-predicted fields |
US7577198B2 (en) | 2003-09-07 | 2009-08-18 | Microsoft Corporation | Number of reference fields for an interlaced forward-predicted field |
US7724827B2 (en) | 2003-09-07 | 2010-05-25 | Microsoft Corporation | Multi-layer run level encoding and decoding |
US7620106B2 (en) * | 2003-09-07 | 2009-11-17 | Microsoft Corporation | Joint coding and decoding of a reference field selection and differential motion vector information |
US7623574B2 (en) * | 2003-09-07 | 2009-11-24 | Microsoft Corporation | Selecting between dominant and non-dominant motion vector predictor polarities |
FR2860678A1 (fr) * | 2003-10-01 | 2005-04-08 | Thomson Licensing Sa | Procede de codage differentiel |
US7400681B2 (en) * | 2003-11-28 | 2008-07-15 | Scientific-Atlanta, Inc. | Low-complexity motion vector prediction for video codec with two lists of reference pictures |
CN1225128C (zh) * | 2003-12-31 | 2005-10-26 | 中国科学院计算技术研究所 | 直接编码模式下确定参考图像块的方法 |
CN1321534C (zh) * | 2003-12-31 | 2007-06-13 | 中国科学院计算技术研究所 | 固定参考帧数编码方式下获取图像参考块的方法 |
US8036271B2 (en) * | 2004-02-24 | 2011-10-11 | Lsi Corporation | Method and apparatus for determining a second picture for temporal direct-mode block prediction |
KR100584603B1 (ko) | 2004-08-03 | 2006-05-30 | 학교법인 대양학원 | 다시점 영상의 다이렉트 모드 움직임 예측 방법 및 장치 |
EP1808025B1 (en) * | 2004-11-04 | 2016-03-09 | Thomson Licensing | Method and apparatus for fast mode decision of b-frames in a video encoder |
US8634413B2 (en) | 2004-12-30 | 2014-01-21 | Microsoft Corporation | Use of frame caching to improve packet loss recovery |
JP2006352238A (ja) * | 2005-06-13 | 2006-12-28 | Sony Corp | 画像処理装置、画像処理方法及びプログラム |
KR100746006B1 (ko) | 2005-07-19 | 2007-08-06 | 삼성전자주식회사 | 계층적 구조에 적합하게 시간적 다이렉트 모드로인코딩하며, 디코딩하는 방법 및 장치 |
JP2007028393A (ja) * | 2005-07-20 | 2007-02-01 | Matsushita Electric Ind Co Ltd | 双方向予測符号化ピクチャの直接モードブロックの動きベクトルを求める方法 |
US8498520B2 (en) * | 2005-07-27 | 2013-07-30 | Vbrick Systems, Inc. | Video encoding and transmission technique for efficient, multi-speed fast forward and reverse playback |
FR2891685B1 (fr) * | 2005-10-03 | 2008-04-18 | Envivio France Entpr Uniperson | Procede et dispositif d'estimation de mouvement a references multiples, procede et dispositif de codage, produits programme d'ordinateur et moyens de stockage correspondants. |
JP4702943B2 (ja) * | 2005-10-19 | 2011-06-15 | キヤノン株式会社 | 画像処理装置及びその方法 |
JP4879558B2 (ja) * | 2005-11-02 | 2012-02-22 | パナソニック株式会社 | 動きベクトル検出装置 |
WO2007074543A1 (ja) * | 2005-12-27 | 2007-07-05 | Sharp Kabushiki Kaisha | 動画像復号装置および動画像符号化装置 |
EP1806930A1 (en) * | 2006-01-10 | 2007-07-11 | Thomson Licensing | Method and apparatus for constructing reference picture lists for scalable video |
US20070171977A1 (en) * | 2006-01-25 | 2007-07-26 | Shintaro Kudo | Moving picture coding method and moving picture coding device |
FR2897213A1 (fr) * | 2006-02-08 | 2007-08-10 | Thomson Licensing Sas | Procede de codage par blocs d'images d'une sequence d'images video |
WO2007132647A1 (ja) * | 2006-05-12 | 2007-11-22 | Panasonic Corporation | 動画像復号化装置 |
MX337935B (es) * | 2006-10-16 | 2016-03-29 | Nokia Technologies Oy | Sistema y metodo para implementar una administracion eficiente de memoria intermedia decodificada en codificacion de video de vistas multiples. |
CN101227601B (zh) * | 2007-01-15 | 2011-09-14 | 飞思卡尔半导体公司 | 在视频再现中进行几何变换的方法和设备 |
WO2008153262A1 (en) * | 2007-06-15 | 2008-12-18 | Sungkyunkwan University Foundation For Corporate Collaboration | Bi-prediction coding method and apparatus, bi-prediction decoding method and apparatus, and recording midium |
KR100955396B1 (ko) * | 2007-06-15 | 2010-04-29 | 성균관대학교산학협력단 | 양-예측 부호화 방법 및 장치, 양-예측 복호화 방법 및장치 및 기록매체 |
US8254455B2 (en) | 2007-06-30 | 2012-08-28 | Microsoft Corporation | Computing collocated macroblock information for direct mode macroblocks |
CN101822056B (zh) * | 2007-10-12 | 2013-01-02 | 汤姆逊许可公司 | 用于视频编解码几何划分的双向预测模式划分的方法和装置 |
US8743952B2 (en) * | 2007-12-18 | 2014-06-03 | Vixs Systems, Inc | Direct mode module with motion flag precoding and methods for use therewith |
KR101505195B1 (ko) * | 2008-02-20 | 2015-03-24 | 삼성전자주식회사 | 직접 모드 부호화 및 복호화 방법 |
WO2009148412A1 (en) * | 2008-06-06 | 2009-12-10 | Agency For Science, Technology And Research | Methods and devices for estimating motion in a plurality of frames |
JP5578775B2 (ja) | 2008-09-02 | 2014-08-27 | 富士通株式会社 | 符号化装置および復号装置 |
CN102160382A (zh) * | 2008-09-24 | 2011-08-17 | 索尼公司 | 图像处理设备和图像处理方法 |
US8189666B2 (en) | 2009-02-02 | 2012-05-29 | Microsoft Corporation | Local picture identifier and computation of co-located information |
TWI405469B (zh) * | 2009-02-20 | 2013-08-11 | Sony Corp | Image processing apparatus and method |
WO2010146696A1 (ja) | 2009-06-18 | 2010-12-23 | 株式会社 東芝 | 動画像符号化装置及び動画像復号化装置 |
CN103826126B (zh) * | 2009-06-18 | 2017-09-29 | 株式会社东芝 | 运动图像编码装置和运动图像编码方法 |
US9628794B2 (en) | 2009-06-18 | 2017-04-18 | Kabushiki Kaisha Toshiba | Video encoding apparatus and a video decoding apparatus |
CN103826127B (zh) * | 2009-06-18 | 2017-03-01 | 株式会社东芝 | 运动图像编码装置和运动图像编码方法 |
CN103888778B (zh) * | 2009-06-18 | 2017-12-08 | 株式会社东芝 | 运动图像解码装置 |
KR20110008653A (ko) * | 2009-07-20 | 2011-01-27 | 삼성전자주식회사 | 움직임 벡터 예측 방법과 이를 이용한 영상 부호화/복호화 장치 및 방법 |
US9060176B2 (en) * | 2009-10-01 | 2015-06-16 | Ntt Docomo, Inc. | Motion vector prediction in video coding |
WO2011070730A1 (ja) * | 2009-12-07 | 2011-06-16 | 日本電気株式会社 | 映像符号化装置および映像復号装置 |
KR101348613B1 (ko) | 2009-12-23 | 2014-01-10 | 한국전자통신연구원 | 영상의 부호화/복호화 장치 및 그 방법 |
KR101522850B1 (ko) * | 2010-01-14 | 2015-05-26 | 삼성전자주식회사 | 움직임 벡터를 부호화, 복호화하는 방법 및 장치 |
WO2011125211A1 (ja) | 2010-04-08 | 2011-10-13 | 株式会社 東芝 | 画像符号化方法及び画像復号化方法 |
KR101752418B1 (ko) | 2010-04-09 | 2017-06-29 | 엘지전자 주식회사 | 비디오 신호 처리 방법 및 장치 |
KR102004836B1 (ko) * | 2010-05-26 | 2019-07-29 | 엘지전자 주식회사 | 비디오 신호의 처리 방법 및 장치 |
WO2011155171A1 (ja) * | 2010-06-09 | 2011-12-15 | 株式会社Jvcケンウッド | 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム、ならびに動画像復号装置、動画像復号方法及び動画像復号プログラム |
JP2011259230A (ja) * | 2010-06-09 | 2011-12-22 | Jvc Kenwood Corp | 動画像復号装置、動画像復号方法及び動画像復号プログラム |
JP2011259229A (ja) * | 2010-06-09 | 2011-12-22 | Jvc Kenwood Corp | 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム |
US9124898B2 (en) * | 2010-07-12 | 2015-09-01 | Mediatek Inc. | Method and apparatus of temporal motion vector prediction |
KR20120016991A (ko) * | 2010-08-17 | 2012-02-27 | 오수미 | 인터 프리딕션 방법 |
JP5486091B2 (ja) * | 2010-09-30 | 2014-05-07 | 三菱電機株式会社 | 動画像復号装置及び動画像復号方法 |
ES2773774T3 (es) * | 2010-10-06 | 2020-07-14 | Ntt Docomo Inc | Dispositivo, método y programa de codificación bipredictiva de imágenes, y dispositivo, método y programa de decodificación bipredictiva de imágenes |
CN103069804B (zh) * | 2010-11-24 | 2017-05-03 | 太阳专利托管公司 | 运动矢量计算方法、图像解码方法、运动矢量计算装置及图像解码装置 |
US8711940B2 (en) | 2010-11-29 | 2014-04-29 | Mediatek Inc. | Method and apparatus of motion vector prediction with extended motion vector predictor |
WO2012073481A1 (ja) * | 2010-11-29 | 2012-06-07 | パナソニック株式会社 | 動画像符号化方法および動画像復号化方法 |
WO2012091519A1 (ko) | 2010-12-31 | 2012-07-05 | 한국전자통신연구원 | 영상 정보 부호화 방법 및 복호화 방법과 이를 이용한 장치 |
EP2665271A4 (en) * | 2011-01-12 | 2014-06-18 | Panasonic Corp | VIDEO ENCODING METHOD AND VIDEO DECODING METHOD |
AU2012208842B2 (en) * | 2011-01-19 | 2014-08-07 | Hfi Innovation Inc. | Method and apparatus for parsing error robustness of temporal Motion Vector Prediction |
US9749657B2 (en) * | 2011-01-21 | 2017-08-29 | Sharp Kabushiki Kaisha | Buffer compression for motion vector competition |
US9008181B2 (en) | 2011-01-24 | 2015-04-14 | Qualcomm Incorporated | Single reference picture list utilization for interprediction video coding |
WO2012102021A1 (ja) * | 2011-01-25 | 2012-08-02 | パナソニック株式会社 | 動画像符号化方法および動画像復号化方法 |
ES2398095B1 (es) * | 2011-01-31 | 2014-01-27 | Universidad Politécnica De Valencia | Instalación para simular las condiciones de presión y temperatura del aire aspirado por un motor de combustión interna alternativo. |
KR20120095814A (ko) * | 2011-02-21 | 2012-08-29 | 한밭대학교 산학협력단 | 복수 참조 영상을 이용한 영상 부복호화 방법 및 이러한 방법을 사용하는 장치 |
JP6108309B2 (ja) * | 2011-02-22 | 2017-04-05 | サン パテント トラスト | 動画像符号化方法、動画像符号化装置、動画像復号方法、および、動画像復号装置 |
US10171813B2 (en) | 2011-02-24 | 2019-01-01 | Qualcomm Incorporated | Hierarchy of motion prediction video blocks |
WO2012117728A1 (ja) * | 2011-03-03 | 2012-09-07 | パナソニック株式会社 | 動画像符号化方法、動画像復号方法、動画像符号化装置、動画像復号装置、及び動画像符号化復号装置 |
US9288501B2 (en) | 2011-03-08 | 2016-03-15 | Qualcomm Incorporated | Motion vector predictors (MVPs) for bi-predictive inter mode in video coding |
SG192985A1 (en) | 2011-03-09 | 2013-09-30 | Toshiba Kk | Video image encoding method and video image decoding method |
EP3139611A1 (en) * | 2011-03-14 | 2017-03-08 | HFI Innovation Inc. | Method and apparatus for deriving temporal motion vector prediction |
EP2698999B1 (en) | 2011-04-12 | 2017-01-04 | Sun Patent Trust | Motion-video encoding method, motion-video encoding apparatus, motion-video decoding method, motion-video decoding apparatus, and motion-video encoding/decoding apparatus |
HUE037619T2 (hu) | 2011-05-24 | 2018-09-28 | Velos Media Int Ltd | Képkódoló eljárás, képkódoló berendezés, képdekódoló eljárás, képdekódoló berendezés és képkódoló/dekódoló berendezés |
JP5865366B2 (ja) | 2011-05-27 | 2016-02-17 | パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America | 画像符号化方法、画像符号化装置、画像復号方法、画像復号装置、および、画像符号化復号装置 |
US9485518B2 (en) | 2011-05-27 | 2016-11-01 | Sun Patent Trust | Decoding method and apparatus with candidate motion vectors |
PL2717579T3 (pl) | 2011-05-31 | 2020-07-27 | Sun Patent Trust | Sposób dekodowania obrazu i urządzenie do dekodowania obrazu |
SG194746A1 (en) | 2011-05-31 | 2013-12-30 | Kaba Gmbh | Image encoding method, image encoding device, image decoding method, image decoding device, and image encoding/decoding device |
US9282338B2 (en) * | 2011-06-20 | 2016-03-08 | Qualcomm Incorporated | Unified merge mode and adaptive motion vector prediction mode candidates selection |
WO2012177052A2 (ko) | 2011-06-21 | 2012-12-27 | 한국전자통신연구원 | 인터 예측 방법 및 그 장치 |
KR20120140592A (ko) | 2011-06-21 | 2012-12-31 | 한국전자통신연구원 | 움직임 보상의 계산 복잡도 감소 및 부호화 효율을 증가시키는 방법 및 장치 |
KR101968726B1 (ko) * | 2011-06-28 | 2019-04-12 | 엘지전자 주식회사 | 움직임 벡터 리스트 설정 방법 및 이러한 방법을 사용하는 장치 |
PL2728878T3 (pl) | 2011-06-30 | 2020-06-15 | Sun Patent Trust | Sposób dekodowania obrazów, sposób kodowania obrazów, urządzenie do dekodowania obrazów, urządzenie do kodowania obrazów oraz urządzenie do kodowania/dekodowania obrazów |
KR20140034292A (ko) * | 2011-07-01 | 2014-03-19 | 모토로라 모빌리티 엘엘씨 | 움직임 벡터 예측 설계 간소화 |
MX341415B (es) | 2011-08-03 | 2016-08-19 | Panasonic Ip Corp America | Metodo de codificacion de video, aparato de codificacion de video, metodo de decodificacion de video, aparato de decodificacion de video y aparato de codificacion/decodificacion de video. |
BR112014008403B1 (pt) | 2011-10-19 | 2022-05-10 | Sun Patent Trust | Método de codificação de imagem, aparelho de codificação de imagem, método de decodificação de imagem, e aparelho de decodificação de imagem |
EP2769544A4 (en) | 2011-10-21 | 2015-12-23 | Nokia Technologies Oy | VIDEO ENCODING METHOD AND APPARATUS |
TWI653880B (zh) | 2011-10-31 | 2019-03-11 | 日商Jvc建伍股份有限公司 | 動態影像編碼裝置及動態影像編碼方法 |
KR101616010B1 (ko) | 2011-11-04 | 2016-05-17 | 구글 테크놀로지 홀딩스 엘엘씨 | 비균일 움직임 벡터 그리드에 대한 움직임 벡터 스케일링 |
TWI505696B (zh) | 2011-11-08 | 2015-10-21 | Samsung Electronics Co Ltd | 解碼影像的方法 |
CN107493474B (zh) | 2011-11-08 | 2021-01-12 | 株式会社Kt | 利用解码装置对视频信号进行解码的方法 |
SI3654651T1 (sl) | 2011-12-16 | 2021-08-31 | JVC Kenwood Corporation | Naprava za kodiranje dinamičnih slik, postopek za kodiranje dinamičnih slik, program za kodiranje dinamičnih slik, naprava za dekodiranje dinamičnih slik, postopek za dekodiranje dinamičnih slik in program za dekodiranje dinamičnih slik |
RU2628226C2 (ru) | 2011-12-16 | 2017-08-15 | Сан Пэтент Траст | Способ кодирования видеоизображений, устройство кодирования видеоизображений, способ декодирования видеоизображений, устройство декодирования видеоизображений и устройство кодирования/декодирования видеоизображений |
EP3965425A3 (en) | 2011-12-23 | 2022-06-08 | Electronics And Telecommunications Research Institute | Method and apparatus for setting reference picture index of temporal merging candidate |
JP6094760B2 (ja) * | 2012-02-07 | 2017-03-15 | パナソニックIpマネジメント株式会社 | 画像処理装置および画像処理方法 |
US9426463B2 (en) | 2012-02-08 | 2016-08-23 | Qualcomm Incorporated | Restriction of prediction units in B slices to uni-directional inter prediction |
US9451277B2 (en) | 2012-02-08 | 2016-09-20 | Qualcomm Incorporated | Restriction of prediction units in B slices to uni-directional inter prediction |
HUE062452T2 (hu) * | 2012-04-12 | 2023-11-28 | Jvckenwood Corp | Mozgókép kódoló készülék, mozgókép kódoló eljárás, mozgókép kódoló program, adó, adási eljárás, adási program, és mozgókép dekódoló készülék, mozgókép dekódoló eljárás, mozgókép dekódoló program, vevõ, vételi eljárás, vételi program |
US20150103911A1 (en) * | 2012-04-15 | 2015-04-16 | Samsung Electronics Co., Ltd. | Method and apparatus for determining reference images for inter-prediction |
US9172970B1 (en) | 2012-05-29 | 2015-10-27 | Google Inc. | Inter frame candidate selection for a video encoder |
US11317101B2 (en) | 2012-06-12 | 2022-04-26 | Google Inc. | Inter frame candidate selection for a video encoder |
US9672584B2 (en) * | 2012-09-06 | 2017-06-06 | Imagination Technologies Limited | Systems and methods of partial frame buffer updating |
US9485515B2 (en) | 2013-08-23 | 2016-11-01 | Google Inc. | Video coding using reference motion vectors |
US9503746B2 (en) | 2012-10-08 | 2016-11-22 | Google Inc. | Determine reference motion vectors |
US9628790B1 (en) | 2013-01-03 | 2017-04-18 | Google Inc. | Adaptive composite intra prediction for image and video compression |
WO2015008339A1 (ja) * | 2013-07-16 | 2015-01-22 | 富士通株式会社 | 動画像符号化装置、動画像符号化方法及び動画像復号装置ならびに動画像復号方法 |
US9609343B1 (en) | 2013-12-20 | 2017-03-28 | Google Inc. | Video coding using compound prediction |
WO2015172348A1 (en) * | 2014-05-15 | 2015-11-19 | The Procter & Gamble Company | Dentifrice compositions having dental plaque mitigation or improved fluoride uptake |
RU2615677C1 (ru) * | 2015-10-30 | 2017-04-06 | Кабусики Кайся Тосиба | Способ кодирования изображений и способ декодирования изображений |
CN106658019B (zh) * | 2015-10-31 | 2019-11-12 | 华为技术有限公司 | 参考帧编解码的方法与装置 |
CN117061736A (zh) | 2017-01-13 | 2023-11-14 | 谷歌有限责任公司 | 视频代码化的复合预测 |
US10412410B2 (en) * | 2017-08-14 | 2019-09-10 | Google Llc | Compound motion-compensated prediction |
US10284869B2 (en) | 2017-09-28 | 2019-05-07 | Google Llc | Constrained motion field estimation for hardware efficiency |
US10880573B2 (en) | 2017-08-15 | 2020-12-29 | Google Llc | Dynamic motion vector referencing for video coding |
RU2666275C1 (ru) * | 2017-11-13 | 2018-09-06 | ДжейВиСи КЕНВУД КОРПОРЕЙШН | Устройство и способ кодирования движущегося изображения, долговременный считываемый компьютером носитель записи, на который записана программа кодирования изображения |
US10779002B2 (en) * | 2018-04-17 | 2020-09-15 | Qualcomm Incorporated | Limitation of the MVP derivation based on decoder-side motion vector derivation |
CN108985279B (zh) * | 2018-08-28 | 2020-11-03 | 上海仁童电子科技有限公司 | 多功能车辆总线mvb波形的故障诊断方法及装置 |
EP3996371A4 (en) * | 2019-07-01 | 2023-08-02 | Samsung Electronics Co., Ltd. | DEVICE AND METHOD FOR CODING AND DECODING MOTION INFORMATION USING NEIGHBORING MOTION INFORMATION |
Family Cites Families (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US136461A (en) * | 1873-03-04 | Improvement in sash-balances | ||
JPS58138655A (ja) * | 1982-02-12 | 1983-08-17 | Toshiba Corp | 文書印刷制御装置 |
TW224553B (en) | 1993-03-01 | 1994-06-01 | Sony Co Ltd | Method and apparatus for inverse discrete consine transform and coding/decoding of moving picture |
SE519541C2 (sv) | 1996-10-02 | 2003-03-11 | Ericsson Telefon Ab L M | Förfarande och anordning för transformering av en reell digital bredbandig bandpassignal till en uppsättning digitala basbandssignaler med I- och Q-komponenter |
US6542642B2 (en) * | 1996-02-29 | 2003-04-01 | Canon Kabushiki Kaisha | Image coding process and motion detecting process using bidirectional prediction |
US5991447A (en) | 1997-03-07 | 1999-11-23 | General Instrument Corporation | Prediction and coding of bi-directionally predicted video object planes for interlaced digital video |
CN1297147C (zh) * | 1997-03-07 | 2007-01-24 | 通用仪器公司 | 对交错数字视频的双向预测的视频目标平面的预测和编码 |
US6404813B1 (en) * | 1997-03-27 | 2002-06-11 | At&T Corp. | Bidirectionally predicted pictures or video object planes for efficient and flexible video coding |
KR100252342B1 (ko) | 1997-08-12 | 2000-04-15 | 전주범 | 움직임 벡터 부호화 방법 및 그 장치 |
KR100257191B1 (ko) * | 1997-12-31 | 2000-05-15 | 구자홍 | 움직임 벡터 디코더 |
JPH11215502A (ja) | 1998-01-27 | 1999-08-06 | Sanyo Electric Co Ltd | 動きベクトル検出装置及び方法 |
KR100280871B1 (ko) | 1998-07-13 | 2001-03-02 | 김남영 | 커플라인과 슬릿으로 구성된 마이크로 스트립 링 공진기 |
DE19840735C2 (de) | 1998-09-07 | 2001-06-07 | Bosch Gmbh Robert | Blockbasierte Bewegungsschätzung bei der Bewegtbildkodierung |
WO2001033864A1 (en) * | 1999-10-29 | 2001-05-10 | Koninklijke Philips Electronics N.V. | Video encoding-method |
WO2001058166A1 (en) * | 2000-02-01 | 2001-08-09 | Koninklijke Philips Electronics N.V. | Video encoding with a two step motion estimation for p-frames |
US6446118B1 (en) * | 2000-02-29 | 2002-09-03 | Designtech International, Inc. | E-mail notification device |
KR100708091B1 (ko) * | 2000-06-13 | 2007-04-16 | 삼성전자주식회사 | 양방향 움직임 벡터를 이용한 프레임 레이트 변환 장치 및그 방법 |
RU2182727C2 (ru) | 2000-07-20 | 2002-05-20 | Дворкович Александр Викторович | Способ поиска векторов движения деталей в динамических изображениях |
US6834293B2 (en) * | 2001-06-15 | 2004-12-21 | Hitachi, Ltd. | Vector scaling system for G.728 annex G |
US20030099294A1 (en) * | 2001-11-27 | 2003-05-29 | Limin Wang | Picture level adaptive frame/field coding for digital video content |
US7003035B2 (en) * | 2002-01-25 | 2006-02-21 | Microsoft Corporation | Video coding methods and apparatuses |
JP2004088722A (ja) * | 2002-03-04 | 2004-03-18 | Matsushita Electric Ind Co Ltd | 動画像符号化方法および動画像復号化方法 |
US7321626B2 (en) * | 2002-03-08 | 2008-01-22 | Sharp Laboratories Of America, Inc. | System and method for predictive motion estimation using a global motion predictor |
KR100931746B1 (ko) * | 2002-04-19 | 2009-12-14 | 파나소닉 주식회사 | 움직임 벡터 계산방법 |
JP2004208258A (ja) | 2002-04-19 | 2004-07-22 | Matsushita Electric Ind Co Ltd | 動きベクトル計算方法 |
US20040001546A1 (en) * | 2002-06-03 | 2004-01-01 | Alexandros Tourapis | Spatiotemporal prediction for bidirectionally predictive (B) pictures and motion vector prediction for multi-picture reference motion compensation |
US7515634B2 (en) * | 2002-06-28 | 2009-04-07 | Qualcomm Incorporated | Computationally constrained video encoding |
AU2003241696A1 (en) * | 2002-07-26 | 2004-02-16 | Matsushita Electric Industrial Co., Ltd. | Moving picture encoding method, moving picture decoding method, and recording medium |
KR100506864B1 (ko) * | 2002-10-04 | 2005-08-05 | 엘지전자 주식회사 | 모션벡터 결정방법 |
US7463686B2 (en) * | 2002-10-16 | 2008-12-09 | Lg Electronics Inc. | Method for determining motion vector and macroblock type |
DE10311497B3 (de) | 2003-03-15 | 2004-10-07 | Atlas Elektronik Gmbh | Verfahren zur synthetischen Generierung von Sonardaten |
US7523330B2 (en) * | 2004-06-30 | 2009-04-21 | Sun Microsystems, Inc. | Thread-based clock enabling in a multi-threaded processor |
-
2002
- 2002-11-15 KR KR10-2002-0071226A patent/KR100506864B1/ko active IP Right Grant
-
2003
- 2003-01-06 US US10/338,283 patent/US7233621B2/en active Active
- 2003-01-07 PT PT08016888T patent/PT2015585E/pt unknown
- 2003-01-07 SI SI200331917T patent/SI2009928T1/sl unknown
- 2003-01-07 AT AT08016888T patent/ATE484156T1/de active
- 2003-01-07 EP EP20090000866 patent/EP2059054B1/en not_active Expired - Lifetime
- 2003-01-07 DK DK07003016T patent/DK1796396T3/da active
- 2003-01-07 SI SI200331943T patent/SI1603344T1/sl unknown
- 2003-01-07 EP EP20070003016 patent/EP1796396B8/en not_active Expired - Lifetime
- 2003-01-07 EP EP20080016888 patent/EP2015585B1/en not_active Expired - Lifetime
- 2003-01-07 AT AT08016895T patent/ATE482575T1/de active
- 2003-01-07 AT AT05018606T patent/ATE488963T1/de active
- 2003-01-07 EP EP20080016894 patent/EP2015586B1/en not_active Expired - Lifetime
- 2003-01-07 DE DE60335046T patent/DE60335046D1/de not_active Expired - Lifetime
- 2003-01-07 DK DK08016890T patent/DK2003899T3/da active
- 2003-01-07 DK DK03000209T patent/DK1406453T3/da active
- 2003-01-07 DK DK08016895T patent/DK2009928T3/da active
- 2003-01-07 EP EP20090000884 patent/EP2046056B1/en not_active Expired - Lifetime
- 2003-01-07 DE DE60334941T patent/DE60334941D1/de not_active Expired - Lifetime
- 2003-01-07 GB GB0426712A patent/GB2406459B/en not_active Expired - Lifetime
- 2003-01-07 PT PT08016891T patent/PT2003900E/pt unknown
- 2003-01-07 DK DK07003015T patent/DK1821547T3/da active
- 2003-01-07 GB GB0300288A patent/GB2393873B/en not_active Expired - Lifetime
- 2003-01-07 SI SI200331939T patent/SI1821547T1/sl unknown
- 2003-01-07 EP EP20090000883 patent/EP2046055A3/en not_active Ceased
- 2003-01-07 EP EP20030000209 patent/EP1406453B1/en not_active Expired - Lifetime
- 2003-01-07 SI SI200331919T patent/SI2003900T1/sl unknown
- 2003-01-07 PT PT08016893T patent/PT2009927E/pt unknown
- 2003-01-07 PT PT08016890T patent/PT2003899E/pt unknown
- 2003-01-07 EP EP20050018606 patent/EP1603344B1/en not_active Expired - Lifetime
- 2003-01-07 SI SI200331947T patent/SI1796396T1/sl unknown
- 2003-01-07 PT PT07003014T patent/PT1809048E/pt unknown
- 2003-01-07 DE DE2003221473 patent/DE20321473U1/de not_active Expired - Lifetime
- 2003-01-07 EP EP20080016895 patent/EP2009928B1/en not_active Expired - Lifetime
- 2003-01-07 EP EP20080016890 patent/EP2003899B1/en not_active Expired - Lifetime
- 2003-01-07 DE DE60334338T patent/DE60334338D1/de not_active Expired - Lifetime
- 2003-01-07 EP EP20070003014 patent/EP1809048B1/en not_active Expired - Lifetime
- 2003-01-07 EP EP20070003015 patent/EP1821547B1/en not_active Expired - Lifetime
- 2003-01-07 DE DE60334330T patent/DE60334330D1/de not_active Expired - Lifetime
- 2003-01-07 DE DE60334339T patent/DE60334339D1/de not_active Expired - Lifetime
- 2003-01-07 AT AT07003015T patent/ATE488097T1/de active
- 2003-01-07 SI SI200331923T patent/SI2015585T1/sl unknown
- 2003-01-07 AT AT07003014T patent/ATE482571T1/de active
- 2003-01-07 PT PT07003015T patent/PT1821547E/pt unknown
- 2003-01-07 DE DE60335034T patent/DE60335034D1/de not_active Expired - Lifetime
- 2003-01-07 PT PT03000209T patent/PT1406453E/pt unknown
- 2003-01-07 AT AT03000209T patent/ATE354259T1/de active
- 2003-01-07 DE DE60334337T patent/DE60334337D1/de not_active Expired - Lifetime
- 2003-01-07 EP EP20080016891 patent/EP2003900B1/en not_active Expired - Lifetime
- 2003-01-07 EP EP20090000888 patent/EP2046060B1/en not_active Expired - Lifetime
- 2003-01-07 AT AT08016890T patent/ATE482572T1/de active
- 2003-01-07 GB GB0426713A patent/GB2406460B/en not_active Expired - Lifetime
- 2003-01-07 GB GB0513436A patent/GB2413721B/en not_active Expired - Lifetime
- 2003-01-07 SI SI200330780T patent/SI1406453T1/sl unknown
- 2003-01-07 AT AT07003016T patent/ATE488964T1/de active
- 2003-01-07 SI SI200331914T patent/SI1809048T1/sl unknown
- 2003-01-07 EP EP20090000886 patent/EP2046058B1/en not_active Expired - Lifetime
- 2003-01-07 DK DK05018606T patent/DK1603344T3/da active
- 2003-01-07 AT AT08016891T patent/ATE482573T1/de active
- 2003-01-07 EP EP20080016889 patent/EP2009925B1/en not_active Expired - Lifetime
- 2003-01-07 PT PT08016895T patent/PT2009928E/pt unknown
- 2003-01-07 EP EP20090000887 patent/EP2046059B1/en not_active Expired - Lifetime
- 2003-01-07 DK DK08016891T patent/DK2003900T3/da active
- 2003-01-07 DK DK08016893T patent/DK2009927T3/da active
- 2003-01-07 EP EP20080016893 patent/EP2009927B1/en not_active Expired - Lifetime
- 2003-01-07 DE DE60334505T patent/DE60334505D1/de not_active Expired - Lifetime
- 2003-01-07 EP EP20080016892 patent/EP2009926B1/en not_active Expired - Lifetime
- 2003-01-07 PT PT05018606T patent/PT1603344E/pt unknown
- 2003-01-07 EP EP20090000885 patent/EP2046057B1/en not_active Expired - Lifetime
- 2003-01-07 SI SI200331908T patent/SI2003899T1/sl unknown
- 2003-01-07 ES ES03000209T patent/ES2281573T3/es not_active Expired - Lifetime
- 2003-01-07 DE DE2003611720 patent/DE60311720T9/de active Active
- 2003-01-07 PT PT07003016T patent/PT1796396E/pt unknown
- 2003-01-07 AT AT08016893T patent/ATE482574T1/de active
- 2003-01-07 DK DK07003014T patent/DK1809048T3/da active
- 2003-01-07 DE DE60334336T patent/DE60334336D1/de not_active Expired - Lifetime
- 2003-01-07 SI SI200331918T patent/SI2009927T1/sl unknown
- 2003-01-07 EP EP20090000865 patent/EP2046054B1/en not_active Expired - Lifetime
- 2003-01-07 DK DK08016888T patent/DK2015585T3/da active
- 2003-01-08 JP JP2003002599A patent/JP4020789B2/ja not_active Expired - Lifetime
- 2003-01-09 DE DE2003100533 patent/DE10300533B4/de not_active Expired - Lifetime
- 2003-01-09 NL NL1022333A patent/NL1022333C2/nl not_active IP Right Cessation
- 2003-01-09 DE DE2003162106 patent/DE10362106B3/de not_active Expired - Lifetime
- 2003-01-10 CN CNB2005100488548A patent/CN100473170C/zh not_active Expired - Lifetime
- 2003-01-10 CN CN2005100488533A patent/CN1812585B/zh not_active Expired - Lifetime
- 2003-01-10 CN CNB031016235A patent/CN1269361C/zh not_active Expired - Lifetime
-
2005
- 2005-01-28 US US11/044,004 patent/US7627035B2/en active Active
- 2005-01-28 US US11/044,002 patent/US7606307B2/en active Active
- 2005-01-28 US US11/044,001 patent/US7570691B2/en active Active
- 2005-07-11 NL NL1029486A patent/NL1029486C2/nl not_active IP Right Cessation
- 2005-07-11 NL NL1029485A patent/NL1029485C2/nl not_active IP Right Cessation
- 2005-08-16 HK HK05107058A patent/HK1073556A1/xx not_active IP Right Cessation
- 2005-08-16 HK HK05107057A patent/HK1073555A1/xx not_active IP Right Cessation
-
2006
- 2006-01-19 JP JP2006011202A patent/JP4216852B2/ja not_active Expired - Lifetime
- 2006-04-24 HK HK06104873A patent/HK1082625A1/xx not_active IP Right Cessation
-
2007
- 2007-01-12 HK HK07100436A patent/HK1095457A1/xx not_active IP Right Cessation
- 2007-01-12 HK HK07100437A patent/HK1095458A1/xx not_active IP Right Cessation
- 2007-03-01 CY CY20071100300T patent/CY1106351T1/el unknown
- 2007-10-09 US US11/907,076 patent/US8345757B2/en active Active
- 2007-10-09 US US11/907,078 patent/US8351504B2/en active Active
- 2007-10-09 US US11/907,080 patent/US7634007B2/en not_active Expired - Lifetime
- 2007-10-09 US US11/907,073 patent/US7558321B2/en not_active Expired - Lifetime
- 2007-10-09 US US11/907,075 patent/US8351503B2/en active Active
- 2007-10-09 US US11/907,074 patent/US7643556B2/en not_active Expired - Lifetime
- 2007-10-09 US US11/907,079 patent/US7643557B2/en not_active Expired - Lifetime
-
2008
- 2008-03-11 JP JP2008061455A patent/JP2008182747A/ja active Pending
- 2008-03-11 JP JP2008061152A patent/JP2008182746A/ja active Pending
- 2008-03-11 JP JP2008060962A patent/JP4625102B2/ja not_active Expired - Lifetime
- 2008-03-11 JP JP2008061096A patent/JP4625103B2/ja not_active Expired - Lifetime
- 2008-03-11 JP JP2008061142A patent/JP4709242B2/ja not_active Expired - Lifetime
- 2008-03-11 JP JP2008060950A patent/JP4625100B2/ja not_active Expired - Lifetime
- 2008-03-11 JP JP2008060955A patent/JP4625101B2/ja not_active Expired - Lifetime
- 2008-03-11 JP JP2008061567A patent/JP4625104B2/ja not_active Expired - Lifetime
- 2008-03-11 JP JP2008061116A patent/JP4709241B2/ja not_active Expired - Lifetime
- 2008-03-11 JP JP2008060987A patent/JP2008182742A/ja active Pending
- 2008-03-11 JP JP2008060935A patent/JP2008182738A/ja active Pending
- 2008-10-08 US US12/285,553 patent/US8432969B2/en active Active
- 2008-10-08 US US12/285,545 patent/US8345758B2/en active Active
- 2008-10-08 US US12/285,552 patent/US8422556B2/en active Active
- 2008-10-08 US US12/285,546 patent/US8351505B2/en active Active
- 2008-10-09 US US12/285,628 patent/US8385417B2/en active Active
- 2008-10-09 US US12/285,627 patent/US8428134B2/en active Active
- 2008-10-09 US US12/285,624 patent/US8351507B2/en active Active
- 2008-10-09 US US12/285,626 patent/US8416853B2/en active Active
- 2008-10-10 US US12/285,667 patent/US8351506B2/en active Active
- 2008-10-10 US US12/285,668 patent/US8396128B2/en active Active
- 2008-10-10 US US12/285,665 patent/US8416854B2/en active Active
- 2008-10-10 US US12/285,664 patent/US8411748B2/en active Active
-
2009
- 2009-03-17 JP JP2009065104A patent/JP4625132B2/ja not_active Expired - Lifetime
- 2009-03-17 JP JP2009065130A patent/JP4709292B2/ja not_active Expired - Lifetime
- 2009-03-17 JP JP2009065000A patent/JP2009135989A/ja active Pending
- 2009-03-17 JP JP2009065198A patent/JP2009135994A/ja active Pending
- 2009-03-17 JP JP2009064940A patent/JP4625131B2/ja not_active Expired - Lifetime
- 2009-03-17 JP JP2009065025A patent/JP4709291B2/ja not_active Expired - Lifetime
-
2010
- 2010-12-22 CY CY20101101181T patent/CY1111026T1/el unknown
- 2010-12-22 CY CY20101101177T patent/CY1111023T1/el unknown
- 2010-12-22 CY CY20101101178T patent/CY1111024T1/el unknown
- 2010-12-22 CY CY20101101182T patent/CY1111027T1/el unknown
- 2010-12-22 CY CY20101101179T patent/CY1111025T1/el unknown
-
2011
- 2011-01-04 CY CY20111100014T patent/CY1111077T1/el unknown
- 2011-02-07 CY CY20111100139T patent/CY1111539T1/el unknown
- 2011-02-14 CY CY20111100181T patent/CY1111198T1/el unknown
- 2011-02-14 CY CY20111100180T patent/CY1111204T1/el unknown
-
2013
- 2013-03-26 US US13/850,332 patent/US8638856B2/en not_active Expired - Lifetime
- 2013-12-11 US US14/103,393 patent/US8891623B2/en not_active Expired - Lifetime
- 2013-12-11 US US14/103,380 patent/US9042451B2/en not_active Expired - Lifetime
- 2013-12-11 US US14/103,450 patent/US9066106B2/en not_active Expired - Lifetime
- 2013-12-11 US US14/103,403 patent/US9042452B2/en not_active Expired - Lifetime
- 2013-12-11 US US14/103,414 patent/US8891624B2/en not_active Expired - Lifetime
- 2013-12-11 US US14/103,413 patent/US9042453B2/en not_active Expired - Lifetime
-
2015
- 2015-04-28 US US14/698,410 patent/US9743108B2/en not_active Expired - Lifetime
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101039433B (zh) * | 2006-03-15 | 2011-08-31 | 富士通株式会社 | 视频编码方法和视频编码装置 |
CN101119493B (zh) * | 2007-08-30 | 2010-12-01 | 威盛电子股份有限公司 | 区块式数字编码图像的译码方法及装置 |
CN102065290A (zh) * | 2009-11-11 | 2011-05-18 | 联发科技股份有限公司 | 视讯译码装置、存储运动矢量信息的方法及存储器分配方法 |
US8594200B2 (en) | 2009-11-11 | 2013-11-26 | Mediatek Inc. | Method of storing motion vector information and video decoding apparatus |
US8599924B2 (en) | 2009-11-11 | 2013-12-03 | Mediatek Inc. | Method of storing motion vector information and video decoding apparatus |
CN103813172B (zh) * | 2009-11-11 | 2017-03-01 | 联发科技股份有限公司 | 视讯译码装置及存储器分配方法 |
CN103229504B (zh) * | 2010-11-29 | 2016-08-17 | 联发科技股份有限公司 | 获取运动矢量预测值的方法与装置 |
CN103229504A (zh) * | 2010-11-29 | 2013-07-31 | 联发科技股份有限公司 | 在Inter/Merge/Skip模式下获取运动矢量/运动矢量预测值候选装置及方法 |
CN103563364A (zh) * | 2011-06-07 | 2014-02-05 | 索尼公司 | 图像处理设备及方法 |
CN103563364B (zh) * | 2011-06-07 | 2016-03-30 | 索尼公司 | 图像处理设备及方法 |
CN104796699A (zh) * | 2011-07-02 | 2015-07-22 | 三星电子株式会社 | 对视频编码的方法和设备以及对视频解码的方法和设备 |
CN104780363A (zh) * | 2011-07-02 | 2015-07-15 | 三星电子株式会社 | 对视频编码的方法和设备以及对视频解码的方法和设备 |
US9762924B2 (en) | 2011-07-02 | 2017-09-12 | Samsung Electronics Co., Ltd. | Method and apparatus for coding video, and method and apparatus for decoding video accompanied by inter prediction using collocated image |
CN104796699B (zh) * | 2011-07-02 | 2018-01-16 | 三星电子株式会社 | 对视频编码的方法和设备以及对视频解码的方法和设备 |
US10034014B2 (en) | 2011-07-02 | 2018-07-24 | Samsung Electronics Co., Ltd. | Method and apparatus for coding video, and method and apparatus for decoding video accompanied by inter prediction using collocated image |
US10397601B2 (en) | 2011-07-02 | 2019-08-27 | Samsung Electronics Co., Ltd. | Method and apparatus for coding video, and method and apparatus for decoding video accompanied by inter prediction using collocated image |
WO2020140916A1 (zh) * | 2019-01-03 | 2020-07-09 | 深圳市大疆创新科技有限公司 | 视频处理方法和装置 |
CN111630861A (zh) * | 2019-01-03 | 2020-09-04 | 深圳市大疆创新科技有限公司 | 视频处理方法和装置 |
CN111630861B (zh) * | 2019-01-03 | 2021-08-24 | 深圳市大疆创新科技有限公司 | 视频处理方法和装置 |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN1487748A (zh) | B图像的直接模式运动矢量计算方法 | |
CN1297148C (zh) | 动画图像编码传送***、动画图像编码传送方法、该***和方法使用的适合的编码装置、译码装置、编码方法、译码方法以及程序 | |
CN1596547A (zh) | 移动图像编码设备、移动图像解码设备、移动图像编码方法、移动图像解码方法、程序和存储程序的计算机可读记录媒介 | |
CN1272967C (zh) | 视频编码方法和装置 | |
CN1176548C (zh) | 信息接收记录重放装置、信息接收记录重放方法 | |
CN1196319C (zh) | 图象解码装置和图象解码方法 | |
CN1640142A (zh) | 对小波变换系数进行编码的方法和设备 | |
CN1471319A (zh) | 结合率失真优化的码率控制的方法及其装置 | |
CN1993993A (zh) | 图像处理设备、其程序、及其方法 | |
CN1790912A (zh) | 半导体集成电路装置 | |
CN1773590A (zh) | 电流驱动器 | |
CN1960496A (zh) | 运动矢量检测装置 | |
CN1956545A (zh) | 图像处理装置、图像处理方法、记录介质和程序 | |
CN1335724A (zh) | 编码装置和编码方法 | |
CN1948974A (zh) | 半导体集成电路装置及电子装置 | |
CN1110963C (zh) | 图象解码装置 | |
CN1744720A (zh) | 可变长度解码装置 | |
CN1578468A (zh) | 视频解码设备 | |
CN1292201A (zh) | 图象解码装置和图象编码装置 | |
CN1770864A (zh) | 基于avs的4×4离散余弦变换的快速并行装置及其方法 | |
CN1444408A (zh) | 图像处理设备、图像处理程序和图像处理方法 | |
CN1647524A (zh) | 图像变换装置和图像变换方法 | |
CN1182333A (zh) | 图象编、译码装置和方法及图象编、译码程序记录介质 | |
CN1917645A (zh) | 对系数块进行编码的方法 | |
CN1288641A (zh) | 视频信号编码方法、视频信号编码装置及程序记录媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CX01 | Expiry of patent term | ||
CX01 | Expiry of patent term |
Granted publication date: 20060809 |