JP2012142702A - 画像処理装置および方法、並びにプログラム - Google Patents

画像処理装置および方法、並びにプログラム Download PDF

Info

Publication number
JP2012142702A
JP2012142702A JP2010292619A JP2010292619A JP2012142702A JP 2012142702 A JP2012142702 A JP 2012142702A JP 2010292619 A JP2010292619 A JP 2010292619A JP 2010292619 A JP2010292619 A JP 2010292619A JP 2012142702 A JP2012142702 A JP 2012142702A
Authority
JP
Japan
Prior art keywords
image
motion vector
detected
pmv
mode
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010292619A
Other languages
English (en)
Inventor
Masamichi Nagone
正道 名郷根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2010292619A priority Critical patent/JP2012142702A/ja
Priority to US13/287,543 priority patent/US20120163711A1/en
Priority to CN2011104286362A priority patent/CN102572424A/zh
Publication of JP2012142702A publication Critical patent/JP2012142702A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/521Processing of motion vectors for estimating the reliability of the determined motion vectors or motion vector field, e.g. for smoothing the motion vector field or for correcting motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/567Motion estimation based on rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/147Data rate or code amount at the encoder output according to rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/19Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding using optimisation based on Lagrange multipliers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

【課題】動きベクトルの検出の精度を向上させる。
【解決手段】動きベクトルの検出対象となっている画像に、エッジを含む画像があるか否かが判断される。エッジがあると判断された場合、予測動きベクトル(PMV)を優遇するための処理が行われ、エッジがないと判断された場合、予測動きベクトルを優遇する処理は行われず、通常の処理が行われる。PMVが優遇されるとは、PMVが他の動きベクトルよりも選択されやすいように、PMVのコスト関数値が他の動きベクトルのコスト関数値よりも小さい値になるような演算が行われる。本発明は、AVC(Advanced Video Coding)方式のエンコーダに適用できる。
【選択図】図8

Description

本発明は画像処理装置および方法、並びにプログラムに関し、特に、エンコード時の画質の劣化を防ぐことができるようにした画像処理装置および方法、並びにプログラムに関する。
近年、画像情報をデジタルとして取り扱い、その際、効率の高い情報の伝送、蓄積を目的とし、画像情報特有の冗長性を利用して、離散コサイン変換等の直交変換と動き補償により圧縮する符号化方式を採用して画像を圧縮符号する装置が普及しつつある。この符号化方式には、例えば、MPEG(Moving Picture Experts Group)などがある。
特に、MPEG2(ISO/IEC 13818-2)は、汎用画像符号化方式として定義されており、飛び越し走査画像及び順次走査画像の双方、並びに標準解像度画像及び高精細画像を網羅する標準である。例えば、MPEG2は、プロフェッショナル用途及びコンシューマ用途の広範なアプリケーションに現在広く用いられている。MPEG2は主として放送用に適合する高画質符号化を対象としていたが、MPEG1より低い符号量(ビットレート)、つまりより高い圧縮率の符号化方式には対応していなかった。携帯端末の普及により、今後そのような符号化方式のニーズは高まると思われ、これに対応してMPEG4符号化方式の標準化が行われた。画像符号化方式に関しては、1998年12月にISO/IEC 14496-2としてその規格が国際標準に承認された。
さらにH.26L (ITU-T Q6/16 VCEG)という規格がある。H.26Lは、MPEG2やMPEG4といった符号化方式に比べ、その符号化、復号化により多くの演算量が要求されるものの、より高い符号化効率が実現されることが知られている。その後、MPEG4の活動の一環として、このH.26Lをベースに、H.26Lではサポートされない機能をも取り入れ、より高い符号化効率を実現する標準化がJoint Model of Enhanced-Compression Video Codingとして行われている。2003年3月にはH.264及びMPEG-4 Part10 (Advanced Video Coding、以下H.264/AVCと記す)という国際標準となっている。
H.264/AVC Software Coordination [online][平成22年12月9日]検索インターネット<URL:http://iphome.hhi.de/suehring/tml/>
符号化した結果、画質が劣化する場合がある。図1に画質劣化の一例を示す。図1は、所定の解析用のソフトウェアを用いて、符号化時に検出された動きベクトルを可視化し、画像上に重畳した図である。図1には、高層ビルが映し出されており、この高層ビルを下から上方向にチルトして撮影したときに得られる1画像上に、動きベクトルを可視化して重畳している。図1において、白い点(線)は、動きベクトル(ただし、図1においては、方向は示していない)を示している。下から上方向にチルトして撮影された画像上では、動きベクトルは、同一方向に同じ量だけ移動するベクトルとして検出される。よって、そのような動きベクトルを可視化した場合、同じ長さの線(点)になる。
しかしながら、図1において、楕円11で囲った部分内には、他の動きベクトルとは異なる方向や長さで検出された動きベクトルが検出されたため、他の部分とは異なる長さの線が存在している。図1の楕円11内の一部分をさらに拡大した図を、図2に示す。図2に示した動きベクトルのうち、例えば、動きベクトル21と動きベクトル22は、長さが異なる。動きベクトル22と同じ長さのベクトルは、図1中に多数存在し、動きベクトル22は、正しく検出されたベクトルであると判断できる。よって、動きベクトル21は、誤検出されたベクトルであると判断できる。このような動きベクトルの誤検出は、画質の劣化を招くことになり、改善されることが望まれている。
また他の例として、図3を示す。図3は、車道沿いにカメラを固定し、車の行き来を撮影した映像の1画像上に、動きベクトルを可視化して重畳した図である。図1と同じく、図3においても、白い点(線)は、動きベクトルを示している。図3においては、固定カメラで撮影されている。よって、車道は固定であり、車が移動している映像が撮影されるため、車道からは動きベクトルが検出されず、車からは動きベクトルが検出される状態である。
しかしながら、図3を参照するに、楕円31内の車の付近の車道上にも動きベクトルが検出されたことを示す線が存在する。図3を参照すると、楕円31内に限らず、他の部分においても、動いている物体の近傍にある静止している物体上にも、動きベクトルが検出されていることが読み取れる。このように、動いている物体の近傍で、本来検出されない動きベクトルが検出されることがあり、このような誤検出は、上記した場合と同じく、画質の劣化を招くことになり、改善されることが望まれている。
本発明は、このような状況に鑑みてなされたものであり、符号化により画質が劣化してしまうことを防ぐことができるようにするものである。
本発明の一側面の画像処理装置は、画像内に連続するエッジが検出されたか否かを判断する判断部と、前記判断部で連続するエッジが検出されたと判断された場合、予測動きベクトルが、他の動きベクトルよりも優遇されるように処理する優遇部とを備える。
前記判断部は、クロマイントラモードにおけるモードの情報を用いるようにすることができる。
前記判断部は、クロマイントラモードが水平予測モードまたは垂直予測モードのとき、連続するエッジが検出されたと判断するようにすることができる。
前記優遇部は、前記予測動きベクトルのコスト関数値から、所定の値を減算するようにすることができる。
本発明の一側面の画像処理方法は、判断部と優遇部を備える画像処理装置の画像処理方法において、前記判断部は、画像内に連続するエッジが検出されたか否かを判断し、前記優遇部は、前記判断部で連続するエッジが検出されたと判断された場合、予測動きベクトルが、他の動きベクトルよりも優遇されるように処理するステップを含む。
本発明の一側面のプログラムは、判断部と優遇部を備える画像処理装置を制御するコンピュータに、前記判断部は、画像内に連続するエッジが検出されたか否かを判断し、前記優遇部は、前記判断部で連続するエッジが検出されたと判断された場合、予測動きベクトルが、他の動きベクトルよりも優遇されるように処理するステップを含む処理を実行させるためのプログラムである。
本発明の一側面の画像処理装置および方法、並びにプログラムにおいては、画像内に連続するエッジが検出された場合、予測動きベクトルが、他の動きベクトルよりも優遇されるように処理がされる。
本発明の一側面によれば、符号化により画質が劣化してしまうことを防ぐことが可能となる。
検出される動きベクトルについて説明するための図である。 検出される動きベクトルについて説明するための図である。 検出される動きベクトルについて説明するための図である。 エンコーダの一実施の形態の構成を示す図である。 インタレースについて説明するための図である。 誤検出について説明するための図である。 検出される動きベクトルについて説明するための図である。 動き予測装置の動作について説明するためのフローチャートである。 イントラクロマのモードについて説明するための図である。 記録媒体について説明するための図である。
以下に、本発明の実施の形態について図面を参照して説明する。
[エンコーダの構成例]
図4は、AVC(Advanced Video Coding)方式のエンコーダの一実施の形態の構成例を示すブロック図である。図4のエンコーダは、A/D変換装置101、画面並べ替えバッファ102、演算装置103、直交変換装置104、量子化装置105、可逆符号化装置106、蓄積バッファ107、逆量子化装置108、逆直交変換装置109、加算装置110、デブロックフィルタ111、フレームメモリ112、動き補償装置113、イントラ予測装置114、レート制御装置115、動き予測装置116、および選択装置117により構成される。図4のエンコーダは、入力された画像をAVC方式で圧縮符号化する。
具体的には、エンコーダのA/D変換装置101は、入力信号として入力されたフレーム単位の画像をA/D変換し、画面並べ替えバッファ102に出力し、記憶させる。画面並べ替えバッファ102は、記憶した表示の順番のフレームの画像を、GOP(Group of Picture)構造に応じて、符号化のための順番に並べ替える。
演算装置103は、必要に応じて、画面並べ替えバッファ102から読み出された画像から、選択装置117から供給される予測画像を減算する。演算装置103は、減算の結果得られる画像を、残差情報として直交変換装置104に出力する。演算装置103は、選択装置117から予測画像が供給されない場合、画面並べ替えバッファ102から読み出された画像をそのまま残差情報として直交変換装置104に出力する。
直交変換装置104は、演算装置103からの残差情報に対して、ブロックサイズに応じた直交変換処理を行い、直交変換処理の結果得られる係数を量子化装置105に供給する。量子化装置105は、直交変換装置104から供給される係数を量子化する。量子化された係数は、可逆符号化装置106に入力される。可逆符号化装置106は、最適イントラ予測モードを示す情報(以下、イントラ予測モード情報という)をイントラ予測装置114から取得し、最適インター予測モードを示す情報(以下、インター予測モード情報という)、動きベクトルの情報などを動き予測装置116から取得する。
可逆符号化装置106は、量子化装置105から供給される量子化された係数に対して、可変長符号化(例えば、CAVLC(Context-Adaptive Variable Length Coding)など)、算術符号化(例えば、CABAC(Context-Adaptive Binary Arithmetic Coding)など)などの可逆符号化を行い、その結果得られる情報を圧縮画像とする。また、可逆符号化装置106は、イントラ予測モード情報、インター予測モード情報、動きベクトルの情報などを可逆符号化し、その結果得られる情報を圧縮画像に付加されるヘッダ情報とする。可逆符号化装置106は、可逆符号化の結果得られるヘッダ情報が付加された圧縮画像を画像圧縮情報として蓄積バッファ107に供給し、蓄積させる。
蓄積バッファ107は、可逆符号化装置106から供給される画像圧縮情報を、一時的に記憶し、例えば、後段の図示せぬ記録装置や伝送路などに出力する。また、量子化装置105より出力された、量子化された係数は、逆量子化装置108にも入力され、逆量子化された後、逆直交変換装置109に供給される。
逆直交変換装置109は、逆量子化装置108から供給される係数に対して、ブロックサイズに応じた逆直交変換処理を行い、逆直交変換処理の結果得られる残差情報を加算装置110に供給する。加算装置110は、逆直交変換装置109から供給される残差情報を、必要に応じて、イントラ予測装置114または動き補償装置113から供給される予測画像と加算し、局部的に復号された画像を得る。加算装置110は、得られた画像をデブロックフィルタ111に供給するとともに、参照画像としてイントラ予測装置114に供給する。
デブロックフィルタ111は、加算装置110から供給される局部的に復号された画像をフィルタリングすることにより、ブロック歪を除去する。デブロックフィルタ111は、その結果得られる画像をフレームメモリ112に供給し、蓄積させる。フレームメモリ112に蓄積された画像は、参照画像として動き補償装置113および動き予測装置116に出力される。
動き補償装置113は、動き予測装置116から供給される動きベクトルとインター予測モード情報に基づいて、フレームメモリ112から供給される参照画像に対して補償処理を行い、予測画像を生成する。動き補償装置113は、動き予測装置116から供給されるコスト関数値(詳細は後述する)と、生成された予測画像とを選択装置117に供給する。
なお、コスト関数値は、RD(Rate Distortion)コスト関数値ともいい、例えば、AVC方式における参照ソフトウェアであるJM(Joint Model)で定められているような、High Complexity モードか、Low Complexity モードのいずれかの手法に基づいて算出される。
具体的には、コスト関数値の算出手法としてHigh Complexity モードが採用される場合、候補となる全ての予測モードに対して、仮に可逆符号化までが行われ、次の式(1)で表わされるコスト関数値が各予測モードに対して算出される。
Cost=D+λ×R ・・・(1)
Dは、原画像と復号画像の差分(歪)、Rは、直交変換の係数まで含んだ発生符号量、λは、量子化パラメータQPの関数として与えられるラグランジュ乗数である。
一方、コスト関数値の算出手法としてLow Complexity モードが採用される場合、候補となる全ての予測モードに対して、復号画像の生成、および、予測モードを示す情報などのヘッダビットの算出が行われ、次の式(2)で表わされるコスト関数値関数が各予測モードに対して算出される。
Cost=D+QPtoQuant(QP)×Header_Bit ・・・(2)
Dは、原画像と復号画像の差分(歪)、QPtoQuantは、量子化パラメータQPの関数として与えられる関数(Q値)であり、Header_Bitは、予測モードに対するヘッダビットである。
Low Complexity モードにおいては、全ての予測モードに対して、復号画像を生成するだけでよく、可逆符号化を行う必要がないため、演算量が少なくて済む。なお、ここでは、コスト関数値の算出手法としてLaw Complexity モードが採用されるものとする。
イントラ予測装置114は、画面並べ替えバッファ102から読み出された画像と、加算装置110から供給された参照画像とに基づいて、候補となる全てのブロックサイズのブロック単位で、候補となる全てのイントラ予測モードのイントラ予測処理を行い、予測画像を生成する。
また、イントラ予測装置114は、候補となる全てのイントラ予測モードおよびブロックサイズに対してコスト関数値を算出する。そして、イントラ予測装置114は、コスト関数値が最小となるイントラ予測モードおよびブロックサイズの組み合わせを最適イントラ予測モードに決定する。イントラ予測装置114は、最適イントラ予測モードで生成された予測画像、および、対応するコスト関数値を、選択装置117に供給する。イントラ予測装置114は、選択装置117から最適イントラ予測モードで生成された予測画像の選択が通知された場合、イントラ予測モード情報を可逆符号化装置106に供給する。
動き予測装置116は、画面並べ替えバッファ102から供給される画像と、フレームメモリ112から供給される参照画像とに基づいて、候補となる全てのインター予測モードの動き予測行い、動きベクトルを生成する。このとき、動き予測装置116は、候補となる全てのインター予測モードに対してコスト関数値を算出し、コスト関数値が最小となるインター予測モードを最適インター測モードに決定する。そして、動き予測装置116は、インター予測モード情報、並びに、対応する動きベクトルおよびコスト関数値を動き補償装置113に供給する。動き予測装置116は、選択装置117から最適インター予測モードで生成された予測画像の選択が通知された場合、インター予測モード情報、対応する動きベクトルの情報などを可逆符号化装置106に出力する。
選択装置117は、イントラ予測装置114および動き補償装置113から供給されるコスト関数値に基づいて、最適イントラ予測モードと最適インター予測モードのうちのいずれかを、最適予測モードに決定する。そして、選択装置117は、最適予測モードの予測画像を、演算装置103および加算装置110に供給する。また、選択装置117は、最適予測モードの予測画像の選択をイントラ予測装置114または動き予測装置116に通知する。
レート制御装置115は、蓄積バッファ107に蓄積された画像圧縮情報に基づいて、オーバーフローあるいはアンダーフローが発生しないように、量子化装置105の量子化動作のレートを制御する。
[動きベクトルの生成について]
次に、動き予測装置116が行う動きベクトルの生成について説明する。ここで、図1乃至3を再度参照する。図1乃至3を参照して、動きベクトルが誤検出されることがあることを説明した。誤検出される一因について図5を参照して説明する。図5において、原画201乃至204は、原画を示す。原画201の次の画像が、原画202であり、原画202の次の画像が、原画203であり、原画203の次の画像が、原画204である。原画201乃至204には、それぞれ斜めの線が映し出されており、原画201から原画204へと時間経過と共に、その斜めの線が、上方向に移動していく映像である。
このような原画201乃至204をインターレース(Interlace)に変換する際の走査線を擬似的に図示したのが原画211乃至214である。原画211からトップフィールド221が生成され、原画212からボトムフィールド222が生成される。同じく、原画213からトップフィールド223が生成され、原画214からボトムフィールド224が生成される。このように1原画から1枚のフィールドが生成される。よって、図5に示したような斜め線などの場合、例えば、トップフィールド221を参照するに、斜め線のうちの一部分が、ボトムフィールド222に含まれるため、トップフィールド221だけで見ると斜め線の一部分が欠落した状態になる。
このような欠欄した情報があるフィールド同士、例えば、トップフィールド221とトップフィールド223、またはボトムフィールド222とボトムフィールド224を比較して動きベクトルを検出した場合、誤検出される可能性がある。トップフィールド221とトップフィールド223を用いて動きベクトルが検出されるときについて、さらに、図6を参照して説明する。
図6(A)は、原画201と原画203を重ね合わせて表示したときの状態を想定し、一部分を拡大した図である。斜め線L1が原画201における斜め線を表し、斜め線L2が原画203における斜め線を表している。原画201から原画203へは、斜め線L1が上方向に移動し斜め線L2の位置に来ることを意味している。このような斜め線が上方向に移動しただけなので、本来、動きベクトルは、図6(A)に示したように、上方向の動きベクトルMV1が検出されるはずである。換言すれば、斜め線L1上の点P1が斜め線L2上の点P2に移動したと検出され、動きベクトルMV1が検出される。
しかしながら、図6(B)に示すように、トップフィールド221とトップフィールド223から動きベクトルが検出された場合、誤った動きベクトルMV2が検出される可能性がある。図6(B)は、トップフィールド221とトップフィールド223を重ね合わせて表示したときの状態を想定し、一部分を拡大した図である。トップフィールド221における斜め線L1とトップフィールド223における斜め線L2は、それぞれ、図6(B)に示した部分だけが、それぞれのフィールドに含まれる。
斜め線L1の一部分である斜め線L1’は、本来、ボトムフィールド222に含まれる斜め線L2の一部分に移動しているが、トップフィールド223には、その部分が含まれていないため、動きベクトルの検出時には、トップフィールド223に含まれる斜め線L2の一部分である斜め線L2’が用いられる。このため、斜め線L1’と斜め線L2’が用いられて動きベクトルが検出されると、斜め線L1’上の点P1’が斜め線L2’上の点P2’に移動したと判断され、動きベクトルMV2が検出される可能性がある。
動きベクトルが誤検出される原因の一因として、このようなことが考えられる。ここであげた原因は、一因であり、他の要因もある。また、上記した説明では、斜め線を例にあげて説明したが、斜め線に限らず、縦線や横線といった場合でも誤検出が起きる可能性はある。原因によらず、誤検出が行われると、図1乃至3を参照して説明したように、正しく検出された動きベクトルの中に、誤検出された動きベクトルが存在し、そのために、画質が劣化してしまう可能性がある。
そこで、このような誤検出が行われないようにする。後述するような処理を、動き予測装置116が行うことで、図7に示すような結果が得られる。図7は、図1の楕円11内の一部分をさらに拡大した図であり、図2と同一箇所の図であるが、図2のときと異なる処理で動きベクトルを算出した場合の図である。図2と比較して説明する。図2において、動きベクトル21と動きベクトル22は、異なる大きさの動きベクトルであることが図2から読み取れる。これに対して、動きベクトル21と動きベクトル22に対応する図7における動きベクトル21’と動きベクトル22’は、同一の大きさの動きベクトルであることが図7から読み取れる。
このように、後述する処理が実行されることで、誤検出される動きベクトルの数を減らすことができる。よって、符号化することで画質が劣化するようなことを防ぐことが可能となる。
[動き予測装置116の処理について]
次に、動き予測装置116の処理について説明する。図8は、動き予測装置116が行う処理について説明するためのフローチャートである。動き予測装置116は、画面並べ替えバッファ102から供給される画像と、フレームメモリ112から供給される参照画像とに基づいて、候補となる全てのインター予測モードの動き予測を行い、動きベクトルを生成する。
ステップS11において、SADが算出される。SADとは、Sum of Absolute Differenceの略であり、差分絶対値などと訳される。SADは、例えば、ブロックマッチングの処理が行われるときに算出される。基準画像M1が、複数の基準ブロックに分割され、この基準ブロックについて、ブロックマッチングが行われる。すなわち、基準ブロックが、比較画像Mnの、どの位置にずれているかがサーチ(探索)され、その位置ずれ量が、基準ブロックについての動きベクトルとして検出される。
比較画像Mnにおいて、基準ブロックをサーチするサーチ範囲には、その基準ブロックの位置を基準とする範囲が設定される。そして、比較画像Mnのサーチ範囲内において、基準ブロックと同一サイズの参照ブロックが、画素単位でずらされながら、基準ブロックに最も類似する参照ブロックの位置の探索が行われる。すなわち、基準ブロックと参照ブロックとの相関値が、基準ブロックと参照ブロックとの類似の度合いを評価する評価値として用いられ、サーチ範囲内の各位置の参照ブロックについて、相関値が求められ。
相関値としては、例えば、基準ブロックの画素の輝度値と、参照ブロックの同一の位置の画素の輝度値との差分の絶対値の、基準ブロック及び参照ブロック内の全画素についてSADが用いられる。ステップS11においては、相関値SADを最小にする座標(相対座標)が、基準ブロックの動きベクトルとして検出される。また、最小となるSADは、以下の式においても用いられる。
ステップS12において、Cost(以下、コスト関数値と記述する)が算出される。コスト関数値の算出は、上記したようにAVC方式における参照ソフトウェアであるJM(Joint Model)で定められているような、High Complexity モードか、Low Complexity モードのいずれかの手法に基づいて行われる。ここでは、コスト関数値の算出手法としてLaw Complexity モードが採用されるものとするため、式(2)により、コスト関数値が算出される。ここで、式(2)を再度記載する。
Cost=D+QPtoQuant(QP)×Header_Bit ・・・(2)
Dは、原画像と復号画像の差分(歪)であり、ここでは、ステップS11において算出されたSADが用いられる。QPtoQuantは、量子化パラメータQPの関数として与えられる関数(Q値)であり、Header_Bitは、予測モードに対するヘッダビットである。Dを、SADで書き換えると、次式(2)’になる。また、次式(2)’で算出される値を通常コスト関数値と記載する。
Cost=SAD+QPtoQuant(QP)×Header_Bit ・・・(2)’
ステップS13において、エッジが検出されたか否かが判断される。ステップS13において、エッジは検出されていないと判断された場合、ステップS14に処理が進められ、エッジが検出されたと判断された場合、ステップS15に処理が進められる。ステップS14において、PMV(predicted motion vector;予測ベクトル)を優遇しないと設定され、PMVのコスト関数値が算出される。ステップS14において算出されるコスト関数値は、通常コスト関数値と記述する。
PMVは、その予測ベクトルPMVを算出する対象のマクロブロック(カレントマクロブロック)である場合、そのカレントマクロブロックの左横、左上、上、右上にそれぞれ位置している符号化済のマクロブロックA,B,Cの動きベクトルMVa,MVb,MVc, MVdを用いて、そのカレントマクロブロックの予測ベクトルPMVが算出される。すなわち、符号化済のマクロブロックA,B,C, Dの動きベクトルMVa,MVb,MVc,MVdのメディアン(中央値)を求めることにより、PMVが算出される。
一方、ステップS13において、エッジが検出されたと判断された場合、PMVを優遇すると設定あれ、PMVのコスト関数値が算出される。PMV優遇がされる場合、次式(4)に基づきコスト関数値が算出される。
Cost_PMV=SAD+QPtoQuant(QP)×Header_Bit-PMVoffset ・・・(4)
式(4)は、式(2)’で求められる通常コスト関数値から、PMVoffsetを減算することでコスト関数値を算出する式である。式(4)で算出される値をPMV優遇コスト関数値と記載する。後述するように、通常コスト関数値やPMV優遇コスト関数値の中で最も小さい値のコスト関数値が選択される。PMV優遇とは、式(4)で算出されるPMV優遇コスト関数値が小さくなるように、オフセット分の値(PMVoffset)を減算し、他のコスト関数値よりも選択されやすいようにすることを意味する。
PMV優遇がされる場合、周りのブロックから検出される動きベクトルから算出されるPMVから、所定の値(PMVoffset)が減算されることで、PMV優遇の処理が実行される。エッジが検出されたときに、PMV優遇することについての理由については、後述し、先に、図8のフローチャートの説明を続ける。ステップS14においてPMV優遇が行われなかった場合、またはステップS15においてPMV優遇が行われた場合、ステップS16に処理が進められる。ステップS16において、全てのモードでコスト関数値を算出したか否かが判断される。モードとしては、16×16、16×8、8×16、8×8、4×8、8×4、4×4、およびPMVがある。
なお、ステップS13乃至S15の処理は、PMVモードのときに係わる処理のため、PMVモードのときだけ行われるようにしても良い。例えば、ステップS12とステップS13の間に、PMVモードであるか否かを判断する処理を設け、PMVモードであるときには、ステップS13に処理が進められ、PMVモードでない場合には、ステップS16に処理が進められるような処理の流れにしても良い。
ステップS16において、全てのモードに対するコスト関数値の算出はしていないと判断された場合、ステップS11に処理が戻され、まだ処理を行っていないモードに移行して、ステップS11以降の処理が繰り返される。一方、ステップS16において、全てのモードに対するコスト関数値の算出をしたと判断された場合、ステップS17に処理が進められる。ステップS17において、算出された通常コスト関数値とPMV優遇コスト関数値のうち、最も値が小さいコスト関数値が選択され、その最も値が小さいコスト関数値が算出されたときのモードが求められる。そして、ステップS18において、決定されたモードにおけるMV(動きベクトル)が、最終的な動きベクトルとして設定される。
このように、本実施の形態においては、所定の状況が満たされるか否か、上記した実施の形態においては、画像内にエッジが検出されたという状況が満たされるか否かが判断され、所定の状況が満たされると判断された場合、予測動きベクトル(PMV)が、他の動きベクトル(MV)よりも優遇されるように処理が実行される。このような処理が実行されることで、検出される動きベクトルの精度を向上させることができる。
[PMV優遇について]
ここで、ステップS13において、エッジが抽出された場合に、PMVモードが選択されやすいように優遇される理由について説明する。上記したように、PMVは、対象とされているカレントマクロブロックの左横、左上、上、右上にそれぞれ位置している符号化済のマクロブロックの動きベクトルが用いられて算出される。すなわち、PMVは、隣接するブロックから求められる動きベクトルであるため、隣接するブロックの影響を受けやすいベクトルである。よって、PMVは、隣接するブロックの動きベクトルと揃えた方が好ましいときに用いられると良い。
例えば、図1(図2)を参照して説明たような映像の場合、PMVを用いることで、隣接する他の動きベクトルと揃えることができ、例えば、図2に示した動きベクトル21を、動きベクトル22と揃えることができる。動きベクトル21と動きベクトル22が揃うことで、結果的に、図7に示したように、誤検出されたベクトルが無い状態にすることが可能となる。
一方で、PMVは、周りの動きベクトルの影響を受けるため、周りの動きベクトルと揃えることが好ましくない状況で用いると、動きベクトルの誤検出がされる可能性が高くなる。例えば、図3を参照して説明したように、固定されたカメラで車道上を行き来する車を撮影したような映像において、車の移動により検出された動きベクトルに、車道の動きベクトルが揃えられると、本来、車道からは動きベクトルが検出されないことが好ましいにも係わらず、車道上にも動きベクトルが検出されるという誤検出がされてしまうことになる。このような場合には、PMVを用いない方が好ましい。
このように、PMVを用いた方が好ましい状況と好ましくない状況とがある。図1を参照して説明したような状況のときには、PMVを用いた方が好ましく、図3を参照して説明したような状況のときには、PMVを用いない方が好ましい。PMVを用いた方が好ましい状況のときには、PMV優遇し、PMVが選択されやすいように制御し、PMVを用いない方が好ましい状況のときには、PMV優遇をせずに、PMVが選択されずらいように制御する。上記したように、図8のフローチャートにおける処理では、ステップS14において、PMV優遇をしないという制御を行い、ステップS15において、PMV優遇するという制御を行う。
なお、PMVを優遇しないときであっても、結果としてPMVが選択されることはありうるし、PMVが選択された場合には、他の動きベクトルよりも適切であると判断されたときであるので、問題が生じるようなことはない。同様に、PMVを優遇したときであっても、結果として、PMVが選択されないことはありうるし、PMVが選択されなかった場合には、他の動きベクトルが適切であると判断されたときであるので、問題が生じるようなことはない。
また、本実施の形態においては、所定の条件のときには、PMVが選択されやすいように優遇するだけであり、所定の条件のときには、PMVを選択するように制御するのではない。よって、所定の条件が満たされるときであっても、PMVが最適な動きベクトルではないときには、PMVが選択されないように制御することが可能となる。このような制御が行えるようになることで、適切な動きベクトルを検出し、誤検出を低減させることが可能となる。
また、上記したようにPMVが優遇されるとき、式(4)に基づきPMV優遇コスト関数値が算出される。式(4)において、通常コスト関数値から減算されるPMVoffset(所定の値)を、適切に設定することで、PMVが選択されることが好ましい状況のときには、PMVが他の動きベクトルよりも選択されやすいように制御することが可能となる。換言すれば、PMVoffsetの値を適切に設定することで、検出される動きベクトルの精度を向上させることが可能となる。PMVoffsetは、固定値であっても良いし、可変値であっても良い。可変値にした場合、所定の状況に依存して可変される値とすることができる。
所定の状況が満たされるとき、PMVが優遇されるとして説明したが、所定の状況とは、上記した実施の形態においては、エッジが検出された状況であるか否かである。上記したように、PMVを優遇し、PMVが選択された方が好ましい画像(映像)とは、例えば、図1に示したような映像である。図1を再度参照するに、誤検出されやすい箇所は、直線が存在しているような箇所である。直線は、縦方向、横方向のどちらでも、誤検出される可能性があり、また、格子状であっても同様の誤検出される可能性がある。その理由については、図5、図6を参照して説明したようなことが一因としてあげられる。
すなわち、動きベクトルが誤検出されやすいのは、幾何学模様のエッジが発生しやすい箇所である。そのような箇所は、ベクトルが暴れやすい。例えば、パン(Pan)時の縦方向の斜め線であると、ベクトルが上下方向に暴れやすい傾向にある。また例えば、チルト(Tilt)時の横方向の斜め線であると、ベクトルが左右方向に暴れやすい傾向にある。暴れやすい傾向とは、動きベクトルが誤検出されやすい状況であり、正しく検出された動きベクトルとは異なる方向や大きさで検出される動きベクトルが存在することを意味する。
よって、幾何学模様のエッジが存在する映像(画像)においては、PMVが優遇されるようにする。幾何学模様のエッジとは、例えば、線である。線には、線である部分と線でない部分との境界がエッジとして存在している。線は、エッジが連続している状態であると言える。そのような連続するエッジを検出したときには、ベクトルが暴れる傾向にあると判断し、PMVが優遇されるような制御を行うのが、図8のフローチャートを参照して説明した処理である。
すなわち、図8のフローチャートにおいて、ステップS13において、エッジを検出したか否か(好ましくは、連続したエッジを検出したか否か)を判断し、エッジを検出したと判断されたときには、ステップS15において、PMVが優遇される。このように、本実施の形態においては、エッジを検出したか否かを判断することで、動きベクトルが暴れやすい傾向にあるか否かを判断する例を挙げて説明した。動きベクトルが暴れやすい傾向にあるか否か(誤検出が行われる可能性があるか否か)の判断は、エッジが検出されたか否かに限定されることを示す記載ではなく、他の判断において行われるようにしても良い。
エッジが検出されたか否かの判断についてさらに説明を加える。エッジが検出されたか否かの判断には、AVC Toolの1つであるChroma Intoraのモードのモードに関する情報を利用する。AVC Chroma Intoraモードには、図9に示す4つのモードが存在する。図9は、色差信号のイントラ予測モード(Intra_chroma_pred_mode)を示す図である。Intra_chroma_pred_modeには、図9に示されるように、モード0乃至モード3の4つのモードがある。
色差信号のイントラ予測は、マクロブロック・サイズ単位で行われる。その予測方向は、符号化済みの左、上、左上の隣接ブロックの画素値が参照されて行われ、図9に示した4 通りの予測モードが定義されている。モード0(Mode 0)は、DC Prediction(平均値予測モード)であり、モード1(Mode 1)は、Horizontal Prediction(水平予測モード)であり、モード2(Mode 2)は、Vertical Prediction(垂直予測モード)であり、モード3(Mode 3)は、Plane Prediction(平面予測モード)である。
これらのモードは、マクロブロック予測時のモードであり、エッジの有無を検出するためのモードとして定義されているわけではない。しかしながら、本実施の形態として、ステップS13(図8)におけるエッジを検出する際に、これらのモードのどのモードであるかを判断することで、エッジが検出されたか否かの判断が行われるようにする。具体的には、モード1(Mode 1)の水平予測モード、またはモード2(Mode 2)の垂直予測モードであるとき、エッジを検出したと判断され、PMVが優遇されるようにする。
このようにした場合、ステップS13における処理は、マクロブロック予測のモードが、モード1であるか、またはモード2であるかを判断する処理となる。そして、モード1またはモード2であると判断された場合、ステップS14に処理が進められ、PMVを優遇するための処理が実行される。
このように、マクロブロック予測のモードを用いて、エッジであるか否か、換言すれば、マクロブロック予測のモードを用いて、ベクトルが暴れる状態であるか否かを判断するようにすることで、新たなハードウエアや、エッジを検出するためのソフトウェアなどを追加することなく、動きベクトルの検出性能を向上させることが可能となる。また回路規模や処理の増加を抑えて、動きベクトルの検出性能を向上させることが可能となる。
なお、上述した実施の形態に加えて、画面全体の動きベクトルを示すGlobalMVや、過去の平均InterSAD値を検出条件に追加することでより特定の箇所を絞ることが可能となる。また、検出されたブロックのQ値を下げることで、さらに改善することが可能となる。
動きベクトルが大きく外れてしまうと、ビットレートを上げたとしても画質の劣化が目立ってしまうが、本実施の形態によれば、動きベクトルが大きく外れてしまうといったようなことが起きることを防ぐことができ、動きベクトルの性能を向上させることができ、画質の改善効果を期待できる。
[記録媒体について]
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
図10は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。コンピュータにおいて、CPU(Central Processing Unit)301、ROM(Read Only Memory)302、RAM(Random Access Memory)303は、バス304により相互に接続されている。バス304には、さらに、入出力インタフェース305が接続されている。入出力インタフェース305には、入力部306、出力部307、記憶部308、通信部309、及びドライブ310が接続されている。
入力部306は、キーボード、マウス、マイクロフォンなどよりなる。出力部307は、ディスプレイ、スピーカなどよりなる。記憶部308は、ハードディスクや不揮発性のメモリなどよりなる。通信部309は、ネットワークインタフェースなどよりなる。ドライブ310は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア311を駆動する。
以上のように構成されるコンピュータでは、CPU301が、例えば、記憶部308に記憶されているプログラムを、入出力インタフェース305及びバス304を介して、RAM303にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU301)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア311に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータでは、プログラムは、リムーバブルメディア311をドライブ310に装着することにより、入出力インタフェース305を介して、記憶部308にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部309で受信し、記憶部308にインストールすることができる。その他、プログラムは、ROM302や記憶部308に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。
なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
101 A/D変換装置, 102 画面並べ替えバッファ, 103 演算装置, 104 直交変換装置, 105 量子化装置, 106 可逆符号化装置, 107 蓄積バッファ, 108 逆量子化装置, 109 逆直交変換装置, 110 加算装置, 111 デブロックフィルタ, 112 フレームメモリ, 113 動き補償装置, 114 イントラ予測装置, 115 レート制御装置, 116 動き予測装置, 117 選択装置

Claims (6)

  1. 画像内に連続するエッジが検出されたか否かを判断する判断部と、
    前記判断部で連続するエッジが検出されたと判断された場合、予測動きベクトルが、他の動きベクトルよりも優遇されるように処理する優遇部と
    を備える画像処理装置。
  2. 前記判断部は、クロマイントラモードにおけるモードの情報を用いる
    請求項1に記載の画像処理装置。
  3. 前記判断部は、クロマイントラモードが水平予測モードまたは垂直予測モードのとき、連続するエッジが検出されたと判断する
    請求項1に記載の画像処理装置。
  4. 前記優遇部は、前記予測動きベクトルのコスト関数値から、所定の値を減算する
    請求項1に記載の画像処理装置。
  5. 判断部と優遇部を備える画像処理装置の画像処理方法において、
    前記判断部は、画像内に連続するエッジが検出されたか否かを判断し、
    前記優遇部は、前記判断部で連続するエッジが検出されたと判断された場合、予測動きベクトルが、他の動きベクトルよりも優遇されるように処理する
    ステップを含む画像処理方法。
  6. 判断部と優遇部を備える画像処理装置を制御するコンピュータに、
    前記判断部は、画像内に連続するエッジが検出されたか否かを判断し、
    前記優遇部は、前記判断部で連続するエッジが検出されたと判断された場合、予測動きベクトルが、他の動きベクトルよりも優遇されるように処理する
    ステップを含む処理を実行させるためのプログラム。
JP2010292619A 2010-12-28 2010-12-28 画像処理装置および方法、並びにプログラム Withdrawn JP2012142702A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2010292619A JP2012142702A (ja) 2010-12-28 2010-12-28 画像処理装置および方法、並びにプログラム
US13/287,543 US20120163711A1 (en) 2010-12-28 2011-11-02 Image processing apparatus, method and program
CN2011104286362A CN102572424A (zh) 2010-12-28 2011-12-20 图像处理设备、方法和程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010292619A JP2012142702A (ja) 2010-12-28 2010-12-28 画像処理装置および方法、並びにプログラム

Publications (1)

Publication Number Publication Date
JP2012142702A true JP2012142702A (ja) 2012-07-26

Family

ID=46316887

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010292619A Withdrawn JP2012142702A (ja) 2010-12-28 2010-12-28 画像処理装置および方法、並びにプログラム

Country Status (3)

Country Link
US (1) US20120163711A1 (ja)
JP (1) JP2012142702A (ja)
CN (1) CN102572424A (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9008427B2 (en) 2013-09-13 2015-04-14 At&T Intellectual Property I, Lp Method and apparatus for generating quality estimators
WO2020084474A1 (en) 2018-10-22 2020-04-30 Beijing Bytedance Network Technology Co., Ltd. Gradient computation in bi-directional optical flow
WO2020084476A1 (en) 2018-10-22 2020-04-30 Beijing Bytedance Network Technology Co., Ltd. Sub-block based prediction
CN111436226A (zh) 2018-11-12 2020-07-21 北京字节跳动网络技术有限公司 用于帧间预测的运动矢量存储
CN113170171B (zh) 2018-11-20 2024-04-12 北京字节跳动网络技术有限公司 组合帧间帧内预测模式的预测细化
KR20210091161A (ko) 2018-11-20 2021-07-21 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 부분적 위치에 기반한 차분 계산
WO2020177755A1 (en) 2019-03-06 2020-09-10 Beijing Bytedance Network Technology Co., Ltd. Usage of converted uni-prediction candidate
KR20230169434A (ko) 2019-04-02 2023-12-15 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 디코더 측 움직임 벡터 유도

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100561461B1 (ko) * 2003-07-04 2006-03-16 삼성전자주식회사 프레임 레이트 변환 시 움직임 벡터 검출 장치 및 방법
US20070177671A1 (en) * 2006-01-12 2007-08-02 Lg Electronics Inc. Processing multiview video
CN103124354B (zh) * 2007-09-28 2016-01-20 杜比实验室特许公司 处理视频信息
EP2081386A1 (en) * 2008-01-18 2009-07-22 Panasonic Corporation High precision edge prediction for intracoding
US8320455B2 (en) * 2009-03-05 2012-11-27 Qualcomm Incorporated System and method to process motion vectors of video data

Also Published As

Publication number Publication date
CN102572424A (zh) 2012-07-11
US20120163711A1 (en) 2012-06-28

Similar Documents

Publication Publication Date Title
JP6545838B2 (ja) マージ候補ブロック誘導方法及びこのような方法を用いる装置
KR101641400B1 (ko) 복호 장치 및 방법
US9053543B2 (en) Methods and apparatuses for encoding/decoding high resolution images
WO2020228578A1 (en) Method and apparatus of luma most probable mode list derivation for video coding
WO2010001917A1 (ja) 画像処理装置および方法
US20150208093A1 (en) Method for deriving a temporal predictive motion vector, and apparatus using the method
JP2012142702A (ja) 画像処理装置および方法、並びにプログラム
WO2010001916A1 (ja) 画像処理装置および方法
JP5400798B2 (ja) 動画像復号化方法及び装置、動画像符号化方法及び装置
JP2010035137A (ja) 画像処理装置および方法、並びにプログラム
US20120147960A1 (en) Image Processing Apparatus and Method
KR101197176B1 (ko) 머지 후보 블록 유도 방법 및 이러한 방법을 사용하는 장치
JP4995789B2 (ja) 画面内予測符号化方法,画面内予測復号方法,これらの装置,およびそれらのプログラム並びにプログラムを記録した記録媒体
JP2010028220A (ja) 動きベクトル検出装置、動きベクトル検出方法、画像符号化装置及びプログラム
JP2010258739A (ja) 画像処理装置および方法、並びにプログラム
WO2010123057A1 (ja) 画像処理装置および方法
KR20180040824A (ko) 복호화기 기반의 화면 내 예측 모드 추출 기술을 사용하는 비디오 코딩 방법 및 장치
JP5407974B2 (ja) 動画像符号化装置及び動きベクトル検出方法
JP2012054618A (ja) 動画像符号化装置及び符号化方法、動画像復号化装置及び復号化方法
JP2007228400A (ja) 動画像変換装置
KR102125969B1 (ko) 화면 내 예측 방법 및 이러한 방법을 사용하는 장치
CN116684577A (zh) 基于运动矢量差的快速仿射模式决策
KR20140087137A (ko) 적응적 양 예측 방법 및 장치

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140304