JP2010114474A - 動画像の動き情報を利用した画像処理装置及び画像処理方法 - Google Patents
動画像の動き情報を利用した画像処理装置及び画像処理方法 Download PDFInfo
- Publication number
- JP2010114474A JP2010114474A JP2007038007A JP2007038007A JP2010114474A JP 2010114474 A JP2010114474 A JP 2010114474A JP 2007038007 A JP2007038007 A JP 2007038007A JP 2007038007 A JP2007038007 A JP 2007038007A JP 2010114474 A JP2010114474 A JP 2010114474A
- Authority
- JP
- Japan
- Prior art keywords
- pixel
- frame
- motion vector
- image
- moving image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/573—Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Image Analysis (AREA)
Abstract
【課題】動画像データ内に記録されている画像間の動き情報を利用して、複雑な演算無く高精度な位置合わせを可能にした、動画像の動き情報を利用した画像処理装置を提供する。
【解決手段】動画像データ内に記録されているフレーム画像間の動き情報を利用した画像処理装置であって、動画像データを復号化して得られた連続する2以上のフレーム画像から、基準フレーム及び参照フレームを指定する、フレーム選択処理部と、参照フレームから基準フレームへの動きベクトル値を算出する、動きベクトル累積加算変換処理部とを備え、動きベクトル累積加算変換処理部は、動画像データに記録された動き情報を元に、累積加算及び方向変換による演算によって、参照フレームから基準フレームへの動きベクトル値を算出する。
【選択図】図1
【解決手段】動画像データ内に記録されているフレーム画像間の動き情報を利用した画像処理装置であって、動画像データを復号化して得られた連続する2以上のフレーム画像から、基準フレーム及び参照フレームを指定する、フレーム選択処理部と、参照フレームから基準フレームへの動きベクトル値を算出する、動きベクトル累積加算変換処理部とを備え、動きベクトル累積加算変換処理部は、動画像データに記録された動き情報を元に、累積加算及び方向変換による演算によって、参照フレームから基準フレームへの動きベクトル値を算出する。
【選択図】図1
Description
本発明は、画像処理技術に関し、特に、動画像の動き情報を利用した画像処理装置及び画像処理方法に関する。
従来、例えば、特許文献1では、インタレース走査MPEG2からプログレッシブ走査MPEG4へビットストリーム変換する際のブロック毎の動きベクトル変換技術について開示されている。
特許文献1に記載されている動きベクトル変換技術とは、インタレースからプログレッシブに変換時に、フレームレート変換が行われ、元のMPEG2のフレームが破棄され、そして、破棄するフレームの隣接する後フレームから隣接する前フレームまでの動きベクトル値を、破棄するフレームと隣接する後フレームの対応するブロックの動きベクトル値を元に変換し決定後、隣接する後フレームの対応ブロックの新しい動きベクトル値として記録する技術である。
特許文献1では、破棄するフレームから隣接する前フレームまでの動きベクトルが存在する場合に、隣接する後フレームの動きベクトル値と破棄するフレームから前フレームまでの動きベクトル値を累積加算した値を新の動きベクトル値とし、一方、破棄するフレームから隣接する前フレームまでの動きベクトルが存在しない場合に、隣接する後フレームの動きベクトルを破棄するフレーム分の時間を考慮した定数倍に変換した値を新の動きベクトル値として記録する。
また、従来、位置合わせを行う際に必要となる動き推定技術として、特許文献2では、画像のサブピクセルマッチングにおける多パラメータ高精度同時推定技術について開示されている。
更に、特許文献3では、複数枚の低解像度画像から一枚の高解像度画像を生成する超解像処理技術について開示されており、超解像処理に必要となる位置合わせ処理(以下、単に、位置合わせとも称する。)として、例えば、特許文献2に記載されたような高精度なサブピクセルマッチングによる動き推定技術を利用することができる。
特開2002−252854号公報
国際公開第04/063991号パンフレット
国際公開第04/0688862号パンフレット
田中・奥富共著,「再構成型超解像処理の高速化アルゴリズム」,コンピュータ ビジョンアンド イメージ メディア CVIM(Computer Vision and Image Media(CVIM)),第2004巻,第113号,p.97-104,2004年
奥富正敏・他著編,「ディジタル画像処理」,CG−ARTS協会,2004年
近年、画像処理分野において、MPEGなどの動画像を使って、電子ブレ補正、ノイズ低減、超解像処理などの位置合わせが必要な画像処理(以下、これらの画像処理を単に「画質改善処理」とも称する。)を行うニーズは、増えつつある。
しかしながら、MPEG(Moving Picture Expert Group)のような動き情報が記録されている動画像データ内の複数フレーム画像を用いて、位置合わせをし、画質改善処理を行い、高精細な画像を生成する場合、その一例として、例えば、超解像処理を行い、高解像度画像を生成する場合に、特許文献2に開示されている動き推定技術を位置合わせに適用すると、MPEG復号後の複数枚画像を使って新たに演算しなければならない為、処理時間が多大になると共にハードウェア規模が大きくなるという問題点がある。
また、特許文献1に開示されている動きベクトル変換技術を位置合わせ処理に適用すると、記録時の各MPEGエンコーダーによって動き補償手法が異なっており、記録された動きベクトル値の精度はエンコーダーに依存し必ずしも高いわけではないので、位置合わせが失敗してしまうという問題点がある。
したがって、位置合わせが失敗すると、例えば、特許文献3に開示された超解像処理を利用した場合であっても、高解像度画像が生成できなくなるという問題が生じる。
本発明は、上述のような事情よりなされたものであり、本発明の目的は、動画像データ内に記録されている画像間の動き情報を利用して、複雑な演算無く高精度な位置合わせを可能にした、動画像の動き情報を利用した画像処理装置及び画像処理方法を提供することにある。
本発明は、動画像データ内に記録されているフレーム画像間の動き情報を利用した画像処理装置に関し、本発明の上記目的は、前記動画像データを復号化して得られた連続する2以上のフレーム画像から、基準フレーム及び参照フレームを指定する、フレーム選択処理部と、前記参照フレームから前記基準フレームへの動きベクトル値を算出する、動きベクトル累積加算変換処理部とを備え、前記動きベクトル累積加算変換処理部は、前記動画像データに記録された前記動き情報を元に、累積加算及び方向変換による演算によって、前記参照フレームから前記基準フレームへの動きベクトル値を算出することにより、或いは、前記動画像データを復号化して得られた連続する2以上のフレーム画像から、基準フレーム及び参照フレームを指定する、フレーム選択処理部と、前記参照フレームから前記基準フレームへの動きベクトル値を算出する、動きベクトル累積加算変換処理部とを備え、前記動きベクトル累積加算変換処理部は、前記動画像データに記録された前記動き情報を動きベクトル値に変換し、対象画素に対し前記参照フレームから前記基準フレームに向かって前記動きベクトル値を使って追従し、追従時に使用した動きベクトル値を累積加算及び方向変換することにより、或いは、前記動画像データはMPEG1/2/4、H.261/263/264の動画像データであることにより、或いは、前記動画像データに記録された前記動き情報は、フレーム画像間のブロックベースのマッチング処理によって求めた動きベクトル値、又は、求めた動きベクトル値を元に変換した値であることにより、或いは、前記動きベクトル累積加算変換処理部によって求めた前記参照フレームと前記基準フレームとの各画素の対応情報を元に位置合わせする、位置合わせ処理部と、前記位置合わせ処理部から出力されたレジストレーション画像の各画素について、類似度、位置ずれの推定量、又は、前記類似度及び前記位置ずれの推定量に基づき、当該画素を選択する、画素選択処理部とを備えることにより、或いは、前記画素選択処理部により選択された画素のみを利用して、前記基準フレームに対して画質改善処理を行う、画質改善処理部を備えることにより、或いは、前記動きベクトル累積加算変換処理部によって求めた前記参照フレームと前記基準フレームとの各画素の対応情報を元に位置合わせする、位置合わせ処理部と、前記位置合わせ処理部から出力されたレジストレーション画像の各画素について、明度変化に影響されない類似度、明度変化に影響されない位置ずれの推定量、又は、前記類似度及び前記位置ずれの推定量に基づき、当該画素を選択し、選択された画素の明度を対応する前記基準画像の画素の明度と一致するように、前記選択された画素の画素値を補正する、画素選択処理部とを備えることにより、或いは、前記画素選択処理部により選択・明度補正された画素を利用して、前記基準フレームに対して画質改善処理を行う、画質改善処理部を備えることによって効果的に達成される。
また、本発明は、動画像データ内に記録されているフレーム画像間の動き情報を利用した画像処理方法に関し、本発明の上記目的は、前記動画像データを復号化して得られた連続する2以上のフレーム画像から、基準フレーム及び参照フレームを指定するステップと、前記参照フレームを前記基準フレームに位置合わせする場合に、動きベクトル累積加算変換処理手段により、前記参照フレームから前記基準フレームへの動きベクトル値を算出するステップとを有し、前記動きベクトル累積加算変換処理手段は、前記動画像データに記録された前記動き情報を元に、累積加算及び方向変換による演算によって、前記参照フレームから前記基準フレームへの動きベクトル値を算出することにより、或いは、前記動画像データを復号化して得られた連続する2以上のフレーム画像から、基準フレーム及び参照フレームを指定するステップと、前記参照フレームを前記基準フレームに位置合わせする場合に、動きベクトル累積加算変換処理手段により、前記参照フレームから前記基準フレームへの動きベクトル値を算出するステップとを有し、前記動きベクトル累積加算変換処理手段は、前記動画像データに記録された前記動き情報を動きベクトル値に変換し、対象画素に対し前記参照フレームから前記基準フレームに向かって前記動きベクトル値を使って追従し、追従時に使用した動きベクトル値を累積加算及び方向変換することにより、或いは、前記動画像データはMPEG1/2/4、H.261/263/264の動画像データであることにより、或いは、前記動画像データに記録された前記動き情報は、フレーム画像間のブロックベースのマッチング処理によって求めた動きベクトル値、又は、求めた動きベクトル値を元に変換した値であることにより、或いは、前記動きベクトル累積加算変換処理手段によって求めた前記参照フレームと前記基準フレームとの各画素の対応情報を元に位置合わせし、位置合わせにより得られたレジストレーション画像の各画素について、類似度、位置ずれの推定量、又は、前記類似度及び前記位置ずれの推定量に基づき、当該画素を選択することにより、或いは、選択された画素のみを利用して、前記基準フレームに対して画質改善処理を行うことにより、或いは、前記動きベクトル累積加算変換処理手段によって求めた前記参照フレームと前記基準フレームとの各画素の対応情報を元に位置合わせし、位置合わせにより得られたレジストレーション画像の各画素について、明度変化に影響されない類似度、明度変化に影響されない位置ずれの推定量、又は、前記類似度及び前記位置ずれの推定量に基づき、当該画素を選択し、選択された画素の明度を対応する前記基準画像の画素の明度と一致するように、前記選択された画素の画素値を補正することにより、或いは、選択・明度補正された画素を利用して、前記基準フレームに対して画質改善処理を行うことによってより効果的に達成される。
本発明によれば、MPEG(Moving Picture Expert Group)のような動き情報が記録されている動画像データ内の動き情報を利用して、簡単な演算や変換で、参照フレーム画像から基準フレーム画像への動きベクトル値を求め、求めた動きベクトル値で参照フレーム画像と基準フレーム画像との位置合わせを行い、その後に更に画素選択・明度補正することで、簡単な演算や変換によるそれほど高精度な動きベクトル値でなくても、高精度な位置合わせ処理ができるため、高解像度画像や高画質化画像の生成ができると共に、演算時間の短縮、ハードウェア規模の縮小が可能となる。
特許文献2に記載された動き推定処理手法及び本発明による動き推定処理をソフトウェアで実装した場合の動き推定処理の演算時間計測結果例を以下に示す。
ソフトウェアを実行するパーソナルコンピュータ環境(PC環境)については、CPUが3.2GHzで、RAMが2GByteである。また、画像サイズが352×288[pixel]の画像を30枚使用し、特許文献2に記載された動き推定手法を実装したソフトウェアの場合、その計測時間は38.041[s]で、一方、本発明を実装したソフトウェアの場合、その計測時間は16.812[s]である。
両者の計測時間を比較することにより、本発明による計測時間が、特許文献2による計測時間の半分以下になるほど、明らかに短いことが分かる。
最初に、本発明の着眼点について述べる。
MPEG(Moving Picture Experts Group)1/2/4やH.261/263/264は、標準規格化されており、多くの既存システムの出力データ形式に使用されている。これらの動画像データには、圧縮効率を良好にするために、フレーム画像間の動き情報が記録されており、それを元に復号化される。つまり、符号化時に、フレーム画像間の動き情報を算出しているので、その動き情報を有効的に活用し、更に、画素選択・明度補正処理と組み合わせることにより、高精細な位置合わせを実現する。
要するに、本発明では、例えばMPEGなどのフレーム画像間の動き情報が記録されている動画像データの復号画像に対し、高精細化する際、複数枚の画像(フレーム画像)を使って位置合わせを必要とする場合に、動画像データに記録された動き情報を元に、使用する参照フレーム画像から高精細化したい基準フレーム画像への動きベクトル値を、累積加算や方向変換など簡単な手法による演算によって画素毎に求め、求めた動きベクトル値で位置合わせ処理を行い、位置合わせ処理により生成された「レジストレーション画像」に対し、画素選択・明度補正処理によって、レジストレーション画像内の各画素が有効な画素か無効な画素かを判定し、有効な画素と判定された画素のみを選択することで、画素選択・明度補正したレジストレーション画像が得られた。つまり、本発明は、計算コストが低い簡単な動きベクトル演算で、高精細な位置合わせを実現している。
以下、本発明を実施するための最良の形態を、図面を参照して詳細に説明する。
(実施形態1)
図1は、本発明に係る「動画像の動き情報を利用した画像処理装置」(以下、単に、本発明の画像処理装置とも言う。)の第1の実施形態を示すブロック構成図である。
(実施形態1)
図1は、本発明に係る「動画像の動き情報を利用した画像処理装置」(以下、単に、本発明の画像処理装置とも言う。)の第1の実施形態を示すブロック構成図である。
図1に示すように、第1の実施形態に係る画像処理装置は、動画像入力処理部101と、動画像復号処理部102と、動きベクトル累積加算変換処理部103と、フレーム選択処理部105と、位置合わせ処理部106と、画素選択処理部107と、高解像度化処理部108と、メモリ109と、画像表示部110とを備える。
第1の実施形態における動き情報付き動画像データ100(即ち、フレーム画像間の動き情報が記録されている動画像データ)は、既に存在しているものとし、フレーム画像間の動き情報を持つ全ての動画像データのことを指しており、例えば、MPEG(Moving Picture Experts Group)1/2/4やH.261/263/264などの動画像データである。
図1に示されるように、動き情報付き動画像データ100は、動画像入力処理部101に入力された後に、動画像復号処理部102で連続するフレーム画像として復号化され、復号した連続するフレーム画像は、メモリ109に保存される。
ここで、例えば、動き情報付き動画像データ100がMPEG動画像データの場合、動画像復号処理部102は、フレーム画像の復号化をすると共に、フレーム画像間の動き情報を復号化し変換することで、フレーム画像間の動きベクトル情報を抽出する。変換とは、MPEG動画像データに記録されている動き情報は、対象ブロックの隣接するブロックとの動きベクトル値の差分値を圧縮符号化しているため、復号化後に隣接するブロックの動き量に加算することである。また、動画像復号処理部102は、後述する図3のMPEG4の復号器に対応する。
メモリ109に保存された復号化データは、画像表示部110にて動画表示することができる。使用者(ユーザ)は、画像表示部110で表示された動画像(フレーム画像)を閲覧し、高画質化に使用するフレーム画像(以下、単に「使用フレーム」とも呼ぶ)と、高画質化させたい基準フレーム画像(以下、単に「基準フレーム」とも呼ぶ)を指定することが可能である。
本発明では、「使用フレーム」とは、高画質化に使用する全てのフレーム画像を意味し、指定された「使用フレーム」のうち、1枚のフレーム画像を「基準フレーム」とし、基準フレームを除いて残りの全ての使用フレームは、「参照フレーム」と呼ぶ。つまり、使用フレームと基準フレームを指定すれば、参照フレーム(参照フレーム画像)も決まる訳である。
使用者によって指定された基準フレーム及び使用フレームに関する指定フレーム情報は、フレーム選択処理部105を介して、動きベクトル累積加算変換処理部103に入力される。
動きベクトル累積加算変換処理部103は、動画像復号処理部102によって抽出された動きベクトル情報をメモリ109経由又は動画像復号処理部102経由で取得し、取得した動きベクトル情報を使用して、指定フレーム情報に基づき、各参照フレーム画像から基準フレーム画像までの動きベクトル値を算出する。
動きベクトル累積加算変換処理部103で算出された動きベクトル値は、位置合わせ処理部106に入力される。
位置合わせ処理部106では、入力された動きベクトル値を用いて、各参照フレーム画像を基準フレーム画像へ位置合わせするように、位置合わせ処理を行うことにより、レジストレーション画像を生成する。
位置合わせ処理が行われた後に、画素選択処理部107は、レジストレーション画像の各画素が有効な画素か無効な画素かを判定し、有効な画素と判定された画素のみを選択する。なお、位置合わせ処理部106、画素選択処理部107は、メモリに保存されている復号画像へのアクセスが自由にできる。
画素選択処理が行われた後に、選択された画素のみ(即ち、画素選択・明度補正したレジストレーション画像)が高解像度化処理部108へ入力される。高解像度化処理部108では、画素選択・明度補正したレジストレーション画像に対し、高解像度化処理を施すことにより、高解像度画像を生成し、生成した高解像度画像をメモリ109へ保存する。
メモリ109に保存された高解像度画像は、画像表示部101に表示することができ、使用者は、画像表示部101で生成された高解像度画像を確認することが出来る。
図1の高解像度化処理部108では、画素選択・明度補正したレジストレーション画像に対し、高解像度画像を生成するとなっているが、本発明はそれに限定されることはなく、高解像度化処理部108を、ノイズ低減や電子ブレなどの位置合わせが必要な画像処理部、即ち、画質改善処理部に置き換えても良いことは、言うまでもない。
図2は、図1に示す本発明の第1の実施形態に係る画像処理装置で行われる画像処理の流れを示すフローチャートである。即ち、図2に示す流れは、本発明に係る「動画像の動きベクトルを利用した画像処理方法」の手順を示している。
図2に示されるように、先ず、動き情報付き動画像データ入力処理(A01)により、動き情報付き動画像データの入力を行う。次に、入力した動き情報付き動画像データを動画像データ復号処理(A02)により、動きベクトル値と連続フレーム画像を復号する。
そして、使用者(ユーザ)により指定されたフレーム情報(指定された使用フレーム情報及び指定された基準フレーム情報)から、フレーム選択処理(A03)により、動画像中の高解像度化する対象フレーム(基準フレーム)と高解像度化に使用するフレーム(使用フレーム)を選択する。前述したように、使用フレームと基準フレームを選択すれば、自然に、参照フレームも選択される。
動画像データ復号処理(A02)により復号された動きベクトル値を元に、動きベクトル累積加算変換処理(A04)により、基準フレーム画像と各参照フレーム画像との各画素における動きベクトル値を算出する。
基準フレーム画像と各参照フレーム画像との各画素における動きベクトル値が算出された後に、位置合わせ処理(A05)により、基準フレーム画像に対して各参照フレームの位置合わせを行う。
位置合わせ処理の後に、画素選択処理(A06)により画素選択を行い、画素選択された画素に対し、高解像度化処理(A07)により、高解像度画像を生成する。
図3には、MPEG4の符号化/復号化処理のブロック構成を示している。図1に示す本発明の第1の実施形態における動画像復号処理部102は、MPEG4の復号化処理ブロック構成に対応しており、即ち、図3の復号器と対応する。
また、図1における動き情報付き動画像データ100は、図3の符号化信号312と対応し、可変長復号化ブロック314で復号化され、映像データは逆量子化ブロック315へ、動き情報データは動きベクトル復号化ブロック318へそれぞれ出力される。
その後、映像データは、逆DCTブロック316で逆DCTされる。動きベクトル復号化ブロック318で復号された動きベクトルは、動き補償ブロック319で、メモリ320に保存されている前のフレーム画像の対象ブロックに対し、動き補償される。
そして、動き補償された動きベクトルを逆DCTされた映像データに加算することで、復号画像321を生成する。
図4は、本発明の第1の実施形態におけるフレーム選択処理部105で、使用者が指定フレームを設定する際の設定方法の一例を示した模式図である。
図4に示されるように、フレームを指定するための表示画面201において、使用者は、復号画像表示フレーム切り替えつまみ203を動かしながら、復号画像202の表示を確認し、そして、高解像度化したいフレーム番号を指定フレーム設定タブ204の基準フレーム設定タブ205に、高解像度化に使用するフレーム番号を使用フレーム設定タブ206に設定することで、フレームを指定することができる。
図5は、本発明の第1の実施形態における「動きベクトル累積加算変換処理」の概要を示す模式図である。
図5に示されるように、フレーム選択処理(A03)によって使用フレーム及び基準フレームが指定される。図5において、使用フレームは全部10フレームで、使用フレームから基準フレームを除いて得られた参照フレームは、参照フレーム1から参照フレーム9までの9フレームである。
図5に示されるように、参照フレーム1と参照フレーム2との間の動きベクトル値はMV1で、参照フレーム2と参照フレーム3との間の動きベクトル値はMV2で、参照フレーム3と参照フレーム4との間の動きベクトル値はMV3で、参照フレーム4と基準フレームとの間の動きベクトル値はMV4である。
よって、参照フレーム1と基準フレームとの間の動きベクトル値MVは、MV=+MV1+MV2+MV3+MV4で求めることができる。
このように、本発明の「動きベクトル累積加算変換処理」により、指定された基準フレーム画像と各参照フレーム画像(参照フレーム1〜参照フレーム9)との間の動きベクトル値を求めることができる。求めた動きベクトル値で、各参照フレーム画像を基準フレーム画像に変形させることで、位置合わせすることができる。
これらの動きベクトル値を求める「動きベクトル累積加算変換処理」をフレーム画像間の各画素に対して行う。なお、上記とは逆に、「動きベクトル累積加算変換処理」で求めた動きベクトル値の方向を全て反転した値で、基準フレーム画像を変形することで、各参照フレーム画像に対して、位置合わせすることもできる。
図6は、本発明の第1の実施形態における「動きベクトル累積加算変換処理」のフローチャートを示したものである。なお、図6のフローチャートにおける判別処理1〜9(処理1〜9)の各処理内容は、図7に示す。
以下に、図6及び図7に沿って、本発明における「動きベクトル累積加算変換処理」を詳細に説明する。なお、以下の説明において、Iとは「Iフレーム(Intra-coded Frame)/I-Picture/I−VOP(Intra-coded Video Object Plane)」を示し、Pとは「Pフレーム(Predicted Frame)/P-Picture/P−VOP(Predicted Video Object Plane)」を示し、Bとは「Bフレーム(Bi-directional Predicted Frame)/B-Picture/B−VOP(Bi-directional Predicted Video Object Plane)」を示すものとする。
図6に示されるように、「動きベクトル累積加算変換処理」における動きベクトル値の算出においては、フレーム選択処理(A03)で指定された基準フレームと使用フレームから基準フレーム以外のフレーム数分(参照フレーム数分)のループ(B01、B25)と各参照フレーム内全画素分のループ(B02、B24)で処理される。
ループ内処理として、まず、対象フレーム・対象画素設定処理(B03)で、元対象フレームと対象フレームを参照フレームに、元対象画素と対象画素を参照フレーム内の対象画素に設定する。
その後、対象フレームと基準フレームとの前後(時間の前後)関係を判定(B04)し、処理1(B05、B12)で基準フレームの符号化タイプを判別し、処理2(B06、B07、B13、B14)で対象フレームの符号化タイプを判別する。
その後、各符号化タイプの組み合わせを考慮して、処理3〜9(B08、B09、B10、B11、B15、B16、B17、B18)で判別選択処理を行う。
処理3〜9(B08、B09、B10、B11、B15、B16、B17、B18)で、対応フレームと対応画素が選択されない(NOの)場合は、動きベクトル値なし(B22)として参照フレーム内全画素分ループエンド(B24)へ進む。
一方、処理3〜9(B08、B09、B10、B11、B15、B16、B17、B18)で、対応フレームと対応画素が選択される(YESの)場合は、動きベクトル値更新処理(B19)で方向変換や累積加算し動きベクトル値を更新する。
動きベクトル更新方法は2種類ある。図6の注釈にあるように、「動きベクトル更新方法1」とは、対象フレームの対象画素と選択されたフレーム内の対応する画素が持つ動きベクトル値を方向を考慮して累積加算する方法である。
また、「動きベクトル更新方法2」とは、選択されたフレーム内の対応する画素への対象フレームの対象画素が持つ動きベクトル値を方向を考慮して累積加算する方法である。
動きベクトル更新方法の選択は、図6の注釈内の表に示すように、対象フレーム、選択フレームの符号化タイプと、対象フレームと基準フレームとの前後(時間の前後)関係から決定される。
その後、選択フレームと基準フレームの比較(B20)を行い、両者が一致していれば、参照フレームの対象画素から基準フレームまでの対応画素までの動きベクトル値が求められたことになるので、その動きベクトル値を元対象フレームの元対象画素として保存(B23)する。参照フレーム内全画素分ループエンド(B24)へ進む。
選択フレームと基準フレームの比較(B20)で両者が一致していなければ、対象フレーム・対象画素更新処理(B21)で対象フレームを選択フレームに対象画素を選択対象画素に更新し、対象フレームと基準フレームの前後関係判定処理(B04)へ戻る。
これらのループ内処理を各参照フレーム内全画素分のループ(B02、B24)と参照フレーム数分のループ(B01、B25)とで処理することにより、動きベクトル累積加算変換処理を終了する。
以上の動きベクトル累積加算変換処理の詳細を幾つかのパターンを例に説明する。その説明の前提として、MPEG4によるフレームの符号化タイプと各符号化タイプ内のマクロブロック符号化タイプについて説明する。
MPEG4には、I−VOP、P−VOP、B−VOPの3種類があり、I−VOPはイントラ符号化と呼び、I−VOP自体の符号化時には、フレーム内で符号化が完結するため、他のフレームとの予測を必要としない。P−VOPとB−VOPは、インター符号化と呼び、P−VOP自体の符号化時には、前方のI−VOPかP−VOPから予測符号化をする。B−VOP自体の符号化時には、双方向のI−VOPかP−VOPから予測符号化をする。
図8に、動き補償時の予測方向(1)と、(1)によって各フレームが持つ(各フレーム内に符号化記録される)動きベクトルの方向(どのフレームに対する動きベクトルか)(2)を示す。
例えば、図8の(1)の左から4番目のI−VOPは、他のフレーム予測には使用されるが、I−VOP自体の符号化に他のフレームからの予測は必要としない。つまり、図8の(2)に示すように、対応する左から4番目のI−VOPからの動きベクトルは、存在しないので、I−VOP自体は、動きベクトルを持たない。
また、図8の(1)の左から7番目のP−VOPは、左から4番目のI−VOPから予測される。つまり、図8の(2)に示すように、対応する左から7番目のP−VOPからの動きベクトルは、左から4番目のI−VOPへの動きベクトルが存在するので、P−VOP自体は動きベクトルを持つ。
さらに、図8の(1)の左から5番目のB−VOPは、左から4番目のI−VOPと左から7番目のP−VOPから予測される。つまり、図8の(2)に示すように、対応する左から5番目のB−VOPからの動きベクトルは、左から4番目のI−VOPと左から7番目のP−VOPへの動きベクトルが存在するので、B−VOP自体は動きベクトルを持つ。
しかしながら、MPEG4などの符号化は、フレーム全体を一度に符号化するわけではなく、フレーム内を複数のマクロブロックに分けて符号化をする。この際、各マクロブロックの符号化には、いくつかのモードが設けられている為、必ずしも上記のような方向への動きベクトルを持つとは限らない。
ここで、各フレーム符号化タイプの各マクロブロック符号化モードと各モードにおいてそのマクロブロックが持つ動きベクトルについて、図9に示す。
図9に示されるように、I−VOPのマクロブロック符号化タイプは、「INTRA(+Q)」モードのみで、16×16ピクセルのフレーム内符号化を行うので、動きベクトルは存在しない。
P−VOPのマクロブロック符号化タイプは、「INTRA(+Q)」、「INTER(+Q)」、「INTER4V」、「NOT CODED」の4種類のモードがある。
「INTRA(+Q)」は、16×16ピクセルのフレーム内符号化を行うので、動きベクトルは存在しない。「INTER(+Q)」は、16×16ピクセルの前方向予測符号化を行うので、前予測フレームへの動きベクトルを1つ持つ。「INTER4V」は、16×16ピクセルを4分割した8×8ピクセルごとに前方向予測符号化を行うので、前予測フレームへの動きベクトルを4つ持つ。「NOT CODED」は、前予測フレームとの差分が小さいため、符号化せず、前予測フレームの同じ位置におけるマクロブロックの画像データをそのまま使用するので、実際には動きベクトルは持たないが、本発明の実施においては前予測フレームへの動きベクトル値“0”を1つ持つと考えられる。
B−VOPのマクロブロック符号化タイプは、「INTERPOLATE」、「FORWARD」、「BACKWARD」、「DIRECT」の4種類のモードがある。
「INTERPOLATE」は、16×16ピクセルの双方向予測符号化を行うので、前後予測フレームへの動きベクトルをそれぞれ1つずつ持つ。「FORWARD」は、16×16ピクセルの前方向予測符号化を行うので、前予測フレームへの動きベクトルを1つ持つ。「BACKWARD」は、16×16ピクセルの後方向予測符号化を行うので、後予測フレームへの動きベクトルを1つ持つ。「DIRECT」は、16×16ピクセルを4分割した8×8ピクセルごとに前後方向予測符号化を行うので、前後予測フレームへの動きベクトルをそれぞれ4つずつ持つ。
以上の前提を元に、動きベクトル累積加算変換処理の詳細をいくつかのパターンを例に図10〜図20を使用して説明する。
図10は、例えば、1フレーム目はI−VOP、2フレーム目と3フレーム目はP−VOPとし、基準フレームを1フレーム目、参照フレームを3フレーム目とする。
図10に示されるように、3フレーム目参照フレームのある対象画素が図中の斜線画素である時に、その対象画素が含まれるマクロブロック(MB)の持つ動きベクトルを探す。この例の場合、マクロブロック符号化タイプはINTERで、このマクロブロックが持つ動きベクトルはMV5なので、対象画素の位置をMV5を使って移動する。
移動した画素の位置を2フレーム目のP−VOPのフレーム内の位置に対応させ、対応した2フレーム目の対象画素位置に対して,同様に対象画素が含まれるマクロブロックが持つ動きベクトルを探す。この例の場合、マクロブロック符号化タイプは,INTER4Vで、このマクロブロックが持つ動きベクトルは4つ存在するが、対象画素が含まれている8×8ピクセルのブロックが持つ動きベクトルは、MV4なので、追従中の対象画素の位置をさらにMV4を使って移動する。
移動した画素の位置を1フレーム目のI−VOPのフレーム内の位置に対応させる。この例の場合、1フレーム目が基準フレームなので、参照フレームの対象画素は、基準フレームまで追従できたことになり、追従時に使用した初期値0とMV5とMV4を加算することで、参照フレームの対象画素における基準フレームまでの動きベクトル値を求めることができる。
図11は、例えば、1フレーム目はI−VOP、2フレーム目と3フレーム目はP−VOPとし、基準フレームを3フレーム目、参照フレームを1フレーム目とする。
図11に示されるように、1フレーム目参照フレームのある対象画素が図中の斜線画素である時に、1フレーム目との動き情報を持つ2フレーム目のP−VOPの全画素から、1フレーム目の対象画素に対応する画素を探す。対応する画素が見つかったら、その画素が含まれる2フレーム目のマクロブロックが持つ動きベクトル値(この例の場合INTER4VでMV4)の方向を反転した−MV4で、対象画素の位置を移動し、移動した画素の位置を2フレーム目のP−VOPのフレーム内の位置に対応させ、対応した2フレーム目の対象画素位置に対して、同様に3フレーム目のP−VOPの全画素から、2フレーム目の対象画素に対応する画素を探す。
対応する画素が見つかったら、その画素が含まれる3フレーム目のマクロブロックが持つ動きベクトル値(この例の場合INTERでMV5)の方向を反転した−MV5で対象画素の位置を移動し、移動した画素の位置を3フレーム目のP−VOPのフレーム内の位置に対応させる。この例の場合、3フレーム目が基準フレームなので、参照フレームの対象画素は、基準フレームまで追従できたことになり、追従時に使用した初期値0と−MV4と−MV5を加算することで、参照フレームの対象画素における基準フレームまでの動きベクトル値を求めることができる。
なお、図11のような例で、1フレーム目との動き情報を持つ2フレーム目のP−VOPの全画素から1フレーム目の対象画素に対応する画素を探す方法や、3フレーム目のP−VOPの全画素から2フレーム目の対象画素に対応する画素を探す方法について、図12に示す。
図12には、左から4番目の参照フレームI−VOPの対象画素が、左から7番目の基準フレームP−VOPのどの画素(その画素が含まれるマクロブロックが持つ動きベクトル値(図中のMV1))と対応するかを探す場合についての例を示している。
図12における例1のように、基準フレーム(P)の全てのマクロブロック(全画素)を、各マクロブロック(全画素)が持つ動きベクトル値で、位置を移動する。移動した結果が図12における例1の左の図である。この位置移動された画像領域内において、参照フレームの対象画素がどの位置にあたるかをマークし、その位置にある基準フレームの移動画素が対応する。図12の例1の場合は、マクロブロック2の中のある一つの画素がそれに対応する。このようにして対応画素を探す。
図12における例2は、対象画素をマークした位置に複数の基準フレームの移動画素が存在する場合であり、どれを選択しても良い。例えば、図12の例2では、対象画素のマークした位置は、マクロブロック1と6の内のある画素に対応しているが、マクロブロック1の方が中心に近いのでマクロブロック1の対応画素を選択するようにしても良いし、処理の都合上、ラスタスキャン順に処理をし、フラグを上書きしているような場合は、順番の遅いマクロブロック6を選択するようにしても良い。
図13〜図15は、参照フレームが基準フレームより前方向にあるいくつかのパターンを示しており、また、図16〜図18は、参照フレームが基準フレームより後方向にあるいくつかのパターンを示しており、そして、図19は、追従ができないいくつかのパターンを示している。
以下に、それぞれのパターンについて説明する。
図13に示すパターン1の場合の動きベクトル累積加算変換処理では、左から4番目の参照フレームのマクロブロック符号化タイプINTRA内の対象画素は、左から7番目のP−VOPのマクロブロック符号化タイプINTER内の対象画素とMV1で対応しており、さらに、左から10番目のP−VOPのマクロブロック符号化タイプINTER内の対象画素とMV2で対応しているので、参照フレームの対象画素から基準フレームの対応画素までの動きベクトル値は、MV=−MV1−MV2で求めることができる。
図13に示すパターン2の場合の動きベクトル累積加算変換処理では、左から5番目の参照フレームのマクロブロック符号化タイプINTERPOLATE内の対象画素は、左から7番目のP−VOPのマクロブロック符号化タイプINTER4V内の対象画素とMV1で対応しており、さらに、左から10番目のP−VOPのマクロブロック符号化タイプINTER内の対象画素とMV2で対応しているので、参照フレームの対象画素から基準フレームの対応画素までの動きベクトル値は、MV=MV1−MV2で求めることができる。
図13に示すパターン2の場合の動きベクトル累積加算変換処理では、またもう一つの求め方として、左から5番目の参照フレームのマクロブロック符号化タイプINTERPOLATE内の対象画素は、左から4番目のI−VOPのマクロブロック符号化タイプINTRA内の対象画素とMV3で対応しており、さらに、左から7番目のP−VOPのマクロブロック符号化タイプINTER4V内の対象画素とMV4で対応しており、さらに、左から10番目のP−VOPのマクロブロック符号化タイプINTER内の対象画素とMV5で対応しているので、参照フレームの対象画素から基準フレームの対応画素までの動きベクトル値は、MV=MV3−MV4−MV5で求めることができる。
図13に示すパターン2のように、動きベクトルの求め方が複数ある場合は、下記の条件を考慮して求める。
条件1:ベクトル累積加算する回数を少なくするように選択すること
条件2:基準フレームまでの追従できるように選択すること
条件1<条件2
図14に示すパターン3の場合の動きベクトル累積加算変換処理では、左から4番目の参照フレームのマクロブロック符号化タイプINTRA内の対象画素は、左から7番目のP−VOPのマクロブロック符号化タイプINTER内の対象画素とMV1で対応しており、さらに、左から10番目のP−VOPのマクロブロック符号化タイプINTER内の対象画素とMV2で対応しており、さらに、左から11番目のB−VOPのマクロブロック符号化タイプDIRECT内の対象画素とMV3で対応しているので、参照フレームの対象画素から基準フレームの対応画素までの動きベクトル値は、MV=−MV1−MV2−MV3で求めることができる。
条件1:ベクトル累積加算する回数を少なくするように選択すること
条件2:基準フレームまでの追従できるように選択すること
条件1<条件2
図14に示すパターン3の場合の動きベクトル累積加算変換処理では、左から4番目の参照フレームのマクロブロック符号化タイプINTRA内の対象画素は、左から7番目のP−VOPのマクロブロック符号化タイプINTER内の対象画素とMV1で対応しており、さらに、左から10番目のP−VOPのマクロブロック符号化タイプINTER内の対象画素とMV2で対応しており、さらに、左から11番目のB−VOPのマクロブロック符号化タイプDIRECT内の対象画素とMV3で対応しているので、参照フレームの対象画素から基準フレームの対応画素までの動きベクトル値は、MV=−MV1−MV2−MV3で求めることができる。
図14に示すパターン3の場合の動きベクトル累積加算変換処理では、またもう一つの求め方として、左から4番目の参照フレームのマクロブロック符号化タイプINTRA内の対象画素は、左から7番目のP−VOPのマクロブロック符号化タイプINTER内の対象画素とMV1で対応しており、さらに、左から10番目のP−VOPのマクロブロック符号化タイプINTER内の対象画素とMV2で対応しており、さらに,左から13番目のP−VOPのマクロブロック符号化タイプINTER内の対象画素とMV4で対応しており、さらに,左から11番目のB−VOPのマクロブロック符号化タイプDIRECT内の対象画素とMV5で対応しているので,参照フレームの対象画素から基準フレームの対応画素までの動きベクトル値は,MV=−MV1−MV2−MV4−MV5で求めることができる。
図15に示すパターン4の場合の動きベクトル累積加算変換処理では、左から3番目の参照フレームのマクロブロック符号化タイプBACKWARD内の対象画素は、左から4番目のI−VOPのマクロブロック符号化タイプINTRA内の対象画素とMV1で対応しており、さらに、左から7番目のP−VOPのマクロブロック符号化タイプINTER内の対象画素とMV2で対応しており、さらに、左から10番目のP−VOPのマクロブロック符号化タイプINTER内の対象画素とMV3で対応しており、さらに、左から11番目のB−VOPのマクロブロック符号化タイプDIRECT内の対象画素とMV4で対応しているので、参照フレームの対象画素から基準フレームの対応画素までの動きベクトル値は、MV=MV1−MV2−MV3−MV4で求めることができる。
図15に示すパターン4の場合の動きベクトル累積加算変換処理では、またもう一つの求め方として、左から3番目の参照フレームのマクロブロック符号化タイプBACKWARD内の対象画素は、左から4番目のI−VOPのマクロブロック符号化タイプINTRA内の対象画素とMV1で対応しており、さらに、左から7番目のP−VOPのマクロブロック符号化タイプINTER内の対象画素とMV2で対応しており、さらに、左から10番目のP−VOPのマクロブロック符号化タイプINTER内の対象画素とMV3で対応しており、さらに、左から13番目のP−VOPのマクロブロック符号化タイプINTER内の対象画素とMV5で対応しており、さらに、左から11番目のB−VOPのマクロブロック符号化タイプDIRECT内の対象画素とMV6で対応しているので、参照フレームの対象画素から基準フレームの対応画素までの動きベクトル値は、MV=MV1−MV2−MV3−MV5−MV6で求めることができる。
図16に示すパターン5の場合の動きベクトル累積加算変換処理では、左から10番目の参照フレームのマクロブロック符号化タイプINTER4V内の対象画素は、左から7番目のP−VOPのマクロブロック符号化タイプINTER内の対象画素とMV2で対応しており、さらに、左から4番目のI−VOPのマクロブロック符号化タイプINTRA内の対象画素とMV1で対応しているので、参照フレームの対象画素から基準フレームの対応画素までの動きベクトル値は、MV=MV2+MV1で求めることができる。
図16に示すパターン6の場合の動きベクトル累積加算変換処理では、左から11番目の参照フレームのマクロブロック符号化タイプDIRECT内の対象画素は、左から10番目のP−VOPのマクロブロック符号化タイプINTER内の対象画素とMV3で対応しており、さらに、左から7番目のP−VOPのマクロブロック符号化タイプINTER内の対象画素とMV2で対応しており、さらに、左から4番目のI−VOPのマクロブロック符号化タイプINTRA内の対象画素とMV1で対応しているので、参照フレームの対象画素から基準フレームの対応画素までの動きベクトル値は、MV=MV3+MV2+MV1で求めることができる。
図16に示すパターン6の場合の動きベクトル累積加算変換処理では、またもう一つの求め方として、左から11番目の参照フレームのマクロブロック符号化タイプDIRECT内の対象画素は、左から13番目のP−VOPのマクロブロック符号化タイプINTER内の対象画素とMV4で対応しており、さらに、左から10番目のP−VOPのマクロブロック符号化タイプINTER内の対象画素とMV5で対応しており、さらに、左から7番目のP−VOPのマクロブロック符号化タイプINTER内の対象画素とMV2で対応しており、さらに、左から4番目のI−VOPのマクロブロック符号化タイプINTRA内の対象画素とMV1で対応しているので、参照フレームの対象画素から基準フレームの対応画素までの動きベクトル値は、MV=MV4+MV5+MV2+MV1で求めることができる。
図17に示すパターン7の場合の動きベクトル累積加算変換処理では、左から10番目の参照フレームのマクロブロック符号化タイプINTER内の対象画素は、左から7番目のP−VOPのマクロブロック符号化タイプINTER内の対象画素とMV3で対応しており、さらに、左から4番目のI−VOPのマクロブロック符号化タイプINTRA内の対象画素とMV2で対応しており、さらに、左から3番目のB−VOPのマクロブロック符号化タイプDIRECT内の対象画素とMV1で対応しているので、参照フレームの対象画素から基準フレームの対応画素までの動きベクトル値は、MV=MV3+MV2−MV1で求めることができる。
図18に示すパターン8の場合の動きベクトル累積加算変換処理では、左から11番目の参照フレームのマクロブロック符号化タイプDIRECT内の対象画素は、左から10番目のP−VOPのマクロブロック符号化タイプINTER内の対象画素とMV3で対応しており、さらに、左から7番目のP−VOPのマクロブロック符号化タイプINTER内の対象画素とMV2で対応しており、さらに、左から5番目のB−VOPのマクロブロック符号化タイプINTERPOLATE内の対象画素とMV1で対応しているので、参照フレームの対象画素から基準フレームの対応画素までの動きベクトル値は、MV=MV3+MV2−MV1で求めることができる。
図18に示すパターン8の場合の動きベクトル累積加算変換処理では、またもう一つの求め方として、左から11番目の参照フレームのマクロブロック符号化タイプDIRECT内の対象画素は、左から13番目のP−VOPのマクロブロック符号化タイプINTER内の対象画素とMV4で対応しており、さらに、左から10番目のP−VOPのマクロブロック符号化タイプINTER内の対象画素とMV5で対応しており、さらに、左から7番目のP−VOPのマクロブロック符号化タイプINTER内の対象画素とMV2で対応しており、さらに、左から5番目のB−VOPのマクロブロック符号化タイプINTERPOLATE内の対象画素とMV1で対応しているので、参照フレームの対象画素から基準フレームの対応画素までの動きベクトル値は、MV=MV4+MV5+MV2−MV1で求めることができる。
図18に示すパターン8の場合の動きベクトル累積加算変換処理では、またもう一つの求め方として、左から11番目の参照フレームのマクロブロック符号化タイプDIRECT内の対象画素は、左から10番目のP−VOPのマクロブロック符号化タイプINTER内の対象画素とMV3で対応しており、さらに、左から7番目のP−VOPのマクロブロック符号化タイプINTER内の対象画素とMV2で対応しており、さらに、左から4番目のI−VOPのマクロブロック符号化タイプINTRA内の対象画素とMV6で対応しており、さらに、左から5番目のB−VOPのマクロブロック符号化タイプINTERPOLATE内の対象画素とMV1で対応しているので、参照フレームの対象画素から基準フレームの対応画素までの動きベクトル値は、MV=MV3+MV2+MV6−MV7で求めることができる。
図18に示すパターン8の場合の動きベクトル累積加算変換処理では、またもう一つの求め方として、左から11番目の参照フレームのマクロブロック符号化タイプDIRECT内の対象画素は、左から13番目のP−VOPのマクロブロック符号化タイプINTER内の対象画素とMV4で対応しており、さらに、左から10番目のP−VOPのマクロブロック符号化タイプINTER内の対象画素とMV5で対応しており、さらに、左から7番目のP−VOPのマクロブロック符号化タイプINTER内の対象画素とMV2で対応しており、さらに、左から4番目のI−VOPのマクロブロック符号化タイプINTRA内の対象画素とMV6で対応しており、さらに、左から5番目のB−VOPのマクロブロック符号化タイプINTERPOLATE内の対象画素とMV7で対応しているので、参照フレームの対象画素から基準フレームの対応画素までの動きベクトル値は、MV=MV4+MV5+MV2+MV6−MV7で求めることができる。
図19に示すパターン9の場合の動きベクトル累積加算変換処理では、左から10番目の参照フレームのマクロブロック符号化タイプINTER内の対象画素は、左から7番目のP−VOPのマクロブロック符号化タイプINTER内の対象画素とMV2で対応しており、さらに、左から4番目のI−VOPのマクロブロック符号化タイプINTRA内の対象画素とMV1で対応しているが、左から1番目のP−VOPまでは動き情報がなく対応が取れないので、追従できず、参照フレームの対応画素から基準フレームの対応画素までの動きベクトル値は存在しない。
図19に示すパターン10の場合の動きベクトル累積加算変換処理では、左から10番目の参照フレームのマクロブロック符号化タイプINTER内の対象画素は、左から7番目のP−VOPのマクロブロック符号化タイプINTER内の対象画素とMV3で対応しており、さらに、左から4番目のI−VOPのマクロブロック符号化タイプINTRA内の対象画素とMV2で対応しているが、左から1番目のP−VOPまたは左から2番目のB−VOPまでは、動き情報がなく対応が取れないので、追従できず、参照フレームの対応画素から基準フレームの対応画素までの動きベクトル値は存在しない。
図19に示すパターン11の場合の動きベクトル累積加算変換処理では、左から10番目の参照フレームのマクロブロック符号化タイプINTER内の対象画素は、左から7番目のP−VOPのマクロブロック符号化タイプINTER内の対象画素とMV3で対応している。しかし、左から4番目のI−VOPまでは、動き情報がないわけではないが、例えば、左から7番目の対象画素が持つMV2で位置を移動してみると、画像領域の範囲外に移動してしまう為、対応が取れないので追従できず、参照フレームの対応画素から基準フレームの対応画素までの動きベクトル値は存在しない。
ここで、画像領域の範囲外に移動してしまう原因について、図20に示す。
図20は、MPEG1/2とMPEG4の予測符号化時における予測用参照画像への参照方法の違いについて示したものである。図20に示されたように、MPEG1/2の場合は、対象画像のマクロブロックは予測用参照画像の画像領域内におさまっていなければならなかったが、MPEG4の場合は、画像領域内に参照マクロブロックが全ておさまっていなくても良いという「無制限動きベクトル」手法が取り入れられたため、本発明を実施する際に、パターン11のように画像領域の範囲外に移動してしまうことがある。
図21乃至図22を用いて、高解像度化処理部108で行う超解像処理の流れを説明する。
図21に超解像処理アルゴリズムを示す。以下、アルゴリズムの処理の流れに添って説明を行う。
S1:
高解像度画像推定に用いるため、複数枚の低解像度画像を読み込む。
高解像度画像推定に用いるため、複数枚の低解像度画像を読み込む。
S2:
フレーム選択処理部105で選択した基準フレーム画像を高解像化のターゲット画像とする。そのターゲット画像に対し補完処理を行うことで、初期の高解像度画像を作成する。この補間処理は、場合により省略することができる。
フレーム選択処理部105で選択した基準フレーム画像を高解像化のターゲット画像とする。そのターゲット画像に対し補完処理を行うことで、初期の高解像度画像を作成する。この補間処理は、場合により省略することができる。
S3:
動きベクトル累積加算変換処理部103で変換された画像変位情報により、ターゲット画像とその他の画像との画像間の画素対応位置を明らかにし、その画像対応位置情報を元に、ターゲット画像の拡大座標を基準とする座標空間で、重ねあわせ処理を行い、レジストレーション画像yを生成する。このレジストレーション画像yは、位置合わせ処理部106により生成する。レジストレーション画像yを生成する方法の詳細については、非特許文献1に開示されている。ここでの重ねあわせ処理は、例えば複数枚画像の各ピクセル値とターゲット画像の拡大座標との間で位置を対応付けた時に、各ピクセル値をターゲット画像の拡大座標の最も近い格子点上に画素をおいていく処理を行う。このとき、同一格子点上に複数のピクセル値をおくことが考えられるが、その場合は、複数のピクセル値において平均化処理を実施する。ターゲット画像とその他の画像との間の画像変位は、画像変位推定部201で推定された、基準画像とターゲット画像との画像間変位及び基準画像とターゲット画像以外の画像との画像間変位を統合することによって生成する。
動きベクトル累積加算変換処理部103で変換された画像変位情報により、ターゲット画像とその他の画像との画像間の画素対応位置を明らかにし、その画像対応位置情報を元に、ターゲット画像の拡大座標を基準とする座標空間で、重ねあわせ処理を行い、レジストレーション画像yを生成する。このレジストレーション画像yは、位置合わせ処理部106により生成する。レジストレーション画像yを生成する方法の詳細については、非特許文献1に開示されている。ここでの重ねあわせ処理は、例えば複数枚画像の各ピクセル値とターゲット画像の拡大座標との間で位置を対応付けた時に、各ピクセル値をターゲット画像の拡大座標の最も近い格子点上に画素をおいていく処理を行う。このとき、同一格子点上に複数のピクセル値をおくことが考えられるが、その場合は、複数のピクセル値において平均化処理を実施する。ターゲット画像とその他の画像との間の画像変位は、画像変位推定部201で推定された、基準画像とターゲット画像との画像間変位及び基準画像とターゲット画像以外の画像との画像間変位を統合することによって生成する。
S4:
光学伝達関数(OTF)、CCDアパーチャ等の撮像特性を考慮した点広がり関数(PSF)を求める。PSFは、例えば、Gauss関数を簡易的に用いる。
光学伝達関数(OTF)、CCDアパーチャ等の撮像特性を考慮した点広がり関数(PSF)を求める。PSFは、例えば、Gauss関数を簡易的に用いる。
S5:
S3、S4の情報を元に、評価関数f(z)の最小化を行う。
S3、S4の情報を元に、評価関数f(z)の最小化を行う。
ただし、f(z)は下記数1のような形となる。
S6:
S5で求めたf(z)が最小化された場合、処理を終了し、ターゲット画像の高解像度化画像zを得る。
S5で求めたf(z)が最小化された場合、処理を終了し、ターゲット画像の高解像度化画像zを得る。
以上の処理をフレーム選択処理部105で選択された使用フレームの全ての低解像度画像について行う。
図22に超解像処理の構成を示す。以下に複数枚の画像を使って高解像度画像を生成する処理の一例として、図22を用いて超解像処理の概略を示す。
図22において、超解像処理部は補間拡大部01、画像蓄積部02、PSFデータ保持部3、畳込み積分部04、レジストレーション画像生成部05、画像比較部06、畳込み積分部07、正則化項演算部08、更新画像生成部09、収束判定部10から構成される。
まず、メモリ109に保存された複数枚の復号画像のうちフレーム選択処理部105で選択された高解像化のターゲット画像を補間拡大部01に与え、ここでこの画像の補間拡大を行う(S1に対応)。ここで用いられる補間拡大の手法としては、例えばバイリニア補間やバイキュービック補間などが挙げられる。
補間拡大された画像は画像蓄積部02に送られ、ここに蓄積される。
補間拡大された画像は畳込み積分部04に与えられ、PSFデータ保持部03により与えられるPSFデータとの間で畳込み積分が行われる(数2のAT(y−Az)の演算のA×zに対応)。
また、ターゲット画像以外の複数枚画像は位置合わせ処理部106のレジストレーション画像生成部05に与えられ、動きベクトル累積加算変換処理部103で変換された各フレーム間の画像変位情報を元に、ターゲット画像の拡大座標を基準とする座標空間で、重ねあわせ処理を行い、レジストレーション画像を生成する(S3に対応)。ここでの重ねあわせ処理は、例えば複数枚画像の各ピクセル値とターゲット画像の拡大座標との間で位置を対応付けた時に、各ピクセル値をターゲット画像の拡大座標の最も近い格子点上に画素をおいていく処理を行う。このとき、同一格子点上に複数のピクセル値を置くことが考えられるが、その場合は、複数のピクセル値において平均化処理を実施する。
畳込み演算された画像データは画像比較部06に送られ、レジストレーション画像生成部05において生成されたレジストレーション画像との間で、同一ピクセル位置においてそのピクセル値の差分値を算出し、差分画像データが生成される(数2のAT(y−Az)の演算のy−Azに対応)。
画像比較部06において生成された差分画像は畳込み積分部07に与えられ、PSFデータ保持部03により与えられるPSFデータとの間で畳込み積分が行われる(数2のAT(y−Az)の演算のAT×(y−Az)に対応)。
また、画像蓄積部02に蓄積された画像は、正則化項演算部によって正則化画像を生成する。
正則化項演算部として、例えば画像蓄積部02に蓄積された画像に対して、RGB→YCr,Cbの色変換処理を行い、そのCr,Cb成分(色差成分)において、周波数高域通過フィルタ(ラプラシアンフィルタ)の畳込み演算処理を行い、正則化画像を生成する方法がある。この方法で生成した正則化画像を更新画像生成部09において用いることにより、「一般に画像の色差成分は滑らかな変化である」という画像の先験情報を用いることになるので、色差を抑制した高解像度画像を安定して求めることが出来るようになる(数2のg(z)の偏微分に対応)。
畳込み積分部07で生成された画像、画像蓄積部02に蓄積された画像、正則化項演算部08で生成された画像は更新画像生成部09に与えられ、上記3枚の画像の重み付け加算された画像を生成することにより、更新画像を生成する(数3に対応)。
更新画像生成部09において生成された画像は、収束判定部10へ与えられ、収束判定が行われる。
収束判定には、収束にかかった繰り返し演算回数が一定回数よりも多くなった場合に画像の更新作業は収束したと判断しても良いし、また、過去の更新画像を保持しておき、現在の更新画像との差分をとり、その更新量が一定の値よりも少ないと判断された場合に画像の更新作業は収束したと判断しても良い。
収束判定部10において、更新作業が収束したと判断された場合、更新画像は高解像度生成画像として外部へ出力される。更新作業が収束していないと判断された場合、更新画像は画像蓄積部02へ渡され、次回の更新画像生成に利用される。また、次回の更新画像生成の為に、畳込み積分部04、正則化項演算部08へ与えられる。
以上の処理を繰り返すことにより、更新画像生成部09で生成される更新画像を更新していき、良好な高解像度画像を得る。
以上で説明される高解像度化処理部108内の超解像処理によって高解像度化される。
なお、図1の高解像度化処理部108の代わりに、ランダムノイズを低減させるような加算平均による平滑化処理で画像を高画質化する構成にしても良い。
(実施形態2)
図23に、本発明の第2の実施形態を示す。
(実施形態2)
図23に、本発明の第2の実施形態を示す。
図23に示されたように、動画像である複数枚の入力画像400は、ブロックベースのマッチング処理ブロックで、メモリ401に保存された前フレームの画像データと現フレームの画像データとの間で、ブロックベースのマッチング処理による動き検出403と動き補償402を行うことで、画像間の動き情報(動きベクトル)データ404を、動画像400に付属するようにデータ記録し、動き情報付動画像データ405が得られる。
動き情報付動画像データ405のうち、画像データ406は位置合わせ処理ブロックのメモリ409へ、動き情報(動きベクトル)データ407は動きベクトル累積加算変換処理手段408へ入力され、動きベクトル累積加算変換処理手段408で算出された動きベクトル値とメモリ409に保存された画像データ406を使用して、位置合わせ画像410が生成でき、画像間の位置合わせが実施できる。
ここで、動きベクトル累積加算変換処理手段408で行われる「動きベクトル累積加算変換処理」の詳細は、実施形態1と同様に行うものとする。
以下、図1に示す本発明の第1の実施形態において、その画素選択処理部107で行う「画素選択処理(A06)」について説明する。
以下、図1に示す本発明の第1の実施形態において、その画素選択処理部107で行う「画素選択処理(A06)」について説明する。
前述したように、動きベクトル累積加算変換処理部103で算出された動きベクトル値に基づき、位置合わせ処理部106により、レジストレーション画像が生成される。
図24は、画素選択処理部107で行われる「画素選択処理」を説明するための模式図である。
ここで、ある入力画像Ik(x,y)と基準画像T(x,y)について、位置合わせ処理(変形)が行われた後に、行う「画素選択処理」を詳細に説明する。
図24に示されるように、入力画像Ik(x,y)に一致するように、基準画像T(x,y)を変形させて得られた画像を
とする。以下、この
を単に「変形基準画像」と呼ぶ。
とする。以下、この
を単に「変形基準画像」と呼ぶ。
つまり、基準画像と入力画像との位置合わせ処理を行うことにより、変形基準画像が得られる。ちなみに、この位置合わせ処理(変形処理)には、既存の方法を利用する。
ただし、入力画像に対する基準画像の変形は完全であるとは限らず、つまり、基準画像・入力画像間の位置合わせ処理は必ず精密に行われたとは限らず、位置合わせ誤差を含んでいたり、遮蔽(遮蔽領域)が存在したりする場合もある。
ここで、入力画像のある位置(x,y)の画素(以下、単に「注目画素」とも言う。)について、画素選択処理を行う場合を考える。
注目画素の周辺の小領域に対して、下記2つの条件を満足している場合、当該注目画素を「高解像度化処理に利用する画素」として選択する。
条件1:
注目画素を含む入力画像の小領域と、当該入力画像と基準画像との位置合わせ処理により得られた「位置合わせ処理済基準画像」(図24の場合、当該入力画像に合わせて基準画像を変形させて得られた変形基準画像
)の対応する小領域の類似度が、所定の閾値(単に、第1の閾値とも称する。)以上である。
条件2:
入力画像の小領域又は、位置合わせ処理済基準画像(変形基準画像)の対応する小領域のいずれかを利用した、当該注目画素の位置ずれの推定量が、所定の閾値(単に、第2の閾値とも称する。)以下である。
条件1:
注目画素を含む入力画像の小領域と、当該入力画像と基準画像との位置合わせ処理により得られた「位置合わせ処理済基準画像」(図24の場合、当該入力画像に合わせて基準画像を変形させて得られた変形基準画像
)の対応する小領域の類似度が、所定の閾値(単に、第1の閾値とも称する。)以上である。
条件2:
入力画像の小領域又は、位置合わせ処理済基準画像(変形基準画像)の対応する小領域のいずれかを利用した、当該注目画素の位置ずれの推定量が、所定の閾値(単に、第2の閾値とも称する。)以下である。
上記条件1及び条件2を満足している注目画素を画素値1、満足していない注目画素を画素値0とすることで、入力画像に対応して図24に示すような二値画像(画素選択結果)を生成することができ、つまり、高解像度化処理に利用する画素を選び出すことができる。
具体的な、図24の二値画像(画素選択結果)において、白色部分の画素の画素値は1で、当該画素は、高解像度化処理に利用する画素として、選択され、また、黒色部分の画素の画素値は0で、高解像度化処理に利用する画素として選択されない。つまり、黒色部分の画素は、本発明の「画素選択処理」により取り除く画素である。図24の二値画像は、マスク画像と考えることができる。
更に、「画素選択処理」において、必要があれば、図24の二値画像にローパスフィルタを施し、適切な閾値を用いた二値化処理を行うことにより、高解像度化処理に利用する画素の選択を行うことも可能である。
要するに、「画素選択処理」において、上記条件1及び条件2を満たす注目画素を高解像度化処理に利用する画素として選択し、上記条件1及び条件2を満たさない注目画素を取り除くようにすることにより、画素選択を行い、画素選択結果である二値画像(画素値1の画素は高解像度化処理に利用する画素を意味し、画素値0の画素は高解像度化処理に利用しない画素、即ち、取り除かれる画素を意味する。)と入力画像に基づいて画像合成(マスク合成)を行うことにより、図24に示すような「画素選択された入力画像」を生成する。
上述した「画素選択処理」の実施形態では、上記条件1及び条件2の満足を画素選択の条件としているが、「画素選択処理」では、それに限定されることがなく、上記条件1のみを満足する注目画素、又は、上記条件2のみを満足する注目画素を高解像度化処理に利用する画素として、選択することも可能である。
画素選択処理部107は、「画素選択処理」を行った後に、「明度補正処理」を行うことができる。
ここで言う「明度補正処理」とは、当該明度補正処理における入力画像の注目画素の明度が、対応する「位置合わせ処理済基準画像(即ち、変形基準画像)」の画素の明度と等しくなるように、当該明度補正処理における入力画像の当該注目画素の画素値を補正する処理である。
ちなみに、明度補正処理における入力画像は、「画素選択処理」により生成された「画素選択された入力画像」である。
図25は、この「明度補正処理」を説明するための模式図である。
図25に示す「明度補正処理」は、「画素選択処理」が行われた後に、行う「明度補正処理」であり、図25の「明度補正処理」における入力画像とは、「画素選択処理」により生成された「画素選択された入力画像」を意味する。
図25に示されるように、明度補正処理では、「画素選択された入力画像」の注目画素と、対応する変形基準画像
の画素の明度を「明度推定処理」によりそれぞれ推定し、推定された明度に基づき、変形基準画像に対する明度画像(第1の明度画像)及び画素選択された入力画像に対する明度画像(第2の明度画像)を生成する。
の画素の明度を「明度推定処理」によりそれぞれ推定し、推定された明度に基づき、変形基準画像に対する明度画像(第1の明度画像)及び画素選択された入力画像に対する明度画像(第2の明度画像)を生成する。
そして、生成された第1の明度画像及び第2の明度画像に基づき、両者の明度比を計算し、「画素選択された入力画像」の注目画素の明度が対応する変形基準画像の画素の明度と等しくなるように、「画素選択された入力画像」の注目画素の画素値を補正する「明度補正処理」を行うことにより、「画素選択及び明度補正された入力画像」を生成する。
ここで、注目画素の明度を推定する方法の具体例として、注目画素を含む小領域の各画素毎に明度を求め、求めた明度を平均化または重み付き平均化することにより、平均化又は重み付き平均化された明度を、当該注目画素の明度として推定する方法が考えられる。対応する変形基準画像の画素の明度も、同じ方法で推定することができる。
また、各画素毎の明度の求め方としては、例えば、六角錘モデルのHSI色空間のIを使う方法などがある。六角錘モデルのHSI色空間のIは、各画素のRチャネル、Gチャネル又はBチャネルの画素値の最大値となる(非特許文献2を参照)。
以上は、画素選択処理の後に、明度補正処理が行われる流れとなっているので、画素選択処理では、明度変化に対して頑強な画素選択方法を用いる。要するに、上記条件1で言う類似度は、明度変化に依存しない類似度を用い、そして、上記条件2で言う位置ずれの推定量は、明度変化に依存しない位置ずれ量の推定方法を用いて推定することが好ましい。
明度変化に依存しない類似度の具体的な好適例としては、例えば、対応する小領域の正規化相互相関が挙げられる。また、明度変化に依存しない位置ずれの推定方法の具体的な好適例としては、例えば、平行移動を仮定して、画素単位の位置ずれにおける正規化相互相関のパラボラフィッティングを利用して、位置ずれ量を推定する方法が挙げられる。
ここで、「standard video sequence (mobile & calendar)」と呼ばれる標準動画像を用いて、本発明を適用した上で、超解像処理を行った。上記標準動画像をMPEG4エンコードしたデータ(MPEG4動画像)のうち、1〜50フレームを使用フレームとして用いた。また、25フレーム目を基準フレームとした。
ここで、「standard video sequence (mobile & calendar)」と呼ばれる標準動画像を用いて、本発明を適用した上で、超解像処理を行った。上記標準動画像をMPEG4エンコードしたデータ(MPEG4動画像)のうち、1〜50フレームを使用フレームとして用いた。また、25フレーム目を基準フレームとした。
図26乃至図28は、50フレームの使用フレームのうち、5フレーム分(1、13、25、38、50フレーム)を示した画像であり、被写体には動きがある。
図29及び図30は、本発明の第1の実施形態における動きベクトル累積加算変換処理によって位置合わせした画像である。
図31は、位置合わせ処理部106により、生成されたレジストレーション画像である。
画素選択処理部107により、生成された画素選択・明度補正したレジストレーション画像を図32に示す。
図33に本発明を適用した超解像画像を示し、図34にニアレストネイバー手法による画像を示す。本発明を適用することで、少ない計算量で高精細な画像を得ることができる。
Claims (16)
- 動画像データ内に記録されているフレーム画像間の動き情報を利用した画像処理装置であって、
前記動画像データを復号化して得られた連続する2以上のフレーム画像から、基準フレーム及び参照フレームを指定する、フレーム選択処理部と、
前記参照フレームから前記基準フレームへの動きベクトル値を算出する、動きベクトル累積加算変換処理部と、
を備え、
前記動きベクトル累積加算変換処理部は、前記動画像データに記録された前記動き情報を元に、累積加算及び方向変換による演算によって、前記参照フレームから前記基準フレームへの動きベクトル値を算出することを特徴とする動画像の動き情報を利用した画像処理装置。 - 動画像データ内に記録されているフレーム画像間の動き情報を利用した画像処理装置であって、
前記動画像データを復号化して得られた連続する2以上のフレーム画像から、基準フレーム及び参照フレームを指定する、フレーム選択処理部と、
前記参照フレームから前記基準フレームへの動きベクトル値を算出する、動きベクトル累積加算変換処理部と、
を備え、
前記動きベクトル累積加算変換処理部は、前記動画像データに記録された前記動き情報を動きベクトル値に変換し、対象画素に対し前記参照フレームから前記基準フレームに向かって前記動きベクトル値を使って追従し、追従時に使用した動きベクトル値を累積加算及び方向変換することを特徴とする動画像の動き情報を利用した画像処理装置。 - 前記動画像データは、MPEG1/2/4、H.261/263/264の動画像データである請求項1又は2に記載の動画像の動き情報を利用した画像処理装置。
- 前記動画像データに記録された前記動き情報は、フレーム画像間のブロックベースのマッチング処理によって求めた動きベクトル値、又は、求めた動きベクトル値を元に変換した値である請求項1又は2に記載の動画像の動き情報を利用した画像処理装置。
- 前記動きベクトル累積加算変換処理部によって求めた前記参照フレームと前記基準フレームとの各画素の対応情報を元に位置合わせする、位置合わせ処理部と、
前記位置合わせ処理部から出力されたレジストレーション画像の各画素について、類似度、位置ずれの推定量、又は、前記類似度及び前記位置ずれの推定量に基づき、当該画素を選択する、画素選択処理部と、
を備える請求項1乃至4の何れかに記載の動画像の動き情報を利用した画像処理装置。 - 前記画素選択処理部により選択された画素のみを利用して、前記基準フレームに対して画質改善処理を行う、画質改善処理部を備える請求項5に記載の動画像の動き情報を利用した画像処理装置。
- 前記動きベクトル累積加算変換処理部によって求めた前記参照フレームと前記基準フレームとの各画素の対応情報を元に位置合わせする、位置合わせ処理部と、
前記位置合わせ処理部から出力されたレジストレーション画像の各画素について、明度変化に影響されない類似度、明度変化に影響されない位置ずれの推定量、又は、前記類似度及び前記位置ずれの推定量に基づき、当該画素を選択し、選択された画素の明度を対応する前記基準画像の画素の明度と一致するように、前記選択された画素の画素値を補正する、画素選択処理部と、
を備える請求項1乃至4の何れかに記載の動画像の動き情報を利用した画像処理装置。 - 前記画素選択処理部により選択・明度補正された画素を利用して、前記基準フレームに対して画質改善処理を行う、画質改善処理部を備える請求項7に記載の動画像の動き情報を利用した画像処理装置。
- 動画像データ内に記録されているフレーム画像間の動き情報を利用した画像処理方法であって、
前記動画像データを復号化して得られた連続する2以上のフレーム画像から、基準フレーム及び参照フレームを指定するステップと、
前記参照フレームを前記基準フレームに位置合わせする場合に、動きベクトル累積加算変換処理手段により、前記参照フレームから前記基準フレームへの動きベクトル値を算出するステップと、
を有し、
前記動きベクトル累積加算変換処理手段は、前記動画像データに記録された前記動き情報を元に、累積加算及び方向変換による演算によって、前記参照フレームから前記基準フレームへの動きベクトル値を算出することを特徴とする動画像の動き情報を利用した画像処理方法。 - 動画像データ内に記録されているフレーム画像間の動き情報を利用した画像処理方法であって、
前記動画像データを復号化して得られた連続する2以上のフレーム画像から、基準フレーム及び参照フレームを指定するステップと、
前記参照フレームを前記基準フレームに位置合わせする場合に、動きベクトル累積加算変換処理手段により、前記参照フレームから前記基準フレームへの動きベクトル値を算出するステップと、
を有し、
前記動きベクトル累積加算変換処理手段は、前記動画像データに記録された前記動き情報を動きベクトル値に変換し、対象画素に対し前記参照フレームから前記基準フレームに向かって前記動きベクトル値を使って追従し、追従時に使用した動きベクトル値を累積加算及び方向変換することを特徴とする動画像の動き情報を利用した画像処理方法。 - 前記動画像データは、MPEG1/2/4、H.261/263/264の動画像データである請求項9又は10に記載の動画像の動き情報を利用した画像処理方法。
- 前記動画像データに記録された前記動き情報は、フレーム画像間のブロックベースのマッチング処理によって求めた動きベクトル値、又は、求めた動きベクトル値を元に変換した値である請求項9又は10に記載の動画像の動き情報を利用した画像処理方法。
- 前記動きベクトル累積加算変換処理手段によって求めた前記参照フレームと前記基準フレームとの各画素の対応情報を元に位置合わせし、
位置合わせにより得られたレジストレーション画像の各画素について、類似度、位置ずれの推定量、又は、前記類似度及び前記位置ずれの推定量に基づき、当該画素を選択する請求項9乃至12の何れかに記載の動画像の動き情報を利用した画像処理方法。 - 選択された画素のみを利用して、前記基準フレームに対して画質改善処理を行う請求項13に記載の動画像の動き情報を利用した画像処理方法。
- 前記動きベクトル累積加算変換処理手段によって求めた前記参照フレームと前記基準フレームとの各画素の対応情報を元に位置合わせし、
位置合わせにより得られたレジストレーション画像の各画素について、明度変化に影響されない類似度、明度変化に影響されない位置ずれの推定量、又は、前記類似度及び前記位置ずれの推定量に基づき、当該画素を選択し、
選択された画素の明度を対応する前記基準画像の画素の明度と一致するように、前記選択された画素の画素値を補正する請求項9乃至12の何れかに記載の動画像の動き情報を利用した画像処理方法。 - 選択・明度補正された画素を利用して、前記基準フレームに対して画質改善処理を行う請求項15に記載の動画像の動き情報を利用した画像処理方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007038007A JP2010114474A (ja) | 2007-02-19 | 2007-02-19 | 動画像の動き情報を利用した画像処理装置及び画像処理方法 |
PCT/JP2008/053131 WO2008102904A1 (ja) | 2007-02-19 | 2008-02-19 | 動画像の動き情報を利用した画像処理装置及び画像処理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007038007A JP2010114474A (ja) | 2007-02-19 | 2007-02-19 | 動画像の動き情報を利用した画像処理装置及び画像処理方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010114474A true JP2010114474A (ja) | 2010-05-20 |
Family
ID=39710174
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007038007A Withdrawn JP2010114474A (ja) | 2007-02-19 | 2007-02-19 | 動画像の動き情報を利用した画像処理装置及び画像処理方法 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2010114474A (ja) |
WO (1) | WO2008102904A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014207554A (ja) * | 2013-04-12 | 2014-10-30 | 三菱電機株式会社 | 画像対応付け装置および画像対応付け方法 |
WO2015019474A1 (ja) * | 2013-08-08 | 2015-02-12 | 株式会社島津製作所 | 画像処理装置 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020141501A1 (en) * | 1998-11-20 | 2002-10-03 | Philips Electronics North America Corporation | System for performing resolution upscaling on frames of digital video |
JP2005150808A (ja) * | 2003-11-11 | 2005-06-09 | Ntt Data Corp | 監視映像記録システム |
JP2006033141A (ja) * | 2004-07-13 | 2006-02-02 | Seiko Epson Corp | 画像処理装置、画像処理方法、プログラムおよび記録媒体 |
-
2007
- 2007-02-19 JP JP2007038007A patent/JP2010114474A/ja not_active Withdrawn
-
2008
- 2008-02-19 WO PCT/JP2008/053131 patent/WO2008102904A1/ja active Application Filing
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014207554A (ja) * | 2013-04-12 | 2014-10-30 | 三菱電機株式会社 | 画像対応付け装置および画像対応付け方法 |
WO2015019474A1 (ja) * | 2013-08-08 | 2015-02-12 | 株式会社島津製作所 | 画像処理装置 |
CN105359185A (zh) * | 2013-08-08 | 2016-02-24 | 株式会社岛津制作所 | 图像处理装置 |
JP5991438B2 (ja) * | 2013-08-08 | 2016-09-14 | 株式会社島津製作所 | 画像処理装置 |
US9727964B2 (en) | 2013-08-08 | 2017-08-08 | Shimadzu Corporation | Image processing device |
CN105359185B (zh) * | 2013-08-08 | 2018-02-06 | 株式会社岛津制作所 | 图像处理装置 |
Also Published As
Publication number | Publication date |
---|---|
WO2008102904A1 (ja) | 2008-08-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108012155B (zh) | 预拼接图像的视频编码方法、视频解码方法和相关的装置 | |
JP3386142B2 (ja) | 画像復号装置および画像復号方法 | |
JP5098081B2 (ja) | 画像処理方法および画像処理装置 | |
JP5389297B2 (ja) | 画像復号装置及び画像復号方法 | |
JP4572010B2 (ja) | マスクおよび丸め平均値を使用したオブジェクトベースの符号化システムのためのスプライト生成に関する方法 | |
US20100272184A1 (en) | System and Method for Real-Time Super-Resolution | |
US20130329796A1 (en) | Method and system for motion compensated picture rate up-conversion of digital video using picture boundary processing | |
JP4739651B2 (ja) | ビデオ符号化における中間画素高精度高速探索を実現する装置及び方法 | |
JP2007067731A (ja) | 符号化方法 | |
JP4494471B2 (ja) | 環状映像の参照画素補間方法、その装置、環状映像符号化方法、その装置及び環状映像復号化方法ならびにその装置 | |
Kim et al. | Zoom motion estimation using block-based fast local area scaling | |
JP3823767B2 (ja) | 動画像の前景背景領域分離方法、及びその方法を用いた条件付画素補填による動画像符号化方法 | |
JP2011061302A (ja) | 動画像符号化装置 | |
JP2009027446A (ja) | 画像処理方法および画像処理装置 | |
JP2010114474A (ja) | 動画像の動き情報を利用した画像処理装置及び画像処理方法 | |
KR100926752B1 (ko) | 동영상 부호화를 위한 미세 움직임 추정 방법 및 장치 | |
JP4000928B2 (ja) | 動き補償装置 | |
JP6152642B2 (ja) | 動画像圧縮装置、動画像復号装置およびプログラム | |
JP5067471B2 (ja) | 復号化方法、復号化装置、及びプログラム | |
JP2013098713A (ja) | 動画像符号化装置、動画像復号装置、動画像符号化方法及び動画像復号方法 | |
Shen et al. | Down-sampling based video coding with super-resolution technique | |
JP2017200199A (ja) | 動画像圧縮装置、動画像復号装置およびプログラム | |
JP2018107683A (ja) | 動画像符号化装置及び動画像復号装置 | |
Lei et al. | Direct migration motion estimation and mode decision to decoder for a low-complexity decoder Wyner–Ziv video coding | |
KR100657714B1 (ko) | 3차원 스캐닝을 이용한 영상데이터 부호화 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20100601 |