JP5294343B2 - 画像位置合わせ処理装置、領域拡張処理装置及び画質改善処理装置 - Google Patents

画像位置合わせ処理装置、領域拡張処理装置及び画質改善処理装置 Download PDF

Info

Publication number
JP5294343B2
JP5294343B2 JP2010516785A JP2010516785A JP5294343B2 JP 5294343 B2 JP5294343 B2 JP 5294343B2 JP 2010516785 A JP2010516785 A JP 2010516785A JP 2010516785 A JP2010516785 A JP 2010516785A JP 5294343 B2 JP5294343 B2 JP 5294343B2
Authority
JP
Japan
Prior art keywords
processing
image
region
feature point
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010516785A
Other languages
English (en)
Other versions
JPWO2009150882A1 (ja
Inventor
正行 田中
正敏 奥富
陽一 矢口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Institute of Technology NUC
Original Assignee
Tokyo Institute of Technology NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Institute of Technology NUC filed Critical Tokyo Institute of Technology NUC
Priority to JP2010516785A priority Critical patent/JP5294343B2/ja
Publication of JPWO2009150882A1 publication Critical patent/JPWO2009150882A1/ja
Application granted granted Critical
Publication of JP5294343B2 publication Critical patent/JP5294343B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • G06T3/4069Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution by subpixel displacements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/523Motion estimation or motion compensation with sub-pixel accuracy
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • H04N19/54Motion estimation other than block-based using feature points or meshes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • H04N19/543Motion estimation other than block-based using regions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)

Description

本発明は、デジタル画像処理技術に関し、特に、複数のモーションを含む画像間の画像全体(全画面)の位置合わせ処理をロバスト且つ高精度に行う画像位置合わせ処理技術、及び当該画像位置合わせ処理技術を利用した画質改善処理技術に関するものである。
また、本発明は、複数のモーションを含む画像に対する領域拡張処理を行う領域拡張処理技術に関するものである。
更に、本発明は、本発明の画像位置合わせ処理技術と本発明の領域拡張処理技術を利用した画質改善処理技術に関するものである。
デジタル画像処理技術において、複数の画像を利用して高画質な画像を生成する画質改善処理がある。例えば、超解像処理は、このような画質改善処理の1つである。超解像処理とは、位置ずれのある複数の低解像度画像を利用して、1つの高解像度画像を再構成(推定)する処理である。
複数の画像を利用して高画質な画像を生成する画質改善処理を行うためには、これら複数の画像間の位置合わせ処理が必要不可欠である。特に、超解像処理においては、複数の低解像度画像間の高精度な位置合わせ処理が必要である(非特許文献1を参照)。また、様々な応用において、画像全体(全画面)を超解像処理したいという要求も大きい。
しかし、撮影された低解像度画像(観測画像)には、モーションの異なる複数の移動体が含まれることが多く、このような複数のモーションを含む画像間の画像全体(全画面)の高精度な位置合わせ処理を行うことは、非常に難しい問題である。
複数のモーションが含まれる画像間の画像全体(全画面)の位置合わせ処理(以下、「複数モーションに対応した画像位置合わせ処理」と言う。)を行う既存方法としては、例えば、
(1)画像全体(全画面)を単一モーションと仮定して、位置合わせ処理を行う方法(以下、「従来方法1」という。)、
(2)局所的な情報のみを利用して、画素毎に位置合わせ処理を行う方法(非特許文献2を参照)(以下、「従来方法2」という。)、
(3)画像全体(全画面)を格子状にブロック分割して、ブロック毎に独立に位置合わせ処理を行う方法(非特許文献7〜非特許文献9を参照)(以下、「従来方法3」という。)、
(4)単一モーション領域の抽出と位置合わせ処理を同時に行う方法(非特許文献10及び非特許文献11を参照)(以下、「従来方法4」という。)、
(5)特徴点ベース位置合わせ処理手法を応用して、複数のモーションを抽出する方法(非特許文献12〜非特許文献14を参照)(以下、「従来方法5」という。)、などの方法がある。
特開2007−257287号公報 特願2007−038006 特願2007−070401
エス.パーク(S.Park)、エム.パーク(M.Park)、エム.カン(M.Kang)共著,「スーパーレゾルーション イメージ リコンストラクション:ア テクニカル オーバービュー(Super−resolution image reconstruction:a technical overview)」,IEEE シグナル プロセシング マガジン(IEEE Signal Processing Magazine),第20巻,第3号,p.21−36,2003年 ダブリュー.チャオ(W.Zhao)、エイチ.ソーニー(H.Sawhney)共著,「イズ スーパーレゾルーション ウィズ オプティカル フロー フィージブル?(Is super−resolution with optical flow feasible?)」,ヨーロピアン カンファレンス オン コンピュータ ビジョン(European Conference on Computer Vision)(ECCV),第1巻,p.599−613,2002年 ゼッド.エイ.イバノブスキ(Z.A.Ivanovski)、エル.パノブスキ(L.Panovski)、エル.ジェー.カラム(L.J.Karam)共著,「ロバスト スーパーレゾルーション ベースド オン ピクセルレベル セレクティビティ(Robust super−resolution based on pixel−level selectivity)」,プロスィーディングズ オフ SPIE(Proceedings of SPIE),第6077巻,p.607707,2006年 戸田真人・塚田正人・井上晃共著,「レジストレーション誤差を考慮した超解像処理」,プロスィーディングズ オフ FIT 2006(Proceeding of FIT 2006),第1巻,p.63−64,2006年 エヌ.エル−ヤマニ(N.El−Yamany)、ピー.パパミチャリス(P.Papamichalis)、ダブリュー.スチュカニ(W.Schucany)共著、「ア ロバスト イメージ スーパーレゾルーション スキーム ベースド オン レデセンディング M−エスチメイタス アンド インフォメイション−セオレティク ダイバージェンス(A Robust Image Super−resolution Scheme Based on Redescending M−Estimators and Information−Theoretic Divergence)」,IEEE インターナショナル カンファレンス オン アコースティックス,スピーチ アンド シグナル プロセシング(IEEE International Conference on Acoustics,Speech and Signal Processing)(ICASSP),第1巻,p.741−744,2007年 エス.ファースイ(S.Farsiu)、エム.ロビンソン(M.Robinson)、エム.エラド(M.Elad)、ピー.ミランファー(P.Milanfar)共著,「ファスト アンド ロバスト マルチフレーム スーパー レゾルーション(Fast and robust multiframe super resolution)」,IEEE トランスアクションズ オン イメージ プロセシング(IEEE Transactions on Image Processing),第13巻,第10号,p.1327−1344,2004年 イー.コース(E.Courses)、ティー.サーベイス(T.Surveys)共著,「ア ロバスト イテラティブ スーパーレゾルーション リコンストラクション オフ イメージ シーケンス ユジング ア ロレンティズアン ベイジアン アプローチ ウィズ ファスト アフィン ブロックベースド レジストレイション(A Robust Iterative Super−Resolution Reconstruction of Image Sequences using a Lorentzian Bayesian Approach with Fast Affine Block−Based Registration)」,IEEE インターナショナル カンファレンス オン イメージ プロセシング(IEEE International Conference on Image Processing)(ICIP),第5巻,p.393−396,2007年 エム.イラニ(M.Irani)、ビー.ロウソウ(B.Rousso)、エス.ペレグ(S.Peleg)共著,「コンピューティング オクルーディング アンド トランスペアレント モーションズ(Computing occluding and transparent motions)」,インターナショナル ジャーナル オフ コンピュータ ビジョン(International Journal of Computer Vision),第12巻,第1号,p.5−16,1994年 エム.ブラック(M.Black)、ピー.アナンダン(P.Anandan)共著,「ザ ロバスト エスティメイション オフ マルチプル モーションズ:パラメトリック アンド ピースワイズ スムース フロー フィールド(The robust estimation of multiple motions:Parametric and piecewise−smooth flow fields)」,コンピュータ ビジョン アンド イメージ アンダスタンディング(Computer Vision and Image Understanding),第63巻,第1号,p.75−104,1996年 ジェー.ウイルス(J.Wills)、エス.アガワル(S.Agarwal)、エス.ビロングイエ(S.Belongie)共著,「ホワット ウェント ホウェア(What went where)」,IEEE コンピュータ ソサイアティ カンファレンス オン コンピュータ ビジョン アンド パターン レコグニション(IEEE Computer Society Conference on Computer Vision and Pattern Recognition)(CVPR),第1巻,p.37−44,2003年 ピー.バハット(P.Bhat)、ケイ.ツェン(K.Zheng)、エヌ.スナベリ(N.Snavely)、エイ.アガワラ(A.Agarwala)、エム.アグラワラ(M.Agrawala)、エム.コヘン(M.Cohen)、ビー.カーレス(B.Curless)共著,「ピースワイズ イメージ レジストレイション イン ザ プレゼンス オフ マルチプル ラージ モーションズ(Piecewise Image Registration in the Presence of Multiple Large Motions)」,IEEE コンピュータ ソサイアティ カンファレンス オン コンピュータ ビジョン アンド パターン レコグニション(IEEE Computer Society Conference on Computer Vision and Pattern Recognition)(CVPR),第2巻,p.2491−2497,2006年 オウ.チュム(O.Chum)、ジェー.マタス(J.Matas)共著,「マッチング ウイズ PROSAC−プログレッシブ サンプル コンセンサス(Matching with PROSAC−progressive sample consensus)」,IEEE コンピュータ ソサイアティ カンファレンス オン コンピュータ ビジョン アンド パターン レコグニション(IEEE Computer Society Conference on Computer Vision and Pattern Recognition)(CVPR),第1巻,p.220−226,2005年 エム.フィシャラ(M.Fischler)、アール.ボレス(R.Bolles)共著,「ランダム サンプル コンセンサス:ア パラダイム フォー モデル フィッティング ウイズ アプリケイションズ トゥー イメージ アナリシス アンド オートメイテド カトゥーグラフィ(Random sample consensus:a paradigm for model fitting with applications to image analysis and automated cartography)」,コミュニケーションズ オフ ザ ACM(Communications of the ACM),第24巻,第6号,p.381−395,1981年 オウ.チョウイ(O.Choi)、エイチ.キム(H.Kim)、アイ.ケウィオン(I.Kweon)共著,「シマルテイニアス プレーン エクストラクション アンド 2D ホモグラフィ エスティメイション ユジング ローカル フィーチャー トランスフォーメイションズ(Simultaneous Plane Extraction and 2D Homography Estimation Using Local Feature Transformations)」,アジアン カンファレンス オン コンピュータ ビジョン(Asian Conference on Computer Vision)(ACCV),第4844巻,p.269−278,2007年 ディー.ロウィ(D.Lowe)著,「デステンクティブ イメージ フィーチャーズ フロム スケール−インベアリアント キーポイントズ(Distinctive Image Features from Scale−Invariant Keypoints)」,インターナショナル ジャーナル オフ コンピュータ ビジョン(International Journal of Computer Vision),第60巻,第2号,p.91−110,2004年 矢口陽一・田中正行・奥富正敏共著,「オクルージョンや明るさ変化にロバストな超解像処理」,情報処理学会研究報告:コンピュータビジョンとイメージメディア 2007−CVIM−159,第2007巻,第42号,p.51−56,2007年 シー.サン(C.Sun)著,「ファスト アルゴリズム フォー ステレオ マッチング アンド モーション エスティメイション(Fast algorithms for stereo matching and motion estimation)」,プロック.オフ オーストラリア−ジャパン アドバーンスト ワークショップ オン コンピュータ ビジョン(Proc.Of Australia−Japan Advanced Workshop on Computer Vision),p.38−48,2003年 エス.ベイカ(S.Baker)、アイ.マチューズ(I.Matthews)共著,「ルーカス−カナデ 20 イヤーズ オン:ア ユニファイング フレームワーク(Lucas−Kanade 20 Years On:A Unifying Framework)」,インターナショナル ジャーナル オフ コンピュータ ビジョン(International Journal of Computer Vision),第56巻,第3号,p.221−255,2004年 田中正行・奥富正敏共著,「周波数領域最適化法によるMAP型超解像処理の高速化」,情報処理学会論文誌:コンピュータビジョンとイメージメディア,第47巻.SIG10(CVIM15),p.12−22,2006年
しかしながら、単一モーションであると仮定して位置合わせ処理を行う「従来方法1」では、実際に画像全体に複数のモーションが含まれているにもかかわらず、単一モーションと仮定しているため、位置合わせ処理の精度は低く、精度の良いモーションパラメータは得られないとの問題点がある。
また、局所的な情報のみを利用して画素毎に位置合わせ処理を行う「従来方法2」では、位置合わせ処理に局所的な情報しか利用していないため、位置合わせ処理が不安定になりがちとの問題点がある。
さらに、画像全体を格子状のブロックに分割しブロック毎に独立に位置合わせ処理を行う「従来方法3」でも、同様に、ブロック毎の位置合わせ処理では、ブロック内の情報のみ(即ち、局所的な情報のみ)を利用しているため、位置合わせ処理が不安定になりがちとの問題点がある。また、分割されたブロック内で単一モーションを仮定して、そのブロックの位置合わせ処理が行われるが、ブロック内が単一モーションであるとは限らないので、ブロックによっては、その位置合わせ処理の精度が低く、精度の良いモーションパラメータは得られないとの問題点もある。
また、単一モーション領域の抽出と位置合わせ処理を同時に行う「従来方法4」では、単一モーションが含まれる領域の抽出と位置合わせ処理を同時に行っているものの、単一モーション領域の抽出が従来方法4の主目的であるため、位置合わせ処理の精度はそれほど高いとは言えず、つまり、超解像処理に必要な精度で(サブピクセル精度で)のモーションパラメータは得られないとの問題点がある。
そして、特徴点ベース位置合わせ処理手法を応用して、複数のモーションを抽出する「従来方法5」では、各モーションに対応する特徴点が得られるだけであり、そのモーションに対応する領域は得られないとの問題点がある。
このように、上述した複数モーションに対応した画像位置合わせ処理を行う既存方法(従来方法1〜従来方法5)は、いずれも超解像処理に適したものではない。
ところで、近年、位置合わせ処理の結果が不正確であっても、それに基づいてロバストに画像を再構成することができる「ロバスト超解像処理」の研究も行われている(非特許文献2〜非特許文献7を参照)。
しかしながら、位置合わせが不正確な領域は、ロバスト超解像処理によりアーチファクトを低減することはできても、解像度を向上させることはできず、本質的な解決とはなっていない。
つまり、複数のモーションが含まれる画像の画像全体(全画面)を画質改善処理(例えば、超解像処理)するためには、複数モーションに対応し、ロバスト且つ高精度な位置合わせ処理を行うことが要求される。
換言すれば、複数のモーションに対応する画像位置合わせ処理を行うためには、それぞれのモーションに対応する「単一モーション領域」の抽出処理と、抽出した単一モーション領域に対する位置合わせ処理を行う必要があり、さらに、画質改善処理(例えば、超解像処理)のためには、抽出した単一モーション領域に対して、サブピクセル精度での位置合わせ処理を行う必要がある。
本発明は、上述のような事情から成されたものであり、本発明の目的は、複数のモーションを含む画像間の画像全体(全画面)の位置合わせ処理を、ロバスト且つ高精度に行えるようにした、画像位置合わせ処理装置を提供することにある。
また、本発明のもう1つの目的は、複数のモーションを含む複数の画像に対し、本発明の画像位置合わせ処理装置により位置合わせ処理を行い、その位置合わせ処理結果と複数の画像を利用して画質改善処理を行うようにした、画質改善処理装置を提供することにある。
また、本発明のもう1つの目的は、複数のモーションを含む画像に対する領域拡張処理を行う領域拡張処理装置を提供することにある。
更に、本発明のもう1つの目的は、複数のモーションを含む複数の画像に対し、本発明の画像位置合わせ処理装置により位置合わせ処理を行い、そして、その位置合わせ処理結果に基づき、前記複数の画像に対し、本発明の領域拡張処理装置により領域拡張処理を行い、更に、その位置合わせ処理結果、その領域拡張処理結果及び前記複数の画像を利用して画質改善処理を行うようにした、画質改善処理装置を提供することにある。
本発明は、複数のモーションを含む基準画像と、複数のモーションを含む入力画像との画像全体の位置合わせ処理をロバスト且つ高精度に行う画像位置合わせ処理装置に関し、本発明の上記目的は、特徴点抽出処理部と、特徴点ベース位置合わせ処理部と、単一モーション領域抽出処理部と、領域ベース位置合わせ処理部と、特徴点削除処理部とを備え、前記特徴点抽出処理部が、前記基準画像及び前記入力画像の特徴点をそれぞれ抽出する、特徴点抽出処理を行い、前記特徴点ベース位置合わせ処理部が、前記基準画像から抽出された特徴点(基準画像特徴点)と、前記入力画像から抽出された特徴点(入力画像特徴点)との対応付け処理と、対応付けられた特徴点から外れ値を削除してからの初期モーションパラメータ推定処理とから構成される、特徴点ベース位置合わせ処理を行い、前記単一モーション領域抽出処理部が、前記特徴点ベース位置合わせ処理部から出力された初期モーションパラメータに基づき、画像間の類似度と局所的な位置ずれ量を利用して、当該初期モーションパラメータに対応する単一モーション領域を抽出する、単一モーション領域抽出処理を行い、前記領域ベース位置合わせ処理部が、前記特徴点ベース位置合わせ処理部から出力された初期モーションパラメータと、前記単一モーション領域抽出処理部から出力された単一モーション領域とに基づき、当該単一モーション領域に対応するモーションパラメータをサブピクセル精度で推定する、領域ベース位置合わせ処理を行い、前記特徴点削除処理部が、前記基準画像特徴点及び前記入力画像特徴点から、前記単一モーション領域抽出処理部に抽出された単一モーション領域に含まれる特徴点を削除する、特徴点削除処理を行うことによって効果的に達成される。
また、本発明の上記目的は、前記画像位置合わせ処理装置では、前記基準画像及び前記入力画像に基づき、前記特徴点抽出処理部にて行われる処理、前記特徴点ベース位置合わせ処理部にて行われる処理、前記単一モーション領域抽出処理部にて行われる処理、前記領域ベース位置合わせ処理部にて行われる処理を順番に行うことにより、前記特徴点抽出処理部により抽出された全ての特徴点を利用して、第1支配的なモーションに対応する第1単一モーション領域を抽出し、抽出した第1単一モーション領域に対応する第1モーションパラメータを推定することによってより効果的に達成される。
また、本発明の上記目的は、前記画像位置合わせ処理装置では、前記第1モーションパラメータが推定された後に、前記特徴点削除処理部にて行われる特徴点削除処理により削除されずに残った特徴点を、前記特徴点ベース位置合わせ処理部にて行われる特徴点ベース位置合わせ処理に利用される基準画像特徴点及び入力画像特徴点とした上で、再び、前記特徴点ベース位置合わせ処理部にて行われる処理、前記単一モーション領域抽出処理部にて行われる処理、前記領域ベース位置合わせ処理部にて行われる処理を順番に行うことにより、第2支配的なモーションに対応する第2単一モーション領域を抽出し、抽出した第2単一モーション領域に対応する第2モーションパラメータを推定することによってより効果的に達成される。
また、本発明の上記目的は、前記画像位置合わせ処理装置では、前記第2モーションパラメータが推定された後に、前記特徴点削除処理部にて行われる処理により単一モーション領域に含まれる特徴点を取り除きながら、前記特徴点ベース位置合わせ処理部にて行われる処理、前記単一モーション領域抽出処理部にて行われる処理、前記領域ベース位置合わせ処理部にて行われる処理を繰り返し行うことにより、複数のモーションに対応する全ての単一モーション領域を逐次的に抽出し、逐次的に抽出された単一モーション領域に対応するモーションパラメータをも逐次的に推定することによってより効果的に達成される。
更に、本発明は、複数のモーションを含む複数の画像に基づき、高画質な画質改善画像を生成する画質改善処理装置に関し、本発明の上記目的は、画像位置合わせ処理部と、画質改善処理部とを備え、前記画像位置合わせ処理部が、前記複数の画像から1枚の基準画像を選択し、残った全ての画像を入力画像とし、次に、本発明の画像位置合わせ処理装置により行われる1枚の基準画像と1枚の入力画像との画像全体の位置合わせ処理を、前記複数の画像に対して繰り返し行うことで、複数のモーションを含む複数の画像における全ての単一モーション領域を抽出し、また、それらの単一モーション領域に係る全てのモーションパラメータをロバスト且つ高精度に推定し、前記画質改善処理部が、前記画像位置合わせ処理部から出力された、複数の単一モーション領域と、それぞれの単一モーション領域に対応するモーションパラメータとに基づき、前記複数の画像に対し、画質改善処理を行うことにより、前記画質改善画像を生成することによって効果的に達成させる。
また更に、本発明は、複数のモーションを含む基準画像と、複数のモーションを含む入力画像との画像全体の位置合わせ処理をロバスト且つ高精度に行う画像位置合わせ処理装置に関し、本発明の上記目的は、特徴点抽出処理部と、特徴点ベース位置合わせ処理部と、単一モーション領域抽出処理部と、領域ベース位置合わせ処理部とを備え、前記特徴点抽出処理部が、前記基準画像及び前記入力画像の特徴点をそれぞれ抽出する、特徴点抽出処理を行い、前記特徴点ベース位置合わせ処理部が、前記基準画像から抽出された特徴点(基準画像特徴点)と、前記入力画像から抽出された特徴点(入力画像特徴点)との対応付け処理と、対応付けられた特徴点から外れ値を削除してからの初期モーションパラメータ推定処理とから構成される、特徴点ベース位置合わせ処理を行い、前記単一モーション領域抽出処理部が、前記特徴点ベース位置合わせ処理部から出力された初期モーションパラメータに基づき、画像間の類似度と局所的な位置ずれ量を利用して、当該初期モーションパラメータに対応する単一モーション領域を抽出する、単一モーション領域抽出処理を行い、前記領域ベース位置合わせ処理部が、前記特徴点ベース位置合わせ処理部から出力された初期モーションパラメータと、前記単一モーション領域抽出処理部から出力された単一モーション領域とに基づき、当該単一モーション領域に対応するモーションパラメータをサブピクセル精度で推定する、領域ベース位置合わせ処理を行うことにより、或いは、前記画像位置合わせ処理装置では、前記基準画像及び前記入力画像に基づき、前記特徴点抽出処理部にて行われる処理、前記特徴点ベース位置合わせ処理部にて行われる処理、前記単一モーション領域抽出処理部にて行われる処理、前記領域ベース位置合わせ処理部にて行われる処理を順番に行うことにより、前記特徴点抽出処理部により抽出された全ての特徴点を利用して、第1支配的なモーションに対応する第1単一モーション領域を抽出し、抽出した第1単一モーション領域に対応する第1モーションパラメータを推定することによって効果的に達成される。
また、本発明は、複数のモーションを含む基準画像と、複数のモーションを含む入力画像と、前記基準画像と前記入力画像との画像全体の位置合わせ処理を行うことにより得られた複数のモーションに対応する複数の単一モーション領域及び前記複数の単一モーション領域に対応する複数のモーションパラメータに基づき、前記基準画像及び前記入力画像に対する領域拡張処理を行う領域拡張処理装置に関し、本発明の上記目的は、前記基準画像を入力とするテクスチャレス領域抽出処理部と、前記入力画像及び前記複数のモーションパラメータを入力とする画像変形処理部と、前記基準画像を1つの入力とする類似度による閾値処理部と、論理積処理部と、前記複数の単一モーション領域を入力とする論理和処理部とを備え、前記テクスチャレス領域抽出処理部が、前記基準画像のテクスチャレス領域を抽出する、テクスチャレス領域抽出処理を行い、抽出したテクスチャレス領域を前記論理積処理部へ出力し、前記画像変形処理部が、前記複数のモーションパラメータに基づき、前記入力画像を変形し、変形された入力画像を変形入力画像として前記類似度による閾値処理部へ出力し、前記類似度による閾値処理部が、前記基準画像及び前記変形入力画像に対し、局所的な類似度を閾値処理することにより、類似領域を抽出し、抽出した類似領域を前記論理積処理部へ出力し、前記論理積処理部が、前記テクスチャレス領域抽出処理部から出力された前記テクスチャレス領域、及び前記類似度による閾値処理部から出力された前記類似領域に対し、論理積処理を行うことにより、テクスチャレス類似領域を生成し、生成したテクスチャレス類似領域を前記論理和処理部へ出力し、前記論理和処理部が、前記論理積処理部から出力された前記テクスチャレス類似領域、及び前記複数の単一モーション領域に対し、論理和処理を行うことにより、前記テクスチャレス類似領域と前記複数の単一モーション領域を合わせた、複数の拡張単一モーション領域を生成することによって効果的に達成される。
また、本発明の上記目的は、前記テクスチャレス領域抽出処理では、前記基準画像における局所的な画像の分散を求め、求めた局所的な画像の分散が所定の閾値以下の領域をテクスチャレス領域として抽出することにより、或いは、前記類似度による閾値処理部に利用される前記局所的な類似度は、SSD又はSADであることによってより効果的に達成される。
また更に、本発明は、複数のモーションを含む複数の画像に基づき、高画質な画質改善画像を生成する画質改善処理装置に関し、本発明の上記目的は、画像位置合わせ処理部と、領域拡張処理部と、画質改善処理部とを備え、前記画像位置合わせ処理部が、前記複数の画像から1枚の基準画像を選択し、残った全ての画像を入力画像とし、次に、本発明の画像位置合わせ処理装置により行われる1枚の基準画像と1枚の入力画像との画像全体の位置合わせ処理を、前記複数の画像に対して繰り返し行うことで、複数のモーションを含む複数の画像における全ての単一モーション領域を抽出し、また、それらの単一モーション領域に係る全てのモーションパラメータをロバスト且つ高精度に推定し、前記領域拡張処理部が、前記画像位置合わせ処理部から出力された、前記複数の画像における全ての単一モーション領域と、前記全ての単一モーション領域に対応する全てのモーションパラメータとに基づき、本発明の領域拡張処理装置により行われる1枚の基準画像及び1枚の入力画像に対する領域拡張処理を、前記複数の画像に対して繰り返し行うことで、前記複数の画像における全ての拡張単一モーション領域を生成し、前記画質改善処理部が、前記領域拡張処理部から出力された前記複数の画像における全ての拡張単一モーション領域と、前記画像位置合わせ処理部から出力された前記全てのモーションパラメータとに基づき、前記複数の画像に対し、画質改善処理を行うことにより、前記画質改善画像を生成することによって効果的に達成される。
本発明に係る画像位置合わせ処理技術によれば、複数のモーションを含む画像間の画像全体の位置合わせ処理をロバスト且つ高精度に行うことができるという優れた効果を奏する。
また、初期モーションなしで大きな変形をもった画像間の位置合わせ処理は、従来の領域ベース位置合わせ処理アルゴリズムによっては不可能であるが、本発明に係る画像位置合わせ処理技術は、特徴点ベース位置合わせ処理と領域ベース位置合わせ処理の長所を併せ持っているので、本発明によれば、そのような困難な位置合わせ処理を行うことも可能である。
また、従来の多くの位置合わせ処理方法は、単一モーションを仮定しているため、実際に、そのような位置合わせ処理方法を画像処理等のアプリケーションに適用する際に、アプリケーションのユーザが、単一モーション領域を指定する必要がある。
しかし、本発明では、単一モーション領域を抽出しながら、モーションパラメータを推定するようにしているので、ユーザによる単一モーション領域を指定する必要は全くない。
更に、本発明に係る画像位置合わせ処理技術により、抽出された複数の単一モーション領域と、推定されたそれらの単一モーション領域に対応する複数のモーションパラメータを用いて、本発明に係る画質改善処理装置にて、画像全体(全画面)の超解像処理を実現した。
本発明によれば、別々に動く複数の移動体(モーション)が存在する時系列画像から、高解像度の画像を再構成できるという優れた効果を奏する。
図1は本発明に係る画質改善処理装置の第1実施形態を示すブロック構成図である。
図2は本発明に係る画像位置合わせ処理装置の実施形態を示すブロック構成図である。
図3は本発明の画像位置合わせ処理装置100の処理流れを示すフロー図である。
図4は本発明に係る画像位置合わせ処理装置による、複数のモーションを含む2つの画像間の画像全体の位置合わせ処理を行う際の画像例を示す図である。
図5は2つの移動体が別々に動いているシーンを撮影した時系列画像を示す図である。
図6は単一モーション領域抽出処理の結果を示す図である。
図7は左右の移動体を基準画像に合わせて変形した結果を示す図である。
図8は超解像処理結果を示す図である。
図9は超解像処理結果を示す図である。
図10は超解像処理結果を示す図である。
図11は本発明に係る画質改善処理装置の第2実施形態を示すブロック構成図である。
図12は本発明に係る領域拡張処理装置の実施形態を示すブロック構成図である。
本発明は、複数モーションに対応した画像位置合わせ処理技術及び、当該画像位置合わせ処理技術を利用した画質改善処理技術に関する。
具体的に、本発明は、複数のモーションを含む画像間の画像全体(全画面)の位置合わせ処理を、ロバスト且つ高精度に行えるようにした、画像位置合わせ処理装置、画像位置合わせ処理方法及び画像位置合わせ処理プログラムに関する。
また、本発明は、複数のモーションを含む複数の画像に対し、本発明の画像位置合わせ処理装置にて画像間の位置合わせ処理を行い、得られた複数の単一モーション領域及び各単一モーション領域に対応する高精度なモーションパラメータと、複数の画像を利用して、画質改善処理を行うことにより、画質改善画像を生成する、画質改善処理装置に関する。
また、本発明は、複数のモーションを含む画像に対する領域拡張処理を行う領域拡張処理技術に関する。また更に、本発明は、本発明の画像位置合わせ処理技術と本発明の領域拡張処理技術を利用した画質改善処理技術に関する。
ここで、まず、本発明の着眼点について述べる。
画像間の位置合わせ処理は、特徴点ベース位置合わせ処理と領域ベース位置合わせ処理に大きく分けられる。
領域ベース位置合わせ処理は、モーションパラメータの初期値と単一モーション領域を与える必要があるが、位置合わせ処理を高精度に行うことができる。
一方、特徴点ベース位置合わせ処理では、モーションパラメータの初期値や単一モーション領域を必要とせず、位置合わせ処理をロバストに行うことが可能である。
しかしながら、特徴点ベース位置合わせ処理は、領域ベース位置合わせ処理ほど、高精度に位置合わせ処理を行うことができない。また、特徴点ベース位置合わせ処理では、モーションパラメータを推定できるものの、そのモーションパラメータに対応する単一モーション領域を推定することができない。
本発明の発明者らは、特徴点ベース位置合わせ処理と領域ベース位置合わせ処理の長所に着眼し、両者の短所を排除した上で両者の長所を融合し、更に、独自な単一モーション領域抽出処理技術を利用することにより、複数のモーションを含む画像間の画像全体(全画面)の位置合わせ処理をロバスト且つ高精度に行えるようにした本発明を発明した。
以下、本発明の実施形態について、図面を参照しながら詳細に説明する。
本発明では、複数のモーションを含む画像間の位置合わせ処理を行うために、それぞれのモーションを単一モーションとして推定し、その単一モーションに対応する単一モーション領域を抽出し、更に、抽出した単一モーション領域のモーションパラメータを高精度に推定する。
つまり、本発明を用いて、複数のモーションを含む1枚の基準画像と、複数のモーションを含む1枚の入力画像との画像全体(全画面)の位置合わせ処理を行う場合に、まず、基準画像及び入力画像の特徴点をそれぞれ抽出する、特徴点抽出処理(以下、第1処理とも言う。)を行う。
次に、基準画像から抽出された特徴点(基準画像特徴点)と、入力画像から抽出された特徴点(入力画像特徴点)との対応付け処理を行い、対応付けられた特徴点から外れ値を削除して、初期モーションパラメータをロバストに推定する、特徴点ベース位置合わせ処理(以下、第2処理とも言う。)を行う。以下、第2処理は、外れ値の削除を伴う特徴点ベース位置合わせ処理とも言う。
次に、推定された初期モーションパラメータに基づき、画像間の類似度と局所的な位置ずれ量を利用して、当該初期モーションパラメータに対応する領域(即ち、単一モーション領域)を抽出する単一モーション領域抽出処理(以下、第3処理とも言う。)を行う。
次に、初期モーションパラメータと、抽出された単一モーション領域とに基づき、当該単一モーション領域に対応するモーションパラメータをサブピクセル精度で(高精度に)推定する、領域ベース位置合わせ処理(以下、第4処理とも言う。)を行う。
このように、基準画像及び入力画像から抽出された全ての特徴点を利用して、第1処理から第4処理までの一連の処理を行うことにより、最も多くの特徴点を含んでいる支配的なモーション(以下、第1支配的なモーションとも言う。)に対応する単一モーション領域を抽出することができ、また、その単一モーション領域に対応するモーションパラメータを推定することができる。
つまり、上記のように、画像間で対応付けられた全ての特徴点を用い、外れ値の削除を伴う特徴点ベース位置合わせ処理(第2処理)を行うことにより、最も多くの特徴点を含む支配的なモーションが推定される訳である。
次に、基準画像特徴点及び入力画像特徴点から、単一モーション領域に含まれる特徴点を削除する特徴点削除処理(以下、第5処理とも言う。)を行う。
次に、削除されずに残った特徴点を基準画像特徴点及び入力画像特徴点として利用し、再び、第2処理から第4処理までの一連の処理を行うことにより、2番目に支配的なモーション(以下、第2支配的なモーションとも言う。)に対応する単一モーション領域を抽出することができ、また、その単一モーション領域に対応するモーションパラメータを推定することができる。
本発明では、上記のようにして、第5処理を行うことにより単一モーション領域に含まれる特徴点を取り除きながら、第2処理から第4処理までの一連の処理を繰り返し行うことにより、複数のモーションに対応する単一モーション領域を逐次的に抽出し、そして、逐次的に抽出された単一モーション領域に対応するモーションパラメータをも逐次的に推定する。つまり、本発明では、特徴点を多く含む支配的なモーションから順番に逐次的に複数のモーションパラメータを推定するようにしている。
このように、本発明では、第1処理を行い、更に、第2処理から第5処理までの一連の処理を繰り返し行うことにより、複数の単一モーション領域を抽出することが可能となり、また、それぞれの単一モーション領域に対応するモーションパラメータをロバスト且つ高精度に推定することができる。
ちなみに、上記のような処理は、複数のモーションを含む2つの画像間の画像全体の位置合わせ処理となる。上記のような処理(複数のモーションを含む2つの画像間の画像全体の位置合わせ処理)を、複数のモーションを含む複数の画像に対して繰り返し適用することにより、複数のモーションを含む複数の画像間の画像全体の位置合わせ処理が可能になる。
更に、本発明では、複数のモーションを含む複数の画像に対して、画像全体の位置合わせ処理を行うことにより、高精度に(即ち、サブピクセル精度で)推定されたモーションパラメータと、当該モーションパラメータに対応する単一モーション領域を利用して、画像全体の画質改善処理(例えば、超解像処理)を行うことにより、画質改善画像を生成する。
図1は本発明に係る画質改善処理装置の第1実施形態を示すブロック構成図である。
図1に示すように、本発明に係る画質改善処理装置1は、画像位置合わせ処理部10と、画質改善処理部20とから構成され、複数のモーションを含む複数の画像に基づき、高画質な画質改善画像を生成するものである。
本発明の画質改善処理装置1では、まず、画像位置合わせ処理部10が、複数のモーションを含む複数の画像に対し、詳細は後述する本発明に係る画像位置合わせ処理装置により、画像全体の位置合わせ処理を行うことにより、複数のモーションに対応する複数の単一モーション領域を抽出し、また、抽出されたそれぞれの単一モーション領域に対応するモーションパラメータをロバスト且つ高精度に推定する。
つまり、画像位置合わせ処理部10では、まず、複数のモーションを含む複数の画像から、1枚の基準画像を選択し、残った全ての画像を入力画像とし、次に、本発明に係る画像位置合わせ処理装置により行われる1枚の基準画像と1枚の入力画像との画像全体の位置合わせ処理を、複数のモーションを含む複数の画像に対して繰り返し行うことで、複数のモーションを含む複数の画像における全ての単一モーション領域を抽出し、また、それらの単一モーション領域に係る全てのモーションパラメータをロバスト且つ高精度に推定する。
次に、画質改善処理部20が、画像位置合わせ処理部10から出力された、複数の単一モーション領域と、それぞれの単一モーション領域に対応するモーションパラメータとに基づき、複数のモーションを含む複数の画像に対し、画質改善処理を行うことにより、画質改善画像を生成する。また、画質改善処理部20にて行われる画質改善処理は、例えば、特許文献3に開示された画質改善処理方法を用いて行うことができる。
なお、本発明に係る画質改善処理装置に利用される複数のモーションを含む複数の画像として、複数の動き(複数の複雑な動き)のある動画像(即ち、複数の移動体が別々に動いているシーンを撮影した時系列画像)を用いることができる。その場合、例えば、時系列画像の最初のフレームを基準画像とし、その後のフレームを入力画像とすることができる。
勿論、本発明の画質改善処理装置は、動画像に適用されることに限定されることはなく、複数のモーションを含む複数の画像として、静止画像を用いることも勿論可能である。
図2は本発明に係る画像位置合わせ処理装置の実施形態(画像位置合わせ処理装置100)を示すブロック構成図である。また、図3は本発明の画像位置合わせ処理装置100の処理流れを示すフロー図である。以下、図2及び図3を用いて、本発明に係る画像位置合わせ処理装置を詳細に説明する。
本発明に係る画像位置合わせ処理装置にて行われる処理は、複数のモーションを含む2枚の画像間の画像全体の位置合わせ処理である。
図2に示すように、本発明に係る画像位置合わせ処理装置100は、特徴点抽出処理部110と、特徴点ベース位置合わせ処理部120と、単一モーション領域抽出処理部130と、領域ベース位置合わせ処理部140と、特徴点削除処理部150とから構成され、複数のモーションを含む2枚の画像間(1枚の画像は基準画像で、もう1枚の画像は入力画像である)の画像全体の位置合わせ処理を行うものである。
図2に示すように、本発明の画像位置合わせ処理装置100では、まず、特徴点抽出処理部110が、基準画像及び入力画像に基づき、基準画像及び入力画像の特徴点をそれぞれ抽出する、特徴点抽出処理を行う(図3のステップS10、ステップS20を参照)。
次に、特徴点ベース位置合わせ処理部120が、特徴点ベース位置合わせ処理を行う。特徴点ベース位置合わせ処理は、基準画像から抽出された特徴点(基準画像特徴点)と、入力画像から抽出された特徴点(入力画像特徴点)との対応付け処理(図3のステップS30を参照)と、対応付けられた特徴点から外れ値を削除してからの初期モーションパラメータ推定処理(図3のステップS40を参照)とから構成される。
次に、単一モーション領域抽出処理部130が、特徴点ベース位置合わせ処理部120から出力された初期モーションパラメータに基づき、画像間の類似度と局所的な位置ずれ量を利用して、当該初期モーションパラメータに対応する単一モーション領域を抽出する単一モーション領域抽出処理(図3のステップS60を参照)を行う。
次に、領域ベース位置合わせ処理部140が、特徴点ベース位置合わせ処理部120から出力された初期モーションパラメータと、単一モーション領域抽出処理部130から出力された単一モーション領域とに基づき、当該単一モーション領域に対応するモーションパラメータをサブピクセル精度で(高精度に)推定する、領域ベース位置合わせ処理(図3のステップS70を参照)を行う。
つまり、領域ベース位置合わせ処理部140では、特徴点ベース位置合わせ処理部120から出力された初期モーションパラメータをモーションパラメータの初期値とし、単一モーション領域抽出処理部130から出力された単一モーション領域を注目領域として、当該単一モーション領域(注目領域)に対応するモーションパラメータをサブピクセル精度で推定するようにしている。
本発明の画像位置合わせ処理装置100では、まず、基準画像及び入力画像に基づき、特徴点抽出処理部110にて行われる処理、特徴点ベース位置合わせ処理部120にて行われる処理、単一モーション領域抽出処理部130にて行われる処理、領域ベース位置合わせ処理部140にて行われる処理を順番に行うことにより、特徴点抽出処理部110により抽出された全ての特徴点を利用して、最も多くの特徴点を含んでいる支配的なモーション(第1支配的なモーション)に対応する単一モーション領域(以下、第1単一モーション領域と言う。)を抽出し、また、第1単一モーション領域に対応するモーションパラメータ(以下、第1モーションパラメータと言う。)を推定する。
次に、特徴点削除処理部150が、基準画像特徴点及び入力画像特徴点から、単一モーション領域抽出処理部130に抽出された単一モーション領域に含まれる特徴点を削除する特徴点削除処理(図3のステップS90を参照)を行う。
次に、本発明の画像位置合わせ処理装置100では、特徴点削除処理部150にて行われる特徴点削除処理により削除されずに残った特徴点を、特徴点ベース位置合わせ処理部120にて行われる特徴点ベース位置合わせ処理に利用される基準画像特徴点及び入力画像特徴点とした上で、再び、特徴点ベース位置合わせ処理部120にて行われる処理、単一モーション領域抽出処理部130にて行われる処理、領域ベース位置合わせ処理部140にて行われる処理を順番に行うことにより、2番目に支配的なモーション(第2支配的なモーション)に対応する単一モーション領域(以下、第2単一モーション領域と言う。)を抽出し、また、第2単一モーション領域に対応するモーションパラメータ(以下、第2モーションパラメータと言う。)を推定する。
本発明の画像位置合わせ処理装置100では、上記のようにして、特徴点削除処理部150にて行われる処理により単一モーション領域に含まれる特徴点を取り除きながら、特徴点ベース位置合わせ処理部120にて行われる処理、単一モーション領域抽出処理部130にて行われる処理、領域ベース位置合わせ処理部140にて行われる処理を繰り返し行うことにより、複数のモーションに対応する全ての単一モーション領域を逐次的に抽出し、そして、逐次的に抽出された単一モーション領域に対応するモーションパラメータをも逐次的に推定する。
換言すれば、本発明の画像位置合わせ処理装置100では、特徴点を多く含む支配的なモーションから、順番に逐次的に単一モーション領域を抽出し、そして、順番に逐次的に抽出された単一モーション領域に対応するモーションパラメータを推定するようにしている。
このように、本発明の画像位置合わせ処理装置100では、特徴点抽出処理部110により特徴点抽出処理を行い、更に、特徴点ベース位置合わせ処理部120にて行われる処理、単一モーション領域抽出処理部130にて行われる処理、領域ベース位置合わせ処理部140にて行われる処理、特徴点削除処理部150にて行われる処理を繰り返し行うことにより、複数のモーションに対応する複数の単一モーション領域を抽出することが可能となり、また、それぞれの単一モーション領域に対応するモーションパラメータをロバスト且つ高精度に推定することができる。
以下、図3のフロー図及び図4の画像例を用いて、本発明の画像位置合わせ処理装置にて行われるそれぞれの処理について、より詳細に説明する。
<1>特徴点抽出処理
図3のステップS10とステップS20に示すように、本発明の画像位置合わせ処理装置では、複数のモーションを含む基準画像及び入力画像に対して、特徴点抽出処理をそれぞれ行う。また、図4に基準画像及び入力画像に対して行った特徴点抽出処理結果の画像例を示している。
本発明における特徴点抽出処理では、まず、ガウシアンのスケールパラメータを変化させながら、DoG(Difference−of−Gaussian)を計算する。次に、DoGの極小値又は極大値を特徴点として抽出する。
このとき、DoGの極小値又は極大値に対応するDoGのスケールパラメータは、<2a>で詳述する「画像間の特徴点の対応付け処理」において、抽出された特徴点の周辺領域を正規化するときに利用される。
る。ただし、Nは基準画像から抽出された特徴点の数を表し、また、Nは入力画像から抽出された特徴点の数を表す。
<2>特徴点ベース位置合わせ処理
本発明の画像位置合わせ処理装置では、特徴点ベース位置合わせ処理部110が、基準画像から抽出された特徴点(基準画像特徴点)と入力画像から抽出された特徴点(入力画像特徴点)とに基づき、特徴点ベース位置合わせ処理を行う。
ここで、特徴点ベース位置合わせ処理について、その概要を述べる。
特徴点ベース位置合わせ処理は、基準画像特徴点と入力画像特徴点との対応付け処理、(即ち、画像間の特徴点の対応付け処理)と、対応付けられた特徴点から外れ値を削除してからの初期モーションパラメータ推定処理とから構成される。
ここで言う「対応付けられた特徴点から外れ値を削除する」とは、画像間の特徴点の対応付け処理によって得られた特徴点対(以下、「対応付けられた特徴点対」と言う。)から、所定の基準に外れた特徴点対(以下、「外れ特徴点対」と言う。)を削除することを意味する。非特許文献12〜非特許文献14に、対応付けられた特徴点対から外れ特徴点対を取り除きながら、モーションパラメータを推定する方法が記載されている。
本発明の画像位置合わせ処理装置100では、特徴点抽出処理部110にて行われる「特徴点抽出処理」と、特徴点ベース位置合わせ処理部120にて行われる「画像間の特徴点の対応付け処理(図3のステップS30を参照)」については、非特許文献15に記載されたSIFTアルゴリズムを利用した。なお、非特許文献15に記載されたSIFTアルゴリズムは、変形が大きくても比較的ロバストな結果が得られる方法である。
また、特徴点ベース位置合わせ処理部120にて行われる「対応付けられた特徴点から外れ値を削除してからの初期モーションパラメータ推定処理(図3のステップS40を参照)」については、非特許文献13に記載されたRANSACアルゴリズムの高速化手法である、非特許文献12に記載されたPROSACアルゴリズムを利用した。
本発明では、外れ特徴点対の削除(外れ値の削除)を伴う特徴点ベース位置合わせ処理を行うことにより、初期モーションパラメータをロバストに推定することができる。
<2a>画像間の特徴点の対応付け処理
図3のステップS30に示すように、本発明の画像位置合わせ処理装置では、基準画像から抽出された特徴点(基準画像特徴点)と、入力画像から抽出された特徴点(入力画像特徴点)との対応付け処理、即ち、画像間の特徴点の対応付け処理を行う。
本発明における画像間の特徴点の対応付け処理は、特徴点の周辺領域を正規化する処理と、特徴点の特徴量を計算する処理と、特徴量の距離に基づく対応付け処理とから構成される。
特徴点の周辺領域を正規化する処理を行うために、まず、特徴点のスケールパラメータと特徴点の方向を定める。特徴点のスケールパラメータとして、特徴点が抽出されたときのDoGのスケールパラメータを利用する。また、特徴点の方向を定めるために、抽出された特徴点の周辺領域の各画素の勾配の方向を計算し、計算された勾配の方向のヒストグラムを作成する。作成されたヒストグラムのピークを対応する画素の勾配の方向を特徴点の方向として定める。
このように定められた、特徴点の周辺領域を、スケールパラメータと方向に基づき、正規化する。特徴点の周辺領域を正規化する処理とは、周辺領域をスケールと方向を全ての特徴点で等しくなるように、拡大または縮小、回転をする処理である。
次に、特徴点の周辺領域を正規化する処理により、正規化された特徴点の周辺領域を、小領域に分割する。一つの具体例として、例えば、正規化された特徴点の周辺領域を4×4の16個の小領域に分割する。
次に、分割された各小領域において、各画素の勾配の方向を計算し、計算された勾配の方向のヒストグラムを作成する。一つの具体例として、例えば、360度の方向を45度幅でヒストグラムを作成することにより、8方向の頻度値が得られる。この頻度値を画素数で正規化した値を、特徴点の特徴量とする。
分割された16個の小領域で、それぞれ8方向の正規化された頻度値が得られるので、一つの特徴点に対して、128個の特徴量が得られることになる。
である。
特徴量の距離に基づく対応付け処理では、まず、基準画像のp番目の特徴点と、入力画像のq番目の特徴点との距離spqを計算する。距離
を表す。
基準画像のp番目の特徴点に対応する入力画像の特徴点は、距離spqを最も小さくなるような入力画像のq番目の特徴点が選ばれる。
閾値より大きい場合のみ、画像間の特徴点の対応付けを行う。一つの具体例として、例えば、信頼度rの閾値を1.5とした。
以上の一連の処理により、基準画像から抽出された特徴点と、入力画像から抽出された特徴点とは対応付けされる。
徴点の数をNTIとする。つまり、k=1〜NTIが成立する。
<2b>対応づけられた特徴点から外れ値を削除して初期モーションパラメータ推定処理
図3のステップS40に示すように、本発明の画像位置合わせ処理装置では、対応付けられた特徴点から外れ値を削除して、初期モーションパラメータ推定処理を行う。
対応づけられた特徴点から外れ値を削除して初期モーションパラメータ推定処理は、具体的に、下記ステップ1〜ステップ10により行われる。
なお、以下の実施例では、モーションモデルに射影変換を利用しており、つまり、推定される初期モーションパラメータは射影変換パラメータである。但し、本発明は、モーションモデルに射影変換を利用することに限定されることは無く、例えば、射影変換以外のモーションモデルを利用することも勿論可能である。
ステップ1:
t、n、Lに対し、それぞれ所定の適切な値をセットする。ここで、t=1、n=5、L=0にセットする。
ステップ2:
信頼度rの大きな方から、(n−1)個の特徴点の対応を選び、その中から3つの特徴点の対応をランダムに選択する。
ステップ3:
選択された3つの特徴点とn番目に信頼度rの大きい特徴点との対応を利用して、射影変換パラメータHを計算する。
ステップ4:
射影変換パラメータHに基づき、入力画像特徴点を変換し、変換された入力画像特徴点の位置と、入力画像特徴点に対応付けされている基準画像特徴点の位置との差を計算する。計算された位置の差が所定の閾値以下である特徴点の数を数える。一具体例として、例えば、この所定の閾値を2とする。
ステップ5:
位置の差が所定の閾値以下である特徴点の数が、Lよりも大きい場合は、Lに位置の差が所定の閾値以下である特徴点の数をセットする。
ステップ6:
tが下記数1で表す条件を満足する場合には、射影変換パラメータHを初期モーションパラメータの推定値Hとして出力し、初期モーションパラメータ推定処理が終了する(図3のステップS50を参照)。
但し、ηは設計パラメータであり、一具体例として、例えば、ηを0.05とした。
ステップ7:
tを1増加させる。
ステップ8:
tが所定の数τを超えた場合に、初期モーションパラメータ推定処理が失敗したものとして、本発明の画像位置合わせ処理装置における処理を終了する(図3のステップS50を参照)。一具体例として、例えば、τ=1000000とした。
ステップ9:
tが下記数3で表す条件を満足する場合には、nを1増加させる。
ステップ10:
ステップ2に戻り、処理を繰り返す。
<3>単一モーション領域抽出処理
本発明の画像位置合わせ処理装置では、単一モーション領域抽出処理部130にて行われる「単一モーション領域抽出処理」については、特許文献2、非特許文献16に開示された画素選択アルゴリズムを利用した。
つまり、単一モーション領域抽出処理部130では、特許文献2、非特許文献16に開示された画素選択アルゴリズムを用いて画素を選択し、そして選択した画素のみで構成される領域(即ち、選択した画素の集合)を単一モーション領域として抽出する。
特許文献2や非特許文献16では、画素を選択する際に、画像間の類似度による評価に加えて、局所的な位置ずれ量を利用する。本発明では、非特許文献16に記載されたアルゴリズムを用いた場合に、画像間の類似度が高く、位置ずれ量の小さな画素を選択する。選択した画素を単一モーション領域に属する画素とする。
なお、単一モーション領域抽出処理部130では、特許文献2、非特許文献16に開示された画素選択アルゴリズムを利用して単一モーション領域抽出処理を行うことに限定されることはなく、例えば、特許文献1に開示されたようなマスク画像生成アルゴリズムを利用することによりマスク画像を生成し、生成したマスク画像を単一モーション領域として抽出することも勿論可能である。
本発明の画像位置合わせ処理装置では、図3のステップS60に示すように、推定された初期モーションパラメータに基づき、画像間の類似度と局所的な位置ずれ量を利用して、当該初期モーションパラメータに対応する、単一モーション領域を抽出する単一モーション領域抽出処理を行う。また、図4に抽出された単一モーション領域の画像例を示している。
以下、単一モーション領域抽出処理の好適な実施例を具体的に説明する。
本発明の単一モーション領域抽出処理では、基準画像Tと入力画像I、推定された初期モーションパラメータH(以下、単に、初期モーションパラメータHとも言う。)から、対応する入力画像における領域を、マスク画像Mとして抽出する。
ここで、マスク画像Mは単一モーション領域を表す。また、基準画像Tを初期モーションパラメータHで変形した画像を、変形基準画像T’とする。
まず、変形基準画像T’と入力画像Iとの位置(x,y)における類似度R(x,y;i,j)を、下記数4のように定義する。
ここで、wは周辺領域の大きさを表す。本実施例では、w=7としている。
次に、i=−1,0,1とj=−1,0,1における9つの類似度R(x,y;i,j)の値を利用して、単一モーション領域を表すマスク画像Mの位置(x,y)における値、即ち、M(x,y)を下記のように設定する。
まず、9つの類似度R(x,y;i,j)の値を利用して、下記数5で表す2次関数にフィッティングし、6個の係数C,C,C,C,C及びCを求める。
次に、求められた6個の係数C,C,C,C,C及びCに関して、下記数6〜数9で表す関係が全て成立した場合には、M(x,y)に1を設定する。そして、下記数6〜数9で表す関係のうち、一つでも成立しない場合には、M(x,y)に0を設定する。
本実施例では0.9925としている。
全ての位置(x,y)について、以上の計算処理を繰り返すことにより、単一モーション領域を表すマスク画像M(x,y)を計算(抽出)することができる。
<4>領域ベース位置合わせ処理
本発明の画像位置合わせ処理装置では、領域ベース位置合わせ処理部140にて行われる領域ベース位置合わせ処理については、非特許文献18に記載されたICIAアルゴリズムを利用した。ICIAアルゴリズムは、高速で高精度に位置合わせ処理を行うことができるアルゴリズムである。
本発明の画像位置合わせ処理装置では、図3のステップS70に示すように、ロバストに推定された初期モーションパラメータと、抽出された単一モーション領域とに基づき、当該単一モーション領域に対応するモーションパラメータをサブピクセル精度で(高精度に)推定する、領域ベース位置合わせ処理を行う。また、図4に領域ベース位置合わせ処理で得られたモーションパラメータを用いて、基準画像と入力画像との画像全体の位置合わせ結果の画像例を示している。
以下、本発明に係る領域ベース位置合わせ処理の好適な実施例を具体的に説明する。
本発明の領域ベース位置合わせ処理では、下記数10で表す評価関数を最小にするように、モーションパラメータHを高精度に推定する。
ここで、M’(x,y)は単一モーション領域M(x,y)を、初期モーションパラメータHに基づき変形したマスク画像を表す。
また、w(x,y;H)はモーションパラメータHで変換した後のx座標を表す。w(x,y;H)はモーションパラメータHで変換した後のy座標を表す。
上記数10で表す評価関数を最小にするために、勾配に基づく最小化手法を利用する。勾配に基づく最小化方法では初期値を必要とするが、その初期値には、初期モーションパラメータHを利用する。
数10で表す評価関数を最小化することにより得られたモーションパラメータHを出力し、領域ベース位置合わせ処理が終了する(図3のステップS80を参照)。
一方、最小化手法により数10で表す評価関数を最小化することに失敗したときに、モーションパラメータ推定処理が失敗したものとして、本発明の画像位置合わせ処理装置における処理を終了する(図3のステップS80を参照)。
<5>画質改善処理
本発明の画質改善処理装置1では、画質改善処理部20が、画像位置合わせ処理部10から出力された、複数の単一モーション領域と、それぞれの単一モーション領域に対応するモーションパラメータとに基づき、複数のモーションを含む複数の画像に対し、画質改善処理を行うことにより、画質改善画像を生成する。
以下、本発明の画質改善処理の好適な実施例を具体的に説明する。
N枚の画像を観測(撮影)し、それぞれの観測画像からM個のモーションパラメータ(射影変換パラメータ)Hklと、モーションパラメータに対応する単一モーション領域を表すマスク画像Mklが、画像位置合わせ処理部10にて行われる画像全体の位置合わせ処理により、得られた。
このとき、画質改善処理では、下記数11で表す評価関数を最小化することにより、画質改善処理が行われる。
ここで、hは画質改善画像のベクトル表現を表す。fはk番目の観測画像のベクトル表現を表す。mklはk番目の観測画像のl番目のモーションパラメータ(射影変換パラメータ)に対応する単一モーション領域を表すマスク画像のベクトル表現を表す。Nは観測画像の枚数である。
また、Aklはk番目の観測画像のl番目のモーションパラメータ(射影変換パラメータ)とカメラモデルから得られる画質改善画像からk番目の観測画像を推定するための行列を表す。Qは画質改善画像の拘束を表す行列を表す。λは拘束の大きさを表すパラメータを表す。diag(mkl)はmklを対角要素にもつ対角行列を表す。Tは行列の転置オペレータを表す。
本発明に係る画像位置合わせ処理装置及び画質改善処理装置は、コンピュータシステムを利用し、ソフトウェア(コンピュータプログラム)により実装されることができ、そして、ASIC(Application Specific Integrated Circuit)、GPU(Graphics Processing Unit)やFPGA(Field Programmable Gate Array)などのハードウェアにより実装されることも勿論できる。
以下では、複数の移動体が存在し、遮蔽や鏡面反射などが生じている複雑な実シーンを撮影した時系列画像(実画像)に対して、本発明の画像位置合わせ処理技術を適用し、更に、本発明による画像位置合わせ処理結果に基づき、超解像処理を行うことにより、本発明の有効性を実証した。その結果、画像全体の解像度が効果的に向上していることが確認された。
図5に2つの移動体が別々に動いているシーンを撮影した時系列画像を示す。図5に示す時系列画像に対し、本発明による画像全体の位置合わせ処理を行った。本発明における単一モーションとして、平面射影変換を仮定した。平面射影変換は、単一平面のモーションを表現する画像変形である。
図6に単一モーション領域抽出処理の結果を示す。図6の左側は左の単一モーション領域の抽出結果で、図6の右側は右の単一モーション領域の抽出結果である。図6から、単一モーション領域だけが正しく抽出されていることが分かる。ここで注意したいのは、移動体内のすべての画素を抽出する必要はないということである。本発明では、画質改善処理(例えば、超解像処理)を行うことをも目的としているため、サブピクセル精度で正確に位置合わせされている画素だけを抽出することの方がむしろ重要である。
図7に左右の移動体を基準画像に合わせて変形した結果を示す。図5(A)と比較すると、基準画像に正しく位置合わせされていることが分かる。
次に、本発明によって推定されたモーションパラメータを使って超解像処理を行った。また、比較のため、濃度勾配法によって推定されたモーションパラメータを使って超解像処理をも行った。濃度勾配法の処理領域は、画像全体(全画面)、手動で指定した左の移動体、手動で指定した右の移動体の3種類とした。濃度勾配法では、モーションとして平面射影変換を仮定した。ロバスト超解像処理として、非特許文献16に記載された方法で求めたモーションに対応する領域のみを使って超解像処理を行った。観測画像のフレーム数は30枚である。再構成法には、非特許文献19に記載された方法を用い、高解像度化の倍率は縦横3倍に設定した。
図8に超解像処理結果を示す。まず、前述したロバスト超解像処理の効果によって、図8のいずれの超解像処理結果にも画像劣化が見られないことが分かる。ロバスト超解像処理は画像劣化を抑える効果があるが、位置合わせが不正確な領域の解像度を向上することはできない。図8(C)左側、(D)右側、(E)左側、(E)右側は、図8のほかの超解像処理結果に比べて解像度が向上していることが分かる。解像度が向上した領域は、位置合わせが正確な領域である。この結果から、本発明によって複数のモーションを含む画像間の画像全体の位置合わせ処理により、移動体の位置合わせが正確に行われたことが分かる。
図9及び図10に、より複雑なシーンを撮影した時系列画像に対する超解像処理結果を示す。このシーン(時系列画像)は、2冊の本を人間が自由に動かしている動画像である。2つの平面である2冊の本が別々に動き、非平面である顔や服も自由に動いている。また、遮蔽や鏡面反射成分も含むような照明変化が生じている。このシーンに対し、動画像の全フレームに対して超解像処理を行った。
本発明によって推定したモーションパラメータを使って超解像処理を行った。また、比較のため、画像全体を濃度勾配法によって推定したモーションパラメータを使って超解像処理をも行った。濃度勾配法では、モーションとして平面射影変換を仮定した。図9及び図10は、左の列から順に、フレーム0、フレーム50、フレーム100、フレーム149に対応している。図9(B)、(C)、(D)は、眼鏡の含まれる領域を手動で切り出した画像である。図10(B)、(C)、(D)は、青い本の含まれる領域を手動で切り出した画像である。それぞれ、フレームごとに領域を設定し、本発明と既存手法、観測画像から同じ領域を切り出した。
図9(B)、(C)、(D)を比較すると、眼鏡のふち等において、本発明による位置合わせ結果を用いた超解像処理結果がもっとも解像感が高く、色ずれも抑えられていることがわかる。図10(B)、(C)、(D)を比較すると、観測画像の拡大や画像全体の濃度勾配法でのモーション推定結果を用いた超解像処理結果では読めない文字が、本発明による位置合わせ結果を用いた超解像処理によって読めるようになることが分かる。
図9(A)のような動画像(観測時系列画像)に対し、特定のフレームにおける特定の領域を超解像処理する場合には、処理領域を指定して濃度勾配法によってモーションパラメータを推定する手法も有用である。しかし、超解像処理の対象が動画像の全フレームである場合、全フレームに対して処理領域を指定するような作業は非現実的である。
一方、本発明による位置合わせ結果を利用すれば、処理領域の指定などの作業を必要とせずに、全フレームの画像全体において超解像処理を行うことができる。
上述した本発明に係る画質改善処理装置の第1実施形態において、単一モーション領域抽出処理では、画像間の類似度と局所的な位置ずれ量に基づき、単一モーション領域を抽出するようにしている。
ところで、局所的な位置ずれ量を推定する際に、テクスチャレス領域では、局所的な位置ずれ量推定が不安定になりやすいことがある。そのため、テクスチャレス領域を判定し、テクスチャレス領域を単一モーション領域に含めないようにするという処理が行われることがある。
そこで、本発明の発明者らは、テクスチャレス領域について鋭意研究した結果として、テクスチャレス領域であっても、例えばSSDのような局所的な類似度が高ければ、高い局所的な類似度を有するそのテクスチャレス領域を画質改善処理に利用可能であることを見出した。
つまり、本発明に係る画質改善処理装置の第2実施形態では、テクスチャレス領域であるとともに、類似領域でもある領域(以下、このような領域を単に「テクスチャレス類似領域」とも言う。)を、単一モーション領域に加えることにより、画質改善処理により、テクスチャレス領域のSN比の向上を実現している。
図11は本発明に係る画質改善処理装置の第2実施形態(本発明に係る画質改善処理装置2)を示すブロック構成図である。
図11に示すように、本発明に係る画質改善処理装置2は、画像位置合わせ処理部10と、領域拡張処理部18と、画質改善処理部20とから構成され、複数のモーションを含む複数の画像に基づき、高画質な画質改善画像を生成するものである。
本発明の画質改善処理装置2では、まず、画像位置合わせ処理部10が、複数の画像から1枚の基準画像を選択し、残った全ての画像を入力画像とし、次に、上述した本発明に係る画像位置合わせ処理装置により行われる1枚の基準画像と1枚の入力画像との画像全体の位置合わせ処理を、複数の画像に対して繰り返し行うことで、複数のモーションを含む複数の画像における全ての単一モーション領域を抽出し、また、それらの単一モーション領域に係る全てのモーションパラメータをロバスト且つ高精度に推定する。
なお、本発明の画質改善処理装置2における画像位置合わせ処理部10の具体的な処理流れ(動作)は、本発明の画質改善処理装置1における画像位置合わせ処理部10の処理流れと同様であるため、その説明を省略する。
次に、領域拡張処理部18が、画像位置合わせ処理部10から出力された、複数の画像における全ての単一モーション領域と、全ての単一モーション領域に対応する全てのモーションパラメータとに基づき、詳細は後述する本発明に係る領域拡張処理装置により行われる1枚の基準画像及び1枚の入力画像に対する領域拡張処理を、複数の画像に対して繰り返し行うことで、複数の画像における全ての拡張単一モーション領域を生成する。
次に、画質改善処理部20が、領域拡張処理部18から出力された複数の画像における全ての拡張単一モーション領域と、画像位置合わせ処理部10から出力された全てのモーションパラメータとに基づき、複数のモーションを含む複数の画像に対し、画質改善処理を行うことにより、画質改善画像を生成する。また、画質改善処理部20にて行われる画質改善処理は、例えば、特許文献3に開示された画質改善処理方法を用いて行うことができる。
なお、本発明に係る画質改善処理装置2に利用される複数のモーションを含む複数の画像として、複数の動き(複数の複雑な動き)のある動画像(即ち、複数の移動体が別々に動いているシーンを撮影した時系列画像)を用いることができる。その場合、例えば、時系列画像の最初のフレームを基準画像とし、その後のフレームを入力画像とすることができる。
勿論、本発明に係る画質改善処理装置2は、動画像に適用されることに限定されることはなく、複数のモーションを含む複数の画像として、静止画像を用いることも勿論可能である。
図12は本発明に係る領域拡張処理装置の実施形態(領域拡張処理装置180)を示すブロック構成図である。以下、図12に基づき、本発明に係る領域拡張処理装置を詳細に説明する。
本発明に係る領域拡張処理装置にて行われる処理は、複数のモーションを含む基準画像と、複数のモーションを含む入力画像と、基準画像と入力画像との画像全体の位置合わせ処理を行うことにより得られた複数のモーションに対応する複数の単一モーション領域及び複数の単一モーション領域に対応する複数のモーションパラメータに基づき、基準画像及び入力画像に対する領域拡張処理である。
本発明に係る領域拡張処理装置で利用される複数のモーションに対応する複数の単一モーション領域及び複数の単一モーション領域に対応する複数のモーションパラメータは、本発明に係る画像位置合わせ処理装置にて行われる画像全体の位置合わせ処理により得られたものである。
図12に示すように、本発明の領域拡張処理装置180は、基準画像を入力とするテクスチャレス領域抽出処理部181と、入力画像及び複数のモーションパラメータを入力とする画像変形処理部182と、基準画像を1つの入力とする類似度による閾値処理部183と、論理積処理部と、複数の単一モーション領域を入力とする論理和処理部とを備える。
本発明の領域拡張処理装置180では、まず、テクスチャレス領域抽出処理部181が、基準画像のテクスチャレス領域を抽出する、テクスチャレス領域抽出処理を行い、抽出したテクスチャレス領域を論理積処理部へ出力する。
次に、画像変形処理部182が、複数のモーションパラメータに基づき、入力画像を変形し、変形された入力画像を変形入力画像として類似度による閾値処理部へ出力する。
そして、類似度による閾値処理部183が、基準画像及び変形入力画像に対し、局所的な類似度を閾値処理することにより、類似領域を抽出し、抽出した類似領域を論理積処理部184へ出力する。
次に、論理積処理部184が、テクスチャレス領域抽出処理部181から出力されたテクスチャレス領域、及び類似度による閾値処理部183から出力された類似領域に対し、論理積処理を行うことにより、テクスチャレス類似領域を生成し、生成したテクスチャレス類似領域を論理和処理部185へ出力する。
最後に、論理和処理部185が、論理積処理部184から出力されたテクスチャレス類似領域、及び複数の単一モーション領域に対し、論理和処理を行うことにより、テクスチャレス類似領域と複数の単一モーション領域を合わせた、複数の拡張単一モーション領域を生成する。
テクスチャレス領域抽出処理部181にて行われるテクスチャレス領域抽出処理は、既存の方法を利用することが可能である。テクスチャレス領域抽出処理の一具体例として、例えば、基準画像における局所的な画像の分散を求め、求めた局所的な画像の分散が所定の閾値以下の領域をテクスチャレス領域として抽出する方法がある。
また、類似度による閾値処理部183に利用される局所的な類似度は、既存の類似度を利用することが可能である。その具体例として、例えば、SSD(Sum of Squared Difference)又はSAD(Sum of Absolute Difference)を用いることができる。
上述した本発明に係る画質改善処理装置2によれば、テクスチャレス類似領域を単一モーション領域に加えることにより得られた拡張単一モーション領域に基づいて、画質改善処理を行うようにしているので、テクスチャレス領域のSN比の向上を実現できるという優れた効果を奏する。
なお、上述した本発明に係る領域拡張処理装置及び画質改善処理装置2は、コンピュータシステムを利用し、ソフトウェア(コンピュータプログラム)により実装されることができ、そして、ASIC(Application Specific Integrated Circuit)、GPU(Graphics Processing Unit)やFPGA(Field Programmable Gate Array)などのハードウェアにより実装されることも勿論できる。
1、2 画質改善処理装置
10 画像位置合わせ処理部
18 領域拡張処理部
20 画質改善処理部
100 画像位置合わせ処理装置
110 特徴点抽出処理部
120 特徴点ベース位置合わせ処理部
130 単一モーション領域抽出処理部
140 領域ベース位置合わせ処理部
150 特徴点削除処理部
180 領域拡張処理装置
181 テクスチャレス領域抽出処理部
182 画像変形処理部
183 類似度による閾値処理部
184 論理積処理部
185 論理和処理部

Claims (26)

  1. 複数のモーションを含む基準画像と、複数のモーションを含む入力画像との画像全体の位置合わせ処理をロバスト且つ高精度に行う画像位置合わせ処理装置であって、
    特徴点抽出処理部と、特徴点ベース位置合わせ処理部と、単一モーション領域抽出処理部と、領域ベース位置合わせ処理部と、特徴点削除処理部とを備え、
    前記特徴点抽出処理部が、前記基準画像及び前記入力画像の特徴点をそれぞれ抽出する、特徴点抽出処理を行い、
    前記特徴点ベース位置合わせ処理部が、前記基準画像から抽出された特徴点(基準画像特徴点)と、前記入力画像から抽出された特徴点(入力画像特徴点)との対応付け処理と、対応付けられた特徴点から外れ値を削除してからの初期モーションパラメータ推定処理とから構成される、特徴点ベース位置合わせ処理を行い、
    前記単一モーション領域抽出処理部が、前記特徴点ベース位置合わせ処理部から出力された初期モーションパラメータに基づき、画像間の類似度と局所的な位置ずれ量を利用して、当該初期モーションパラメータに対応する単一モーション領域を抽出する、単一モーション領域抽出処理を行い、
    前記領域ベース位置合わせ処理部が、前記特徴点ベース位置合わせ処理部から出力された初期モーションパラメータと、前記単一モーション領域抽出処理部から出力された単一モーション領域とに基づき、当該単一モーション領域に対応するモーションパラメータをサブピクセル精度で推定する、領域ベース位置合わせ処理を行い、
    前記特徴点削除処理部が、前記基準画像特徴点及び前記入力画像特徴点から、前記単一モーション領域抽出処理部に抽出された単一モーション領域に含まれる特徴点を削除する、特徴点削除処理を行うことを特徴とする画像位置合わせ処理装置。
  2. 前記画像位置合わせ処理装置では、前記基準画像及び前記入力画像に基づき、前記特徴点抽出処理部にて行われる処理、前記特徴点ベース位置合わせ処理部にて行われる処理、前記単一モーション領域抽出処理部にて行われる処理、前記領域ベース位置合わせ処理部にて行われる処理を順番に行うことにより、前記特徴点抽出処理部により抽出された全ての特徴点を利用して、第1支配的なモーションに対応する第1単一モーション領域を抽出し、抽出した第1単一モーション領域に対応する第1モーションパラメータを推定する請求項1に記載の画像位置合わせ処理装置。
  3. 前記画像位置合わせ処理装置では、前記第1モーションパラメータが推定された後に、前記特徴点削除処理部にて行われる特徴点削除処理により削除されずに残った特徴点を、前記特徴点ベース位置合わせ処理部にて行われる特徴点ベース位置合わせ処理に利用される基準画像特徴点及び入力画像特徴点とした上で、再び、前記特徴点ベース位置合わせ処理部にて行われる処理、前記単一モーション領域抽出処理部にて行われる処理、前記領域ベース位置合わせ処理部にて行われる処理を順番に行うことにより、第2支配的なモーションに対応する第2単一モーション領域を抽出し、抽出した第2単一モーション領域に対応する第2モーションパラメータを推定する請求項2に記載の画像位置合わせ処理装置。
  4. 前記画像位置合わせ処理装置では、前記第2モーションパラメータが推定された後に、前記特徴点削除処理部にて行われる処理により単一モーション領域に含まれる特徴点を取り除きながら、前記特徴点ベース位置合わせ処理部にて行われる処理、前記単一モーション領域抽出処理部にて行われる処理、前記領域ベース位置合わせ処理部にて行われる処理を繰り返し行うことにより、複数のモーションに対応する全ての単一モーション領域を逐次的に抽出し、逐次的に抽出された単一モーション領域に対応するモーションパラメータをも逐次的に推定する請求項3に記載の画像位置合わせ処理装置。
  5. 複数のモーションを含む基準画像と、複数のモーションを含む入力画像との画像全体の位置合わせ処理をロバスト且つ高精度に行う画像位置合わせ処理装置であって、
    特徴点抽出処理部と、特徴点ベース位置合わせ処理部と、単一モーション領域抽出処理部と、領域ベース位置合わせ処理部とを備え、
    前記特徴点抽出処理部が、前記基準画像及び前記入力画像の特徴点をそれぞれ抽出する、特徴点抽出処理を行い、
    前記特徴点ベース位置合わせ処理部が、前記基準画像から抽出された特徴点(基準画像特徴点)と、前記入力画像から抽出された特徴点(入力画像特徴点)との対応付け処理と、対応付けられた特徴点から外れ値を削除してからの初期モーションパラメータ推定処理とから構成される、特徴点ベース位置合わせ処理を行い、
    前記単一モーション領域抽出処理部が、前記特徴点ベース位置合わせ処理部から出力された初期モーションパラメータに基づき、画像間の類似度と局所的な位置ずれ量を利用して、当該初期モーションパラメータに対応する単一モーション領域を抽出する、単一モーション領域抽出処理を行い、
    前記領域ベース位置合わせ処理部が、前記特徴点ベース位置合わせ処理部から出力された初期モーションパラメータと、前記単一モーション領域抽出処理部から出力された単一モーション領域とに基づき、当該単一モーション領域に対応するモーションパラメータをサブピクセル精度で推定する、領域ベース位置合わせ処理を行うことを特徴とする画像位置合わせ処理装置。
  6. 前記画像位置合わせ処理装置では、前記基準画像及び前記入力画像に基づき、前記特徴点抽出処理部にて行われる処理、前記特徴点ベース位置合わせ処理部にて行われる処理、前記単一モーション領域抽出処理部にて行われる処理、前記領域ベース位置合わせ処理部にて行われる処理を順番に行うことにより、前記特徴点抽出処理部により抽出された全ての特徴点を利用して、第1支配的なモーションに対応する第1単一モーション領域を抽出し、抽出した第1単一モーション領域に対応する第1モーションパラメータを推定する請求項5に記載の画像位置合わせ処理装置。
  7. 複数のモーションを含む基準画像と、複数のモーションを含む入力画像との画像全体の位置合わせ処理をロバスト且つ高精度に行う画像位置合わせ処理方法であって、
    特徴点抽出処理ステップと、特徴点ベース位置合わせ処理ステップと、単一モーション領域抽出処理ステップと、領域ベース位置合わせ処理ステップと、特徴点削除処理ステップとを有し、
    前記特徴点抽出処理ステップでは、前記基準画像及び前記入力画像の特徴点をそれぞれ抽出する、特徴点抽出処理を行い、
    前記特徴点ベース位置合わせ処理ステップでは、前記基準画像から抽出された特徴点(基準画像特徴点)と、前記入力画像から抽出された特徴点(入力画像特徴点)との対応付け処理と、対応付けられた特徴点から外れ値を削除してからの初期モーションパラメータ推定処理とから構成される、特徴点ベース位置合わせ処理を行い、
    前記単一モーション領域抽出処理ステップでは、前記特徴点ベース位置合わせ処理ステップで推定された初期モーションパラメータに基づき、画像間の類似度と局所的な位置ずれ量を利用して、当該初期モーションパラメータに対応する単一モーション領域を抽出する、単一モーション領域抽出処理を行い、
    前記領域ベース位置合わせ処理ステップでは、前記特徴点ベース位置合わせ処理ステップで推定された初期モーションパラメータと、前記単一モーション領域抽出処理ステップで抽出された単一モーション領域とに基づき、当該単一モーション領域に対応するモーションパラメータをサブピクセル精度で推定する、領域ベース位置合わせ処理を行い、
    前記特徴点削除処理ステップでは、前記基準画像特徴点及び前記入力画像特徴点から、前記単一モーション領域抽出処理ステップで抽出された単一モーション領域に含まれる特徴点を削除する、特徴点削除処理を行うことを特徴とする画像位置合わせ処理方法。
  8. 前記画像位置合わせ処理方法では、前記基準画像及び前記入力画像に基づき、前記特徴点抽出処理ステップにて行われる処理、前記特徴点ベース位置合わせ処理ステップにて行われる処理、前記単一モーション領域抽出処理ステップにて行われる処理、前記領域ベース位置合わせ処理ステップにて行われる処理を順番に行うことにより、前記特徴点抽出処理ステップで抽出された全ての特徴点を利用して、第1支配的なモーションに対応する第1単一モーション領域を抽出し、抽出した第1単一モーション領域に対応する第1モーションパラメータを推定する請求項7に記載の画像位置合わせ処理方法。
  9. 前記画像位置合わせ処理方法では、前記第1モーションパラメータが推定された後に、前記特徴点削除処理ステップにて行われる特徴点削除処理により削除されずに残った特徴点を、前記特徴点ベース位置合わせ処理ステップにて行われる特徴点ベース位置合わせ処理に利用される基準画像特徴点及び入力画像特徴点とした上で、再び、前記特徴点ベース位置合わせ処理ステップにて行われる処理、前記単一モーション領域抽出処理ステップにて行われる処理、前記領域ベース位置合わせ処理ステップにて行われる処理を順番に行うことにより、第2支配的なモーションに対応する第2単一モーション領域を抽出し、抽出した第2単一モーション領域に対応する第2モーションパラメータを推定する請求項8に記載の画像位置合わせ処理方法。
  10. 前記画像位置合わせ処理方法では、前記第2モーションパラメータが推定された後に、前記特徴点削除処理ステップにて行われる処理により単一モーション領域に含まれる特徴点を取り除きながら、前記特徴点ベース位置合わせ処理ステップにて行われる処理、前記単一モーション領域抽出処理ステップにて行われる処理、前記領域ベース位置合わせ処理ステップにて行われる処理を繰り返し行うことにより、複数のモーションに対応する全ての単一モーション領域を逐次的に抽出し、逐次的に抽出された単一モーション領域に対応するモーションパラメータをも逐次的に推定する請求項9に記載の画像位置合わせ処理方法。
  11. 複数のモーションを含む基準画像と、複数のモーションを含む入力画像との画像全体の位置合わせ処理をロバスト且つ高精度に行う画像位置合わせ処理方法であって、
    特徴点抽出処理ステップと、特徴点ベース位置合わせ処理ステップと、単一モーション領域抽出処理ステップと、領域ベース位置合わせ処理ステップとを有し、
    前記特徴点抽出処理ステップでは、前記基準画像及び前記入力画像の特徴点をそれぞれ抽出する、特徴点抽出処理を行い、
    前記特徴点ベース位置合わせ処理ステップでは、前記基準画像から抽出された特徴点(基準画像特徴点)と、前記入力画像から抽出された特徴点(入力画像特徴点)との対応付け処理と、対応付けられた特徴点から外れ値を削除してからの初期モーションパラメータ推定処理とから構成される、特徴点ベース位置合わせ処理を行い、
    前記単一モーション領域抽出処理ステップでは、前記特徴点ベース位置合わせ処理ステップで推定された初期モーションパラメータに基づき、画像間の類似度と局所的な位置ずれ量を利用して、当該初期モーションパラメータに対応する単一モーション領域を抽出する、単一モーション領域抽出処理を行い、
    前記領域ベース位置合わせ処理ステップでは、前記特徴点ベース位置合わせ処理ステップで推定された初期モーションパラメータと、前記単一モーション領域抽出処理ステップで抽出された単一モーション領域とに基づき、当該単一モーション領域に対応するモーションパラメータをサブピクセル精度で推定する、領域ベース位置合わせ処理を行うことを特徴とする画像位置合わせ処理方法。
  12. 前記画像位置合わせ処理方法では、前記基準画像及び前記入力画像に基づき、前記特徴点抽出処理ステップにて行われる処理、前記特徴点ベース位置合わせ処理ステップにて行われる処理、前記単一モーション領域抽出処理ステップにて行われる処理、前記領域ベース位置合わせ処理ステップにて行われる処理を順番に行うことにより、前記特徴点抽出処理ステップで抽出された全ての特徴点を利用して、第1支配的なモーションに対応する第1単一モーション領域を抽出し、抽出した第1単一モーション領域に対応する第1モーションパラメータを推定する請求項11に記載の画像位置合わせ処理方法。
  13. 複数のモーションを含む基準画像と、複数のモーションを含む入力画像との画像全体の位置合わせ処理をロバスト且つ高精度に行うための画像位置合わせ処理プログラムであって、
    特徴点抽出処理手順と、特徴点ベース位置合わせ処理手順と、単一モーション領域抽出処理手順と、領域ベース位置合わせ処理手順と、特徴点削除処理手順とをコンピュータに実行させるためのプログラムであり、
    前記特徴点抽出処理手順では、前記基準画像及び前記入力画像の特徴点をそれぞれ抽出する、特徴点抽出処理を行い、
    前記特徴点ベース位置合わせ処理手順では、前記基準画像から抽出された特徴点(基準画像特徴点)と、前記入力画像から抽出された特徴点(入力画像特徴点)との対応付け処理と、対応付けられた特徴点から外れ値を削除してからの初期モーションパラメータ推定処理とから構成される、特徴点ベース位置合わせ処理を行い、
    前記単一モーション領域抽出処理手順では、前記特徴点ベース位置合わせ処理手順で推定された初期モーションパラメータに基づき、画像間の類似度と局所的な位置ずれ量を利用して、当該初期モーションパラメータに対応する単一モーション領域を抽出する、単一モーション領域抽出処理を行い、
    前記領域ベース位置合わせ処理手順では、前記特徴点ベース位置合わせ処理手順で推定された初期モーションパラメータと、前記単一モーション領域抽出処理手順で抽出された単一モーション領域とに基づき、当該単一モーション領域に対応するモーションパラメータをサブピクセル精度で推定する、領域ベース位置合わせ処理を行い、
    前記特徴点削除処理手順では、前記基準画像特徴点及び前記入力画像特徴点から、前記単一モーション領域抽出処理手順で抽出された単一モーション領域に含まれる特徴点を削除する、特徴点削除処理を行うことを特徴とする画像位置合わせ処理プログラム。
  14. 前記画像位置合わせ処理プログラムでは、前記基準画像及び前記入力画像に基づき、前記特徴点抽出処理手順にて行われる処理、前記特徴点ベース位置合わせ処理手順にて行われる処理、前記単一モーション領域抽出処理手順にて行われる処理、前記領域ベース位置合わせ処理手順にて行われる処理を順番に行うことにより、前記特徴点抽出処理手順で抽出された全ての特徴点を利用して、第1支配的なモーションに対応する第1単一モーション領域を抽出し、抽出した第1単一モーション領域に対応する第1モーションパラメータを推定する請求項13に記載の画像位置合わせ処理プログラム。
  15. 前記画像位置合わせ処理プログラムでは、前記第1モーションパラメータが推定された後に、前記特徴点削除処理手順にて行われる特徴点削除処理により削除されずに残った特徴点を、前記特徴点ベース位置合わせ処理手順にて行われる特徴点ベース位置合わせ処理に利用される基準画像特徴点及び入力画像特徴点とした上で、再び、前記特徴点ベース位置合わせ処理手順にて行われる処理、前記単一モーション領域抽出処理手順にて行われる処理、前記領域ベース位置合わせ処理手順にて行われる処理を順番に行うことにより、第2支配的なモーションに対応する第2単一モーション領域を抽出し、抽出した第2単一モーション領域に対応する第2モーションパラメータを推定する請求項14に記載の画像位置合わせ処理プログラム。
  16. 前記画像位置合わせ処理プログラムでは、前記第2モーションパラメータが推定された後に、前記特徴点削除処理手順にて行われる処理により単一モーション領域に含まれる特徴点を取り除きながら、前記特徴点ベース位置合わせ処理手順にて行われる処理、前記単一モーション領域抽出処理手順にて行われる処理、前記領域ベース位置合わせ処理手順にて行われる処理を繰り返し行うことにより、複数のモーションに対応する全ての単一モーション領域を逐次的に抽出し、逐次的に抽出された単一モーション領域に対応するモーションパラメータをも逐次的に推定する請求項15に記載の画像位置合わせ処理プログラム。
  17. 複数のモーションを含む基準画像と、複数のモーションを含む入力画像との画像全体の位置合わせ処理をロバスト且つ高精度に行うための画像位置合わせ処理プログラムであって、
    特徴点抽出処理手順と、特徴点ベース位置合わせ処理手順と、単一モーション領域抽出処理手順と、領域ベース位置合わせ処理手順とをコンピュータに実行させるためのプログラムであり、
    前記特徴点抽出処理手順では、前記基準画像及び前記入力画像の特徴点をそれぞれ抽出する、特徴点抽出処理を行い、
    前記特徴点ベース位置合わせ処理手順では、前記基準画像から抽出された特徴点(基準画像特徴点)と、前記入力画像から抽出された特徴点(入力画像特徴点)との対応付け処理と、対応付けられた特徴点から外れ値を削除してからの初期モーションパラメータ推定処理とから構成される、特徴点ベース位置合わせ処理を行い、
    前記単一モーション領域抽出処理手順では、前記特徴点ベース位置合わせ処理手順で推定された初期モーションパラメータに基づき、画像間の類似度と局所的な位置ずれ量を利用して、当該初期モーションパラメータに対応する単一モーション領域を抽出する、単一モーション領域抽出処理を行い、
    前記領域ベース位置合わせ処理手順では、前記特徴点ベース位置合わせ処理手順で推定された初期モーションパラメータと、前記単一モーション領域抽出処理手順で抽出された単一モーション領域とに基づき、当該単一モーション領域に対応するモーションパラメータをサブピクセル精度で推定する、領域ベース位置合わせ処理を行うことを特徴とする画像位置合わせ処理プログラム。
  18. 前記画像位置合わせ処理プログラムでは、前記基準画像及び前記入力画像に基づき、前記特徴点抽出処理手順にて行われる処理、前記特徴点ベース位置合わせ処理手順にて行われる処理、前記単一モーション領域抽出処理手順にて行われる処理、前記領域ベース位置合わせ処理手順にて行われる処理を順番に行うことにより、前記特徴点抽出処理手順で抽出された全ての特徴点を利用して、第1支配的なモーションに対応する第1単一モーション領域を抽出し、抽出した第1単一モーション領域に対応する第1モーションパラメータを推定する請求項17に記載の画像位置合わせ処理プログラム。
  19. 複数のモーションを含む複数の画像に基づき、高画質な画質改善画像を生成する画質改善処理装置であって、
    画像位置合わせ処理部と、画質改善処理部とを備え、
    前記画像位置合わせ処理部が、前記複数の画像から1枚の基準画像を選択し、残った全ての画像を入力画像とし、次に、請求項1乃至請求項4の何れかに記載の画像位置合わせ処理装置により行われる1枚の基準画像と1枚の入力画像との画像全体の位置合わせ処理を、前記複数の画像に対して繰り返し行うことで、複数のモーションを含む複数の画像における全ての単一モーション領域を抽出し、また、それらの単一モーション領域に係る全てのモーションパラメータをロバスト且つ高精度に推定し、
    前記画質改善処理部が、前記画像位置合わせ処理部から出力された、複数の単一モーション領域と、それぞれの単一モーション領域に対応するモーションパラメータとに基づき、前記複数の画像に対し、画質改善処理を行うことにより、前記画質改善画像を生成することを特徴とする画質改善処理装置。
  20. 複数のモーションを含む基準画像と、複数のモーションを含む入力画像と、前記基準画像と前記入力画像との画像全体の位置合わせ処理を行うことにより得られた複数のモーションに対応する複数の単一モーション領域及び前記複数の単一モーション領域に対応する複数のモーションパラメータに基づき、前記基準画像及び前記入力画像に対する領域拡張処理を行う領域拡張処理装置であって、
    前記基準画像を入力とするテクスチャレス領域抽出処理部と、
    前記入力画像及び前記複数のモーションパラメータを入力とする画像変形処理部と、
    前記基準画像を1つの入力とする類似度による閾値処理部と、
    論理積処理部と、
    前記複数の単一モーション領域を入力とする論理和処理部と、
    を備え、
    前記テクスチャレス領域抽出処理部が、前記基準画像のテクスチャレス領域を抽出する、テクスチャレス領域抽出処理を行い、抽出したテクスチャレス領域を前記論理積処理部へ出力し、
    前記画像変形処理部が、前記複数のモーションパラメータに基づき、前記入力画像を変形し、変形された入力画像を変形入力画像として前記類似度による閾値処理部へ出力し、
    前記類似度による閾値処理部が、前記基準画像及び前記変形入力画像に対し、局所的な類似度を閾値処理することにより、類似領域を抽出し、抽出した類似領域を前記論理積処理部へ出力し、
    前記論理積処理部が、前記テクスチャレス領域抽出処理部から出力された前記テクスチャレス領域、及び前記類似度による閾値処理部から出力された前記類似領域に対し、論理積処理を行うことにより、テクスチャレス類似領域を生成し、生成したテクスチャレス類似領域を前記論理和処理部へ出力し、
    前記論理和処理部が、前記論理積処理部から出力された前記テクスチャレス類似領域、及び前記複数の単一モーション領域に対し、論理和処理を行うことにより、前記テクスチャレス類似領域と前記複数の単一モーション領域を合わせた、複数の拡張単一モーション領域を生成することを特徴とする領域拡張処理装置。
  21. 前記テクスチャレス領域抽出処理では、前記基準画像における局所的な画像の分散を求め、求めた局所的な画像の分散が所定の閾値以下の領域をテクスチャレス領域として抽出する請求項20に記載の領域拡張処理装置。
  22. 前記類似度による閾値処理部に利用される前記局所的な類似度は、SSD又はSADである請求項20又は請求項21に記載の領域拡張処理装置。
  23. 複数のモーションを含む複数の画像に基づき、高画質な画質改善画像を生成する画質改善処理装置であって、
    画像位置合わせ処理部と、領域拡張処理部と、画質改善処理部とを備え、
    前記画像位置合わせ処理部が、前記複数の画像から1枚の基準画像を選択し、残った全ての画像を入力画像とし、次に、請求項1乃至請求項4の何れかに記載の画像位置合わせ処理装置により行われる1枚の基準画像と1枚の入力画像との画像全体の位置合わせ処理を、前記複数の画像に対して繰り返し行うことで、複数のモーションを含む複数の画像における全ての単一モーション領域を抽出し、また、それらの単一モーション領域に係る全てのモーションパラメータをロバスト且つ高精度に推定し、
    前記領域拡張処理部が、前記画像位置合わせ処理部から出力された、前記複数の画像における全ての単一モーション領域と、前記全ての単一モーション領域に対応する全てのモーションパラメータとに基づき、請求項20乃至請求項22の何れかに記載の領域拡張処理装置により行われる1枚の基準画像及び1枚の入力画像に対する領域拡張処理を、前記複数の画像に対して繰り返し行うことで、前記複数の画像における全ての拡張単一モーション領域を生成し、
    前記画質改善処理部が、前記領域拡張処理部から出力された前記複数の画像における全ての拡張単一モーション領域と、前記画像位置合わせ処理部から出力された前記全てのモーションパラメータとに基づき、前記複数の画像に対し、画質改善処理を行うことにより、前記画質改善画像を生成することを特徴とする画質改善処理装置。
  24. 複数のモーションを含む基準画像と、複数のモーションを含む入力画像と、前記基準画像と前記入力画像との画像全体の位置合わせ処理を行うことにより得られた複数のモーションに対応する複数の単一モーション領域及び前記複数の単一モーション領域に対応する複数のモーションパラメータに基づき、前記基準画像及び前記入力画像に対する領域拡張処理を行う領域拡張処理方法であって、
    前記基準画像を入力とするテクスチャレス領域抽出処理ステップと、
    前記入力画像及び前記複数のモーションパラメータを入力とする画像変形処理ステップと、
    前記基準画像を1つの入力とする類似度による閾値処理ステップと、
    論理積処理ステップと、
    前記複数の単一モーション領域を入力とする論理和処理ステップと、
    を有し、
    前記テクスチャレス領域抽出処理ステップでは、前記基準画像のテクスチャレス領域を抽出する、テクスチャレス領域抽出処理を行い、
    前記画像変形処理ステップでは、前記複数のモーションパラメータに基づき、前記入力画像を変形し、変形された入力画像を変形入力画像とし、
    前記類似度による閾値処理ステップでは、前記基準画像及び前記変形入力画像に対し、局所的な類似度を閾値処理することにより、類似領域を抽出し、
    前記論理積処理ステップでは、前記テクスチャレス領域抽出処理ステップで抽出された前記テクスチャレス領域、及び前記類似度による閾値処理ステップで抽出された前記類似領域に対し、論理積処理を行うことにより、テクスチャレス類似領域を生成し、
    前記論理和処理ステップでは、前記論理積処理ステップで生成されたテクスチャレス類似領域、及び前記複数の単一モーション領域に対し、論理和処理を行うことにより、前記テクスチャレス類似領域と前記複数の単一モーション領域を合わせた、複数の拡張単一モーション領域を生成することを特徴とする領域拡張処理方法。
  25. 前記テクスチャレス領域抽出処理では、前記基準画像における局所的な画像の分散を求め、求めた局所的な画像の分散が所定の閾値以下の領域をテクスチャレス領域として抽出する請求項24に記載の領域拡張処理方法。
  26. 前記類似度による閾値処理ステップで利用される前記局所的な類似度は、SSD又はSADである請求項24又は請求項25に記載の領域拡張処理方法。
JP2010516785A 2008-06-10 2009-03-12 画像位置合わせ処理装置、領域拡張処理装置及び画質改善処理装置 Expired - Fee Related JP5294343B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010516785A JP5294343B2 (ja) 2008-06-10 2009-03-12 画像位置合わせ処理装置、領域拡張処理装置及び画質改善処理装置

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2008151304 2008-06-10
JP2008151304 2008-06-10
JP2010516785A JP5294343B2 (ja) 2008-06-10 2009-03-12 画像位置合わせ処理装置、領域拡張処理装置及び画質改善処理装置
PCT/JP2009/055366 WO2009150882A1 (ja) 2008-06-10 2009-03-12 画像位置合わせ処理装置、領域拡張処理装置及び画質改善処理装置

Publications (2)

Publication Number Publication Date
JPWO2009150882A1 JPWO2009150882A1 (ja) 2011-11-10
JP5294343B2 true JP5294343B2 (ja) 2013-09-18

Family

ID=41416593

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010516785A Expired - Fee Related JP5294343B2 (ja) 2008-06-10 2009-03-12 画像位置合わせ処理装置、領域拡張処理装置及び画質改善処理装置

Country Status (3)

Country Link
US (1) US20110170784A1 (ja)
JP (1) JP5294343B2 (ja)
WO (1) WO2009150882A1 (ja)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101404401B1 (ko) * 2009-01-29 2014-06-05 닛본 덴끼 가부시끼가이샤 특징량 선택 장치
US20110103965A1 (en) * 2009-10-30 2011-05-05 General Electric Company Wind turbine blades
JP5558949B2 (ja) * 2010-07-16 2014-07-23 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
JP2012033022A (ja) 2010-07-30 2012-02-16 Panasonic Corp 空間における変化領域検出装置及び方法
US8687888B2 (en) * 2010-11-18 2014-04-01 Casio Computer Co., Ltd. Region specification method, region specification apparatus, recording medium, server, and system
US9147260B2 (en) * 2010-12-20 2015-09-29 International Business Machines Corporation Detection and tracking of moving objects
KR101901602B1 (ko) * 2011-01-14 2018-09-27 삼성전자주식회사 디지털 사진에서 노이즈를 제거하는 장치 및 방법
US10638221B2 (en) 2012-11-13 2020-04-28 Adobe Inc. Time interval sound alignment
US9129399B2 (en) 2013-03-11 2015-09-08 Adobe Systems Incorporated Optical flow with nearest neighbor field fusion
JP5921469B2 (ja) * 2013-03-11 2016-05-24 株式会社東芝 情報処理装置、クラウドプラットフォーム、情報処理方法およびそのプログラム
US9165373B2 (en) * 2013-03-11 2015-10-20 Adobe Systems Incorporated Statistics of nearest neighbor fields
GB201313680D0 (en) * 2013-07-31 2014-01-08 Mbda Uk Ltd Image processing
GB201313682D0 (en) 2013-07-31 2013-12-18 Mbda Uk Ltd Method and apparatus for tracking an object
GB201313681D0 (en) 2013-07-31 2014-01-08 Mbda Uk Ltd Image processing
JP6376873B2 (ja) * 2014-07-16 2018-08-22 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP6497579B2 (ja) * 2014-07-25 2019-04-10 日本電気株式会社 画像合成システム、画像合成方法、画像合成プログラム
JP6528386B2 (ja) 2014-11-04 2019-06-12 富士通株式会社 画像処理装置、画像処理方法及び画像処理プログラム
CN108701206B (zh) * 2015-11-20 2022-04-12 商汤集团有限公司 用于面部对准的***和方法
US10783649B2 (en) * 2018-09-17 2020-09-22 Adobe Inc. Aligning digital images by selectively applying pixel-adjusted-gyroscope alignment and feature-based alignment models
CN109711378B (zh) * 2019-01-02 2020-12-22 河北工业大学 人脸表情自动识别方法
JP7183085B2 (ja) * 2019-03-14 2022-12-05 株式会社東芝 移動体行動登録装置、移動体行動登録システム、移動体行動登録方法、移動体行動登録プログラム、及び移動体行動決定装置
CN111354026B (zh) * 2020-02-27 2022-10-21 广州运达智能科技有限公司 一种基于surf特征的改进列车图像精确配准方法和***

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006131967A1 (ja) * 2005-06-08 2006-12-14 Fujitsu Limited 画像処理装置
JP2007257287A (ja) * 2006-03-23 2007-10-04 Tokyo Institute Of Technology 画像レジストレーション方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3002721B2 (ja) * 1997-03-17 2000-01-24 警察庁長官 図形位置検出方法及びその装置並びにプログラムを記録した機械読み取り可能な記録媒体
US7228006B2 (en) * 2002-11-25 2007-06-05 Eastman Kodak Company Method and system for detecting a geometrically transformed copy of an image
JP4135945B2 (ja) * 2003-01-14 2008-08-20 国立大学法人東京工業大学 画像のサブピクセルマッチングにおける多パラメータ高精度同時推定処理方法及び多パラメータ高精度同時推定処理プログラム
JP4461937B2 (ja) * 2003-09-30 2010-05-12 セイコーエプソン株式会社 低解像度の複数の画像に基づく高解像度の画像の生成
DE102004026782A1 (de) * 2004-06-02 2005-12-29 Infineon Technologies Ag Verfahren und Vorrichtung zur rechnergestützten Bewegungsschätzung in mindestens zwei zeitlich aufeinander folgenden digitalen Bildern, computerlesbares Speichermedium und Computerprogramm-Element
FR2873256A1 (fr) * 2004-07-13 2006-01-20 France Telecom Procede et dispositif de densification de champ de mouvement
JP4613617B2 (ja) * 2005-01-07 2011-01-19 ソニー株式会社 画像処理システム、学習装置および方法、並びにプログラム
US8068700B2 (en) * 2007-05-28 2011-11-29 Sanyo Electric Co., Ltd. Image processing apparatus, image processing method, and electronic appliance

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006131967A1 (ja) * 2005-06-08 2006-12-14 Fujitsu Limited 画像処理装置
JP2007257287A (ja) * 2006-03-23 2007-10-04 Tokyo Institute Of Technology 画像レジストレーション方法

Also Published As

Publication number Publication date
WO2009150882A1 (ja) 2009-12-17
US20110170784A1 (en) 2011-07-14
JPWO2009150882A1 (ja) 2011-11-10

Similar Documents

Publication Publication Date Title
JP5294343B2 (ja) 画像位置合わせ処理装置、領域拡張処理装置及び画質改善処理装置
Jeon et al. Accurate depth map estimation from a lenslet light field camera
JP3837575B2 (ja) 超解像処理の高速化方法
US11282216B2 (en) Image noise reduction
JP4209938B2 (ja) 画像処理装置および方法、画像処理プログラムおよび画像処理プロセッサ
JP2007000205A (ja) 画像処理装置及び画像処理方法並びに画像処理プログラム
JP2007257287A (ja) 画像レジストレーション方法
TW201514867A (zh) 光流追蹤方法和裝置
CN111626927B (zh) 采用视差约束的双目图像超分辨率方法、***及装置
US9760997B2 (en) Image noise reduction using lucas kanade inverse algorithm
TW201436552A (zh) 用於使用至少一較高訊框率之影像流而增加影像流之訊框率之方法及裝置
KR20130055664A (ko) 휴대용 카메라로 획득된 복수의 이미지로부터 모든 초점이 맞는 이미징을 수행하기 위한 시스템 및 방법
Tseng et al. Depth image super-resolution via multi-frame registration and deep learning
KR101673144B1 (ko) 부분 선형화 기반의 3차원 영상 정합 방법
Shibayama et al. Reconstruction of 3D surface and restoration of flat document image from monocular image sequence
JP2018010359A (ja) 情報処理装置、情報処理方法、およびプログラム
Zhu et al. Efficient stitching method of tiled scanned microelectronic images
Petrou et al. Super-resolution in practice: the complete pipeline from image capture to super-resolved subimage creation using a novel frame selection method
Tanaka et al. Robust and accurate estimation of multiple motions for whole-image super-resolution
Lim Achieving accurate image registration as the basis for super-resolution
Amintoosi et al. Precise image registration with structural similarity error measurement applied to superresolution
Kumar et al. Estimation of motion among shifted images at coarse and fine levels
Scholz et al. Calibration of real scenes for the reconstruction of dynamic light fields
Yaghmaee Robust fuzzy content based regularization technique in super resolution imaging
Lecouat et al. Fine Dense Alignment of Image Bursts through Camera Pose and Depth Estimation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130528

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130606

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees