JPWO2011152053A1 - 画像処理装置、画像処理方法、集積回路、プログラム - Google Patents

画像処理装置、画像処理方法、集積回路、プログラム Download PDF

Info

Publication number
JPWO2011152053A1
JPWO2011152053A1 JP2011544736A JP2011544736A JPWO2011152053A1 JP WO2011152053 A1 JPWO2011152053 A1 JP WO2011152053A1 JP 2011544736 A JP2011544736 A JP 2011544736A JP 2011544736 A JP2011544736 A JP 2011544736A JP WO2011152053 A1 JPWO2011152053 A1 JP WO2011152053A1
Authority
JP
Japan
Prior art keywords
image
feature point
mask
unit
angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011544736A
Other languages
English (en)
Other versions
JP5654484B2 (ja
Inventor
整 山田
整 山田
淳 大宮
淳 大宮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2011544736A priority Critical patent/JP5654484B2/ja
Publication of JPWO2011152053A1 publication Critical patent/JPWO2011152053A1/ja
Application granted granted Critical
Publication of JP5654484B2 publication Critical patent/JP5654484B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/243Aligning, centring, orientation detection or correction of the image by compensating for image skew or non-uniform image deformations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • G06T2207/20012Locally adaptive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

画像処理装置(100)が、第1の画像(101a)中のエッジを基に、マスク画像(110aI)を生成するマスク生成部(110x)と、抽出された特徴点に、生成されたマスク画像(110aI)によるマスクをかける特徴点マスク部(111x)と、マスクがされることにより、2以上の特徴点のうちから特定された特徴点を用いて、第1、第2の画像(101a、101b)間での、位置の変化を算出する回転行列算出部(112)と、算出された変化を用いる画像補正部(113)とを備える。

Description

本発明は、デジタルスチルカメラ、ビデオカメラ、ウェアラブルカメラなどで撮影した映像の補正技術に関するものである。
従来の、カメラの揺れを補正する方法としては、2枚の画像を用いる、MPEG(Moving Picture Experts Group)技術などに代表される、動きベクトルを検出する技術を用いる事で、フレーム間のカメラの揺れ量を推定・補正する方法がある。
これは、画像を複数の矩形領域に区切り、領域ごとに、フレーム間の移動量を求め、領域ごとの動きベクトルから、画像全体の移動量を推定し、最終的に、画像の補正を行う方法である。このような、動きベクトルを用いた方法では、アルゴリズムの性質上、精度・計算コスト面で、問題が存在する。このため、検出可能な、カメラの揺れの大きさは制限される。そして、検出可能な、カメラの揺れの大きさと、その計算コストとの間には、トレードオフの関係が存在する。そして、検出可能な、カメラの揺れの大きさを広げるほど、その計算コストも高くなる。このため、通常は、事前に、カメラの揺れの大きさを想定し、検出可能な、カメラの揺れの大きさを設定する。そのため、この手法で、大きな、カメラの揺れを検出する場合には、検出可能な範囲を大きく設定する必要がある。一方で、設定される、その範囲の大きさが、解空間の大きさと同一である。つまり、その大きさに応じて、局所解に陥る可能性も高くなる。この場合の検出精度は、十分な精度ではなく、歩行時に撮影された映像や、ファインダレスで撮影された映像に含まれる揺れの大きさには対応できなかった。
他方、動きベクトルを用いた手法では扱えない大きさの揺れを補正する手法として、特徴点ベースのマッチング手法がある。この手法では、領域ごとの情報を扱う、動きベクトルの手法とは異なり、時間的に連続して撮影された2枚の画像の間で共通に存在する、被写体上のいくつかの点を用いる。これらの、共通する複数の点の中で、画像処理によって検出可能なものを、特徴点と呼ぶ。特徴点ベースのマッチング手法は、2枚の画像の間で生じた揺れを、フレーム間の特徴点の位置合わせを行うことによって推定する手法であり、この位置合わせを、マッチングと呼ぶ。このマッチングを行う事で、揺れ量を表す回転行列が推定可能となり、この回転行列を用いて補正を行う。
ところで、通常、特徴点ベースのマッチング手法では、カメラの揺れ量は、未知であり、かつ、写っている被写体の情報も未知である。このため、どの特徴点を用いて、位置合わせをすると、正しい、カメラの揺れを推定可能となるかを、事前に知る事ができない。
そのため、RANSAC(RANdom SAmple Consensus)などの手法を使い、どの特徴点の組合せが良いかを、総当りで探索する。そして、事前に設定した評価関数で、最適な組合せと判定された特徴点のペア(inlier)を用いて、揺れ量を推定するのが一般的である。
このような、特徴点ベースのマッチング手法では、特徴点の、2つのフレームの間での類似性を用いてマッチングする。このため、解空間の大きさは、特徴点の数に依存する。このため、検出可能な範囲を、大きくとった場合でも、領域ごとの情報を用いた、先述された、動きベクトルを用いた手法と比較して、計算コストはそれほど高くならず、局所解へ陥る可能性も高くならない。
このため、特徴点ベースのマッチング手法を用いると、歩行時に撮影された映像や、ファインダレスで撮影された映像に含まれる、大きな揺れであっても、カメラの揺れが推定可能となる。
ただし、このような、特徴点ベースのマッチング手法で、最終的に、揺れ量の推定に使用される特徴点は、画像の遠景領域から取得された特徴点である事が必須となる。これは、カメラの揺れを、何を基準として補正するかという問題と等価である。
つまり、カメラは、被写体に対して動いている訳ではなく、遠景(背景)に対して動いている。このため、カメラの揺れを補正する際には、遠景に対して補正する事が好ましい。使用される特徴点が、遠景領域の特徴点である事が好ましいのは、この理由による。
要するに、近景に存在する、通行人のような被写体に対して、位置合わせをしても、その位置合わせに基づいた補正後の映像では、揺れが収まっているように見えず、遠景に対して位置合わせする事で、カメラの揺れが収まったように見える。
なお、ここで用いている遠景領域は、画像内の領域を、近景領域と遠景領域とに分けた場合における、カメラからの距離が相対的に遠い領域を表す。例えば、人などの被写体と、ビルや自然が写っている絵においては、近景領域は、人が写っている領域であり、遠景領域は、ビルや自然(木など)が写っている領域を指す。
特開2009−110137号公報 特開2001−148023号公報 特開2002−298137号公報
ところで、特徴点ベースのマッチング手法で、揺れ量の推定を成功させるためには、先に述べたように、遠景領域から取得した特徴点を用いる必要がある。
しかしながら、特殊な測距装置や、複眼などを用いない限り、事前に、画像中のどの領域が近景領域であり、どの領域が遠景領域であるかは、未知である。
また、画像処理によって、カメラからの距離を推定する場合、特許文献1のように、画像のエンコード前に、焦点距離を、複数の焦点距離のうちのそれぞれの焦点距離に変動させる事で、領域ごとの距離を求める手法や、特許文献2や特許文献3のように、画像のエンコード後に、画像領域を複数に分割し、輝度値の差分や、エッジ情報を求め、比較する事で、領域ごとに、カメラからの距離を求める手法が存在する。
しかし、これらの手法のように、領域ごとに、カメラからの距離を求め、近景/遠景を分離した特徴点を用いて、マッチング処理を行った場合でも、画像処理の精度面での問題が存在する。このため、揺れの推定に失敗する可能性が残る。
そもそも、上述のように、使用される特徴点として、遠景領域の特徴点が好ましい理由は、遠景領域を基準に補正を行うためであった。
しかし、揺れ量を推定するためには、遠景領域である事に加え、フレーム間の動きが殆ど生じていない、もしくは、動きが生じていても、小さく、かつ、その動きの方向が一様であるという条件を満たす必要がある。
この条件を満たさない場合としては、例えば、遠景領域に存在し、動きは小さいが、動きの方向が一様でないような、風に揺れる木の領域上で抽出された特徴点を用いて、揺れ量を推定した場合が考えられる。
この場合には、カメラの動きとは関連のない動きの情報を用いる事になるため、正しい揺れ量が推定できない。
この例のような、揺れ量推定の失敗は、自然物が、遠景領域において多い場面で、顕著となり、このような、遠景の自然物の有無に応じて生じる問題については、従来技術では解決できなかった。
そこで、本発明が解決しようとする課題は、従来の、特徴点ベースのマッチング手法では、近景領域を多く含む映像や、遠景領域に自然物を多く含む映像において、正確な位置合わせが難しいとの課題である。つまり、本発明では、このような映像においても、正確な位置合わせを可能とする事ができる画像処理装置を提供する事を目的とする。
上記課題を解決するために、本発明の画像処理装置は、第2の画像が撮影されるよりも先に撮影された第1の画像と、前記第2の画像とのそれぞれを取得する画像取得部と、取得された第1、第2の前記画像のうちのそれぞれの画像から、その画像中の特徴点を抽出する特徴点抽出部と、第1の前記画像中のエッジを基に、マスク画像を生成するマスク画像生成部と、前記特徴点抽出部によって抽出された、第1の前記画像の前記特徴点に、前記マスク画像生成部によって生成された前記マスク画像によるマスクをかける特徴点マスク部と、前記特徴点マスク部によってマスクされることにより、2以上の前記特徴点(図13の位置101s、位置101nなどを参照)のうちから特定された前記特徴点(位置101sを参照)と、抽出された、第2の前記画像の前記特徴点とを用いて、第1、第2の画像間の位置関係を算出する算出部と、前記算出部によって算出された前記位置関係を用いて、第1、第2の前記画像のうちの一方の画像を補正する画像補正部とを備える画像処理装置である。
本発明の画像処理装置によると、揺れ量の推定に必要な条件を満たす領域の1つである構造物領域(図2の領域101Fなどを参照)を用いて、マッチング処理が可能となるため、近景を多く含む映像や遠景に自然物が多く存在する映像においても、正しく揺れ量を推定・補正する事が可能となる。
特定される、撮像部の動き(図13の動き101mを参照)の精度が高くできたり、動きの特定が、失敗し難いようにできる。
ここで構造物とは、ビルや柱、窓などの、幾何学的な構造を持つオブジェクトを指し、構造物は、先に述べた、揺れ量を推定するために必要な条件、フレーム間の動きが、殆ど動きの生じていない、もしくは、動きが生じていても小さくかつその動きの方向が一様であるという条件を満たす。また、構造物は、その幾何学的な構造ゆえに画像上のエッジが特定の線分上に分布する傾向が高いという特徴がある。
図1は、本発明の実施の形態1における画像処理装置の全体構成図である。 図2は、画像の特徴点抽出の例を示す図である。 図3Aは、Sobelフィルタを示す図である。 図3Bは、Sobelフィルタを示す図である。 図4は、角度検出で検出している角度の例を示す図である。 図5は、エッジ検出を行った画像から角度ヒストグラムを作成する例を示す図である。 図6は、角度ヒストグラムのピーク角度を持つ画素から構造物領域マスクを作った例を示す図である。 図7は、図6の構造物領域マスクの構造物領域を拡大処理した例を示す図である。 図8は、構造物領域の拡大方法の例を示す図である。 図9は、構造物領域の補間方法の例を示す図である。 図10Aは、構造物領域マスクの重みを2値より多くする場合の例を示す図である。 図10Bは、構造物領域マスクの重みを2値より多くする場合の例を示す図である。 図11は、本発明の実施の形態1における画像処理装置の処理のフローチャートである。 図12は、本発明の実施の形態2における画像処理装置を示す図である。 図13は、画像処理装置などを示す図である。
以下、本発明の実施の形態について、図面を参照しながら説明する。
実施形態の画像処理装置(画像処理装置100、システム100x)は、第2の画像101b(図13)が撮影されるよりも先に撮影された第1の画像101aと、第2の画像101bとのそれぞれを取得する画像入力部103(図13、図1など)を備える。また、取得された第1、第2の画像101a、101bのうちのそれぞれの画像から、その画像中の特徴点(第1の画像101aの位置101x(図13)の特徴点など)を抽出する特徴点抽出部104を備える。また、第1の画像101a中のエッジ(図2の直線110Lが作るエッジなどを参照)を基に、そのエッジを作る直線(直線110Lなど)上のそれぞれの点が含まれるマスク領域でのマスク画像(図7の画像(マスク画像)110aI)を生成するマスク生成部110xを備える。また、特徴点抽出部104によって抽出された、第1の画像101aの特徴点(位置101x)に、マスク生成部110xによって生成されたマスク画像(画像110aI)によるマスクをかけ、上述の直線(直線110L)上の特徴点(位置101s(図13)の特徴点)を特定する特徴点マスク部111xを備える。また、特徴点マスク部111xによってマスクされることにより、2以上の特徴点(2以上の位置101x(図13など))のうちから特定された、上述の特徴点(位置101sの特徴点、第1の位置101p(図13)の特徴点)と、抽出された、第2の画像101bの特徴点(第2の位置101qの特徴点)とを用いて、第1、第2の画像101a、101bの間の位置関係(位置の変化101r)を示すデータ(後述の回転行列を参照)を算出する回転行列算出部112を備える。また、回転行列算出部112によって算出された位置関係(位置の変化101r)を用いて、第1、第2の画像101a、101bのうちの一方の画像110I(例えば、第2の画像101b)を、一方の画像110Iにおける、上述の変化101rでの、位置のズレを打ち消す補正がされた、それぞれの位置が、撮像部101の動き01mにより生じたズレが補正された後の位置である、補正後の画像113aへと補正する画像補正部113を備える。
つまり、この画像処理装置は、カメラの一部または全体などである。
そして、例えば、第1の画像101aは、第1の特徴点(位置101p)がある画像でもよい。
第2の画像101bは、第1の特徴点へと撮影された箇所と同じ箇所が撮影された第2の特徴点(位置101q)がある画像でもよい。
回転行列算出部112は、第1の特徴点と、第2の特徴点との間の位置関係(位置の変化101r)を算出してもよい。
なお、算出される位置関係は、その位置関係から、第1、第2の画像101a、101bが撮影される2つの時刻の間での、撮像部101の動き101mが特定される位置関係である。
画像補正部113は、上述された一方の画像110Iから、一方の画像110Iにおける、算出された位置関係だけの、位置のズレ(動き101mにより生じたズレ)が補正された、補正後の画像113aを生成してもよい。
特徴点マスク部111xは、第1の画像101aにおける第1の特徴点が、予め定められた特徴点(図13、図2における、構造物(建物)が撮影された位置101sの特徴点)か否かを判定してもよい。つまり、位置101sの特徴点であるか、他の位置101nでの特徴点であるかが判定されてもよい。
予め定められた特徴点は、当該特徴点において、エッジ(直線110Lが作るエッジ)があり、かつ、第1の画像101aにおける、そのエッジの角度(そのエッジの法線ベクトル(後述)の角度110b1)と同じ角度(角度110b1)のエッジがある位置(位置110Lpを参照)の個数が、ピークの個数(図5に示される個数110bN)である特徴点(位置101sの特徴点)であって、第1の画像101aにおける、構造物(建物)が写された領域101Fにある特徴点(位置101sの特徴点)でもよい。
回転行列算出部112は、特徴点(位置101x)が、上述の予め定められた特徴点(位置101sの特徴点)と判定される場合にのみ、その特徴点(位置101x)を、第1の特徴点(第1の位置101p)とした、上述された、位置関係(位置の変化101r)の算出の処理を行ってもよい。
つまり、予め定められた特徴点(位置101sの特徴点)でないと判定される場合には、その特徴点からの、上述の算出をしなくてもよい。
これにより、補正後の画像113aへの補正が、構造物が撮影された位置101x(位置101s)の特徴点に基づいてのみされる。これにより、補正の精度が、より高い精度にできたり、補正の失敗が回避されて、確実に、補正に成功できる。
以下、詳しく説明される。
(実施の形態1)
図1は、本発明の実施の形態1における画像処理装置(画像処理装置100)の全体構成を示す図である。
図1において、撮像部101は、デジタルスチルカメラやデジタルビデオカメラなどの、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)センサ等の撮像素子を備えたカメラなどであり、映像を撮影して、電気信号として出力する。
画像データ蓄積部102は、撮像部101で撮影された画像データ2(第2の画像データ、第2の画像102I)に対して、時系列上で、この画像データ2の直前に撮影された画像データ1(第1の画像データ、第1の画像101I)が蓄積されている。
画像入力部103は、撮像部101で撮影された画像データ2と、画像データ蓄積部102に蓄積された画像データ1との2枚の画像データの入力を行う。ここで、画像データ1の画像1(第1の画像101I)は、時系列上で、画像データ2の画像2(第2の画像102I)の直前に撮影された画像であり、画像2は、画像1が撮影された直後に撮影された画像を指す。
なお、これら2つの画像データのそれぞれは、例えば、一般的なJPEG(Joint Photographic Experts Group)形式で圧縮符号化されたものでも良い。また、例えば、MPEG4等の動画形式で記録されたものでも良い。例えば、これら2つの画像データは、MPEG4等での動画における、2つの時刻の画像の画像データでもよい。本発明の一例である画像処理装置100は、補正を行う画像が、いつ撮影されたものであるかは関知しない。
また、本実施形態では、本発明の一例である画像処理装置100を、デジタルスチルカメラやデジタルビデオカメラに内蔵し、撮像画像を、その場で補正する構成をとっている。一方、パーソナルコンピュータ上でアプリケーションとして、画像処理装置100の機能を実装するなどして、撮像装置とは別に、画像処理装置100を用意してもよい。そして、カメラなどの記録デバイスと、直接、ケーブル等で、画像処理装置100を接続して、撮像画像を入力するような構成にしてもよいし、SDメモリカード等の記録媒体や、ネットワークを介して、画像データを読み込んでもよい。
特徴点抽出部104は、前記画像入力部103にて入力された、上述の画像1、2のうちのそれぞれの画像を受け取り、入力された画像1の特徴点の抽出を行い、抽出された、画像1の特徴点を特定する特徴点データ1を生成する。
ここで、特徴点とは、画像中の縦方向・横方向のエッジが共に強く出ている、エッジの交差した点や、ローカルの近傍に、2つの異なる方向を向いた強いエッジの存在する点などの事を表す。そして、特徴点としては、例えば、時系列上で連続した、画像1と画像2との2枚の画像間で、共通に写っている点から、安定的に検出できる種類のものが好ましい。そして、この際、画像1と画像2との間での、正確な位置関係は、未知である。このため、何らかの基準を用いて、共通に存在する特徴点を生成する必要がある。この特徴点の生成に、Harrisを用いた場合、画像のエッジを基準として、縦・横のエッジが交差するようなコーナー点が検出される。
なお、特徴点抽出部104では、画素ごとに、エッジの交差度を表す特徴点スコアを算出するため、理論上は、画素ごとに、特徴点スコアが存在する。しかし、組込み系など、リソース制限のある環境で、実装を行う場合、マッチング処理に用いる特徴点の個数に上限がある場合があるため、算出された全ての特徴点を用いて、マッチング処理を行う事は、計算コストや演算精度の面から、好ましくない。この場合、特徴点スコアの高いものから順に、規定数に達するまでのそれぞれのもの(点)が、特徴点として採用される。
Harrisで使用されるエッジは、画像のコントラスト(輝度値)変化を反映するため、照明条件が多少、変化する程度では、画像のコントラストは保存され、エッジは消失しない。この事から、遮蔽によって、障害物などに隠され、エッジ自体が消失する場合を除いては、エッジは、フレーム間で消失する可能性は低い。そのため、エッジ情報をベースとした特徴点スコアの高い点は、特徴点データ1と、特徴点データ2とで共通して存在する可能性が高くなる。この性質を利用し、特徴点スコアを、選択の基準として使用する場合には、ある特定の閾値よりもスコアの高い特徴点を選択する事となる。
なお、ここで、特徴点スコアを用いて、特徴点を選択する場合、前記特定の閾値は、画像内の平均スコアの値を用いてもよいし、複数の画像の、時系列上での、スコアの平均などを基に決めてもよい。更に、前記特定の閾値は、画像全体で、1つの閾値を用いる必要はなく、領域ごとに生成される閾値に基づいて、特徴点の選択を行ってもよいし、領域ごとに生成される閾値は、単一の画像を基に決めてもよいし、時系列上の複数の画像を利用して決めてもよい。また、何らかのオブジェクトの認識を行った場合の、オブジェクトのスコアを基に、スコアを決めてもよい。これは、例えば、最初、画像1に1000点存在した特徴点を、100点にまで絞る事を意味する。この場合、最終的には、回転行列算出部112で、画像1の100点と、画像2の100点との中から、揺れ量を推定するために必要な特徴点ペアを決定する事になる。
図2は、特徴点の例を示す図である。
この特徴点抽出部104を実現する代表的な方法としては、HarrisやSIFTなどの方法が存在する。
特徴点データ蓄積部105は、画像1(第1の画像101I)から生成された特徴点データ1(データ105d:図1)を蓄積している。画像1は、前記特徴点抽出部104で特徴データ2が抽出された画像2(第2の画像102I)の、時系列上での直前に撮影された画像である。
角度算出部106では、特徴点抽出部104で算出された、縦・横のエッジ情報から、画素ごとの角度情報を生成する。
図3A、図3Bは、それぞれ、Sobelフィルタを示す図である。
そして、エッジ情報の生成に、Sobelフィルタを用いた場合、x成分には、図3Aの行列を用い、y成分には、図3Bの行列を用いて、エッジ情報を算出する。
なお、ここでは、係数行列は、3*3行列としたが、5*5行列、または、7*7行列などのような、より大きな行列を用いてもよい。一般的な係数行列は、kを2以上の整数として、(2k−1)*(2k−1)の正方行列となる。
図4は、角度検出で検出している角度の例を示す図である。
生成されたx成分、y成分の値を、gx、gyとすると、角度の算出式は、
θ=arctan( gy/gx )
となる。
この角度の算出の処理は、注目画素の輝度勾配の方向に対する法線ベクトルを算出している事に相当する。この角度算出処理を、全ての画素に対して行い、それぞれの画素について、法線ベクトルの算出をする。
図5は、エッジ検出を行った画像から、角度ヒストグラムを作成する例を示す図である。
角度ヒストグラム作成部107では、角度算出部106で算出された、各画素内の角度情報から、横軸を角度、縦軸を、それぞれの角度での度数とした角度ヒストグラムを作成する。
なお、ここで、角度ヒストグラム作成部107で生成するヒストグラムの、比較的好ましい分解能は、撮影されたカメラの特性によるが、角度ピーク判定部108で、ピークを検出可能とするには、例えば、概ね1度程度でよい。
ここで、画像上では、ノイズによる影響で、画素値が変動する影響を考慮してもよい。つまり、例えば、角度ヒストグラムの分解能を1度とした場合に、ある画素での角度が10度である時に、角度ヒストグラムの、10度の度数を1つ加算する代わりに、10度の度数を2加算し、9度・11度の度数をそれぞれ1加算のような、重み付けを行ってもよい。
なお、本実施例では、レンズの歪みのない、通常の画角のレンズで撮影された画像を想定している。一方、レンズ歪みの存在するレンズで撮影された画像を用いる場合には、エッジの角度情報も、レンズ歪みを伴った形で得られるため、正しい角度が得られない。この場合、正しい角度を得るために、エッジ情報を算出する前に、各レンズの歪みを除去する処理を行った後の画像を用いる必要がある。
角度ピーク判定部108では、角度ヒストグラム作成部107で作成された角度ヒストグラム上のピークを持つ角度(極大点の角度110bなどを参照)を求める。ここで、角度ヒストグラムから、ピーク角度を求める背景は、下記の通りである。
すなわち、画像中に、ビルや建物のような構造物が写っていた場合、その構造物上のエッジは、直線(図2の直線110Lを参照)の一部として、画像中に存在する。直線の一部として存在するエッジの表す角度は、ほぼ同一の角度となる(図2における、直線110L上のそれぞれの位置110Lpでの、その直線101Lの法線の角度110b1などを参照)。一方で、構造物以外の領域から算出されるエッジの形状は、一般的に、構造物のように、規則的ではないため、角度は、分散する傾向が強い。
このため、構造物上のエッジの表す角度は、角度ヒストグラム上では、ピークとして表れ易い。この性質を用いる事で、角度ヒストグラム上のピークから、画像中の構造物領域を推定可能となる。
なお、ここで、構造物のエッジの持つ角度としては、地面に対して水平の角度、垂直の角度など、複数の角度が存在する。このため、角度ピーク判定部108で探索される角度のピーク数は、1つではなく、2つ以上であってもよい。
また、角度ピーク判定部108で、ピークが存在しないと判定される場合には、構造物領域が存在しないと判定された事となる。このため、構造物領域マスクの生成は行わず、特徴点抽出部104で生成された特徴点を、そのまま使用する事になる。
構造物領域推定部109では、角度ピーク判定部108で、ピークとされた角度(図5の角度110b1を参照)を持つエッジの、画像上の位置を、特定・補間する。このピーク角度を持つエッジの、画像上の位置を、遠景に存在する構造物の位置であるとして、構造物領域マスク生成部110で、マスク(構造物領域マスク、マスク画像)を生成する。つまり、生成されるマスクのマスク領域は、構造物が撮影された、それぞれの位置(図2の位置101sなどを参照)を含むと共に、他の位置(位置101nを参照)を含まない領域でもよい。そして、構造物領域マスク部111で、特徴点抽出部104で選択された特徴点をマスクする。つまり、構造物が撮影された位置(位置101s)である特徴点は、回転行列算出部112で用いられる特徴点として選択される一方で、他の位置(位置101n)である特徴点は、選択されなくてもよい。
図6は、角度ヒストグラムのピーク角度(図5の角度110bなどを参照)を持つ画素から、構造物領域マスクを作った例を示す図である。
構造物領域推定部109では、ピーク角度位置の特定に加え、補間も行う。このように補間も行うのは、角度ピーク判定部108で、ピーク角度と判定された角度を持つ画素の位置だけでは、特徴点をマスクするために必要な構造物領域を、十分に覆いきれない事があり、構造物領域を抜き出すマスクとしては、十分ではない事があるためである。
このように、十分に覆いきれない事がある主要な原因は2つある。
つまり、1つの原因は、特徴点抽出部104で生成される特徴点スコアに関する原因である。そして、もう1つの原因は、角度ヒストグラム作成部107で生成される角度ヒストグラムのビン幅、つまり、角度分解能に関する原因である。
つまり、特徴点スコアについては、画像の輝度値を基に算出している。このため、その画像の照明条件や、フレーム間で、カメラの位置が変わった事による、見え方の変化の影響が発生することがある。また、フレーム間で、特徴点の大まかな位置は合っているものの、ノイズにより、細かな位置が合わず、特徴点の位置に、誤差が発生する事がある。
他方、角度ヒストグラムの角度分解能については、その角度分解能を高くすればするほど、ピーク角度と判定される角度範囲が狭まる。このため、画像上の、構造物と判定される画素は少なくなり、構造物領域の覆う範囲が狭すぎるという問題が出てくる。
逆に、角度分解能を低くすればするほど、ピーク角度と判定される角度範囲は広がるため、画像上で、ピーク角度を持つ画素が増える。この事で、構造物と判定される画素は多くなる一方で、非構造物領域にあるにも関わらず、構造物領域にあると判定される画素も増えてしまう。
このように、トレードオフの関係がある。
上記2点の影響で、十分に覆いきれない事がある。そこで、これが生じるのを低減するため、構造物領域推定部109では、ピーク角度位置の特定に加え、構造物領域の補間も行う。
図8は、構造物領域の拡大方法の例を示す図である。
補間方法の例を示すため、図8を用いて説明する。
まずは、先に述べた、特徴点スコアによる、特徴点位置の誤差の影響を抑えるための補間処理が説明される。
構造物領域推定部109は、図8の(a)欄のような、画像の領域の処理がされる際に、ピーク角度を持つ画素に注目し(図8の(b)欄の、点線の円で特定される画素8b1を参照)、角度算出部106で算出された法線ベクトルの方向(方向8b2)に、その画素8b1の領域を拡大し(図8の(c)欄)、その後、法線ベクトル方向に拡大した領域(領域8d1)の周辺を更に拡大する(図8の(e)欄における、周辺の領域8e1を参照)。
そして、このような、構造物のエッジ上のピーク角度に注目した、領域の拡大処理を、全ての、ピーク角度を持つ画素の位置で行い(図8の(e)欄)、構造物の領域を拡大する(図8の(f)欄、拡大前の領域8f1、拡大後の領域8f2を参照)。
なお、この例では、法線ベクトル方向に、2ピクセル分だけ補間を行っているが、画像サイズや画角などに応じて、変更してよい。
図7は、図6の構造物領域マスクの構造物領域を拡大処理した例を示す図である。
このように、構造物の周辺領域を拡大する事で、特徴点位置の誤差の影響を抑える。
なお、ここで、特徴点抽出の特性に応じて、補間方式を拡張しても良い。例えば、特徴点抽出の方式として、Harrisを用いた場合には、コーナー上に特徴点が存在し易いので、コーナー上では、補間するピクセル数を大きくするなどである。
図9は、構造物領域の補間方法の例を示す図である。
次に、角度ヒストグラムの分解能のトレードオフを解決するための補間処理を加える。上記の、特徴点位置の誤差の影響を抑えるための補間処理後(図9の(b)欄)、次の通りである場合が考えられる。その場合とは、ピーク角度との角度差が一定以内で、かつ、法線ベクトルの方向(図8の方向8b2を参照)に垂直な方向(図9の矢印線を参照)の延長上に、同じ法線ベクトルを持つ領域が存在する場合(図9の(b)欄)である。この場合に限り、構造物上のエッジが、照明条件やノイズなどにより欠落したと考え、領域9c1も構造物領域として、補間を行う(図9の(c)欄)。
これは、画像中の構造物上のエッジであれば、同じピーク角度を持つエッジに挟まれた、ピーク角度と近い角度を持つ領域は、同一構造物上に存在するエッジである可能性が高い事を利用している(領域9c1を参照)。
このようにして、構造物領域推定部109では、構造物上のエッジと、角度情報との特性を用いて、領域の補間を行い、最終的な、構造物領域のマスクを作成する(図9の(d)欄)。
なお、このような、構造物領域マスク生成部110で生成されるマスクは、例えば、構造物領域であると判定された領域を1、構造物領域でないと判定された領域を0と表現する、2値のマスクを適用してもよい。
図10A、図10Bの各々は、構造物領域マスクの重みを、2値より多くする場合の例を示す図である。
なお、図10Bでは、図10Aが、より模式的にされた図が示される。適宜、図10Bも参照されたい。
また、例えば、図10Aのように、同じ法線ベクトルaの延長上に、法線ベクトルaと直交する角度を持つ法線ベクトルbが存在する場合が考えられる。この場合、その直交する領域の周辺は、縦・横エッジの交差するコーナーであるとして、直交する領域の周辺の領域の値を2、構造物領域であると判定された領域の値を1、構造物領域でないと判定された領域の値を0とするようなマスクを作成し、作成されたマスクを適用してもよい。なお、上述の説明では、多値の例として、値の種類が、0〜2の3種類である例が示された。同様に、値の種類が、4種類以上などでもよい。
構造物領域マスク部111では、構造物領域マスク生成部110で生成されたマスクを、特徴点抽出部104で生成された特徴点にかける。これにより、特徴点抽出部104で生成された特徴点について、構造物領域から生成された特徴点と、近景や自然物などの非構造物領域から生成された特徴点との区別が可能になる。
また、構造物領域マスク部111で生成されるマスクが、構造物・非構造物領域が区別されるだけではなく、コーナー領域などを含む複数の領域の区別が可能なマスクである場合には、マッチング処理部で、各特徴点の重みを変更する事で対応する。
こうして、構造物領域マスク生成部110で生成されたマスクを適用する。この事で、画像中に構造物領域が存在する場合には、画像中の遠景領域である構造物領域上の特徴点で、マッチングが可能となる。これにより、マッチング精度の向上が見込める。このため、構造物領域から優先的に特徴点を採用する。
なお、逆に、構造物領域が存在しない場合には、特徴点抽出部104で生成された特徴点を、そのまま使用する。また、構造物領域マスクをかける事で、特徴点の数が少なくなり過ぎる場合には、構造物領域から優先的に特徴点を選択し、不足している分を、特徴点選択基準の高いものから一定数までの、非構造物領域からの特徴点で補う。
ここで、こうして、不足している特徴点を、非構造物領域から補う意図としては、次の理由による意図が説明される。つまり、計算資源が一定の環境下で、計算量が、特徴点の数に依存するマッチング処理の場合、計算資源を使い切らない程度の特徴点数であるとの条件を満たす限りにおいては、次の通りである。つまり、構造物領域上に存在する少数の特徴点のみを、マッチング処理に使用する必要がなくて、構造物領域以外にも、マッチングに使用可能な特徴点が存在して、多くを使用可能である可能性がある。このため、マッチング処理に成功する可能性が向上するという理由が挙げられる。
回転行列算出部112は、構造物領域マスク部111で、最終的に選択された特徴点を用いて、画像1、画像2の間に生じた、カメラの動きを表す回転行列の算出を行う。回転行列の算出方法は、RANSAC(RANdom SAmple Consensus)などの手法を用いて算出する方法でもよい。
画像補正部113は、回転行列算出部112で算出された回転行列を用いて、画像1、画像2の間で生じた、カメラの動きを補正する。
図11は、実施の形態1における画像処理装置のフローチャートである。
画像入力部103は、撮像部101で撮影された画像2と、画像データ蓄積部102に蓄積された画像1とを読み込み、特徴点抽出部104は、画像1の特徴点データ1を抽出する(ステップS501)。
次に、角度算出部106は、画像1から、縦・横のエッジを算出し(ステップS502)、そのエッジを基に、角度情報を生成する(ステップS503)。
角度ヒストグラム作成部107は、生成した角度情報から、角度ヒストグラムを作成(生成)し(ステップS504)、角度ピーク判定部108は、角度ヒストグラム上のピークを探索する(ステップS505)。
そして、角度ピークが存在するかどうかの判定を行い(ステップS506)、存在する場合には、そのピークが、構造物を表す程に大きいかどうか判定を行う(ステップS507)。
構造物が存在すると判定された場合(ステップS507:yes)、構造物領域推定部109は、構造物領域マスクを生成するため、構造物の領域拡大処理を行う(ステップS508)。
構造物領域拡大後、構造物領域マスク生成部110は、構造物領域のマスクを生成し(ステップS507:yes)、生成されたマスクをかける(ステップS510)。構造物領域マスク後、構造物領域に存在する特徴点の数を調べ(ステップS511)、特徴点の数が、規定数に達していない場合には(ステップS511:no)、特徴点を、非構造物領域から追加する(ステップS512)。
次に、特徴点データ蓄積部105から、画像2の特徴点データ2を読み込む。
その後、回転行列算出部112で、画像1、画像2間で生じた動きを表す回転行列を算出し(ステップS513)、画像補正部113は、算出された回転行列を用いて、画像の補正を行う(ステップS514)。
かかる構成によれば、構造物領域マスク生成部110、および、構造物領域マスク部111において、構造物領域の特徴点が取得可能になることにより、近景領域を含む映像、または遠景領域に自然物などを多く含む映像でのマッチングが可能となり、正しい揺れ量を推定できる。
こうして、要するに、正確な位置合わせが、より確実にできることが達成される。つまり、例えば、第1の画像と、第1の画像の直後の第2の画像とのそれぞれを取得する画像取得部と、特徴点を抽出する特徴点抽出部と、第1の画像を基にマスク画像を生成するマスク画像生成部と、第1の画像の特徴点に、マスクをかける特徴点マスク部と、マスクされた第1の画像の特徴点と、第2の画像の特徴点を用いて算出された回転行列を用いる画像補正部とを備える装置が構築される。
(実施の形態2)
図12は、本発明の実施の形態2の全体図である。
図12において、図1と同じ構成要素については適宜、同じ符号を用い、その説明を適宜、省略する。
実施の形態1との構成要素の違いは、特徴点選択部114である。特徴点選択部114では、特徴点抽出部104で生成された特徴点データ1の1以上の特徴点の中から、特徴点スコア以外の基準を用いて、マッチング処理に用いる特徴点の選択を行う。
ここで、特徴点抽出部104では、画素ごとに、エッジの交差度を表す特徴点スコアを算出する。このため、理論上は、画素ごとに、特徴点スコアが存在する。一方、算出された全ての特徴点を用いて、マッチング処理を行う事は、計算コストや、演算精度の面から好ましくない。このため、実施の形態1では、特徴点スコアの高い順に、規定数の特徴点を用いていた。しかしながら、特徴点スコアは、輝度値のみを基準としているスコアである。このため、テクスチャのような、コントラスト差が激しい物体が遠景に集中して存在する場合などでは、カメラの揺れ量の推定は失敗する事がある。これは、輝度値のみをベースとした特徴点スコアだけでは、画像全体の特徴を反映できないという理由による。そのため、特徴点スコア以外の基準が必要となる。
その1つに、画像内の特徴点の位置関係がある。特徴点の位置関係を選択基準として用いるのは、次のような事を避けるためである。つまり、ある特定の領域に、特徴点スコアの高い1以上の特徴点が密集して、それらの1以上の特徴点が選択された場合には、画像の局所的な特徴点を多く用いる事になってしまい、マッチングが失敗してしまう場合がある。このような事が生じるのが避けられる。また、このような、複数の特徴点の間の距離を採用する場合、画像上での、一定間隔の距離は、例えば、撮像部101の焦点距離や画角などに応じて、動的に設定される。特徴点選択部114では、このように、特徴点スコア以外の基準を用い、マッチングに使用する特徴点の選択を行う。
なお、ここで、特徴点スコア以外の特徴点選択基準として、特徴点の周囲の輝度勾配情報を用いてもよい。また、特徴点スコア以外の特徴点選択基準として、画像内の複数の特徴点の間の、相対的な距離の関係を用いてもよい。なお、特徴点選択部114では、どの特徴点が、画像内での遠景/近景領域のどちらの特徴点にあたるかは考慮されていない。このため、特徴点選択部114で生成される特徴点は、遠景/近景領域、両方の領域から生成された特徴点を含む。
こうして、画像中の縦・横方向のエッジ情報を基にして生成される角度情報から得られる傾き角度ヒストグラムを利用してもよい。そして、この利用をする事で、画像中の遠景領域に存在する構造物領域を抽出し、拡大・補間処理を行う事で、画像中の遠景領域に存在する構造物領域が抽出可能となる。この構造物領域から得られる特徴点を優先的に用い、2つのフレーム間に生じた、カメラの揺れ量を推定する事で、近景領域が含まれている場合でも、遠景領域に対する、カメラの揺れ量が推定可能な画像処理装置を提供してもよい。
このように、例えば、構造物とは、ビルや柱、窓などの、幾何学的な構造を持つオブジェクトを指す。すなわち、構造物では、揺れ量を推定するために必要な条件、つまり、フレーム間の動きが、殆ど動きの生じていない、もしくは、動きが生じていても小さくかつその動きの方向が一様であるという条件を満たされる。また、構造物は、その幾何学的な構造ゆえに、画像上のエッジが、特定の線分上に分布する傾向が高いという特徴を有する。
そして、実施の形態によれば、構造物領域マスク生成部110、および、構造物領域マスク部111において、このような構造物の領域の特徴点が取得可能になる。このことにより、近景領域を含む映像、または、遠景領域に、自然物などを多く含む映像でのマッチングが可能となり、正しい揺れ量を推定できる。
なお、こうして、例えば、複数の構成が組合わせられ、組合わせからの相乗効果が生じてもよい。これに対して、従来例では、これらの複数の構成のうちの全部または一部を欠き、相乗効果は生じない、この点で、本技術は、従来例とは相違する。
なお、例えば、撮像部101と、画像処理装置100とが含まれるシステム100x(図2)が構築されてもよい。
なお、この画像処理装置100において、例えば、次の動作がされてもよい。
つまり、画像1は、近景領域と、遠景領域とを含んでもよい。
ここで、先述の通り、近景領域は、例えば、比較的近い位置が撮影された領域であり、人(通行人など)等が写されてもよい。
他方、遠景領域は、例えば、カメラから、比較的遠い位置が撮影された領域であり、自然物(風に揺れる木など)、および、柱、窓などの、幾何学的な構造を持つオブジェクト(構造物)等が写されてもよい。
そして、先述の通り、近景領域は、通行人が写されるなどのために、揺れ量の推定に用いるのに比較的適切でない特徴点を含む一方で、遠景領域は、揺れ量の推定に用いられるのに比較的適切な特徴点を含んでもよい。
しかしながら、単に位置が遠いというだけで、その位置の物の特徴点を用いて、揺れ量の推定がされると、構造物以外の、自然物(風に揺れる木など)における特徴点での推定までがされてしまう。
そこで、遠景領域に写された構造物に表れる、線分上に分布したエッジが検出されてもよい(S502〜S510)。
なお、検出されるエッジは、具体的には、例えば、先述のように、複数のエッジのうちの、角度ヒストグラムでのピークの角度のエッジなどである(S506:yes等を参照)。
そして、エッジが検出された構造物における特徴点により、揺れ量の推定がされてもよい(ステップS513)。
つまり、具体的には、例えば、先述のように、揺れ量を特定する回転行列が生成されてもよい(ステップS513)。
なお、推定された揺れ量に対応する補正が、画像2にされてもよい(S514)。
こうして、遠景領域に自然物を多く含む映像などにおいても、正確な位置合わせ(適切な推定)が可能で、確実に、適切な推定ができる。
なお、構造物領域マスク生成部110を含んだマスク生成部110xがあると考えられてもよい。そして、より具体的には、例えば、角度算出部106〜構造物領域推定部109も、このマスク生成部110xに含まれてもよい。
このように、例えば、次の動作がされてもよい。
第1の画像101a(図13)と、第2の画像101bとが撮影される間に、それぞれの画像を撮影する撮像部101が、動き101mをしてもよい。
例えば、第1の画像101aは、先述された、先に撮影された第1の画像101I(図1など)である一方で、第2の画像101bは、後に撮影された第2の画像102Iでもよい。
第1の画像101aには、第1の位置101pがあってもよい。
第2の画像101bには、第1の位置101pへと撮影された箇所と同じ箇所が撮影された第2の位置101qがあってもよい。
これら第1、第2の位置101p、101qから、動き101mが特定されてもよい。
なお、図13では、図示の便宜上、第2の位置101qが図示された箇所は、模式的に、第1の位置101pが図示された箇所から、ある程度、大きく離れた箇所である。
なお、具体的には、これら第1、第2の位置101p、101qに加えて、さらに、他の情報も用いられることにより、上述の特定が行われてもよい。
第1、第2の画像101a、101bのうちの一方の画像101Iが、補正後の画像113aへと補正されてもよい(画像補正部113)。
つまり、一方の画像101Iにおいては、例えば、先述された、第1の位置101pと、第2の位置101qとの間での、位置のズレなどの、撮像部101の動き101mにより生じた、位置のズレがある。
そして、補正後の画像113aは、一方の画像101Iが有する、このようなズレが補償された、上述のズレが打ち消された後の画像でもよい。
なお、一方の画像101Iは、例えば、後で撮影された方の第2の画像101bである。
しかしながら、撮像部101が、撮影をさせるユーザの身体へと装着されることが考えられる。
例えば、子供の運動会などにおいて、その子供の父親の身体へと装着された撮影装置(例えば、デジタルカメラ、ビデオカメラなど)が備える撮像部101により撮影がされて、その撮影装置を、手で、父親が持つ必要が生じるのが回避されてもよい。
また、警察の車両などの車両に取り付けられた撮像部101で、撮影が行われることなども考えられる。
また、先述のように、歩行時に、歩行しながら、撮影がされたり、ファインダレスで、撮影されることなども考えられる。
これらのケースなどでは、動き101mの大きさが、比較的大きいことが想定される。
そこで、これらのケースなどにおいて、次の動作が行われてもよい。
すなわち、第1の画像101aのなかの位置101xとして、構造物が撮影された位置101s(図13)と、他の位置101nとがあってもよい(図2などを参照)。
構造物は、例えば、建物などである。
他の位置101nは、人物、森(林)が撮影された位置などである。
構造物の位置101sは、その構造物が、人物などよりも、撮像部101から、より遠くにあって、第1の画像101aにおける遠景領域に含まれることが想定される。
また、構造物は、人物が動いたり、森の木の枝、葉などが、風の強さに合わせて動いたりするのとは違って、動かず、静止していると考えられる。
逆に、他の位置101nは、近景領域に含まれ、また、その位置101nに映された人物などが、動くことが多いことが想定される。
このため、構造物の位置101pを、上述の第1の位置101pとした、動き101mの特定の処理がされると、比較的適切な処理がされる。
適切とは、例えば、特定される動き101mの精度が、比較的高い精度であったり、特定が、失敗し難かったりすることなどを意味する。
逆に、他の位置101nを、第1の位置101pとした、特定の処理がされると、比較的不適切な処理がされる。
不適切とは、例えば、特定される動き101mの精度が、比較的低い精度であったり、特定が、失敗し易かったりすることなどを意味する。
そこで、位置101x(図13)が、構造物が撮影された位置101sであるか、他の位置101nであるかが判定されてもよい(特徴点マスク部111x、S509などを参照)。
つまり、第1の画像101aでは、構造物の直線(図2の直線110Lを参照)が表れてもよい。
なお、この直線は、例えば、その直線が表れた構造物である建物(領域101Fの被写体)の輪郭の直線、または、その建物の窓枠の直線などである(図2などを参照)。
すなわち、位置101xが、その直線上の位置である場合には、構造物の位置101pであると判定され、その直線上の位置でない場合には、他の位置101nと判定されてもよい。
なお、具体的には、直線(直線110L)が検出されることにより、位置101xが、検出された直線上の位置か否かが判定されて、上述の処理がされてもよい。
また、次の第1、第2の条件が考えられる。
すなわち、第1の条件は、位置101xに、直線が作るエッジがあるとの条件である。
第2の条件は、位置101x(例えば、図2の位置101s)にある、そのエッジの角度(図2における、エッジの法線の角度110b1を参照)に対応した角度に関する。なお、例えば、特徴点マスク部111xの一部は、構造物領域マスク部111である。
つまり、対応した角度は、例えば、位置101xの角度(角度110b1)と同じ角度(角度110b1)でもよい。
また、対応した角度は、例えば、位置101xの角度と同じ角度(角度110b1)、または、その角度とは90度異なる角度(角度110b2)の何れかである角度などでもよい。
すなわち例えば、対応した角度とは、その角度(例えば角度110b1)のエッジがある位置(位置110Lpを参照)の個数(図5の個数110bNを参照)が、閾値以上である場合には、位置101xが、直線上の点である(と推定される)角度である。
すなわち、第2の条件は、位置101xのエッジの角度に対応する角度(上述)のエッジがある位置(位置110Lpなど)の個数(図5の個数110bNを参照)が、閾値より多いとの条件である。
そして、これら第1、第2の条件が何れも満たされる場合に、位置101xが、構造物が撮影された位置101sと判定され、何れかの条件が満たされない場合には、他の位置101nと判定されてもよい。
これにより、構造物が撮影された位置101s(図2)に基づいて、動き101mの特定がされ、他の位置101nに基づいた特定がされず、特定される動き101mの精度が、比較的高くできたり、特定の失敗が生じ難くできる。
なお、ひいては、特定された動き101mに基づいた、一方の画像101Iの補正がされて、高い精度での補正ができたり、補正の失敗が、生じに難いようにできる。
なお、さらに具体的には、先述の通り、マスク生成部110xにより、領域(マスク領域)を特定するデータ110a(図13)が生成されてもよい。
なお、生成されるデータ110aは、例えば、先述されたマスク画像を特定するデータでもよい。
特定される領域は、その領域に、位置101xが含まれる場合には、その位置101xが、構造物が撮影された位置101sである一方で、含まれない場合には、他の位置101nである領域でもよい。
そして、特徴点抽出部104により、当該特徴点抽出部104により抽出された特徴点(先述)を、上述の位置101xとして特定するデータ104aが生成されてもよい。
そして、特定される位置101xが、生成されたデータ112aにより特定される、上述の領域(マスク領域)に含まれる場合に、その位置101xが、構造物の位置101sと判定され、含まれない場合には、他の位置101nと判定されてもよい。
そして、構造物の位置101sと判定された位置101xを特定し、他の位置101nと判定された位置101xを特定しないデータ112aが生成されてもよい。
そして、生成されたデータ112aにより特定される位置101xに基づいて、その位置101xを、上述の第1の位置101pとした、動き101mの特定の処理がされて、特定された動き101mを示すデータ112dが生成されてもよい。
なお、生成されるデータ112dは、例えば、先述された、特定された動き101mを特定する回転行列のデータなどである。
そして、生成されたデータ112dに基づいて、先述された、一方の画像110Iから、補正後の画像113aへの補正がされてもよい。
なお、このような、特定された動き101mに基づいた補正の処理は、例えば、従来技術が流用された処理などでもよい。
なお、先述のように、構造物が撮影されたと判定された位置101xとして、2以上の個数の位置101xのうちのそれぞれの位置101xが特定されてもよい。
そして、それぞれの位置101xから特定される動きの平均の動きなどが、上述された、動き101mとして特定されてもよい。
このように、動き101mの特定の処理において、構造物が撮影された位置101sと判定された位置101xが、第1の位置101pとして用いられる共に、他の位置101nと判定された位置101xが、第1の位置101pとして用いられなくてもよい。
なお、第1の画像101aのなかにある直線(図2の直線110L)が特定されてもよい。そして、特定された直線上に、位置101xがあるか否かが判定されることにより、先述された、位置101xが、構造物が撮影された位置101sであるか否かの判定がされてもよい。
なお、画像処理装置100、および、撮像部101とを備えるカメラ(デジタルカメラなど)が構成されてもよい。
また、撮像部101であるデジタルカメラ等と、撮像部101により撮影された第1、第2の画像101a、101bの画像処理をするコンピュータ(パーソナルコンピュータなど)である画像処理装置100とを含んでなるシステム100xなどが構成されてもよい。
なお、撮像部101の動き101mは、例えば、撮像部101を持つ、ユーザの手の手首の関節などの、予め定められた中心の回りでの、回転の動きでもよい。このような、回転の動きを特定する回転行列であるデータ112dが生成されてもよい。
なお、こうして、複数の基準を用いて、補正の処理に用いられる特徴点の選択が行われてもよい。つまり、例えば、第1の基準での条件が満たされ、かつ、第2の基準での条件も満たされる特徴点が特定(選択)され、特定された特徴点が用いられてもよい。第1の条件は、その特徴点が、先述のマスク領域に含まれるとの条件である一方で、第2の条件は、その他の適切な条件でもよい。
なお、本発明について、実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではない。この実施の形態に対して、当業者が思いつく変形を施して得られる形態も本発明に含まれる。また、実施の形態における構成要素を任意に組合わせて実現される別の形態も本発明に含まれる。
上述の実施の形態は、単なる一例であり、本発明が適用されている限り、如何なるケースの形態も、本発明の範囲に属する。
例えば、異なる複数の実施形態などの、互いに離れた箇所で記載された複数の要素が、適宜組合わせられてもよい。そのような、組合わせの形態も開示される。
また、本発明は、画像処理装置として実現できるだけでなく、画像処理装置を構成する処理手段をステップとする方法としても、実現できる。そして、本発明は、それらステップをコンピュータに実行させるプログラムとしても、実現できる。更に、本発明は、そのプログラムを記憶したコンピュータ読み取り可能なCD−ROM等の記憶媒体としても、実現できる。
また、上述の技術での各機能を実装した集積回路が構築されてもよいし、各機能をコンピュータに実現するためのコンピュータプログラムが構築されてもよいし、これらの種類以外の他の種類のものが構築されてもよい。なお、上述の集積回路は、LSI(Large Scale Integration)でもよいし、他の種類の集積回路でもよい。また、上述の工程が含まれる方法、上述の各種のものを製造する製造方法、上述のコンピュータプログラムを通信する方法、記憶する方法などの、各種の方法が構築されてもよいし、上述のコンピュータプログラムが含まれるデータが有するデータ構造などが構築されてもよい。
本発明にかかる画像処理装置は、デジタルスチルカメラ、ビデオカメラ、ウェアラブルカメラや、パーソナルコンピュータのソフトウェア等の映像補正処理装置として有用である。
特定される、撮像部の動き(図13の動き101mを参照)の精度が高くできたり、動きの特定が、失敗し難いようにできる。
100 画像処理装置
101 撮像部
101a 第1の画像
101b 第2の画像
101F 領域
102 画像データ蓄積部
103 画像入力部
104 特徴点抽出部
105 特徴点データ蓄積部
106 角度算出部
107 角度ヒストグラム作成部
107d ヒストグラム
108 角度ピーク判定部
109 構造物領域推定部
110 構造物領域マスク生成部
110aI マスク画像
110x マスク生成部
111 構造物領域マスク部
111x 特徴点マスク部
112 回転行列算出部
113 画像補正部

Claims (12)

  1. 第2の画像が撮影されるよりも先に撮影された第1の画像と、前記第2の画像とのそれぞれを取得する画像取得部と、
    取得された第1、第2の前記画像のうちのそれぞれの画像から、その画像中の特徴点を抽出する特徴点抽出部と、
    第1の前記画像中のエッジを基に、マスク画像を生成するマスク画像生成部と、
    前記特徴点抽出部によって抽出された、第1の前記画像の前記特徴点に、前記マスク画像生成部によって生成された前記マスク画像によるマスクをかける特徴点マスク部と、
    前記特徴点マスク部によってマスクされることにより、2以上の前記特徴点のうちから特定された前記特徴点と、抽出された、第2の前記画像の前記特徴点とを用いて、第1、第2の画像間の位置関係を算出する算出部と、
    前記算出部によって算出された前記位置関係を用いて、第1、第2の前記画像のうちの一方の画像を補正する画像補正部とを備える画像処理装置。
  2. 生成される前記マスク画像は、第1の前記画像中に存在する被写体のうちの、構造物である被写体が写っている領域をマスクするマスク画像である請求項1記載の画像処理装置。
  3. 前記マスク画像生成部は、第1の前記画像中のエッジを基に算出した角度情報を基に、前記マスク画像を生成する請求項1記載の画像処理装置。
  4. 前記マスク画像生成部は、第1の前記画像中のエッジを基に算出した角度情報を基に作成した角度ヒストグラム上の、ピークの角度を持つそれぞれの画素が含まれてなる領域をマスクする前記マスク画像を生成する請求項1記載の画像処理装置。
  5. 前記マスク画像生成部は、
    第1の前記画像中のエッジを基に算出した角度情報から作成した角度ヒストグラム上の、ピークの角度が複数ある場合には、
    複数の前記ピークの角度のうちのそれぞれの前記角度について、その角度を有するエッジがあるそれぞれの画素が含まれてなる領域をマスクする前記マスク画像を生成する請求項1記載の画像処理装置。
  6. 前記マスク画像生成部は、
    第1の前記画像上で、当該画像の角度ヒストグラム上の、ピークの角度を持つ画素と共に、その画素の、一定範囲の、それぞれの隣接画素が含まれた領域をマスクする前記マスク画像を生成し、マスクがされる領域を拡大する請求項1記載の画像処理装置。
  7. 前記マスク画像生成部は、第1の前記画像上における、第1の前記画像の角度ヒストグラム上の、ピークの角度と、一定の誤差内にある角度を持つ画素を、マスクがされる領域の画素として、マスクがされる領域を拡大する請求項1記載の画像処理装置。
  8. 前記特徴点抽出部は、複数の基準を用いて、特徴点の選択を行う請求項1記載の画像処理装置。
  9. 第1の前記画像は、第1の特徴点がある画像であり、
    第2の前記画像は、第1の前記特徴点へと撮影された箇所と同じ箇所が撮影された第2の特徴点がある画像であり、
    前記算出部は、第1の前記特徴点と、第2の前記特徴点との間の前記位置関係を算出し、
    前記画像補正部は、前記一方の画像から、前記一方の画像における、算出された前記位置関係だけの、位置のズレが補正された、補正後の画像を生成し、
    前記特徴点マスク部は、第1の前記画像における第1の前記特徴点が、予め定められた特徴点か否かを判定し、
    前記予め定められた特徴点は、当該特徴点において、エッジがあり、かつ、第1の前記画像における、そのエッジの角度と同じ角度のエッジがある位置の個数が、ピークの個数である特徴点であって、第1の前記画像における、建物が映された領域にある特徴点であり、
    前記算出部は、前記特徴点が、前記予め定められた特徴点と判定された場合にのみ、その特徴点を、第1の前記特徴点とした、前記位置関係の算出を行い、前記予め定められた特徴点でないと判定される場合には、その特徴点からの前記算出をしない請求項1記載の画像処理装置。
  10. 第2の画像が撮影されるよりも先に撮影された第1の画像と、前記第2の画像とのそれぞれを取得する画像取得部と、
    取得された第1、第2の前記画像のうちのそれぞれの画像から、その画像中の特徴点を抽出する特徴点抽出部と、
    第1の前記画像中のエッジを基に、マスク画像を生成するマスク画像生成部と、
    前記特徴点抽出部によって抽出された、第1の前記画像の前記特徴点に、前記マスク画像生成部によって生成された前記マスク画像によるマスクをかける特徴点マスク部と、
    前記特徴点マスク部によってマスクされることにより、2以上の前記特徴点のうちから特定された前記特徴点と、抽出された、第2の前記画像の前記特徴点とを用いて、第1、第2の画像間の位置関係を算出する算出部と、
    前記算出部によって算出された前記位置関係を用いて、第1、第2の前記画像のうちの一方の画像を補正する画像補正部とを備える集積回路。
  11. 第2の画像が撮影されるよりも先に撮影された第1の画像と、前記第2の画像とのそれぞれを取得する画像取得ステップと、
    取得された第1、第2の前記画像のうちのそれぞれの画像から、その画像中の特徴点を抽出する特徴点抽出ステップと、
    第1の前記画像中のエッジを基に、マスク画像を生成するマスク画像生成ステップと、
    前記特徴点抽出ステップで抽出された、第1の前記画像の前記特徴点に、前記マスク画像生成ステップで生成された前記マスク画像によるマスクをかける特徴点マスクステップと、
    前記特徴点マスクステップでマスクされることにより、2以上の前記特徴点のうちから特定された前記特徴点と、抽出された、第2の前記画像の前記特徴点とを用いて、第1、第2の画像間の位置関係を算出する算出ステップと、
    前記算出ステップで算出された前記位置関係を用いて、第1、第2の前記画像のうちの一方の画像を補正する画像補正ステップとを含む画像処理方法。
  12. 第2の画像が撮影されるよりも先に撮影された第1の画像と、前記第2の画像とのそれぞれを取得する画像取得ステップと、
    取得された第1、第2の前記画像のうちのそれぞれの画像から、その画像中の特徴点を抽出する特徴点抽出ステップと、
    第1の前記画像中のエッジを基に、マスク画像を生成するマスク画像生成ステップと、
    前記特徴点抽出ステップによって抽出された、第1の前記画像の前記特徴点に、前記マスク画像生成ステップで生成された前記マスク画像によるマスクをかける特徴点マスクステップと、
    前記特徴点マスクステップでマスクされることにより、2以上の前記特徴点のうちから特定された前記特徴点と、抽出された、第2の前記画像の前記特徴点とを用いて、第1、第2の画像間の位置関係を算出する算出ステップと、
    前記算出ステップで算出された前記位置関係を用いて、第1、第2の前記画像のうちの一方の画像を補正する画像補正ステップとをコンピュータに実行させるためのプログラム。
JP2011544736A 2010-06-04 2011-06-02 画像処理装置、画像処理方法、集積回路、プログラム Expired - Fee Related JP5654484B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011544736A JP5654484B2 (ja) 2010-06-04 2011-06-02 画像処理装置、画像処理方法、集積回路、プログラム

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2010129436 2010-06-04
JP2010129436 2010-06-04
JP2011544736A JP5654484B2 (ja) 2010-06-04 2011-06-02 画像処理装置、画像処理方法、集積回路、プログラム
PCT/JP2011/003101 WO2011152053A1 (ja) 2010-06-04 2011-06-02 画像処理装置、画像処理方法、集積回路、プログラム

Publications (2)

Publication Number Publication Date
JPWO2011152053A1 true JPWO2011152053A1 (ja) 2013-07-25
JP5654484B2 JP5654484B2 (ja) 2015-01-14

Family

ID=45066444

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011544736A Expired - Fee Related JP5654484B2 (ja) 2010-06-04 2011-06-02 画像処理装置、画像処理方法、集積回路、プログラム

Country Status (5)

Country Link
US (1) US8774550B2 (ja)
EP (1) EP2579569B1 (ja)
JP (1) JP5654484B2 (ja)
CN (1) CN102714694B (ja)
WO (1) WO2011152053A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5888172B2 (ja) * 2012-08-02 2016-03-16 ソニー株式会社 データ記憶装置およびプログラム
WO2014050189A1 (ja) * 2012-09-27 2014-04-03 富士フイルム株式会社 撮像装置及び画像処理方法
JP5683749B1 (ja) * 2014-02-04 2015-03-11 株式会社Ubic 文書分析システム、文書分析方法、および、文書分析プログラム
CN105812799B (zh) * 2014-12-31 2019-03-08 阿里巴巴集团控股有限公司 视频帧内预测模式的快速选择方法及其装置
EP3375682B1 (en) * 2015-12-14 2020-08-26 Yamaha Hatsudoki Kabushiki Kaisha Vehicle-use roll-angle estimation system, vehicle, vehicle-use roll-angle estimation method
CN106331486A (zh) * 2016-08-25 2017-01-11 珠海市魅族科技有限公司 图像处理方法及***
US11462052B2 (en) * 2017-12-20 2022-10-04 Nec Corporation Image processing device, image processing method, and recording medium
KR101881391B1 (ko) * 2018-03-09 2018-07-25 한화에어로스페이스 주식회사 객체의 특성 정보를 반영하여 프라이버시 마스킹을 수행하는 영상 마스킹 장치
CN111754572B (zh) * 2019-03-29 2024-04-05 浙江宇视科技有限公司 图像处理方法及装置
CN112102383A (zh) * 2020-09-18 2020-12-18 深圳市赛为智能股份有限公司 图像配准方法、装置、计算机设备及存储介质

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69935437T2 (de) 1998-09-10 2007-11-15 Ecchandes Inc., Gamagori Visuelle vorrichtung
JP2001148023A (ja) 1999-09-07 2001-05-29 Ecchandesu:Kk 視覚装置及び視覚方法
IL135560A0 (en) * 2000-04-09 2001-05-20 Dream Team Ltd Method for processing an image
JP2002298137A (ja) 2001-03-30 2002-10-11 Minolta Co Ltd 画像処理方法、画像処理装置、記録媒体及びプログラム
JP4136793B2 (ja) * 2003-05-29 2008-08-20 キヤノン株式会社 撮像装置および撮像装置の制御方法
JP2006050070A (ja) * 2004-08-02 2006-02-16 Fuji Photo Film Co Ltd 画像処理方法および装置並びにプログラム
FR2875091B1 (fr) * 2004-09-08 2006-11-24 Citilog Sa Procede et dispositif pour stabiliser les images donnees par une camera video
CN101543054B (zh) * 2007-06-28 2011-12-07 松下电器产业株式会社 图像处理装置、图像处理方法
JP2009110137A (ja) 2007-10-29 2009-05-21 Ricoh Co Ltd 画像処理装置、画像処理方法及び画像処理プログラム
WO2009150696A1 (ja) * 2008-06-10 2009-12-17 富士通株式会社 画像補正装置および画像補正方法

Also Published As

Publication number Publication date
EP2579569B1 (en) 2017-08-09
CN102714694B (zh) 2015-08-19
CN102714694A (zh) 2012-10-03
JP5654484B2 (ja) 2015-01-14
EP2579569A4 (en) 2014-10-08
WO2011152053A1 (ja) 2011-12-08
US8774550B2 (en) 2014-07-08
EP2579569A1 (en) 2013-04-10
US20120134596A1 (en) 2012-05-31

Similar Documents

Publication Publication Date Title
JP5654484B2 (ja) 画像処理装置、画像処理方法、集積回路、プログラム
US8798387B2 (en) Image processing device, image processing method, and program for image processing
US8417059B2 (en) Image processing device, image processing method, and program
JP5694300B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP5756455B2 (ja) 画像処理装置および画像処理方法
US8532420B2 (en) Image processing apparatus, image processing method and storage medium storing image processing program
WO2012169149A1 (en) Image display apparatus and image display method
US20110310262A1 (en) Image processing device and shake calculation method
US9224212B2 (en) Image processing apparatus and image processing method
US20100208140A1 (en) Image processing apparatus, image processing method and storage medium storing image processing program
KR101868740B1 (ko) 파노라마 이미지 생성 방법 및 장치
US9706121B2 (en) Image processing apparatus and image processing method
US20190268551A1 (en) Image processing device, and image processing method,
US9319586B2 (en) Method and device for stabilizing video sequences, related video-capture apparatus and computer-program product
JP7493302B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2011259044A (ja) 画像処理装置、方法
Zhang et al. Qualitative assessment of video stabilization and mosaicking systems

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131122

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20140606

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140924

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141014

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141111

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141120

R150 Certificate of patent or registration of utility model

Ref document number: 5654484

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees