JP5182229B2 - 画像処理装置、画像処理方法及びプログラム - Google Patents

画像処理装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JP5182229B2
JP5182229B2 JP2009133404A JP2009133404A JP5182229B2 JP 5182229 B2 JP5182229 B2 JP 5182229B2 JP 2009133404 A JP2009133404 A JP 2009133404A JP 2009133404 A JP2009133404 A JP 2009133404A JP 5182229 B2 JP5182229 B2 JP 5182229B2
Authority
JP
Japan
Prior art keywords
image
morphing
edge
original images
original
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009133404A
Other languages
English (en)
Other versions
JP2010282295A (ja
JP2010282295A5 (ja
Inventor
修一 麻島
良太 小坂井
孝英 大谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009133404A priority Critical patent/JP5182229B2/ja
Priority to TW099115108A priority patent/TW201123073A/zh
Priority to CN2010101855600A priority patent/CN101908219B/zh
Priority to US12/784,989 priority patent/US8368768B2/en
Priority to EP10163907A priority patent/EP2259224A3/en
Publication of JP2010282295A publication Critical patent/JP2010282295A/ja
Publication of JP2010282295A5 publication Critical patent/JP2010282295A5/ja
Application granted granted Critical
Publication of JP5182229B2 publication Critical patent/JP5182229B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/18Image warping, e.g. rearranging pixels individually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/64Analysis of geometric attributes of convexity or concavity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20228Disparity calculation for image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/44Morphing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像処理装置、画像処理方法及びプログラムに関する。
近年、複数枚の画像を統合したり合成したりすることによって、空間や建造物などを3次元的に表現するサービスが普及し始めている。これらのサービスにより、ユーザは、構築された3次元化モデルを様々な視点から見ることができ、実際にその場にいるような一種の没入感を得ることができる。しかし、複数の画像を用いた3次元モデリングは計算コストが大きく、また、3次元画像自体やその生成に必要な画像のデータ量が多くなってしまうといった問題がある。
これに対し、モーフィング(morphing)は、一方の姿形から他方の姿形へと徐々に変化をしていく様子を見せる画像処理技術である。このモーフィングは、異なる2つの視点から撮像された2枚の2次元画像(原画像)における対応画素を線形補間することによって、その中間の任意の仮想視点から見える中間画像(仮想画像)を生成できる。従って、モーフィングは、あたかも視点が移動しているような映像効果をもたらすことができる。かかるモーフィングによれば、撮像された2枚の実写画像を用いて、視点移動したときの複数の中間画像を順次計算により生成できるので、上記3次元モデリングと比べて、生成前後の画像のデータ量を大幅に削減できるといったメリットがある。
ところが、あるオブジェクト(被写体)を異なる2つの視点から撮像して得られた2枚の原画像を用いてモーフィングを行う場合、2つの視点とオブジェクトとがなす角度が大きすぎると、モーフィングにより生成された中間画像が歪んでしまうという問題が生じる。この問題に対して、例えば特許文献1記載のように、カメラ幾何を考慮したモーフィング手法であるビューモーフィング(例えば、非特許文献1参照)を用いることにより、歪みのない、より自然なモーフィング画像を生成することができる。ここで、カメラ幾何とは、2つの視点間のカメラの相対的な位置関係を意味する。
特許第3634677号公報
Steven M.Seitz,Charles R.Dyer,"View Morphing",Proceedings of SIGGRAPH ’96,pp.21−31,1996.
しかし、上述したビューモーフィングでは、通常のモーフィングとは異なり、カメラ幾何を考慮するための行列演算や特異値分解などといった計算コストの大きな処理が含まれている。従って、ビューモーフィングは、通常モーフィングよりも計算コストが大きくなってしまうので、より計算コストを低減できるモーフィング手法が希求されていた。特に、処理能力が低いプロセッサが搭載された電子機器(例えば、デジタルカメラなどの携帯機器)にモーフィング技術を実装する場合には、ビューモーフィングのような計算コストの大きい処理を行う回数を、極力抑制することが要求されていた。
そこで、本発明は、上記事情に鑑みてなされたものであり、本発明の目的とするところは、異なる視点から撮像された2つの原画像を用いて、歪みのない中間画像を生成できるとともに、計算コストも抑制することが可能な、新規かつ改良された画像処理装置、画像処理方法及びプログラムを提供することにある。
上記課題を解決するために、本発明のある観点によれば、同一のオブジェクトを相異なる2つの視点から撮像した第1及び第2の原画像のうち、少なくとも一方の原画像内の前記オブジェクトの直線エッジを検出する直線エッジ検出部と、前記第1及び第2の原画像に対して、前記第1及び第2の原画像の平行化処理を伴わない第1のモーフィング処理を行うことにより、前記2つの視点の間の仮想視点から見える第1の中間画像を生成する第1のモーフィング処理部と、前記直線エッジ検出部により検出された前記直線エッジに対応する、前記第1の中間画像内の前記オブジェクトのエッジに歪みがあるか否かを判定する歪み判定部と、前記エッジに歪みがある場合には、前記第1及び第2の原画像に対して、前記第1及び第2の原画像の平行化処理を伴う第2のモーフィング処理を行うことにより、前記仮想視点から見える第2の中間画像を生成する第2のモーフィング処理部と、を備える、画像処理装置が提供される。
前記直線エッジ検出部は、前記少なくとも一方の原画像を2値化し、当該2値化した画像に対して膨張及び収縮処理を行い、当該膨張及び収縮処理後の画像からハフ変換により前記直線エッジを検出するようにしてもよい。
前記歪み判定部は、前記第1の中間画像における前記エッジと当該エッジの両端を結ぶ線分とによって囲まれる画像領域の面積が、所定の判断基準定数により定まる閾値以上である場合には、前記エッジに歪みがあると判定するようにしてもよい。
前記第2のモーフィング処理はビューモーフィング処理であるようにしてもよい。
前記第1の原画像から複数の特徴点を抽出する特徴点抽出部と、前記第2の原画像から前記特徴点にそれぞれ対応する複数の対応点を探索する対応点探索部と、をさらに備え、前記第1及び第2のモーフィング処理部は、前記特徴点及び前記対応点を用いて前記第1及び第2のモーフィング処理を行うようにしてもよい。
また、上記課題を解決するために、本発明の別の観点によれば、同一のオブジェクトを相異なる2つの視点から撮像した第1及び第2の原画像のうち、少なくとも一方の原画像内の前記オブジェクトの直線エッジを検出するステップと、前記第1及び第2の原画像に対して、前記第1及び第2の原画像の平行化処理を伴わない第1のモーフィング処理を行うことにより、前記2つの視点の間の仮想視点から見える第1の中間画像を生成するステップと、前記直線エッジを検出するステップにより検出された前記直線エッジに対応する、前記第1の中間画像内の前記オブジェクトのエッジに歪みがあるか否かを判定するステップと、前記エッジに歪みがある場合には、前記第1及び第2の原画像に対して、前記第1及び第2の原画像の平行化処理を伴う第2のモーフィング処理を行うことにより、前記仮想視点から見える第2の中間画像を生成するステップと、を含む、画像処理方法が提供される。
また、上記課題を解決するために、本発明の別の観点によれば、同一のオブジェクトを相異なる2つの視点から撮像した第1及び第2の原画像のうち、少なくとも一方の原画像内の前記オブジェクトの直線エッジを検出するステップと、前記第1及び第2の原画像に対して、前記第1及び第2の原画像の平行化処理を伴わない第1のモーフィング処理を行うことにより、前記2つの視点の間の仮想視点から見える第1の中間画像を生成するステップと、前記直線エッジを検出するステップにより検出された前記直線エッジに対応する、前記第1の中間画像内の前記オブジェクトのエッジに歪みがあるか否かを判定するステップと、前記エッジに歪みがある場合には、前記第1及び第2の原画像に対して、前記第1及び第2の原画像の平行化処理を伴う第2のモーフィング処理を行うことにより、前記仮想視点から見える第2の中間画像を生成するステップと、をコンピュータに実行させるためのプログラムが提供される。
上記構成によれば、第1及び第2の原画像のうち少なくとも一方の原画像内の前記オブジェクトの直線エッジが検出され、前記第1及び第2の原画像に対して、前記第1及び第2の原画像の平行化処理を伴わない第1のモーフィング処理を行うことにより、前記2つの視点の間の仮想視点から見える第1の中間画像が生成され、前記第1の中間画像内における前記直線エッジに対応するエッジに歪みがあるか否かが判定され、前記エッジに歪みがある場合には、前記第1及び第2の原画像に対して、前記第1及び第2の原画像の平行化処理を伴う第2のモーフィング処理を行うことにより、前記仮想視点から見える第2の中間画像が生成される。これにより、第1のモーフィング処理により生成された第1の中間画像に歪みがあるか否かを好適に検出でき、当該第1の中間画像に歪みがある場合にのみ、第2のモーフィング処理を行って、歪みのない第2の中間画像を生成できる。
以上説明したように本発明によれば、異なる視点から撮像された2つの原画像を用いて、歪みのない中間画像を生成できるとともに、計算コストも抑制することができる。
本発明の第1の実施形態に係る通常モーフィング処理を示す概念図である。 同実施形態に係るビューモーフィング処理を示す概念図である。 同実施形態に係るビューモーフィング処理を示す概念図である。 同実施形態に係るビューモーフィング処理を示す概念図である。 同実施形態に係る画像処理装置のハードウェア構成を示すブロック図である。 同実施形態に係る画像処理装置の機能構成を示すブロック図である。 同実施形態に係る画像処理方法を示すフローチャートである。 図7の直線エッジ検出処理(S300)を示すフローチャートである。 同実施形態に係るラプラシアンフィルタを示す説明図である。 同実施形態に係る膨張・収縮処理を示す説明図である。 同実施形態に係るハフ変換により検出された画像内の直線を示す説明図である。 図7の通常モーフィング処理(S400)を示すフローチャートである。 同実施形態に係るドロネー三角網が張られた画像を示す説明図である。 同実施形態に係るベクトル表記された三角メッシュ内の画素を示す説明図である。 図7の通常モーフィング処理(S500)を示すフローチャートである。 図7の歪み検出処理(S600)を示すフローチャートである。 同実施形態に係る対応エッジの歪み検出処理を示す説明図である。 図7のビューモーフィング処理(S700)を示すフローチャートである。 同実施形態に係るビューモーフィング処理を示す概念図である。 本発明の第2の実施形態に係る画像処理方法を示すフローチャートである。
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.第1の実施の形態(歪み検出前に通常モーフィングを行う例)
[1.画像処理方法の概要]
[2.画像処理装置の構成]
[3.画像処理方法]
[3.1.特徴点抽出処理及び対応点探索処理]
[3.2.直線エッジ検出処理]
[3.3.通常モーフィング処理(カラー画像)]
[3.4.通常モーフィング処理(2値画像)]
[3.5.歪み検出処理]
[3.6.ビューモーフィング処理]
[4.まとめ]
2.第2の実施の形態(歪み検出後に通常モーフィングとビューモーフィングを切り替える例)
[1.画像処理方法の概要]
まず、図1〜図4を参照して、本発明の第1の実施形態に係る画像処理装置におけるモーフィング処理の概要について説明する。図1は、本実施形態に係る通常モーフィング処理を示す概念図である。図2〜図4は、本実施形態に係るビューモーフィング処理を示す概念図である。
なお、本明細書では、「視点」とは、「視点位置」と「視線方向」を含むものとする。「視点位置」は、原画像を撮像したときのカメラ10の位置であり、「視線方向」は、ある視点位置からオブジェクト1に向かうである。また、「原画像」は、カメラ10により撮像された実写画像であり、「中間画像」は、モーフィング処理により2枚の原画像を合成して得られた仮想画像である。また、オブジェクト1は、カメラ10により撮像される任意の物体(被写体)であり、以下では、説明の便宜上、オブジェクト1が四角柱等である例を挙げるが、オブジェクトは、例えば人物、動物、植物、建造物、商品など、任意の物体であってよい。
図1に示すように、本実施形態に係る画像処理装置は、姿勢センサ及び位置センサを備えてカメラ10により、同一のオブジェクト1を相異なる2つの視点(例えば視点P、と視点P)から撮像して得られた2つの原画像(例えば原画像Aと原画像B)に対して、モーフィング処理を行う。このモーフィング処理では、原画像Aと原画像Bの対応画素を線形補完することにより、視点Pと視点Pの中間に位置する任意の仮想視点Pからオブジェクト1を見たときの中間画像C(図1の中間画像C1又は図4の中間画像C2に相当する。)を生成する。このとき、生成される中間画像Cは1枚に限られず、視点Pと視点Pの間に任意の複数の仮想視点Pを設定し、これらの仮想視点Pから見える複数の中間画像Cを生成してもよい。かかるモーフィング処理により、視点を視点Pから視点Pに移動させながらオブジェクト1を見たときに、オブジェクト1の姿形が徐々に変化する様子を表す複数の中間画像Cを生成できる。
上述したように、モーフィング処理には、原画像A、Bを撮像したときのカメラ幾何(2つの視点Pと視点P間でのカメラ10の相対的な位置関係)を考慮するか否かによって、通常モーフィング処理(第1のモーフィング処理に相当する。)と、ビューモーフィング処理(第2のモーフィング処理に相当する。)がある。
通常モーフィング処理は、カメラ幾何を考慮しないモーフィング処理であり、後述するように、原画像A、Bの平行化処理と、逆射影処理を伴わない。この通常モーフィング処理では、まず、2つの原画像A、B中の同一のオブジェクト1が写っている画像領域を、複数の矩形領域で対応付ける。図1では、原画像Aに写っているオブジェクト1の特徴点X(座標(x、y))と、原画像Bに写っているオブジェクト1の特徴点X(座標(x、y))は、相互に対応する対応点である。そして、2つの原画像A、B内の対応する画像領域の形状と色を線形補間することにより、仮想視点Pから見えるオブジェクト1の中間画像C1を生成する。
このような通常モーフィング処理は、カメラ幾何を考慮していないので、2つの視点P、Pとオブジェクト1とがなす角度θが大きすぎる場合には、モーフィングにより生成された中間画像C1内のオブジェクトが歪んでしまうという問題が生じることがある。また、原画像A、Bを撮像したときの2つの視点P、Pにおけるカメラ10の光軸11、12が、基線13(2つの視点P、Pにおけるカメラ10の中心を結ぶ直線)に対して直行している場合には、線形補間により適切な中間画像C1を生成できるが、そうでない場合には、線形補間により生成された中間画像C1が歪んでしまうという問題もある。
これに対して、ビューモーフィング処理は、上記場合に通常モーフィング処理による中間画像C1が歪んでしまうという問題を解消するために提案されたものである。図2〜図4に示すように、ビューモーフィング処理は、カメラ幾何を考慮したモーフィング処理であり、後述するように原画像A、Bの平行化処理と、中間画像C2’の逆射影処理を伴う。
詳細には、ビューモーフィング処理では、まず、図2及び図3に示すように、2つの視点P、Pにおけるカメラ10間の相対的な位置関係を計算し、両画像A、Bに対して平行化処理を行う。この平行化処理では、視点Pで撮像された原画像Aと視点Pで撮像された原画像Bとが平行になるように、即ち、両視点P、Pでのカメラ10の光軸11、12が平行となるように、原画像A、Bを回転させて、画像A’、画像B’を得る。そして、図4に示すように、平行化された画像A’、B’に対して通常のモーフィング処理を行い、上記線形補間によって中間画像C2’を得る。その後、図4に示すように、得られた中間画像C2’を、上記平行化前の空間に逆射影することによって、仮想視点Pから本来見えるべき中間画像C2を生成する。
このように、ビューモーフィング処理では、2つの視点P、Pにおけるカメラ10の相対的な位置関係を考慮して、原画像A、Bを平衡化処理した上でモーフィングすることによって、中間画像C2を得る。従って、2つの視点P、Pとオブジェクト1とがなす角度θが大きすぎる場合や、カメラ10の光軸11、12が、基線13に対して直行していない場合であっても、歪みのない適正な中間画像C2を生成できるというメリットがある。ところが、ビューモーフィング処理では、上記カメラ幾何を考慮するための平衡化処理及び逆投射処理などが必要となるので、複雑な行列演算処理や特異値分解などといった計算コストの大きな処理を行わなければならない。このため、計算コストが通常モーフィング処理よりも少なくとも10倍以上も大きくなってしまうという問題があった。
そこで、本実施形態に係る画像処理装置では、歪みのない中間画像Cを生成し、かつ、モーフィング処理に要する計算コストも抑制するために、通常モーフィング処理により生成された中間画像C1内のオブジェクトの歪みを検出し、その歪みの有無に応じて、カメラ幾何を考慮しない通常モーフィング処理と、カメラ幾何を考慮したビューモーフィング処理とを適宜切り替えることを特徴としている。
詳細には、本実施形態に係る画像処理装置は、まず、原画像A又は原画像Bのいずれか一方の画像(例えば原画像A)内に写っているオブジェクト1のエッジの中から、直線エッジを検出する。直線エッジは、原画像に含まれるオブジェクト1のエッジ(輪郭)のうち、直線状のエッジである。次いで、画像処理装置は、原画像A、Bを用いて通常モーフィング処理を行い、カラーの中間画像C1を生成し、また、2値化された原画像A、Bを用いて通常モーフィングを行い、2値化された中間画像C3を生成する。そして、画像処理装置20は、その中間画像C3(2値画像)に含まれるオブジェクト1の対応エッジの歪みを検出する。ここで、中間画像C3内の対応エッジは、上記原画像A内で検出された直線エッジに対応する、中間画像C3内のオブジェクト1のエッジである。この歪み検出の結果、当該中間画像C3内の対応エッジに歪みがある場合にのみ、画像処理装置は、原画像A、Bを用いてビューモーフィング処理を行って、歪みのない新たな中間画像C2を生成して記録する。一方、通常モーフィング処理により生成された中間画像C3内の対応エッジに歪みがない場合には、画像処理装置は、ビューモーフィング処理を行わずに、通常モーフィング処理により得られた中間画像C1を最終画像として記録する。
上記のように、通常モーフィング処理により実際に生成された中間画像C3の対応エッジの歪みを検出することによって、当該歪みの有無によって、通常モーフィング処理とビューモーフィング処理を適切に使い分けることができる。従って、視点P、Pから撮像された原画像A、Bを用いて、オブジェクト1の歪みのない自然な中間画像C1又はC2を生成できる。かつ、計算コストが高いビューモーフィング処理を行う回数を最小限に抑えて、全体としての計算コストを大幅に抑制できる。特に、視点P、Pの中間に多数の仮想視点Pを設定し、当該仮想視点Pから見える多数の中間画像Cをモーフィングによって順次生成する場合に、本実施形態に係る計算コストの抑制効果が高くなる。
なお、以下の説明では、本発明の画像処理装置の一例として、パーソナルコンピュータの例を挙げ、この画像処理装置が、カメラ10により撮像された原画像A、Bに対してモーフィング処理を実行する場合について説明する。
この場合、カメラ10は、同一のオブジェクト1を相異なる複数の視点P、Pから撮像して、原画像A、B(実写画像)を生成するとともに、その原画像A、Bを撮像したときの視点情報をそれぞれ生成し、原画像A、Bと視点情報を記憶媒体に記録する。視点情報は、原画像A、Bを撮像したときの視点位置(例えば緯度・経度)と、視線方向を表す情報であり、カメラ10設けられた姿勢・位置センサの検出値に基づいて生成される。姿勢・位置センサは、例えば、GPS(Global Positioning System)センサ、角速度センサ、加速度センサ、磁気センサなどで構成される。
これらの原画像A、Bと視点情報は、カメラ10から、リムーバブル記憶媒体(例えば、メモリカード、光ディスク等)又はネットワークを介して、画像処理装置(例えばパーソナルコンピュータ)に提供される。画像処理装置は、これらの原画像A、Bに対して通常モーフィング及び/又はビューモーフィング処理を行って、中間画像C1又はC2を生成し、記録媒体に記録する。この際、画像処理装置がビューモーフィング処理を行うときには、原画像A、Bに関連づけられた上記視点情報を用いて、原画像A、Bに対する平行化処理などを行う。
なお、本発明の画像処理装置は、上記パーソナルコンピュータの例に限定されず、画像処理機能を備えた電子機器であれば、例えば、デジタルカメラ、ビデオカメラ等の撮像装置であってもよい。また、該画像処理装置は、携帯電話、PDA(Personal Digital Assistant)、携帯型の映像/音楽プレーヤー、携帯端末、ゲーム機などの携帯機器であってもよい。さらには、画像処理装置は、テレビジョン受像器等の表示装置、光ディスクプレーヤ/レコーダ等の記録/再生装置、各種の家庭電化製品、業務用の画像編集装置などであってもよい。
[2.画像処理装置の構成]
次に、図5を参照して、本実施形態に係る画像処理装置20のハードウェア構成について説明する。図5は、本実施形態に係る画像処理装置20のハードウェア構成を示すブロック図である。
図5に示すように、画像処理装置20は、例えば、CPU201と、ROM202と、RAM203と、ホストバス204と、ブリッジ205と、外部バス206と、インタフェース207と、入力装置208と、出力装置209と、ストレージ装置(HDD)210と、ドライブ211と、接続ポート212と、通信装置213とを備える。このように画像処理装置20は、例えば、汎用のコンピュータ機器を用いて構成できる。
CPU201は、演算処理装置および制御装置として機能し、各種プログラムに従って動作し、画像処理装置20内の各部を制御する。このCPU201は、ROM202に記憶されているプログラム、或いは、ストレージ装置210からRAM203にロードされたプログラムに従って、各種の処理を実行する。ROM202は、CPU201が使用するプログラムや演算パラメータ等を記憶するとともに、CPU201からストレージ装置210へのアクセスを軽減するためのバッファーとしても機能する。RAM203は、CPU201の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバスなどから構成されるホストバス204により相互に接続されている。ホストバス204は、ブリッジ205を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス206に接続されている。
CPU201に付随して設けられるメモリ部(例えばROM202や不図示のフラッシュメモリ等)には、CPU201に各種の制御処理を実行させるためのプログラムが格納されており、CPU201は、該プログラムに基づいて、各部の制御処理のための必要な演算処理を実行する。
本実施形態に係るプログラムは、上述したCPU201の各種制御を、CPU201に実行させるためのプログラムである。このプログラムは、画像処理装置20に内蔵された記憶装置(ストレージ装置210、ROM202、フラッシュメモリ等)に予め格納しておくことができる。また、当該プログラムは、CD、DVD、ブルーレイディスク等の光ディスク、メモリカードなどのリムーバブル記録媒体3に格納されて、画像処理装置20に提供されてもよいし、或いは、LAN、インターネット等のネットワーク5を介して画像処理装置20にダウンロードされてもよい
入力装置208は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、レバー等の操作手段と、入力信号を生成してCPU201に出力する入力制御回路などから構成されている。出力装置209は、例えば、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD)装置等の表示装置と、スピーカ等の音声出力装置などで構成される。なお、入力装置208及び出力装置209を設置してなくてもよい。
ストレージ装置210は、各種のデータを格納するための記憶装置であり、例えば、HDD(Hard Disk Drive)などの外付け型若しくは内蔵型のディスクドライブで構成される。このストレージ装置210は、記憶媒体であるハードディスクを駆動し、CPU201が実行するプログラムや各種データを格納する。ドライブ211は、記憶媒体用リーダライタであり、画像処理装置20に内蔵、或いは外付けされる。このドライブ211は、画像処理装置20にローディングされた磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体3に対して、各種データを書き込み/読み出しする。
接続ポート212は、外部周辺機器を接続するためのポートであり、例えば、USB、IEEE1394等の接続端子を有する。接続ポート212は、インタフェース207、および外部バス206、ブリッジ205、ホストバス204等を介してCPU201等に接続されている。通信装置213は、例えば、ネットワーク5に接続するための通信デバイス等で構成された通信インタフェースである。この通信装置213は、カメラ10等の外部装置との間で、ネットワーク5を介して、各種データを送受信する。
次に、図6を参照して、本実施形態に係る画像処理装置20の機能構成について説明する。図6は、本実施形態に係る画像処理装置20の機能構成を示すブロック図である。
図6に示すように、画像処理装置20は、記憶部100と、特徴点抽出部102と、対応点探索部104と、直線エッジ検出部106と、通常モーフィング処理部108と、歪み判定部110と、ビューモーフィング処理部112と、表示部114とを備える。図6に示す各機能部は、上記CPUがプログラムを実行することにより実現されるが、該当機能を実行する専用のハードウェアとして構成することも可能である。以下、各機能部について説明する。
記憶部100は、上述したカメラ10により相異なる視点から撮像された2枚の原画像A、Bを記憶する。また、記憶部00は、後述の通常モーフィング処理部108により生成された中間画像C1(カラー画像)、中間画像C3(2値画像)や、後述のビューモーフィング処理部112により生成された中間画像C2を記憶する。
特徴点抽出部102は、図1に示したように、一方の原画像Aにおけるオブジェクト1の特徴点Xを抽出する。また、対応点探索部104は、他方の原画像Bにおいて、原画像Aの特徴点Xに対応する特徴点である対応点Xを探索する。原画像Aの特徴点Xと原画像Bの対応点Xは、同一のオブジェクト1の同一のポイントを表している。特徴点抽出部102と対応点探索部104は、原画像Aと原画像Bから複数組の特徴点Xと対応点Xを検出する。
直線エッジ検出部106は、原画像A又は原画像Bの少なくとも一方に含まれるオブジェクト1の直線エッジを検出する。以下では、例えば、原画像A内のオブジェクト1の直線エッジを検出する例について説明するが、原画像B内のオブジェクト1の直線エッジを検出しても勿論よい。直線エッジは、撮像された原画像A中のオブジェクト1の輪郭(即ち、エッジ)のうち、直線部分のエッジである。撮像された原画像A内のオブジェクト1の輪郭は、直線部分や曲線部分等を含んでいる。直線エッジ検出部106は、まず、記憶部100から読み出した原画像Aを2値化し、次いで、その2値画像に対して膨張及び収縮処理を行うことでノイズを除し、さらに、2値画像からハフ変換(Hough Transformation)により直線エッジを検出する。このように検出された直線エッジは、後述する通常モーフィング処理により生成された中間画像C3内の対応エッジの歪みを検出するために用いられる。なお、かかる直線エッジ検出処理の詳細は、後述する(図8参照)。
通常モーフィング処理部108は、本発明の第1のモーフィング処理部の一例であり、原画像A、Bに対して通常モーフィング処理を行い、仮想視点Pから見える中間画像C1を生成する。通常モーフィング処理部108は、上記原画像Aの特徴点Xと原画像Bの対応点Xを用いて、原画像A、B内の対応画素領域の形状と輝度値を線形補間することによって、中間画像C1(カラー)を生成する。また、通常モーフィング処理部108は、原画像A、Bを2値化し、この2値化した原画像A、Bに対して通常モーフィング処理を行うことで、2値化された中間画像C3(白黒)を生成する。
このように、通常モーフィング処理部108は、原画像A、Bを2値化せずに、通常モーフィング処理を行うことで、通常の中間画像C1(カラー)を生成することもできし、2値化された中間画像C3(白黒)を生成することもできる。通常モーフィング処理部108は、生成した中間画像C1、C3を記憶部100に記録する。なお、かかる通常モーフィング処理の詳細は、後述する(図12、図15参照)。
歪み判定部110は、通常モーフィング処理部108により生成された、2値化された中間画像C3内のオブジェクト1の対応エッジの歪みを検出する。この対応エッジは、当該中間画像C3において、上記直線エッジ検出部106により検出された原画像A内の直線エッジに対応するエッジである。歪み判定部110は、上記原画像A内の直線エッジの画素位置に基づいて、その直線エッジに対応する中間画像C3内の対応エッジの画素位置を特定する。そして、歪み判定部110は、その中間画像C3内の対応エッジと、当該エッジの両端を結ぶ線とによって囲まれる画像領域の面積(例えば画素数)が、所定の判断基準定数により定まる閾値以上であるか否かを判定する。歪み判定部110は、当該面積が閾値上である場合には、当該中間画像C3内のエッジに歪みがあると判定し、一方、当該面積が閾値未満である場合には、当該中間画像C3内のエッジに歪みがないと判定する。なお、かかる歪み検出処理の詳細は、後述する(図16参照)。
ビューモーフィング処理部112は、本発明の第2のモーフィング処理部の一例である。上記歪み判定部110により中間画像C3内のエッジに歪みがあると判定された場合に、ビューモーフィング処理部112は、原画像A、Bに対してビューモーフィング処理を行い、仮想視点Pから見える中間画像C2(カラー画像)を生成する。詳細には、まず、ビューモーフィング処理部112は、原画像A、Bの視点情報に基づいて、原画像A、Bに対して平行化処理を行う。次いで、ビューモーフィング処理部112は、上記原画像Aの特徴点Xと原画像Bの対応点Xを用いて、平行化された原画像A、B内の対応画素領域の形状と輝度値を線形補間することによって、仮想視点Pから見える中間画像C2’を生成する。その後、ビューモーフィング処理部112は、原画像A、Bの視点情報に基づいて、中間画像C2’を平行化処理前の元の空間に逆射影して、中間画像C2を生成する。そして、ビューモーフィング処理部112は、生成した中間画像C2を記憶部100に記録する。なお、かかるビューモーフィング処理の詳細は、後述する(図18参照)。
表示部114は、実写画像である原画像A、Bと、仮想画像である中間画像C1又はC2を表示する。この表示部114が、視点の移動方向に沿って、原画像A、中間画像C1又はC2、原画像Bを順次表示することで、オブジェクト1が一方の原画像Aの姿形から他方の原画像Bの姿形へと自然に変化をしていく様子を表示画面上で表現できる。
[3.画像処理方法]
次に、図7を参照して、本実施形態に係る画像処理装置20による画像処理方法の全体フローについて説明する。図7は、本実施形態に係る画像処理方法を示すフローチャートである。
図7に示すように、画像処理装置20は、まず、相異なる2つの視点P、Pで撮像された2枚の原画像A、Bのうち、原画像Aの特徴点Xを抽出する特徴点抽出処理を行い(S100)、次いで、原画像Bにおいて特徴点Xの対応点Xを探索する対応点探索処理を行う(S200)。
さらに、画像処理装置20は、原画像A又はB内のオブジェクト1の直線エッジを検出する直線エッジ検出処理を行う(S300)。なお、この直線エッジ検出処理(S300)は、後述する歪み検出処理(S600)より前の段階であれば、特徴点抽出処理(S100)より前や、通常モーフィング処理(S400又はS500)の後に行われてもよい。
その後、画像処理装置20は、カラー画像である原画像A、Bに対して1回目の通常モーフィング処理を行い、2つの視点P、Pの間の仮想視点Pから見える中間画像C1(カラー画像)を生成する(S400)。さらに、画像処理装置20は、原画像A、Bを2値化した白黒画像に対して2回目の通常モーフィング処理を行い、当該仮想視点Pから見える白黒の中間画像C3(2値画像)を生成する(S500)。この2値化された白黒の中間画像C3は、次のS600において通常モーフィング処理により生じた歪みを検出するための歪み検出用画像として機能する。
次いで、画像処理装置20は、S500で生成された白黒の中間画像C3内のオブジェクト1のエッジのうち、S300で検出された直線エッジに対応するエッジ(対応エッジ)に歪みがあるか否かを検出する(S600)。即ち、中間画像C3内の対応エッジが直線エッジであるか、歪んだ曲線エッジであるかが検出される。中間画像C3内の対応エッジが直線でなければ、中間画像C1及びC3のオブジェクト1の画像が歪んでいると判定できる。
この歪み検出処理(S600)の結果、当該中間画像C3内の対応エッジが歪んでいる場合には、画像処理装置20は、カラー画像である原画像A、Bに対してビューモーフィング処理を行い、上記仮想視点Pから見えるカラーの中間画像C2を生成する(S700)。このように、通常モーフィング処理(S400)により生成された中間画像C1及びC3が歪んでいる場合には、画像処理装置20は、さらにビューモーフィング処理(S700)を実行して、歪みのない中間画像C2を得て、当該中間画像C2を記憶部100に記録する。
一方、S600で上記中間画像C3内の対応エッジが歪んでいない場合には、画像処理装置20は、ビューモーフィング処理(S700)を行わずに、処理を終了する。このように、通常モーフィング処理(S500)により生成された中間画像C3(2値画像)の対応エッジが歪んでいない場合には、画像処理装置20は、通常モーフィング処理(S400)により生成された中間画像C1(カラー画像)を記憶部100に記録する。
以上のように、本実施形態に係る画像処理方法は、通常モーフィング処理(S400)で歪みのない中間画像C1を生成できる場合には、ビューモーフィング処理(S700)を実行しない。一方、通常モーフィング処理(S400)で得た中間画像C1が歪んでいる場合にのみ、ビューモーフィング処理(S700)を実行する。従って、全ての場合にビューモーフィング処理を行うのではなく、歪みのない中間画像Cを得るために必要な場合にのみビューモーフィング処理を実行する。よって、通常モーフィング処理又はビューモーフィング処理のいずれかによって、歪みのない中間画像Cを確実に生成できるとともに、不必要なビューモーフィング処理(S700)を行わなくて済むので、計算コストを抑制できる。
以上、図7を参照して本実施形態に係る画像処理方法について概略について説明した。以下に、上記図7の各処理S100〜S700についてそれぞれ詳述する。
[3.1.特徴点抽出処理及び対応点探索処理]
まず、上記図7の特徴点抽出処理(S100)及び対応点探索処理(S200)について詳述する。
画像処理装置20は、相異なる2つの視点P、Pで撮像された2枚の原画像A、Bを記憶部100から読み出す。次いで、画像処理装置20は、図1に示したように、原画像A、Bのうち、一方の原画像Aからオブジェクト1の複数の特徴点を抽出し(S100)、他方の原画像Bにおいて、当該原画像Aの複数の特徴点Xにそれぞれ対応する複数の対応点Xを探索する(S200)。
例えば、画像処理装置20は、視点Pで撮像された原画像Aから、Harrisオペレータなどのコーナー検出アルゴリズムによって、オブジェクト1の特徴点Xを抽出する。そして、画像処理装置20は、例えば、KLT−Trackerなどの特徴点追跡アルゴリズムを用いて、原画像B内の特徴点を追跡することによって、原画像Aの特徴点Xに対応する原画像Bの対応点Xを求める(図1参照)。これにより、原画像A、Bに対して相互に対応する特徴点X、Xを設定して、原画像Aにおける特徴点Xの座標(x1、y1)と、原画像Bにおける対応点Xの座標(x2、y2)とを求めることができる。
なお、上記のような特徴点Xと対応点Xを求めるためには、2枚の原画像A、Bは同一のオブジェクト1の一部を重複して含んでいる必要がある。また、ビューモーフィング処理(S700)において、2つの視点P、P間の相対位置関係を求めるためには、8組以上の特徴点Xと対応点Xを求める必要がある。
[3.2.直線エッジ検出処理]
次に、図8〜図11を参照して、上記図7の直線エッジ検出処理(S300)について詳述する。図8は、図7の直線エッジ検出処理(S300)を示すフローチャートである。
図8に示すように、直線エッジ検出処理(S300)では、原画像A又は原画像Bのいずれか一方の原画像から、ハフ変換を用いて、その原画像内に含まれるオブジェクト1の直線エッジを検出する。なお、以下では、直線検出処理の対象として原画像Aを用いる例を説明するが、原画像Bを用いることも可能である。
まず、画像処理装置20は、ラプラシアンフィルタ302(図9参照)などのエッジ強調フィルタを用いて、原画像A内のオブジェクト1の境界線などのエッジを強調する(S302)。このエッジ強調処理では、例えば、原画像Aの画素値から、原画像Aに対してラプラシアンフフィルタ302をかけた出力画像の画素値を減算することで、画像の変化点を膨らませる。このようなエッジ強調処理(S302)により、原画像Aのエッジを強調した鮮明な画像を得ることができる。
次いで、画像処理装置20は、S302でエッジが強調された原画像Aを2値化して、白黒の2値画像を得る(S304)。この2値画像は、原画像A中のオブジェクト1を白い領域で表した白黒の画像である(図10参照。)。
さらに、画像処理装置20は、図10に示すように、S304で2値化された原画像Aに対して膨張処理及び収縮処理を行い、2値化された原画像Aからノイズを除去する(S306)。
詳細には、画像処理装置20は、まず、2値化された原画像Aに対して膨張処理を行い、白画素を膨張させた画像A1を生成する。この膨張処理では、2値化された原画像A内のある画素の4近傍に1つでも白い画素があれば、その画素を白にする。かかる膨張処理により、2値画像A内の孤立した白いノイズが膨張し、途切れた直線が修復されるとともに、黒いノイズが除去された画像A1を生成できる。
次いで、画像処理装置20は、膨張処理後の画像A1に対して収縮処理を行い、白い画素を収縮させた画像A2を生成する。この収縮処理では、画像A1内のある画素の4近傍に1つでも黒い画素があれば、その画素を黒にする。かかる収縮処理により、画像A1内の孤立した白いノイズが除去され、オブジェクト1の図形部分は1画素分収縮して、画像A2を生成できる。
その後、画像処理装置20は、図11に示すように、S306でノイズが除去された画像A2から、例えばハフ変換により直線304を検出することで、当該画像A2内のオブジェクト1のエッジのうちの直線エッジを検出する(S308)。このハフ変換を行うための入力パラメータ(例えば、直線本数、エッジ閾値、辺幅、角度、距離)などは、実験から求めた最適値を用いる。
ハフ変換は、画像から直線を検出する方法として公知である。このハフ変換では、元の画像の直交座標上の点(x,y)を角度θと距離ρの極座標二次元空間に変換し、角度θと距離ρごとに、その個数をメモリ配列上に加算していく。そして、当該個数が最大になった、角度θと距離ρ組み合わせを、元の直角座標に戻したものが、元の画像における最も直線らしい点の集まりとなる。
図11の例では、画像A2内には4個のオブジェクト1a〜dが含まれており、このオブジェクト1a〜dの境界線(輪郭)を成すエッジの中から、直線304a〜fで表される直線エッジが検出されている。例えば、円柱形状のオブジェクト1dのエッジ(輪郭)は、上下の曲線エッジと、左右の直線エッジから構成されるが、これらのエッジの中から、ハフ変換により検出された直線304e、304fが表す直線エッジが検出される。
以上のように、直線エッジ検出処理(S300)では、一方の原画像Aから、ハフ変換を用いて、その原画像A内に含まれるオブジェクト1の直線エッジが検出される。この直線エッジは、後述の歪み検出処理(S500)で用いられる。
[3.3.通常モーフィング処理(カラー画像)]
次に、図12〜図14を参照して、上記図7のカラー画像用の通常モーフィング処理(S400)について詳述する。図12は、図7の通常モーフィング処理(S400)を示すフローチャートである。
図12に示すように、通常モーフィング処理(S400)では、上記特徴点抽出処理(S100)及び対応点探索処理(S200)で求めた原画像Aの特徴点Xと原画像Bの対応点Xを用いて、原画像A、Bに対して通常モーフィング処理を行う。これにより、仮想視点Pからオブジェクト1を見たときの中間画像C1(カラー画像)が生成される。
まず、画像処理装置20は、ドロネー三角分割を用いて、原画像Aと原画像B内にそれぞれ三角メッシュ(ドロネー三角網)を生成する(S402)。図13に示すように、原画像Aにおいては、上記特徴点抽出処理(S100)で得られた複数の特徴点XA1、XA2、XA3・・・を結ぶように三角メッシュが張られる。原画像Bにおいても、上記対応点探索処理(S200)で得られた複数の対応点XB1、XB2、XB3・・・を結ぶように三角メッシュが張られる。原画像Aの三角メッシュと原画像Bの三角メッシュとは対応しており、オブジェクト1の同一領域を表す。
次いで、画像処理装置20は、原画像Aと原画像Bの間で、各メッシュ内の画素を対応付ける(S404)。詳細には、図14に示すように、各原画像A、Bの各メッシュについて、そのメッシュの第1頂点XA1、XB1に対する、当該メッシュの内部にある全画素の相対位置が、下記式(1)、(2)のようにベクトルで表記される。
Figure 0005182229
このとき、各原画像A、Bにおけるメッシュはアフィン変換されているので、式(1)及び(2)のベクトルのパラメータs、tは、2枚の原画像A、Bにおいて共通値となる。このパラメータs、tを用いたベクトル表記により、原画像A、B間で各メッシュ内の各画素が対応付けられる。なお、アフィン変換は、元の図形で直線上にある点は変換後も直線上に並び、かつ、元の平行線は変換後も平行になるなどといった幾何学的性質を保つような変換方式である。
その後、画像処理装置20は、上記S404で対応付けられた原画像Aと原画像Bの対応画素間で、RGBの輝度値を線形加算することにより、仮想視点Pから見える中間画像C1を生成する(S406)。例えば、図13に示した原画像A内の三角メッシュ(XA1、XA2、XA3)と、それに対応する原画像B内の三角メッシュ(XB1、XB2、XB3)との間で、対応画素の輝度値(RGB)をそれぞれ線形加算して、中間画像C1の当該メッシュに対応する領域の画素の輝度値(RGB)が決定される。このとき、線形加算される輝度値のブレンド比を調整することによって、任意の輝度値の中間画像C1を生成できる。
以上のように、カラー画像用の通常モーフィング処理(S400)では、2枚の原画像A、Bに対してドロネー三角網によりメッシュを生成し、対応するメッシュ間で輝度値を線形補間することで、所望の仮想視点Pから見える中間画像C1のカラー画像を生成する。
[3.4.通常モーフィング処理(2値画像)]
次に、図15を参照して、上記図7の2値画像用の通常モーフィング処理(S500)について詳述する。図15は、図7の通常モーフィング処理(S500)を示すフローチャートである。
図15に示すように、2値画像用の通常モーフィング処理(S500)では、まず、画像処理装置20は、原画像A、Bを2値化して、原画像Aの2値画像と原画像Bの2値画像を得る(S501)。その後、画像処理装置20は、上述した図12のカラー画像用の通常モーフィング処理(S400)と同様に、2値化された原画像A、Bに対して通常モーフィング処理を行う。即ち、画像処理装置20は、2値化された原画像A、B内にドロネー三角網を用いて三角メッシュを生成し(S502)、当該原画像A、Bの各メッシュ間で全ての画像を対応付け(S504)、対応付けられた各画素の輝度値を線形加算する(S506)。
このように2値化された原画像A、Bに対して通常モーフィング処理を行うことで、仮想視点Pからオブジェクト1を見たときの中間画像C2(2値画像)が生成される。かかる中間画像C3の2値画像は、次の歪み検出処理(S600)における歪みの検出対象の画像となる。
[3.5.歪み検出処理]
次に、図16を参照して、上記図7の歪み検出処理(S600)について詳述する。図16は、図7の歪み検出処理(S600)を示すフローチャートである。
図16に示すように、歪み検出処理(S600)では、S500で生成された中間画像C3(2値画像)内のオブジェクト1の対応エッジ(即ち、S300で検出された直線エッジに対応する中間画像C1内のエッジ)に歪みがあるか否かが検出される。
S500での通常モーフィング処理が正常に行われていれば、当該中間画像C1内の対応エッジは、直線エッジであるはずである。しかし、原画像A、Bを撮像したときの視点P、Pとオブジェクト1との成す角度θ(図1参照)が大きい場合などには、通常モーフィング処理(S400)で生成された中間画像C1には歪みが生じることがある。そこで、本実施形態では、通常モーフィング処理(S500)により、中間画像C3の2値画像を生成し、この中間画像C3を歪み検出用の画像として用いて、当該中間画像C3内の対応エッジの歪みが、所定の閾値以上であるか否かを検出する。
詳細には、まず、画像処理装置20は、S500で生成された中間画像C3(2値画像)内のオブジェクト1のエッジの中から、S300で検出された原画像A内の直線エッジに対応するエッジ(対応エッジ)を検出する(S602)。例えば、図17に示すように、画像処理装置20は、中間画像C3において、S300で検出された原画像A内の直線エッジ310に対応する対応エッジ312を検出する。上記通常モーフィング処理(S500)において原画像A、Bの各画素を線形補間したときのそれぞれの画素の位置情報を利用すれば、中間画像C3における原画像Aの直線エッジ310に対応する対応エッジ312の位置を求めることができる。そこで、画像処理装置20は、上記通常モーフィング処理(S500)時に得た画素の位置情報に基づいて、2値化された中間画像C3における対応エッジ312を特定する。
次いで、画像処理装置20は、図17に示すように、S602で検出した対応エッジ312と当該対応エッジの両端を結ぶ線分D−Eとで囲まれる白い画像領域314の面積S(画素数)を求め、この画像領域314の面積Sが、所定の閾値以上であるか否かを判定する(S604)。
例えば図17に示したように、中間画像C3における対応エッジ312が、原画像Aにおける直線エッジ310と比べて歪んでいる場合、直線エッジ310(線分D−E)と対応エッジ312とによって囲まれた、半楕円状の白い画像領域314が生じる。この白い画像領域314の面積Sが大きいほど、中間画像C3における対応エッジ312が歪んでいることになる。
そこで、画像処理装置20は、下記式(3)、(4)に示すように、当該画像領域314の面積Sと、所定の判断基準定数αにより定まる閾値(=α・X・Y)とを比較し、その比較結果に応じて、対応エッジ312の歪みの有無を判断する。
白い画像領域314の面積S≧α・X・Y :対応エッジ312は歪み有り (3)
白い画像領域314の面積S<α・X・Y :対応エッジ312は歪み無し (4)
α : 判断基準定数 (0<α<1)
ここで、上記白い画像領域314の面積S、高さY及び幅Xの値は、当該画像領域314の画素数を用いて定めることができる。また、閾値(=α・X・Y)は、画像領域314の最大高さYと最大幅Xの積に、判断基準定数αを乗算した値である。判断基準定数αは、0より大で、1未満の固定値であり、例えば、α=0.5である。かかる閾値(=α・X・Y)を用いることで、最大高さYと最大幅Xで定まる矩形領域中に占める画像領域314の割合を閾値として、対応エッジ312の歪みの有無を判定できる。このとき、判断基準定数αの値を調節することで、対応エッジ312の歪みの検出精度を制御できる。例えば、αを大きくして1に近づければ、歪みの検出精度が低くなり、αを小さくして0に近づければ、歪みの検出精度が高くなる。
上記S604にて、式(3)、(4)を用いた判定の結果、画像領域314の面積S(画像領域314に含まれる画素数)が所定の閾値(=α・X・Y)以上であれば、画像処理装置20は、中間画像C3の対応エッジ312が歪んでいる判定する(S606)。この場合、通常モーフィング処理(S400)により生成された中間画像C1に大きな歪みがあることになるので、画像処理装置20は、ビューモーフィング処理(S700)を実行する。例えば、視点P、P間で複数の中間画像Cを生成するときには、通常モーフィング処理により生成された全ての中間画像C3のうち、少なくとも1枚の中間画像C3の対応エッジ132が歪んでいる場合、歪みのない中間画像C2を生成するために、ビューモーフィング処理(S700)を実行するモードに遷移する。
一方、当該面積Sが所定の閾値(=α・X・Y)未満であれば、画像処理装置20は、中間画像C3の対応エッジ312が歪んでいないと判定する(S608)。この場合、通常モーフィング処理(S400)により生成された中間画像C1に歪みがない、或いは、中間画像Cの歪みが小さいことになるので、画像処理装置20は、ビューモーフィング処理(S700)を実行することなく、処理を終了する。例えば、視点P、P間で複数の中間画像Cを生成するときには、通常モーフィング処理により生成された全ての中間画像C3の対応エッジ132が歪んでいない場合、ビューモーフィング処理(S700)を実行する必要がないので、通常モーフィング処理(S400)により生成された中間画像C1を結果画像として出力する。
[3.6.ビューモーフィング処理]
次に、図18を参照して、上記図7のビューモーフィング処理(S700)について詳述する。図18は、図7のビューモーフィング処理(S700)を示すフローチャートである。
図18に示すように、ビューモーフィング処理(S700)では、まず、画像処理装置20は、上記S100及びS200で求めた原画像Aの特徴点X及び原画像Bの対応点Xを用いて、図2に示した2つの視点P、P間でのカメラ10の相対的な位置関係(カメラ幾何)を求める(S702〜S706)。次いで、画像処理装置20は、図3に示したように、当該カメラ10の相対的な位置関係に基づいて、視点Pで撮像された原画像Aと視点Pで撮像された原画像Bとが平行になるように、2つの原画像A、Bを同一の仮想平面に射影変換する平行化処理を行う(S708〜S710)。その後、画像処理装置20は、図4に示したように、平行化された原画像A’、B’に対して通常モーフィング処理を行って中間画像C2’を生成し(S712)、さらに、その中間画像C2’中の4点を用いて、当該中間画像C2’を、平行化前の元の空間に逆射影することによって、仮想視点Pから本来見えるべき中間画像C2を生成する(S714〜S716)。以下に、図18のビューモーフィング処理(S700)について詳述する。
図18に示すように、まず、画像処理装置20は、エピポーラ線320(図19参照)を求めるための基礎行列Fを推定する(S702)。基礎行列Fは、2つの視点P、P間でのカメラ10の相対的な位置及び姿勢を表す情報を含む行列であり、例えば8組以上の特徴点X及び対応点Xから求められる。図19に示すように、原画像Aの特徴点Xに対応する原画像Bの対応点Xは、原画像Bのエピポーラ線320上に存在する。また、各原画像A、Bにおける複数のエピポーラ線320、320は、1つのエピポール322、322を通る。
以下に基礎行列Fの推定手法について説明する。基礎行列Fは下記の式(5)を満たす。
Figure 0005182229
・・・(5)
なお、上記式(5)中のパラメータは次の通りである。
x :視点Pのカメラ座標系における特徴点Xの座標
x’:視点Pのカメラ座標系における対応点Xの座標
m :視点Pのカメラの画像座標系における特徴点Xの座標
m’:視点Pのカメラの画像座標系における対応点Xの座標
A :視点Pのカメラの内部パラメータ
A’:視点Pのカメラの内部パラメータ
E :基本行列
F :基礎行列
t :視点Pから視点Pまでのベクトル
基礎行列Fを推定する場合、例えば、基礎行列Fのランクは2(平行移動3、回転3)であり、スケールは任意であるので、基礎行列Fの全体の自由度は7である。従って、8組以上の特徴点Xと対応点Xが得られれば、線形解法により基礎行列Fを求めることができる。
しかし、このように求めた基礎行列Fは、ランクが2であるという条件を一般的に満たさない。そこで、線形解法で求めた基礎行列Fに最も近い、ランクが2である行列F’を最終的な基礎行列とする。下記式(6)のように、基礎行列Fを特異値分解する。
Figure 0005182229
・・・(6)
Σ :特異値の対角行列(σ1>σ2>σ3)
U,V :直交行列
ここで、基礎行列のランクを2に設定するために、σ=0として、下記式(7)で、行列F’を計算する。そして、この行列F’を最終的な基礎行列とする。
Figure 0005182229
・・・(7)
Σ’ :特異値の対角行列(σ1>σ2>σ3)
U,V :直交行列
また、基礎行列Fの推定では、ロバスト推定(Robust Estimation)を利用できる。RANSAC(Random Sampling Consensus)を用いたロバスト推定は、以下の手順(1)〜(5)で行われる。このRANSCは、特徴点の一部に極端な外れ値がある場合に有効である。
(1)ランダムサンプリングによって、8組以上の特徴点X、Xを取得する。
(2)サンプリングされた8組以上の特徴点X、Xから基礎行列を推定する。
(3)求めた基礎号列を用いて全ての特徴点X、Xの誤差を求め、誤差が閾値以下の特徴点X、Xの数をその基礎行列の評価値とする。
(4)上記(1)〜(3)を十分な回数繰り返し、評価値が最大となる基礎行列を求める。
(5)評価値が最大となる基礎行列に対する誤差が閾値以上となる特徴点X、Xを外れ値と判定し、それらを除外して基礎行列Fを決定する。
また、LMeds(Least Median of Squares)を用いたロバスト推定は、以下の手順(1)〜(5)で行われる。このLMedsは、特徴点の誤差範囲が不明である場合に有効である。
(1)ランダムサンプリングによって、8組以上の特徴点X、Xを取得する。
(2)サンプリングされた8組以上の特徴点X、Xから基礎行列を推定する。
(3)求めた基礎号列を用いて全ての特徴点X、Xの誤差を求め、誤差の中央値をその基礎行列の評価値とする。
(4)上記(1)〜(3)を十分な回数繰り返し、評価値が最大となる基礎行列を求める。
(5)評価値が最大となる基礎行列に対する誤差が閾値以上となる特徴点X、Xを外れ値と判定し、それらを除外して基礎行列Fを決定する。
以上、S702において基礎行列Fを推定する方法について例示した。
次いで、図18に戻り、画像処理装置20は、S702で推定した基礎行列Fの固有値及び固有ベクトルに基づいて、原画像A、Bのエピポール322を求め(S706)、さらに、エピポーラ線320を求める(S706)。
さらに、画像処理装置20は、上記S706、S708で求めたエピポール322及びエピポーラ線320に基づいて、Prewarp行列を推定する(S708)。次式(8)はPrewarp行列を表す。
Figure 0005182229
また、上記式(8)のPrewarp行列は、以下の式(9)〜(13)に示す計算式により求められる。
Figure 0005182229
Figure 0005182229
Figure 0005182229
Figure 0005182229
Figure 0005182229
T:原画像A、Bのエピポーラ線320A、320Bの高さを合わせるための行列
次いで、画像処理装置20は、S708で求めたPrewarp行列を用いて、図2及び図3に示したように、2つの原画像A、Bを平行化(Prewarp)処理する(S710)。これにより、2つの原画像A、Bのエピポーラ線302A、320Bが相互に平行になる。
その後、画像処理装置20は、図4に示したように、平行化された原画像A’、B’に対して通常モーフィング処理を行って中間画像C2’を生成する(S714)。次いで、画像処理装置20は、例えば中間画像C2’中の4点を用いて、射影変換行列H(Postwarp行列)を推定する(S714)。さらに、画像処理装置20は、図4に示したように、射影変換行列Hを用いて、中間画像C2’を、平行化前の元の空間における仮想視点Pから見える画像に逆射影することによって、仮想視点Pから見える中間画像C2を生成する(S716)。
以上、本実施形態に係るビューモーフィング処理(S700)について説明した。ビューモーフィング処理では、カメラ幾何を考慮して、原画像A、Bの平行化処理を伴うモーフィングを行うために、上記のような行列演算や特異値分解、ロバスト推定などの計算処理を行う。このため、計算コストが高い反面、2つの視点P、P間でのカメラ10の相対的な位置関係にかかわらず、歪みのない中間画像C2を適切に生成できるという利点がある。
[4.まとめ]
以上、本実施形態に係る画像処理装置20による画像処理方法について説明した。上記のように、カメラ幾何を考慮したビューモーフィング処理(S700)では、歪みのない中間画像C2が得られるものの、例えば、ロバスト推定や特異値分解などの計算コストが大きな処理が必要となる。
そこで、本実施形態に係る画像処理装置20は、原画像A中の直線エッジ310を検出し(S300)、通常モーフィング処理(S500)により生成された中間画像C3(2値画像)における直線エッジ310に対応する対応エッジ312の歪みを検出する(S600)。この結果、対応エッジ312に歪みがある場合にのみ、画像処理装置20は、さらにビューモーフィング処理(S700)を実行して、歪みのない中間画像C2を生成する。一方、対応エッジ312に歪みがない場合には、画像処理装置20は、ビューモーフィング処理(S700)を実行することなく、通常モーフィング処理(S400)で生成された中間画像C1を出力画像とする。
このように本実施形態では、2値化された中間画像C3中の対応エッジ312の歪みの有無に応じて、適宜通常モーフィング処理(S400)とビューモーフィング処理(S700)を切り替える。これにより、全ての入力画像(原画像A、B)に対して、ビューモーフィング処理(S700)を行うのではなく、通常モーフィング処理(S400)でも中間画像C1に歪みが生じない場合は、通常モーフィング処理(S400)のみを行う。従って、2つの視点P、P間のカメラ10の相対位置関係にかかわらず、当該視点P、Pの原画像A、Bから、歪みのない自然な中間画像Cを生成することができるとともに、計算コストが高いビューモーフィング処理(S700)を行う回数を最小限に抑え、全体としての計算コストを抑制できる。特に、処理能力が低いプロセッサが搭載された電子機器(例えば、デジタルカメラなどの携帯機器)にモーフィング技術を実装する場合に、本実施形態に係る手法は有効である。
また、
<第2の実施形態>
次に、図20を参照して、本発明の第2の実施形態に係る画像処理装置20による画像処理方法について説明する。図20は、第2の実施形態に係る画像処理方法を示すフローチャートである。なお、第2の実施形態は、第1の実施形態に係る画像処理方法(図7参照。)と比べて、通常モーフィング処理(カラー画像)を実行するタイミングが相違し、その他の機能構成は第1の実施形態と実質的に同一であるのでその詳細説明は省略する。
図20に示すように、第2の実施形態に係る画像処理方法は、まず、原画像A、Bに対して特徴点抽出処理(S100)及び対応点探索処理(S200)を行った後に、原画像Aに対して直線エッジ検出処理(S300)を行う。次いで、2値化された原画像A、Bに対して通常モーフィング処理を行って、中間画像C3(2値画像)を生成する(S500)。
その後、中間画像C3内の対応エッジ312に歪みがあるか否かを検出する(S600)。この結果、対応エッジ312に歪みがある場合には、原画像A、Bに対してビューモーフィング処理(S700)を実行して、中間画像C2(カラー画像)を生成する。一方、対応エッジ312に歪みがない場合には、原画像A、Bに対して通常モーフィング処理(S800)を実行して、中間画像C1(カラー画像)を生成する。この図20の通常モーフィング処理(S800)は、第1の実施形態に係る通常モーフィング処理(S400)と同様である。
以上のように第2の実施形態では、まず、通常モーフィング処理(S500)により生成した中間画像C3(2値画像)における対応エッジ312の歪みを検出し、歪みの有無に応じて、ビューモーフィング処理(S700)と通常モーフィング処理(S800)を切り替えて実行する。これにより、第2の実施形態は、第1の実施形態よりもさらに計算コストを低減できる。
つまり、図7に示した第1の実施形態では、カラー画像用の通常モーフィング処理(S400)と2値画像用の通常モーフィング処理(S500)を行ってから、歪み検出処理(S600)を行っていた。このフローでは、もし歪み検出処理(S600)で中間画像C3に歪みが検出された場合には、ビューモーフィング処理(S700)を行うので、既に実行済みの通常モーフィング処理(S500)が無駄になってしまう。
これに対し、図20に示す第2の実施形態では、カラー画像用の通常モーフィング処理を行うことなく、2値画像用の通常モーフィング処理(S500)と歪み検出処理(S600)を行い、中間画像C3に歪みがない場合に初めて、カラー画像用の通常モーフィング処理(S800)を行う。一方、中間画像C3に歪みがある場合には、ビューモーフィング処理(S700)のみを行って、カラー画像用の通常モーフィング処理(S800)を行わない。よって、第2の実施形態は、中間画像C3に歪みがある場合に、カラー画像用の通常モーフィング処理(S800)を無駄に実行しなくても済むので、第1の実施形態と比べて、通常モーフィング処理(S800)に要する計算コストを低減できる。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
1 オブジェクト
10 カメラ
11、12 光軸
13 基線
20 画像処理装置
100 記憶部
102 特徴点抽出部
104 対応点探索部
106 直線エッジ検出部
108 通常モーフィング処理部
110 歪み判定部
112 ビューモーフィング処理部
114 表示部
304 直線
310 直線エッジ
312 対応エッジ
314 画像領域
320 エピポーラ線
322 エピポール
A、B 原画像
C1、C2、C3 中間画像
、P 視点
Pc 仮想視点
特徴点
対応点

Claims (6)

  1. 同一のオブジェクトを相異なる2つの視点から撮像した第1及び第2の原画像のうち、少なくとも一方の原画像内の前記オブジェクトの直線エッジを検出する直線エッジ検出部と、
    前記第1及び第2の原画像に対して、前記第1及び第2の原画像の平行化処理を伴わない第1のモーフィング処理を行うことにより、前記2つの視点の間の仮想視点から見える第1の中間画像を生成する第1のモーフィング処理部と、
    前記直線エッジ検出部により検出された前記直線エッジに対応する、前記第1の中間画像内の前記オブジェクトのエッジに歪みがある場合には、前記第1及び第2の原画像に対して、前記第1及び第2の原画像の平行化処理を伴う第2のモーフィング処理を行うことにより、前記仮想視点から見える第2の中間画像を生成する第2のモーフィング処理部と、
    を備える、画像処理装置。
  2. 前記直線エッジ検出部は、前記少なくとも一方の原画像を2値化し、当該2値化した画像に対して膨張及び収縮処理を行い、当該膨張及び収縮処理後の画像からハフ変換により前記直線エッジを検出する、請求項1に記載の画像処理装置。
  3. 前記第1の中間画像における前記エッジと当該エッジの両端を結ぶ線分とによって囲まれる画像領域の面積が、所定の判断基準定数により定まる閾値以上である場合、前記エッジに歪みがあるとされる、請求項1に記載の画像処理装置。
  4. 前記第2のモーフィング処理はビューモーフィング処理である、請求項1に記載の画像処理装置。
  5. 同一のオブジェクトを相異なる2つの視点から撮像した第1及び第2の原画像のうち、少なくとも一方の原画像内の前記オブジェクトの直線エッジを検出するステップと、
    前記第1及び第2の原画像に対して、前記第1及び第2の原画像の平行化処理を伴わない第1のモーフィング処理を行うことにより、前記2つの視点の間の仮想視点から見える第1の中間画像を生成するステップと、
    前記直線エッジを検出するステップにより検出された前記直線エッジに対応する、前記第1の中間画像内の前記オブジェクトのエッジに歪みがある場合には、前記第1及び第2の原画像に対して、前記第1及び第2の原画像の平行化処理を伴う第2のモーフィング処理を行うことにより、前記仮想視点から見える第2の中間画像を生成するステップと、
    を含む、画像処理方法。
  6. 同一のオブジェクトを相異なる2つの視点から撮像した第1及び第2の原画像のうち、少なくとも一方の原画像内の前記オブジェクトの直線エッジを検出するステップと、
    前記第1及び第2の原画像に対して、前記第1及び第2の原画像の平行化処理を伴わない第1のモーフィング処理を行うことにより、前記2つの視点の間の仮想視点から見える第1の中間画像を生成するステップと、
    前記直線エッジを検出するステップにより検出された前記直線エッジに対応する、前記第1の中間画像内の前記オブジェクトのエッジに歪みがある場合には、前記第1及び第2の原画像に対して、前記第1及び第2の原画像の平行化処理を伴う第2のモーフィング処理を行うことにより、前記仮想視点から見える第2の中間画像を生成するステップと、
    をコンピュータに実行させるためのプログラム。
JP2009133404A 2009-06-02 2009-06-02 画像処理装置、画像処理方法及びプログラム Expired - Fee Related JP5182229B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2009133404A JP5182229B2 (ja) 2009-06-02 2009-06-02 画像処理装置、画像処理方法及びプログラム
TW099115108A TW201123073A (en) 2009-06-02 2010-05-12 Image processing apparatus, image processing method, and program
CN2010101855600A CN101908219B (zh) 2009-06-02 2010-05-19 图像处理设备,图像处理方法和程序
US12/784,989 US8368768B2 (en) 2009-06-02 2010-05-21 Image processing apparatus, image processing method, and program
EP10163907A EP2259224A3 (en) 2009-06-02 2010-05-26 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009133404A JP5182229B2 (ja) 2009-06-02 2009-06-02 画像処理装置、画像処理方法及びプログラム

Publications (3)

Publication Number Publication Date
JP2010282295A JP2010282295A (ja) 2010-12-16
JP2010282295A5 JP2010282295A5 (ja) 2012-03-29
JP5182229B2 true JP5182229B2 (ja) 2013-04-17

Family

ID=42751668

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009133404A Expired - Fee Related JP5182229B2 (ja) 2009-06-02 2009-06-02 画像処理装置、画像処理方法及びプログラム

Country Status (5)

Country Link
US (1) US8368768B2 (ja)
EP (1) EP2259224A3 (ja)
JP (1) JP5182229B2 (ja)
CN (1) CN101908219B (ja)
TW (1) TW201123073A (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5549605B2 (ja) * 2011-01-13 2014-07-16 新日鐵住金株式会社 視線位置検出装置、視線位置検出方法、及びコンピュータプログラム
JP5930808B2 (ja) * 2012-04-04 2016-06-08 キヤノン株式会社 画像処理装置、画像処理装置の制御方法、およびプログラム
JP5651659B2 (ja) * 2012-08-31 2015-01-14 株式会社東芝 物体検出システムおよびプログラム
KR101477900B1 (ko) 2013-03-27 2014-12-30 (주) 넥스트칩 왜곡 영상 보정 장치 및 방법
JP2015104016A (ja) * 2013-11-26 2015-06-04 キヤノン株式会社 被写体検出装置、撮像装置、被写体検出装置の制御方法、被写体検出装置の制御プログラムおよび記憶媒体
JP6306952B2 (ja) * 2014-06-23 2018-04-04 日本電信電話株式会社 中間視点画像生成装置、中間視点画像生成方法及びコンピュータプログラム
CN104270627A (zh) * 2014-09-28 2015-01-07 联想(北京)有限公司 一种信息处理方法及第一电子设备
US9900583B2 (en) * 2014-12-04 2018-02-20 Futurewei Technologies, Inc. System and method for generalized view morphing over a multi-camera mesh
US9401222B1 (en) 2015-11-23 2016-07-26 International Business Machines Corporation Determining categories for memory fail conditions
EP3398168B1 (en) 2015-12-31 2022-04-13 ML Netherlands C.V. A method and device for real-time 3d capture and live feedback with monocular cameras
JP2019114147A (ja) * 2017-12-25 2019-07-11 キヤノン株式会社 情報処理装置、情報処理装置の制御方法及びプログラム
KR102267442B1 (ko) * 2019-10-07 2021-06-22 계명대학교 산학협력단 가변 시점에서 촬영된 카메라 왜곡 보정 방법 및 이를 이용한 블록 3차원 모델링 방법

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5613048A (en) * 1993-08-03 1997-03-18 Apple Computer, Inc. Three-dimensional image synthesis using view interpolation
US5661518A (en) 1994-11-03 1997-08-26 Synthonics Incorporated Methods and apparatus for the creation and transmission of 3-dimensional images
US5926190A (en) * 1996-08-21 1999-07-20 Apple Computer, Inc. Method and system for simulating motion in a computer graphics application using image registration and view interpolation
JP3634677B2 (ja) * 1999-02-19 2005-03-30 キヤノン株式会社 画像の補間方法、画像処理方法、画像表示方法、画像処理装置、画像表示装置、及びコンピュータプログラム記憶媒体
JP2002056374A (ja) * 2000-08-10 2002-02-20 Nabura:Kk ホームページ画像閲覧方法及び、そのプログラム媒体及び、その装置
US7085409B2 (en) * 2000-10-18 2006-08-01 Sarnoff Corporation Method and apparatus for synthesizing new video and/or still imagery from a collection of real video and/or still imagery
JP4148671B2 (ja) * 2001-11-06 2008-09-10 ソニー株式会社 表示画像制御処理装置、動画像情報送受信システム、および表示画像制御処理方法、動画像情報送受信方法、並びにコンピュータ・プログラム
US6795090B2 (en) * 2001-11-13 2004-09-21 Eastman Kodak Company Method and system for panoramic image morphing
JP4238679B2 (ja) 2003-09-12 2009-03-18 ソニー株式会社 映像記録再生装置
JP4595313B2 (ja) * 2003-11-14 2010-12-08 ソニー株式会社 撮像表示装置及び方法、画像送受信システム
JP2006140618A (ja) 2004-11-10 2006-06-01 Victor Co Of Japan Ltd 3次元映像情報記録装置及びプログラム
JP4617965B2 (ja) * 2005-03-31 2011-01-26 ソニー株式会社 画像処理方法、その装置およびプログラム
US20100259539A1 (en) * 2005-07-21 2010-10-14 Nikolaos Papanikolopoulos Camera placement and virtual-scene construction for observability and activity recognition
US8736672B2 (en) * 2006-08-24 2014-05-27 Reald Inc. Algorithmic interaxial reduction

Also Published As

Publication number Publication date
US20100302402A1 (en) 2010-12-02
JP2010282295A (ja) 2010-12-16
TW201123073A (en) 2011-07-01
CN101908219B (zh) 2013-03-13
EP2259224A3 (en) 2011-10-12
US8368768B2 (en) 2013-02-05
CN101908219A (zh) 2010-12-08
EP2259224A2 (en) 2010-12-08

Similar Documents

Publication Publication Date Title
JP5182229B2 (ja) 画像処理装置、画像処理方法及びプログラム
US10916033B2 (en) System and method for determining a camera pose
CN110490916B (zh) 三维对象建模方法与设备、图像处理装置及介质
JP6430064B2 (ja) データを位置合わせする方法及びシステム
JP6031464B2 (ja) 並列追跡及びマッピングのためのキーフレーム選択
JP6435750B2 (ja) 3次元座標算出装置、3次元座標算出方法および3次元座標算出プログラム
US7352386B1 (en) Method and apparatus for recovering a three-dimensional scene from two-dimensional images
JP2019075082A (ja) 深度値推定を用いた映像処理方法及び装置
US8565557B2 (en) Free view generation in ray-space
JP2011008687A (ja) 画像処理装置
JP2002024807A (ja) 物体運動追跡手法及び記録媒体
CN111862301A (zh) 图像处理和对象建模方法与设备、图像处理装置及介质
EP3633606A1 (en) Information processing device, information processing method, and program
JP2001067463A (ja) 異なる視点からの複数のフェイシャル画像に基づき新たな視点からのフェイシャル画像を生成するフェイシャル画像生成装置及び方法並びにその応用装置及び記録媒体
JP5439277B2 (ja) 位置姿勢計測装置及び位置姿勢計測プログラム
US11138759B2 (en) Image processing apparatus and image processing method
JP7003617B2 (ja) 推定装置、推定方法、及び推定プログラム
JP2001101419A (ja) 画像特徴追跡処理方法、画像特徴追跡処理装置、3次元データ作成方法
JP2009237846A (ja) 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
CN112907657A (zh) 一种机器人重定位方法、装置、设备及存储介质
JP2006113832A (ja) ステレオ画像処理装置およびプログラム
JP2020098575A (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
CN114677439A (zh) 相机的位姿确定方法、装置、电子设备以及存储介质
JP7232663B2 (ja) 画像処理装置及び画像処理方法
JP2003050110A (ja) 3次元形状データ生成システム、3次元形状データ生成方法、プログラム、および記録媒体

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120215

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121210

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121231

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160125

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees