JP2010020581A - 不要物を除去した画像合成システム - Google Patents

不要物を除去した画像合成システム Download PDF

Info

Publication number
JP2010020581A
JP2010020581A JP2008181018A JP2008181018A JP2010020581A JP 2010020581 A JP2010020581 A JP 2010020581A JP 2008181018 A JP2008181018 A JP 2008181018A JP 2008181018 A JP2008181018 A JP 2008181018A JP 2010020581 A JP2010020581 A JP 2010020581A
Authority
JP
Japan
Prior art keywords
image
subject
hidden part
hidden
acquired
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008181018A
Other languages
English (en)
Inventor
Kazuo Ozeki
和夫 大関
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shibaura Institute of Technology
Original Assignee
Shibaura Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shibaura Institute of Technology filed Critical Shibaura Institute of Technology
Priority to JP2008181018A priority Critical patent/JP2010020581A/ja
Publication of JP2010020581A publication Critical patent/JP2010020581A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)

Abstract

【課題】カメラ等を用いた写真撮影等において被写体を撮影する場合、被写体とそれを遮るように不要物が撮影されている画像と被写体を遮る部分を別に撮影した画像を取得し、被写体が不要物によって遮られている部分を被写体を遮る部分を別に撮影した画像から取得し、それを貼換える合成システムを提供する。
【解決手段】複数の撮影ポジションごとに画像を取得し、対象物の位置を求め、隠れ部分を特定し、隠れ部分を他の画像から取得し、合成することにより、欠損領域を補う。
【選択図】図1

Description

あらかじめ取得された被写体を含む対象物が撮影されている画像において、被写体を識別しそれを遮る不要物を除去するための技術に関する。
カメラ等を用いた写真撮影等において被写体を撮影する場合、画像中に被写体を遮る不要物が、写りこんでいることがよくある。例えば、マンション販売広告に記載されているマンション自体の写真などである。マンション自体の写真を撮るためには、その大きさからある程度遠距離から撮影する必要があり、遠距離から撮影すると被写体であるマンションを遮る不要物が写りこんでしまうことが多い。そこで、被写体を遮る不要物を画像から除去する非特許文献1に記載のような技術が提供されている。具体的には、固有空間法とBPLPを用いた画像補間法により、不要物などで一部が欠損した画像1枚のみを用いて欠損していない周囲の情報より欠損を補う技術である。
天野敏之「固有空間法を用いたBPLP による画像補間」電子情報通信学会論文誌D-II,Vol.J85-D-II,No.3,pp.457-465,2002
しかしながら、非特許文献1に記載の技術は、1枚の画像から補完対象となる欠損領域を補完するためには、欠損領域とそうでない領域が類似する画像でなければならないという課題がある。つまり、例えば特徴的な形状をもつ建物を遮る不要物が撮影されているような、欠損領域とそうでない領域が類似しない画像や、建物を遮る不要物の割合が大きいなど欠損領域の面積が大きい画像などにおいては、不要物を除去することは困難であるということである。
そこで、本発明はかかる課題を解決するために1枚の基準画像から基準画像の欠損領域を他複数の補完画像から取得し、基準画像の欠損領域を補う技術を提供する。具体的には、以下のような画像合成システムである。
第1発明では、撮影ポジションからの相対的位置で識別可能な被写体および撮影ポジションからの相対的位置で識別可能な不要物を含む画像を複数の撮影ポジションごとに取得する画像取得部と、前記複数の画像それぞれの画像中における対象物の位置と、画像ごとの対象物と撮影ポジションとの位置関係を示す情報と、から得られる相対的位置情報を用いて対象物を被写体と不要物とに識別するとともに被写体に被写体以外の不要物が重なっている被写体の隠れ部分を一の画像中にて特定する隠れ部分特定部と、隠れ部分を他の画像から取得する隠れ部分取得部とを有する画像合成システムを提供する。
第2発明では、第1発明を基本として、取得した隠れ部分を相対的位置情報を用いて一の画像における隠れ部分領域形状に補正する補正部と、補正結果を利用して一の画像の隠れ部分を被写体の画像に貼り換える貼換部と、を有する画像合成システムを提供する。
第3発明では、撮影ポジションからの相対的位置で識別可能な被写体および撮影ポジションからの相対的位置で識別可能な不要物を含む画像を複数の撮影ポジションごとに取得する画像取得ステップと、複数の画像それぞれの画像中における対象物の位置と、画像ごとの対象物と撮影ポジションとの位置関係を示す情報と、から得られる相対的位置情報を用いて対象物を被写体と不要物とに識別するとともに被写体に被写体以外の不要物が重なっている被写体の隠れ部分を一の画像中にて特定する隠れ部分特定ステップと、隠れ部分を他の画像から取得する隠れ部分取得ステップと、を有する画像合成システムの動作方法を提供する。
第4発明では、第3発明を基本として、取得した隠れ部分を相対的位置情報を用いて一の画像における隠れ部分領域形状に補正する補正ステップと、補正結果を利用して一の画像の隠れ部分を被写体の画像に貼り換える貼換ステップと、を有する画像合成システムの動作方法を提供する。
以上のような発明によって、被写体とそれを遮るように不要物が撮影されている画像と被写体を遮る部分を別に撮影した画像を取得し、被写体が不要物によって遮られている部分を被写体を遮る部分を別に撮影した画像から取得し、それを貼換えることが可能となる。
以下に、図を用いて本発明の実施の形態を説明する。なお、本発明はこれらの実施の形態に何ら限定されるものではなく、その要旨を逸脱しない範囲において、種々なる態様で実施しうる。
なお、実施例1は主に請求項1、3を、実施例2は主に請求項2、4について説明する。
≪実施例1≫
<概要>
図1は、本実施例の画像合成システムの機能を説明する図である。図1は、画像A(0101)及び画像B(0102)とそれぞれの撮影ポジション(0106、0107)から対象物(0103、0104、0105)までの位置関係を示している。画像A(0101)は画像Aの撮影ポジション(以降撮影ポジションAとする)から対象物(0103、0104、0105)を撮影した画像であり、対象物C(0105)と撮影ポジションの間に対象物C(0105)を遮るように対象物A(0103)及び対象物B(0104)が写りこんでいる。画像Bは画像Bの撮影ポジション(以降撮影ポジションBとする)から対象物(0103、0104、0105)を撮影した画像であり、対象物C(0105)と撮影ポジションBとの間に対象物A(0103)及び対象物B(0104)が対象物C(0105)を画像A(0103)とは異なる形で遮るように写っている。ここで、画像A(0101)及びB(0102)に撮影されている対象物A、B、Cは(0103、0104、0105)はお互いに対応しているものとする。また、画像A(0101)において対象物A、B(0103、0104)が対象物C(0105)を遮る部分は、画像B(0102)に撮影されているものとする
本実施例はまず、画像A(0101)及びB(0102)において、それぞれの画像に撮影されている対象物A、B、C(0103、0104、0105)の位置関係から各撮影ポジション(0106、0107)からの相対的位置の割り出しを行う。
相対的位置の割り出しを行うと次に、基準画像(例えば画像A(0101)とする)において対象物A、B、C(0103、0104、0105)から被写体を識別する(例えば対象物C(0105)とする)。被写体を識別すると、被写体の前景にある不要物を特定する(対象物A、B(0103、0104)が特定される)。不要物を特定すると補完画像(ここでは画像B(0102))から、基準画像(画像A(0101))において、不要物によって被写体と重なっている部分を特定し取得することを特徴としている。
<機能的構成>
以下に記載する画像合成システムの機能ブロックは、ハードウェア、ソフトウェア、又はハードウェア及びソフトウェアの両方として実現され得る。具体的には、コンピュータを利用するものであれば、CPUや主メモリ、バスあるいは二次記憶装置(ハードディスクや不揮発性メモリ)、それらのハードウェアを制御するためのドライバプログラムやその他アプリケーションプログラムなどがあげられる。
またこれらのハードウェアやソフトウェアは、主メモリ上に展開したプログラムをCPUで演算処理したり、メモリやハードディスク上に保持されているデータや、インターフェースを介して入力されたデータなどを加工、蓄積、出力処理したり、あるいは各ハードウェア構成部の制御を行ったりするために利用される。また、この発明は装置として実現できるのみでなく、方法としても実現可能である。また、このような発明の一部をソフトウェアとして構成することができる。さらに、そのようなソフトウェアをコンピュータに実行させるために用いるソフトウェア製品、及び同製品を固定した記録媒体も、当然この発明の技術的な範囲に含まれる。(本明細書の全体を通じて同様である)
以下、本実施例の「画像合成システム」の構成要件について、図2などを用いて説明する。
本実施例の「画像合成システム」は少なくとも「画像取得部」(0201)と、「隠れ部分特定部」(0202)と「隠れ部分取得部」(0203)とを有している。
「画像取得部」(0201)は、撮影ポジションからの相対的位置で識別可能な被写体および撮影ポジションからの相対的位置で識別可能な不要物を含む画像を複数の撮影ポジションごとに取得する機能を有している。具体的にはまず、処理対象である被写体が不要物によって遮られて撮影されている基準画像と、少なくとも基準画像において被写体が遮られている部分が撮影されている補完画像を取得する。ここで、取得される補完画像は一つでもよいし、複数枚数の画像であってもよい。
次に画像を取得すると、それぞれの画像(基準画像と補完画像)中の特徴点を抽出する。特徴点の抽出には、特徴点を抽出するにあたり、取得した画像をノイズ除去、エッジ抽出、コントラスト強調や2値化など特徴点の抽出が容易になるような前処理を必要に応じて行ったうえでSIFT法、Harrisオペレータ法、トラッキング法などを用いて特徴点の抽出を行う。ここで特徴点とはそれぞれの画像上の任意の点であって、点の周囲の情報(例えば、周囲の点のRGB情報、明度など)に特徴がある点である。例えば、対象物と背景の境界となる点である。具体的な抽出方法は、例えば「特開2003−242162号公報」などに記載されている
それぞれの画像において特徴点が抽出されると次に、それぞれの画像において抽出された特徴点の対応付けを行う。例えば、基準画像の任意の特徴点における周囲の情報と補完画像で取得されたすべての特徴点における周囲の情報を比較し、周囲の情報が一致する特徴点を探すという具合である。ここでは、少なくとも8個以上の特徴点が対応づけられれば良く、すべての特徴点が対応づけられる必要はない(対応付けができない特徴点は排除する)。
特徴点の対応付けがされると次に、複数の対応付けされた特徴点から被写体及び不要物ごとに基礎行列を取得する。
ここで、基礎行列とは基準画像と補完画像の対応する点の座標上の関係(写像関係)を示す行列である(図3)。具体的には、2枚の画像の対応点と思われる2点をp1、p2とし、エピポーラ幾何学の原理によって基礎行列をFとする。そして、p1*F*p2=0の関係が成立する場合のFが基礎行列である。ここで、特徴点p1、p2は図3に示す1×3で構成される三次元の位置情報を示す行列であり、Fは3×3で構成される行列で表現することができる。これにより、2枚の画像から対応する複数の特徴点ペア(p1,p2),(p3,p4),(p5,p6),(p7,p8),(p9,p10),(p11,p12),(p13,p14),(p15,p16)・・・をそれぞれ与えて複数の方程式を立ててこれを解き、基礎行列を求める。これらの具体的な算出は、例えば「金谷健一・三島等「未構成カメラによる2画像からの3次元復元とその信頼性評価」情報処理学会論文誌:コンピュータビジョンとイメージメディア,Vol.42,No.SIG 6(CVIM 2),2001」などに記載されている。
基礎行列が導かれると、導かれた基礎行列Fをもとに特徴点ごとに奥行きを求める(つまり、撮影ポジションからの距離が導かれる)。ここで、奥行きを求める具体的な算出方法についても、上記に記載の論文に記載されている。
画像ごとに各特徴点の奥行きが求められると、奥行きごとに特徴点のグループ分けを行い、画像に点在する特徴点がどの対象物における特徴点であるかを判別する。対象物ごとの特徴点が判別されると、対象物ごとに判別された特徴点を結んだ、対象物の輪郭情報を対象物ごとに取得する。
「隠れ部分特定部」(0202)は、複数の画像それぞれの画像中における対象物の位置と、画像ごとの対象物と撮影ポジションとの位置関係を示す情報と、から得られる相対的位置情報を用いて対象物を被写体と不要物とに識別するとともに被写体に被写体以外の不要物が重なっている被写体の隠れ部分を一の画像中にて特定する機能を有している。具体的には、複数の画像から導かれた各撮影ポジションから各対象物までの奥行きと、対象物ごとに取得した特徴点を結ぶ輪郭情報を元に画像に撮影されている対象物から被写体及び不要物を識別する。対象物から被写体と不要物を識別すると、特定された被写体と重なっている不要物が隠す部分を輪郭情報を元に特定するという具合である。
ここで、被写体を識別させるにあたり、PC等に出力される基準画像に撮影されている対象物のいずれかを人からの入力をうけて選択させることで、本実施例の「隠れ部分特定部」(0202)は、選択された対象物を被写体として識別し、被写体を隠す隠れ部分を特定させてもよいし、また、撮影ポジションから対象物ごとの距離に応じて区分けを行い(例えば、撮影ポジションから最も奥にある対象物までの距離を何等分かに分割する)、指定する範囲の範囲内にある対象物を被写体として識別させてもよい。さらには、画像から得られる距離に応じた別の情報(例えば、距離に応じてその輝度が異なって表現される輝度ヒストグラムなど)を使用して複数の対象物から被写体を識別させて、被写体を隠す隠れ部分を特定させてもよい。
以下に、図4A及びBを用いて実際に取得された撮影ポジションから各対象物までの奥行きをもとに被写体と不要物とを識別し、隠れ部分を特定する手法の一例を説明する。図4Aは、基準画像である画像Aにおける対象物の位置関係と、撮影ポジションからの各対象物の距離を示した図である(例えば、「対象物C」は対象物A、Bの後景にあって撮影ポジションからのX軸方向の距離は5aという具合である)。また、図4Bは、補完画像である画像Bにおける対象物の位置関係と、撮影ポジションからの各対象物の距離を示した図である。
ここで、図4Aに示すように画像Aの撮影ポジションからX軸方向に任意の距離で区分けを行う(本例では、距離「a」で区分けを行う)。区分けを行うと、被写体が撮影されていると考えられる任意の範囲を指定する。範囲が指定されると、指定された範囲に属する対象物を検索する(例えば、距離「5a〜6a」の範囲を指定したとすると、「対象物C」が検索される)。対象物を検索すると、検索された対象物を被写体として識別する(検索対象外の対象物は不要物であると識別される)。ここで、本例では区分けをするにあたり任意の距離で区分けを行ったが、あらかじめ一定の奥行きを定めておき、それを任意の数で分割することとしてもよい。さらには、より具体的な方法として固定閾値判別、累積ヒストグラム、判別分析法のいずれか、もしくは複数の手法から最適なものを選択することとしてもよい。また、対象物を検索するにあたり、指定の範囲に属する対象物を検索することとしたが、対象物が検索できない場合には指定した範囲に最も近い対象物を検索することとしてもよい。
被写体と不要物とを識別すると、識別された被写体より前景に存在する不要物を特定する(本例では、対象物A、Bが該当する)。不要物が特定されると、基礎行列を用いて補完画像である画像Bから、画像Aにおいて隠れている部分を特定するという具合である。
「隠れ部分取得部」(0203)は、隠れ部分を他の画像から取得する機能を有している。具体的には、まず前記「隠れ部分特定部」(0202)において被写体を隠す隠れ部分が特定されたとする。隠れ部分が特定されると、前記「画像取得部」(0201)において求められている被写体と識別された対象物の基礎行列を使用し、基準画像における隠れ部分に対応する部分を補完画像から取得する。
<ハードウェア的構成>
図5は、本実施例の「画像合成システム」のハードウェア構成の一例を表す概略図である。この図を利用して、本実施例の画像合成システムにおけるそれぞれのハードウェア構成部の働きについて説明する。
本実施例の「画像合成システム」は、各種演算処理や制御を行う「CPU」(0501)と、「主メモリ」(0502)とを備えている。また、「画像合成システム」は、取得した画像などを保存する「記憶装置」(0503)や、画像データを取得するための「I/O」(0504)なども備えている。また、被写体等を出力させるための「画面」(0505)や被写体等を選択するためのマウスなどの「UI」(0506)も備えている。そして、これらが、「システムバス」などのデータ通信経路によって相互に接続され、情報の送受信や処理を行う。
ここで、「画像合成システム」は、「I/O」(0504)を介して、基準画像及び補完画像を取得したとする。画像を取得すると「CPU」(0501)は「記憶装置」(0503)に取得した画像を記録させるとともに、「主メモリ」(0502)のワーク領域に展開されている。「前処理プログラム」(0507)を呼び出す。呼び出された「前処理プログラム」(0507)は、取得したそれぞれの画像に対して必要な前処理を行い、処理したそれぞれの画像を「特徴点検出プログラム」(0511)に引き渡す。ここで、前処理とは取得した画像の特徴点を抽出するにあたり必要に応じて、あらかじめ準備されているノイズ除去するプログラム(0508)や画像のコントラスト強調(0509)、画像の2値化(0510)などを行うプログラムを実行する処理である。
「特徴点検出プログラム」(0511)は、前処理した画像を取得すると、各画像における特徴点を検出する。特徴点が検出されると特徴点を各画像間でマッチングを行う。マッチングしない特徴点は不良点として除去を行う。各特徴点がマッチングもしくは除去されると、「基礎行列算出プログラム」(0512)に、対象物ごとにマッチングした各特徴点の情報を引き渡す。
「基礎行列算出プログラム」(0512)は、対象物ごとにマッチングした特徴点を受けとると特徴点の情報をもとに、対象物ごとに基礎行列の算出を行う。基礎行列が導かれると、「距離算出プログラム」(0513)に基礎行列を引き渡す。
「距離算出プログラム」(0513)は、「基礎行列算出プログラム」(0512)より引き渡された対象物ごとに算出された基礎行列を使用しそれぞれの奥行きを求める。
次に、「CPU」(0501)は、「主メモリ」(0502)のワーク領域に展開されている「隠れ部分特定プログラム」(0514)を呼び出す。「隠れ部分特定プログラム」(0514)は、基準画像に撮影されている複数の対象物から被写体を識別する。ここで、被写体を認識する方法として、プログラムで自動認識させてもよいし、必要に応じてUIを用いてユーザが被写体を指定し被写体を認識させてもよい。次に、被写体を識別すると、「距離算出プログラム」(0513)において算出された距離が識別された被写体よりも前景である不要物を取得する。これにより、被写体を隠している隠れ部分を特定する。隠れ部分が特定されると、「隠れ部分取得プログラム」(0515)を呼び出す。
「隠れ部分取得プログラム」(0515)は、「隠れ部分特定プログラム」(0514)において特定された隠れ部分を補完する部分を基礎行列を用いて、補完画像より取得する。
<処理の流れ>
図6は、本実施例の画像合成システムにおける、画像の取得から隠れ部分取得までの流れの一例を表すフローチャートである。なお、以下に示すステップは、媒体に記録され、計算機を制御するためのプログラムを構成する処理ステップであってもかまわない。
ここで、画像合成システムは基準画像と補完画像を取得したとする(S0601、S0604)。基準画像と補完画像を取得すると、特徴点抽出前の前処理を行う(S0602、S0605)。前処理が完了すると、基準画像と補完画像それぞれにおいて特徴点の抽出を行う(S0603、S0606)。特徴点が抽出されると、基準画像と補完画像間で特徴点のマッチングを行う(S0607)。マッチング処理が完了すると、基礎行列の算出を行う(S0608)。算出すると、基礎行列から奥行き(距離)を算出する(S0609)。奥行きが算出されると、複数の対象物から被写体の識別を行う(S0610、S0611)。被写体を識別すると、基準画像において被写体の隠れ部分を特定する(S0612)。隠れ部分を特定すると、隠れ部分を補完画像から取得する(S0613)。
<効果の簡単な説明>
本実施例の画像合成システムによって、基準画像と複数もしくは単数の補完画像を取得することにより、基準画像に撮影されている被写体を遮る部分を特定することが可能となる。
≪実施例2≫
<概要>
本実施例は、実施例1を基本とする画像合成システムにおいて、補完画像より取得した隠れ部分を基準画像に合わせて補正し、補正した隠れ部分を基準画像に貼換えることができることを特徴としている。
<機能的構成>
図7は、本実施例の画像合成システムにおける機能的構成の一例を表す図である。この図にあるように本実施例は、実施例1の画像合成システムを基本として「補正部」(0704)と「貼換部」(0705)を新たに有していることを特徴としている。
なお、本実施例において実施例1にて説明した構成について詳細な説明は省略し、本実施例において特徴的な箇所についてのみ説明する。
「補正部」(0704)は、取得した隠れ部分を相対的位置情報を用いて一の画像における隠れ部分領域形状に補正する機能を有する。具体的には、「隠れ部分取得部」(0703)において補完画像から取得された基準画像に補完すべき部分を、基準画像に合わせて補正する。ここで具体的に補正とは、色彩補正や輝度補正や形状補正などの手法を用いて基準画像と補完画像と異なる輝度や色彩のバランスを補正し、基準画像に貼り付けた際に違和感がないようにする。
「貼換部」(0705)は、補正結果を利用して一の画像の隠れ部分を被写体の画像に貼り換える機能を有する。具体的には、前記「補正部」(0704)において補正された、補完画像より取得した基準画像に貼り付けるべき隠れ部分を実際に、基準画像に貼換える。
<ハードウェア的構成>
図8は、本実施例の「画像合成システム」のハードウェア構成の一例を表す概略図である。これらの図を利用して、本実施例の画像合成システムの処理を説明する。
ここで、「画像合成システム」は、「I/O」(0804)を介して、基準画像及び補完画像を取得したとする。画像を取得すると「CPU」(0801)は「記憶装置」(0803)に取得した画像を記録させるとともに、「主メモリ」(0802)のワーク領域に展開されている。「前処理プログラム」(0807)を呼び出す。呼び出された「前処理プログラム」(0807)は、取得したそれぞれの画像に対して必要な前処理を行い、処理したそれぞれの画像を「特徴点検出プログラム」(0811)に引き渡す。ここで、前処理とは取得した画像の特徴点を抽出するにあたり必要に応じて、あらかじめ準備されているノイズ除去するプログラム(0808)や画像のコントラスト強調(0809)、画像の2値化(0810)などを行うプログラムを実行する処理である。
「特徴点検出プログラム」(0811)は、前処理した画像を取得すると、各画像における特徴点を検出する。特徴点が検出されると特徴点を各画像間でマッチングを行う。マッチングしない特徴点は不良点として除去を行う。各特徴点がマッチングもしくは除去されると、「基礎行列算出プログラム」(0812)に、対象物ごとにマッチングした各特徴点の情報を引き渡す。
「基礎行列算出プログラム」(0812)は、対象物ごとにマッチングした特徴点を受けとると特徴点の情報をもとに、対象物ごとに基礎行列の算出を行う。基礎行列が導かれると、「距離算出プログラム」(0813)に基礎行列を引き渡す。
「距離算出プログラム」(0813)は、「基礎行列算出プログラム」(0812)より引き渡された対象物ごとに算出された基礎行列を使用しそれぞれの奥行きを求める。
次に、「CPU」(0801)は、「主メモリ」(0802)のワーク領域に展開されている「隠れ部分特定プログラム」(0814)を呼び出す。「隠れ部分特定プログラム」(0814)は、基準画像に撮影されている複数の対象物から被写体を識別する。ここで、被写体を認識する方法として、プログラムで自動認識させてもよいし、必要に応じてUIを用いてユーザが被写体を認識させてもよい。次に、被写体を識別すると、「距離算出プログラム」(0813)において算出された距離が識別された被写体よりも前景である不要物を取得する。これにより、被写体を隠している隠れ部分を特定する。隠れ部分が特定されると、「隠れ部分取得プログラム」(0815)を呼び出す。
「隠れ部分取得プログラム」(0815)は、「隠れ部分特定プログラム」(0814)において特定された隠れ部分を補完する部分を基礎行列を用いて、隠れ部分を補完画像より取得する。
隠れ部分を取得すると、必要に応じて各種画像補正プログラムを呼び出し、取得した隠れ部分の画像を基準画像に貼り付けるための補正を行う。ここで、各種画像補正プログラムとは「色彩補正プログラム」(0817)や「輝度補正プログラム」(0818)や「形状補正プログラム」(0819)などである。
画像の補正が行われると、「画像貼換プログラム」(0820)は、補正を行った隠れ部分を基準画像に貼換えて画像の合成を行う。
<処理の流れ>
図9は、本実施例の画像合成システムにおける、画像の取得から基準画像へ隠れ部分を貼換えるまでの流れの一例を表すフローチャートである。なお、以下に占めるステップは、媒体に記録され、計算機を制御するためのプログラムを構成する処理ステップであってもかまわない。
ここで、画像合成システムは基準画像と補完画像を取得したとする(S0901、S0904)。基準画像と補完画像を取得すると、特徴点抽出前の前処理を行う(S0902、S0905)。前処理が完了すると、基準画像と補完画像それぞれにおいて特徴点の抽出を行う(S0903、S0906)。特徴点が抽出されると、基準画像と補完画像間で特徴点のマッチングを行う(S0907)。マッチング処理が完了すると、基礎行列の算出を行う(S0908)。算出すると、基礎行列から奥行き(距離)を算出する(S0909)。奥行きが算出されると、被写体の識別を行う(S0910、S0911)。被写体の隠れ部分を一の画像中にて特定する(S0912)。隠れ部分を特定すると、隠れ部分を他の画像から取得する(S0913)。隠れ部分を取得すると、取得した隠れ部分の画像に対して補正を行う(S0914)。隠れ部分に補正を行うと、基準画像に隠れ部分を貼換える(S0915)。
<効果の簡単な説明>
本実施例の画像合成システムによって、補完画像より取得した隠れ部分を基準画像に合わせて補正を行い、実際に基準画像に隠れ部分を貼換えることが可能となる。
実施例1の画像合成システムにおける機能を説明する図 実施例1の画像合成システムにおける機能的構成の一例を表す図 実施例1の画像合成システムにおける基礎行列を説明するための図 実施例1の画像合成システムにおける基準画像である画像Aの対象物の位置関係と、撮影ポジションからの各対象物の距離を示した図 実施例1の画像合成システムにおける基準画像である画像Bの対象物の位置関係と、撮影ポジションからの各対象物の距離を示した図 実施例1の画像合成システムにおけるハードウェア構成の一例を表す図 実施例1の画像合成システムにおける画像の取得から隠れ部分取得までの流れの一例を表すフローチャート 実施例2の画像合成システムにおける機能的構成の一例を表す図 実施例2の画像合成システムにおけるハードウェア構成の一例を表す図 実施例2の画像合成システムにおける画像の取得から基準画像へ隠れ部分を貼換までの流れの一例を表すフローチャート
符号の説明
0201 画像取得部
0202 隠れ部分特定部
0203 隠れ部分取得部
0704 補正部
0705 貼換部

Claims (4)

  1. 撮影ポジションからの相対的位置で識別可能な被写体及び撮影ポジションからの相対的位置で識別可能な不要物を含む画像を複数の撮影ポジションごとに取得する画像取得部と、
    前記複数の画像それぞれの画像中における対象物の位置と、画像ごとの対象物と撮影ポジションとの位置関係を示す情報と、から得られる相対的位置情報を用いて対象物を被写体と不要物とに識別するとともに被写体に被写体以外の不要物が重なっている被写体の隠れ部分を一の画像中にて特定する隠れ部分特定部と、
    隠れ部分を他の画像から取得する隠れ部分取得部と、
    を有する画像合成システム。
  2. 取得した隠れ部分を相対的位置情報を用いて一の画像における隠れ部分領域形状に補正する補正部と、
    補正結果を利用して一の画像の隠れ部分を被写体の画像に貼り換える貼換部と、
    を有する請求項1に記載の画像合成システム。
  3. 撮影ポジションからの相対的位置で識別可能な被写体および撮影ポジションからの相対的位置で識別可能な不要物を含む画像を複数の撮影ポジションごとに取得する画像取得ステップと、
    複数の画像それぞれの画像中における対象物の位置と、画像ごとの対象物と撮影ポジションとの位置関係を示す情報と、から得られる相対的位置情報を用いて対象物を被写体と不要物とに識別するとともに被写体に被写体以外の不要物が重なっている被写体の隠れ部分を一の画像中にて特定する隠れ部分特定ステップと、
    隠れ部分を他の画像から取得する隠れ部分取得ステップと、
    を有する画像合成システムの動作方法。
  4. 取得した隠れ部分を相対的位置情報を用いて一の画像における隠れ部分領域形状に補正する補正ステップと、
    補正結果を利用して一の画像の隠れ部分を被写体の画像に貼り換える貼換ステップと、
    を有する請求項3に記載の画像合成システムの動作方法
JP2008181018A 2008-07-11 2008-07-11 不要物を除去した画像合成システム Pending JP2010020581A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008181018A JP2010020581A (ja) 2008-07-11 2008-07-11 不要物を除去した画像合成システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008181018A JP2010020581A (ja) 2008-07-11 2008-07-11 不要物を除去した画像合成システム

Publications (1)

Publication Number Publication Date
JP2010020581A true JP2010020581A (ja) 2010-01-28

Family

ID=41705399

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008181018A Pending JP2010020581A (ja) 2008-07-11 2008-07-11 不要物を除去した画像合成システム

Country Status (1)

Country Link
JP (1) JP2010020581A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014238751A (ja) * 2013-06-10 2014-12-18 独立行政法人産業技術総合研究所 画像生成装置及び画像生成方法
JP2015133691A (ja) * 2013-12-13 2015-07-23 パナソニックIpマネジメント株式会社 撮像装置、画像処理装置、撮像方法および記録媒体
JP2015527764A (ja) * 2012-06-08 2015-09-17 ノキア コーポレイション マルチ・フレーム画像キャリブレータ
US9196069B2 (en) 2010-02-15 2015-11-24 Mobile Imaging In Sweden Ab Digital image manipulation
US9344642B2 (en) 2011-05-31 2016-05-17 Mobile Imaging In Sweden Ab Method and apparatus for capturing a first image using a first configuration of a camera and capturing a second image using a second configuration of a camera
US9432583B2 (en) 2011-07-15 2016-08-30 Mobile Imaging In Sweden Ab Method of providing an adjusted digital image representation of a view, and an apparatus
US9792012B2 (en) 2009-10-01 2017-10-17 Mobile Imaging In Sweden Ab Method relating to digital images

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9792012B2 (en) 2009-10-01 2017-10-17 Mobile Imaging In Sweden Ab Method relating to digital images
US9196069B2 (en) 2010-02-15 2015-11-24 Mobile Imaging In Sweden Ab Digital image manipulation
US9396569B2 (en) 2010-02-15 2016-07-19 Mobile Imaging In Sweden Ab Digital image manipulation
US9344642B2 (en) 2011-05-31 2016-05-17 Mobile Imaging In Sweden Ab Method and apparatus for capturing a first image using a first configuration of a camera and capturing a second image using a second configuration of a camera
US9432583B2 (en) 2011-07-15 2016-08-30 Mobile Imaging In Sweden Ab Method of providing an adjusted digital image representation of a view, and an apparatus
JP2015527764A (ja) * 2012-06-08 2015-09-17 ノキア コーポレイション マルチ・フレーム画像キャリブレータ
JP2014238751A (ja) * 2013-06-10 2014-12-18 独立行政法人産業技術総合研究所 画像生成装置及び画像生成方法
JP2015133691A (ja) * 2013-12-13 2015-07-23 パナソニックIpマネジメント株式会社 撮像装置、画像処理装置、撮像方法および記録媒体

Similar Documents

Publication Publication Date Title
US10540806B2 (en) Systems and methods for depth-assisted perspective distortion correction
US8817339B2 (en) Handheld device document imaging
JP6355346B2 (ja) 画像処理装置、画像処理方法、プログラム、及び記憶媒体
JP5908599B2 (ja) マルチスペクトル撮像システム
JP2010020581A (ja) 不要物を除去した画像合成システム
JP5977591B2 (ja) 画像処理装置及びそれを備えた撮像装置、画像処理方法、並びに画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2014178957A (ja) 学習データ生成装置、学習データ作成システム、方法およびプログラム
JP2015197745A (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム
KR20110124965A (ko) 아웃 포커싱 촬영에서 빛망울 효과를 생성하기 위한 장치 및 방법
KR20130112311A (ko) 고밀도 삼차원 영상 재구성 장치 및 방법
US8249377B1 (en) Blurred digital image deblurring
Shah et al. Removal of specular reflections from image sequences using feature correspondences
JP2010244398A (ja) 画像処理装置および画像処理プログラム
JP2007201631A (ja) 透かし入り画像生成装置、透かし入り画像解析装置、透かし入り画像生成方法、媒体及びプログラム
JP5906696B2 (ja) 車両周辺撮影装置および車両周辺画像の処理方法
JP2015035799A (ja) 情報処理装置、撮像装置、情報処理システム、情報処理方法およびプログラム
JP6403207B2 (ja) 情報端末装置
US8538142B2 (en) Face-detection processing methods, image processing devices, and articles of manufacture
CN108564070B (zh) 用于提取手势的方法及其装置
JP2011188237A (ja) 画像処理方法、及び画像処理装置
JP2005182098A (ja) 合成画像を生成・表示する装置及び方法
JP2004145592A (ja) 移動ベクトル抽出装置及び方法及びプログラム及びその記録媒体
JP2016072924A (ja) 画像処理装置及び画像処理方法
JP2017017551A (ja) 画像処理装置及び画像処理方法
JP4560441B2 (ja) 画像合成装置、画像合成方法、及び画像合成プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110711

A072 Dismissal of procedure

Free format text: JAPANESE INTERMEDIATE CODE: A073

Effective date: 20121108