JP6526605B2 - 仮想カメラ画像生成装置 - Google Patents

仮想カメラ画像生成装置 Download PDF

Info

Publication number
JP6526605B2
JP6526605B2 JP2016146612A JP2016146612A JP6526605B2 JP 6526605 B2 JP6526605 B2 JP 6526605B2 JP 2016146612 A JP2016146612 A JP 2016146612A JP 2016146612 A JP2016146612 A JP 2016146612A JP 6526605 B2 JP6526605 B2 JP 6526605B2
Authority
JP
Japan
Prior art keywords
image
virtual
point
projection line
virtual camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016146612A
Other languages
English (en)
Other versions
JP2018018212A (ja
Inventor
貴幸 守澤
貴幸 守澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2016146612A priority Critical patent/JP6526605B2/ja
Publication of JP2018018212A publication Critical patent/JP2018018212A/ja
Application granted granted Critical
Publication of JP6526605B2 publication Critical patent/JP6526605B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Description

本発明は、複数のカメラにより立体物を同時撮像した画像のそれぞれから抽出した当該立体物の物体像に基づいて、利用者などにより任意に設定された仮想視点から当該立体物を撮像したときの画像を生成する装置に関する。
近年、所定の立体物(例えば人物)を複数のカメラで様々な視点から撮像した画像に基づいて、利用者などにより任意に設定された仮想視点(以下、仮想カメラ)から当該立体物を撮像したときの仮想的な画像(以下、仮想カメラ画像)を生成する技術が、様々な分野において利用されている。
例えば、下記特許文献1では、複数のカメラから同時撮像された画像から抽出した所定の立体物の物体像に基づいて当該立体物の三次元形状をボクセルの集合としてモデリングし、当該ボクセルを投影することで仮想カメラ画像を生成する方法が記載されている。当該従来技術では立体物の三次元形状のモデリングに視体積交差法を用いている。すなわち、各カメラについて物体像を逆投影して得られる錐体(視体積)を求め、複数のカメラでの視体積の積集合を生成し、これを立体物の三次元形状とする。
特開2000−306117号公報
従来の視体積交差法を用いた仮想カメラ画像の生成方法では、ボクセルサイズの縮小により画像の解像度が上がる。ここで、視体積交差法における計算量はボクセル数に比例する。ボクセル数は基本的にボクセルサイズの逆数の3乗に比例して増加し、また、計算対象とする空間又は立体物の体積に比例して増加する。つまり、解像度を上げるためにボクセルを小さくすると、ボクセル数の急激な増大に対応して計算量が増加する。そのため、広い空間における仮想カメラ画像の生成では、画像生成処理を行う計算機の性能限界により、十分な画像解像度を実現することが実質上困難となる場合があるという問題があった。一方で、計算量を抑えるためにボクセルサイズを大きくすると、仮想カメラ画像に表示される物体像の分解能が低下してしまう。
本発明は上記問題を解決するためになされたものであり、計算機の性能限界の制約を受けにくくし、広い空間においても十分な解像度の仮想カメラ画像を得ることが容易な仮想カメラ画像生成装置を提供することを目的とする。
(1)本発明に係る仮想カメラ画像生成装置は、複数の実カメラにより互いに異なる視点で立体物を同時撮像した実画像のそれぞれから当該立体物の物体像を抽出し、当該物体像に基づいて当該立体物を仮想カメラにより撮像した仮想カメラ画像を生成する画像生成装置であって、前記実カメラのカメラパラメータを表す実カメラ情報と、前記仮想カメラのカメラパラメータを表す仮想カメラ情報とを記憶した記憶部と、前記仮想カメラ情報を用いて、前記仮想カメラ画像の各画素に対応する仮想投影線を求める投影線生成手段と、前記仮想投影線上に注目点を設定し、前記実カメラ情報を用いて当該注目点の前記各実画像における投影位置を求め、複数の前記実画像にて前記投影位置が前記物体像内である前記注目点を物体対応点として検出する物体対応点検出手段と、前記物体対応点が検出された前記仮想投影線に対応する前記画素により前記仮想カメラ画像における前記立体物の像を生成する物体像生成手段と、を有する。
(2)上記(1)の仮想カメラ画像生成装置において、前記物体対応点検出手段は、前記各仮想投影線上に、前記立体物の想定サイズよりも小さい基準距離間隔ごとに前記注目点を設定する構成とすることができる。
(3)上記(1),(2)の仮想カメラ画像生成装置において、前記物体対応点検出手段は、前記仮想投影線上にて、基準距離間隔ごとに前記注目点を設定して前記物体対応点を探索し基準位置に定める基準位置探索処理と、前記基準位置から前記仮想カメラに向けて、前記基準距離間隔よりも小さい間隔で前記注目点を順次設定し前記物体対応点ではなくなる前記注目点を探索して、当該仮想投影線上での前記立体物の表面位置を推定する表面位置探索処理と、を行い、前記物体像生成手段は、前記仮想投影線上での前記表面位置に基づいて、当該仮想投影線に対応する前記画素の画素値を定める構成とすることができる。
(4)上記(3)の仮想カメラ画像生成装置において、前記物体対応点検出手段は、さらに、前記仮想投影線上にて前記基準位置から前記表面位置とは反対の方向へ、前記基準距離間隔よりも小さい間隔で前記注目点を順次設定し前記物体対応点ではなくなる前記注目点を探索して、当該仮想投影線上での前記立体物の裏面位置を推定する裏面位置探索処理を行い、前記物体像生成手段は、前記仮想投影線上での前記表面位置及び前記裏面位置から推定される視線方向の物体サイズに応じて、当該仮想投影線に対応する前記画素の画素値を定める構成とすることができる。
(5)上記(2)〜(4)の仮想カメラ画像生成装置において、前記物体対応点検出手段は、前記仮想投影線のうち他の前記仮想投影線にて検出された前記物体対応点のまわりの所定の近傍空間内に含まれる部分では、前記基準距離間隔よりも小さい間隔で前記注目点を設定する構成とすることができる。
(6)上記(1)〜(5)の仮想カメラ画像生成装置において、前記記憶部は、前記立体物が存在し得る三次元の空間範囲を記憶し、前記物体対応点検出手段は、前記空間範囲内のみにて前記注目点を設定する構成とすることができる。
本発明によれば、広い空間においても十分な解像度の仮想カメラ画像を得ることが容易となる。
本発明の実施形態に係る画像監視システムの概略のブロック図である。 本発明の実施形態に係る画像生成装置における投影線生成手段の処理を説明する模式図である。 本発明の実施形態に係る画像生成装置における注目物体像の復元処理の概略のフロー図である。 判定領域情報をバウンディングボックスで表現している場合の判定区間の例を示す模式図である。 本発明の実施形態に係る画像生成装置における物体対応点検出手段による表面位置探索処理を説明する模式図である。
以下、本発明の実施の形態(以下実施形態という)について、図面に基づいて説明する。
図1は画像監視システム1の概略のブロック図である。画像監視システム1は、監視対象の物件に設置される複数の監視カメラが撮像した画像(以下、実画像)を集約表示して、監視従事者による画像の目視確認を支援するための仕組みである。画像監視システム1は、撮像装置2、入力装置3、画像生成装置4及び出力装置5を有する。このうち、画像生成装置4が本発明に係る仮想カメラ画像生成装置の主要部をなす。
監視対象となる物件は例えば建物の内外に設定される監視エリアであり、屋外監視の監視エリアの例として、建物の外周の敷地、庭・アプローチなどが挙げられる。また屋内監視について、マンション、オフィスビル、ホテルなどのエントランスホールやロビーなどの例が挙げられる。
撮像装置2は監視エリアに設置される監視カメラであり、本発明における実カメラとして機能する。撮像装置2は監視対象とする注目物体(例えば人物)を互いに異なる視点から撮影できるように複数台設置される。撮像装置2は、画像生成装置4と接続され、撮像した画像を画像生成装置4へ出力する。
入力装置3は、画像監視システム1の動作を制御するために、監視従事者が操作するマウスやキーボードなどである。入力装置3は画像生成装置4に接続され、入力装置3から各種情報が画像生成装置4に入力される。
画像生成装置4は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)や各種メモリなどで構成される計算機であり、撮像装置2から入力された実画像を用いて任意視点での注目物体の像(以下、注目物体像)を復元する。画像生成装置4は、記憶部41、注目物体像抽出部42、注目物体像復元部43及び画像出力部44を有する。
記憶部41は、画像生成装置4を制御するためのコンピュータプログラムおよび各種情報を記憶する。記憶部41に記憶されている各種情報は、入力装置3及び注目物体像抽出部42により更新され、注目物体像復元部43より参照される。各種情報には、抽出物体像411、仮想カメラ情報412、判定領域情報413及び実カメラ情報414が含まれる。
抽出物体像411は、実画像から抽出した注目物体像であり、注目物体像抽出部42により更新される。
仮想カメラ情報412は、三次元空間に仮想的に配置されるカメラである仮想カメラの視野を定義するカメラパラメータであり、画像生成装置4が注目物体像を復元する際のカメラモデルを定義する。すなわち、画像生成装置4は仮想カメラにより撮影された画像として注目物体像を復元する。具体的には仮想カメラ情報412は視野変換、投影変換及び生成する画像のサイズに関する情報が含まれる。視野変換に関する情報は、仮想カメラの位置(レンズの中心座標、又は視点)及び姿勢(レンズ光軸の方向、又は視線方向)を含み、監視従事者による入力装置3の操作によって随時更新できる。投影変換に関する情報はレンズの投影特性をモデル化するためのパラメータ群、例えば焦点距離、歪収差係数などを含み、画像のサイズに関する情報は画像を構成する画素数などを含み、本実施形態では投影変換及び画像のサイズに関する情報は予め与えられた所定値とする。
判定領域情報413は、監視対象とする三次元空間における注目点が物体に対応する点か否かを判定する処理にて当該注目点を設定する空間範囲を定める情報である。当該空間範囲は、後述する注目物体像の復元判定処理が行われる領域であり、本実施形態では判定領域情報413には所定の値が予め与えられる。ここで、注目点は判定対象となる点である。
なお、判定領域情報413を表現する手法として、例えば、監視対象とする三次元空間において注目物体が存在し得る領域を包含する直方体(バウンディングボックス)で表現する手法が考えられる。
実カメラ情報414は、各撮像装置2の視野を定義するカメラパラメータであり、各撮像装置2の位置及び姿勢、並びに撮像装置2に搭載されているレンズの投影特性をモデル化するためのパラメータ群が含まれる。実カメラ情報414には、各撮像装置2について計測などにより予め得た値が用いられる。
注目物体像抽出部42、注目物体像復元部43及び画像出力部44は画像生成装置4を構成する計算機のプロセッサが記憶部41からプログラムを読み出して実行することで実現される。
注目物体像抽出部42は撮像装置2から実画像を取得し、当該実画像から注目物体像を抽出して、記憶部41に記憶されている抽出物体像411を更新する。
なお、実画像から注目物体像を抽出する方法は従来多数提案されており、注目物体が移動物体であれば、移動物体が存在しない時に撮像された背景画像との差分を取る背景差分の手法などがある。
注目物体像復元部43は、記憶部41に記憶されている各種情報を参照して、任意視点による注目物体像を復元する。注目物体像復元部43は、投影線生成手段431、物体対応点検出手段432及び物体像生成手段433で構成される。
投影線生成手段431は、仮想カメラ情報412に基づいて、仮想カメラ画像を構成する各画素に対応する仮想投影線を求める。なお、仮想カメラ画像は仮想カメラにより撮影された画像として画像生成装置4により生成される画像である。図2は投影線生成手段431の処理を説明する模式図であり、仮想カメラの仮想視点21、仮想カメラ画像22及び仮想投影線23の幾何学的な関係を示す斜視図である。仮想投影線23は仮想カメラ画像22の画素22pごとに生成され、仮想視点21から当該画素22pを通り無限遠に伸びる半直線である。
物体対応点検出手段432は仮想投影線上に注目点を設定し、実カメラ情報414に基づいて当該注目点の各実画像における投影位置を求め、全ての実画像にて投影位置が当該実画像から抽出された抽出物体像411内である注目点を三次元空間において注目物体内に位置する点であると判定し物体対応点として検出する。
物体対応点検出手段432は、注目点を判定領域情報413で指定される空間範囲内のみにて設定する。
物体像生成手段433は、物体対応点が検出された仮想投影線に対応する画素により仮想カメラ画像における立体物の像を生成し、これにより注目物体像が復元される。物体像生成手段433は注目物体像を構成する全画素について画素値を同じに定めることもできるし、画素ごとに異なる画素値を定めることもできる。例えば、物体像生成手段433は復元された注目物体像にテクスチャマッピングを施してもよい。例えば、テクスチャマッピング処理は、後述する方法で仮想投影線上での立体物の表面位置を求め、立体物の当該表面位置を実画像に投影し、その投影位置の画素値を復元注目物体像の画素値とする。また、物体像生成手段433は当該表面位置に基づいて、当該仮想投影線に対応する画素の画素値を定めると共に、当該画素値に対し、当該仮想投影線の方向における立体物のサイズに応じて調整を加えることもできる。例えば、仮想視点からの表面位置の距離に応じて画素の色相を変え、また、視線方向の物体サイズが大きいほど彩度を大きく定めることができる。
画像出力部44は、仮想視点から見た監視エリアの背景画像に注目物体像復元部43で生成された物体像を合成した画像を生成する。背景画像は仮想カメラ情報412に基づいて別途作成し記憶部41に予め記憶させたものを読み出し利用するように構成することができる。
出力装置5は、画像生成装置4が生成する画像を表示するディスプレイやプロジェクタなどである。具体的には、出力装置5は画像出力部44で生成された画像を表示する。
次に画像監視システム1の動作について説明する。
図3は注目物体像の復元処理の概略のフロー図である。なお、図3に示すフローの開始から終了までが1フレーム分の画像を生成するために必要な手続きに該当する。なお、実画像より注目物体像を抽出して記憶部41に抽出物体像411を記憶する処理は、撮像装置2より新しい実画像を入力される度に逐次実行され、記憶部41に記憶されている仮想カメラ情報412は、監視従事者が操作する入力装置3によって随時更新される。また、注目物体像復元部43により図3に示す注目物体像の復元処理が終了すると、続いて画像出力部44が注目物体像の復元結果をもとに仮想カメラ画像を生成する処理が実行される。
注目物体像復元部43は、ステップS2からステップS6までの処理を、仮想カメラ画像を構成する各画素について繰り返す。仮想カメラ画像のサイズ(画素数)については、記憶部41に記憶されている仮想カメラ情報412を参照する。
注目物体像復元部43は投影線生成手段431として機能し、仮想視点を始点としステップS1で処理対象に選択された画素を通る仮想投影線を、当該画素の座標と仮想カメラ情報412とに基づいて計算する(ステップS2)。
注目物体像復元部43は、仮想投影線を求めると、物体対応点検出手段432として機能し、記憶部41に記憶されている判定領域情報413をもとに判定区間を計算する(ステップS3)。判定区間は仮想投影線にて注目点を設定する区間であり、判定領域情報413で定義される空間範囲内に存在する仮想投影線の部分である。図4は、判定領域情報413をバウンディングボックスで表現している場合の判定区間の例を示す模式図であり、判定区間は、仮想視点21から伸びる仮想投影線23がバウンディングボックス25の境界面と交差する2点Pn,Pfを両端とする区間となる。
物体対応点検出手段432は、判定区間にて順次、注目点を設定し、実画像の注目物体像から推定される注目物体の三次元空間での存在領域と各注目点の座標(以下、注目点座標)との包含関係を求めることにより、注目物体と仮想投影線との交差判定を行う(ステップS4〜S6)。
判定区間における注目点の設定の仕方には様々な方法が考えられる。例えば、図4の例では、注目点を初期値座標を点Pnとし、仮想投影線23に沿って点Pfの方向へ予め定めた基準距離間隔ずつ順次、移動した座標に設定することができる。
ここで、物体対応点検出手段432は仮想投影線上に設定したいずれかの注目点が三次元空間における注目物体の存在領域内に含まれる場合に、当該仮想投影線が注目物体と交差すると判定する。よって、注目物体に交差する仮想投影線を検出し損ねることを避けるために、基準距離間隔を注目物体の奥行きより小さな値に設定することが好適である。具体的には、物体対応点検出手段432は各仮想投影線上に、注目物体の予め想定した奥行である想定サイズよりも小さい基準距離間隔ごとに注目点を設定する。
物体対応点検出手段432は注目点座標を更新すると(ステップS4)、当該注目点がステップS3で求めた判定区間内に存在するか否かを調べる(ステップS5)。注目点が判定区間内に存在する場合(S5にて「YES」の場合)、物体対応点検出手段432は注目物体が注目点座標を含むか否かの判定を行う(ステップS6)。一方、注目点が判定区間内に存在しない場合は(S5にて「NO」の場合)、処理対象となっている画素についての処理を終えてステップS1に戻り次の画素の処理に移る。
ステップS6にて、ステップS4で設定した注目点座標が注目物体内に位置すると判定した場合(S6にて「YES」の場合)、物体対応点検出手段432は例えば、処理対象となっている画素にフラグを立てた上でステップS1に処理を進め次の画素の処理に移る。一方、注目点座標が注目物体内にないと判定した場合(S6にて「NO」の場合)、物体対応点検出手段432はステップS4に処理を進めて注目点座標を更新する。
注目物体が注目点座標を含むか否かを判定する処理では、物体対応点検出手段432は実カメラ情報414を用いて、各撮像装置2の画像面に注目点を投影し、その投影座標が当該撮像装置2による注目物体像内に含まれるかを判定する。そして、全ての撮像装置2について、投影座標が注目物体像内にある場合に、三次元空間における注目物体の存在する領域内に注目点が存在すると判定し、当該注目点を物体対応点と判定する。すなわち、物体対応点を有する仮想投影線23は注目物体と交差していることになる。
なお、仮想カメラ画像の注目物体像に実画像をテクスチャマッピングする場合などにおいて、注目物体と仮想視点との間の距離を精度良く求める必要が生じる。そのために物体対応点検出手段432は、仮想投影線上での注目物体の表面位置と見做せる物体対応点を求める機能を備えることができる。
当該機能は基準距離間隔を小さくすることでも実現できるが、物体対応点検出手段432はより少ない計算量で表面位置を推定する表面位置探索処理を行う。具体的には、物体対応点検出手段432は基準位置探索処理として、仮想投影線上にて、基準距離間隔ごとに注目点を設定して物体対応点を探索し、当該物体対応点を基準位置に定める処理を行い、しかる後、表面位置探索処理を行う。表面位置探索処理では、基準位置から仮想カメラに向けて、基準距離間隔よりも小さい間隔で注目点を順次設定し、物体対応点ではなくなる注目点を探索して、当該仮想投影線上での注目物体の表面位置を推定する。例えば、表面位置探索処理でのn番目の注目点が物体対応点と判定され、n+1番目の注目点が物体対応点ではないと判定された場合、表面位置はそれら注目点の間にあることになる。そこで、物体対応点検出手段432は例えば、近似的に、n番目の注目点の座標を表面位置とすることができる。
図5は当該表面位置探索処理を説明する模式図である。基準位置探索処理では、判定区間の手前側の端点Pnから仮想視点21とは逆の方向(矢印26が示す方向)へ、注目物体のサイズに応じて設定される基準距離間隔αで注目点座標(“●”印)を移動、更新して注目物体27が注目点座標を含むか判定する。そして、注目物体27に含まれると最初に判定された注目点Paを求め、これを基準位置とする。次に、表面位置探索処理では、基準位置Paから仮想視点21へ向かう方向(矢印28が示す方向)へ、基準距離間隔αより小さな間隔βで注目点座標(“○”印)を移動、更新して注目物体27が注目点座標を含むか判定する。そして、注目物体に含まれない最初の注目点Pcが現れるまで注目点を更新する。当該注目点Pcが得られると、注目物体の表面位置は注目点Pcとその直前の注目点Pbとの間に存在することが分かるので、注目点の更新を中止する。
この処理により、比較的大きい間隔αで探索される基準位置Paよりも表面に近い点Pbが得られ、仮想視点と注目物体との間の距離をより厳密に求めることができる。この処理では、点Pnから小さい間隔βで順次、注目点を設定して表面位置を探索する方法よりも、設定する注目点の数が少なくなり易く、計算量の抑制を図ることができる。
また、物体対応点検出手段432は、仮想投影線上での注目物体の裏面位置を推定する裏面位置探索処理を行ってもよい。当該裏面位置探索処理では、上述した基準位置探索処理で求めた仮想投影線上の基準位置から表面位置とは反対の方向へ、基準距離間隔αよりも小さい間隔β’で注目点を順次設定し、物体対応点ではなくなる注目点を探索して、当該仮想投影線上での注目物体の裏面位置を推定する。なお、β’はβと同じ値、異なる値のいずれに設定することもできる。
物体対応点検出手段432で算出した仮想投影線上での表面位置や裏面位置は、当該仮想投影線に対応する画素の画素値を定める処理にて利用することができる。例えば、表面位置又は裏面位置に応じて注目物体像にシェーディングを施し、立体感を付与することができる。
また、例えば、物体像生成手段433は、仮想投影線上の表面位置を用いたテクスチャマッピングとして、例えば、当該表面位置に対応する注目物体表面を撮影可能な視点を有した撮像装置2に当該表面位置の点を投影し、その投影位置の実画像の画素値を当該仮想投影線に対応する画素値とする処理を行うことができる。
また、物体対応点検出手段432にて表面位置と裏面位置との両方を算出し、物体像生成手段433は、仮想投影線上での表面位置及び裏面位置から推定される視線方向の物体サイズ(物体の厚さ)に応じて、当該仮想投影線に対応する画素の画素値を定める処理を行うこともできる。例えば、或る仮想投影線での物体の厚さが注目物体の想定サイズ以下であるならば、当該仮想投影線に捉えられている物体は注目物体ではないとして仮想カメラ画像に表示しないようにする。これにより、例えば、人を注目物体とする場合に、空間に漂う虫や木の葉、飾りなどといったノイズ成分を取り除いて、必要とする人物像からなる仮想カメラ画像を生成することができる。
さらに物体対応点検出手段432の別の機能として、仮想投影線のうち他の仮想投影線にて検出された物体対応点のまわりの所定の近傍空間内に含まれる部分にて、基準距離間隔αよりも小さい間隔γで注目点を設定する近傍空間探索処理を備えることもできる。例えば、物体対応点検出手段432は、仮想カメラ画像の或る画素に対応する仮想投影線にて物体対応点を検出すると、当該物体対応点の周囲に所定の近傍空間を設定する。近傍空間は例えば、仮想視点における視野において当該画素の近傍8画素の仮想投影線を含む範囲を有し、かつ仮想投影線のうち、仮想視点からの距離が[R−δ1,R+δ2]なる範囲である部分を含むように設定することができる。ここで、Rは検出された物体対応点の仮想視点からの距離である。またδ1,δ2はγより大きく設定される値であり、δ1=δ2であってもよい。γは仮想投影線に沿った方向とそれに直交する方向とで別々に設定することができ、仮想投影線に沿った方向に関してはγを一定の距離で定義し、直交する方向に関してはγを隣接する仮想投影線間の角度で定義することができる。
一般的に、物体対応点が検出された周囲の空間には、注目物体を構成する他の物体対応点が存在する可能性が高い。そこで、上述の近傍空間探索処理では、近傍空間にて基準距離間隔αより小さい距離間隔γで注目点を設定して物体対応点を探索することにより、注目物体を構成する部分のうちサイズの小さい部分であっても物体対応点を求めることが可能となり、仮想カメラ画像における精密な物体像を得ることができる。
なお、近傍空間探索処理で新たに検出された物体対応点に基づいて新たな近傍空間を設定して、さらに近傍空間探索処理を行ってもよい。その際、新たな探索は、それまでの処理で探索された空間を除く部分で行う。
基準位置探索処理は、図5を用いて説明した点Pnから点Pfの方へ順次、注目点を設定する処理とは逆に、点Pfから点Pnの方へ向けて順次、注目点を設定してもよい。また、注目点の設定は一方向に一定間隔で順番にシフトさせる方法に限られない。例えば、最初に判定区間を二分する位置に注目点P1を設定し、次に判定区間にP1による分割で生成された2つの区間それぞれを二分する位置に注目点P2,P3を設定し、以降、この手順を繰り返して順次、区間を二分する注目点を設定してもよい。なお、この処理は、注目点の間隔が注目物体のサイズ以下になった段階で終了することができる。
仮想カメラ画像の解像度は画素数と共に上がる。すなわち仮想カメラの画角内に設定される仮想投影線の本数に応じて解像度が定まり、画角が同じである場合、仮想投影線の密度が大きいほど解像度が高くなる。本発明では、画素値は仮想投影線ごとの処理で算出されるので、当該処理は仮想投影線の密度に応じた計算量となる。一方、ボクセルでモデリングした立体物を投影して仮想カメラ画像を生成する場合に仮想投影線の密度に応じた解像度を得ようとすると、仮想投影線に直交する方向に関するボクセルの密度は基本的に仮想投影線の密度よりも高く設定する必要がある。この点で、本発明の仮想カメラ画像の生成処理はボクセルを用いた手法よりも計算量が減り得る。
また、仮想投影線に沿った方向に関しては、ボクセルでモデリングした立体物を投影して仮想カメラ画像を生成する場合には、基本的に全てのボクセルについて仮想カメラ画像における投影位置を算出する処理を行う。一方、本発明では仮想投影線上に離散的に注目点を設定し物体対応点を探索する処理を行う。各仮想投影線についての当該処理は基本的に、いずれかの注目点にて物体対応点であることが検出された段階で終了することができるので、概してボクセルを用いた手法よりも計算量が減ることが期待できる。
なお、上述の実施形態では、注目点を設定する空間範囲として、三次元空間において注目物体が存在し得る領域を、実際に注目物体が三次元空間のどこに位置しているかには関係なく予め設定し、判定領域情報413として記憶部41に格納している。一方、注目点を設定する空間範囲を抽出物体像411に基づいて定めることもできる。例えば、複数の撮像装置2の抽出物体像411から、三次元空間における注目物体が存在するとおぼしい領域を推定し、物体対応点検出手段432はその処理を当該領域内に限定して行う。これにより物体対応点の探索処理の計算量の一層の削減が図れる。
また、上述の実施形態では、物体対応点検出手段432にて、全ての撮像装置2の画像面(実画像)に注目点を投影し、投影位置が全ての実画像における注目物体像内に含まれている否かを判定することにより、当該注目点が物体対応点であるか否かを判定しているが、これに限定されるものではない。すなわち、投影位置が、「全て」ではなく「複数(少なくとも2つ以上)」の実画像における注目物体像内に含まれている注目点を物体対応点であると判定してもよい。一般的に、実画像の注目物体像内に投影位置が含まれている撮像装置2の数が多いほど、当該投影位置に対応する注目点が物体対応点である可能性が高い。そのため、このような他の実施形態の場合、「全て」を判定条件とした実施形態の場合よりも、一般的に仮想カメラ場像における注目物体像の復元精度が低下する。したがって、このような他の実施形態においては、物体像生成手段433にてテクスチャマッピング処理を行う際に、実画像の注目物体像内に投影位置が含まれている撮像装置2の数が多い注目点に対応する仮想投影線であるほどその画素の画素値を不透明にし、逆に数が少ない注目点に対応する仮想投影線であるほどその画素の画素値を高い透明度にするのがよい。また、上記判定条件として撮像装置2の数を少なくするほど、仮想カメラの位置設定に制限を加えてもよい。例えば、上記判定条件として撮像装置2の数を2つとした場合、仮想カメラの設置位置は当該2つの撮像装置2の設置位置間を結ぶ直線上にしか設定できないよう制限を加えてもよい。
1 画像監視システム、2 撮像装置、3 入力装置、4 画像生成装置、5 出力装置、41 記憶部、42 注目物体像抽出部、43 注目物体像復元部、44 画像出力部、411 抽出物体像、412 仮想カメラ情報、413 判定領域情報、414 実カメラ情報、431 投影線生成手段、432 物体対応点検出手段、433 物体像生成手段。

Claims (4)

  1. 複数の実カメラにより互いに異なる視点で立体物を同時撮像した実画像のそれぞれから当該立体物の物体像を抽出し、当該物体像に基づいて当該立体物を仮想カメラにより撮像した仮想カメラ画像を生成する画像生成装置であって、
    前記実カメラのカメラパラメータを表す実カメラ情報と、前記仮想カメラのカメラパラメータを表す仮想カメラ情報とを記憶した記憶部と、
    前記仮想カメラ情報を用いて、前記仮想カメラ画像の各画素に対応する仮想投影線を求める投影線生成手段と、
    前記仮想投影線上に注目点を設定し、前記実カメラ情報を用いて当該注目点の前記各実画像における投影位置を求め、複数の前記実画像にて前記投影位置が前記物体像内である前記注目点を物体対応点として検出する物体対応点検出手段と、
    前記物体対応点が検出された前記仮想投影線に対応する前記画素により前記仮想カメラ画像における前記立体物の像を生成する物体像生成手段と、を有し、
    前記物体対応点検出手段は、
    前記仮想投影線上にて、基準距離間隔ごとに前記注目点を設定して前記物体対応点となる注目点を探索して、当該仮想投影線上での前記立体物の表面位置を推定する表面位置探索処理と、
    前記仮想投影線上にて前記表面位置から前記仮想カメラとは反対の方向へ前記注目点を順次設定し前記物体対応点ではなくなる前記注目点を探索して、当該仮想投影線上での前記立体物の裏面位置を推定する裏面位置探索処理と、を行い、
    前記物体像生成手段は、前記仮想投影線上での前記表面位置及び前記裏面位置から推定される視線方向の物体サイズに応じて、当該仮想投影線に対応する前記画素の画素値を定めること、
    を特徴とする仮想カメラ画像生成装置。
  2. 前記物体対応点検出手段は、前記各仮想投影線上に、前記立体物の想定サイズよりも小さい基準距離間隔ごとに前記注目点を設定することを特徴とする請求項1に記載の仮想カメラ画像生成装置。
  3. 前記物体対応点検出手段は、前記仮想投影線のうち他の前記仮想投影線にて検出された前記物体対応点のまわりの所定の近傍空間内に含まれる部分では、前記基準距離間隔よりも小さい間隔で前記注目点を設定すること、を特徴とする請求項1又は請求項2に記載の仮想カメラ画像生成装置。
  4. 前記記憶部は、前記立体物が存在し得る三次元の空間範囲を記憶し、
    前記物体対応点検出手段は、前記空間範囲内のみにて前記注目点を設定すること、を特徴とする請求項1から請求項のいずれか1つに記載の仮想カメラ画像生成装置。
JP2016146612A 2016-07-26 2016-07-26 仮想カメラ画像生成装置 Active JP6526605B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016146612A JP6526605B2 (ja) 2016-07-26 2016-07-26 仮想カメラ画像生成装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016146612A JP6526605B2 (ja) 2016-07-26 2016-07-26 仮想カメラ画像生成装置

Publications (2)

Publication Number Publication Date
JP2018018212A JP2018018212A (ja) 2018-02-01
JP6526605B2 true JP6526605B2 (ja) 2019-06-05

Family

ID=61081340

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016146612A Active JP6526605B2 (ja) 2016-07-26 2016-07-26 仮想カメラ画像生成装置

Country Status (1)

Country Link
JP (1) JP6526605B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021070650A1 (ja) * 2019-10-10 2021-04-15 ソニー株式会社 画像処理装置、画像処理方法、及び、プログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020158873A1 (en) * 2001-01-26 2002-10-31 Todd Williamson Real-time virtual viewpoint in simulated reality environment

Also Published As

Publication number Publication date
JP2018018212A (ja) 2018-02-01

Similar Documents

Publication Publication Date Title
US9129438B2 (en) 3D modeling and rendering from 2D images
JP6423435B2 (ja) 物理的光景を表すための方法および装置
US8390617B1 (en) Visualizing oblique images
JP4392507B2 (ja) 3次元サーフェス生成方法
US10580205B2 (en) 3D model generating system, 3D model generating method, and program
KR102197732B1 (ko) 실내공간의 3차원 지도 생성 방법 및 장치
US20170214899A1 (en) Method and system for presenting at least part of an image of a real object in a view of a real environment, and method and system for selecting a subset of a plurality of images
US10607405B2 (en) 3D model generating system, 3D model generating method, and program
US20100194863A1 (en) Systems and methods for simulating three-dimensional virtual interactions from two-dimensional camera images
JP7182976B2 (ja) 情報処理装置、情報処理方法、およびプログラム
KR20170007102A (ko) 3차원 지도 생성 및 표시 장치 및 방법
JP6310149B2 (ja) 画像生成装置、画像生成システム及び画像生成方法
WO2014117568A1 (en) Method and device for performing transition between street view images
CN109906600B (zh) 模拟景深
CN105574933B (zh) 物体全方位轮廓精确绘制方法
JP7475022B2 (ja) 室内空間の3次元地図生成方法及び装置
US9171393B2 (en) Three-dimensional texture reprojection
JPWO2020075252A1 (ja) 情報処理装置、プログラム及び情報処理方法
KR101875047B1 (ko) 사진측량을 이용한 3d 모델링 시스템 및 방법
KR20110088995A (ko) 3차원 모델 안에서 감시 카메라 영상을 시각화하기 위한 방법 및 시스템, 및 기록 매체
JP2017076943A (ja) コンテンツ投影装置、コンテンツ投影方法及びコンテンツ投影プログラム
JP2020098421A (ja) 三次元形状モデル生成装置、三次元形状モデル生成方法、及びプログラム
JP7476511B2 (ja) 画像処理システム、画像処理方法及びプログラム
JP6526605B2 (ja) 仮想カメラ画像生成装置
US11636578B1 (en) Partial image completion

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180918

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190409

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190508

R150 Certificate of patent or registration of utility model

Ref document number: 6526605

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250