JP6062039B2 - 画像処理システムおよび画像処理用プログラム - Google Patents
画像処理システムおよび画像処理用プログラム Download PDFInfo
- Publication number
- JP6062039B2 JP6062039B2 JP2015509805A JP2015509805A JP6062039B2 JP 6062039 B2 JP6062039 B2 JP 6062039B2 JP 2015509805 A JP2015509805 A JP 2015509805A JP 2015509805 A JP2015509805 A JP 2015509805A JP 6062039 B2 JP6062039 B2 JP 6062039B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- display
- moving object
- stereoscopic image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 64
- 230000033001 locomotion Effects 0.000 claims description 70
- 238000003384 imaging method Methods 0.000 claims description 34
- 240000004050 Pentaglottis sempervirens Species 0.000 claims description 27
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 claims description 27
- 238000001514 detection method Methods 0.000 claims description 23
- 238000004364 calculation method Methods 0.000 claims description 12
- 238000012544 monitoring process Methods 0.000 description 47
- 238000000034 method Methods 0.000 description 21
- 238000010586 diagram Methods 0.000 description 12
- 239000002131 composite material Substances 0.000 description 7
- 230000005540 biological transmission Effects 0.000 description 6
- 230000002194 synthesizing effect Effects 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 238000012790 confirmation Methods 0.000 description 3
- 230000036544 posture Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000000474 nursing effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/139—Format conversion, e.g. of frame-rate or size
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/189—Recording image signals; Reproducing recorded image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/243—Image signal generators using stereoscopic image cameras using three or more 2D image sensors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0088—Synthesising a monoscopic image signal from stereoscopic images, e.g. synthesising a panoramic or high resolution monoscopic image
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Description
本発明は、画像処理システムおよび画像処理用プログラムに関し、特に、カメラによる撮影画像から移動物体を検出して立体画像として表示する機能を備えた画像処理システムおよび画像処理用プログラムに関するものである。
従来の監視システムでは、複数の監視カメラで撮影された複数の監視画像を複数の画像表示装置に表示し、または複数の監視画像を1つの画像表示装置に分割表示することによって監視を行っていた。または、複数の監視画像を1つの画像表示装置に時分割で切り替えて表示することによって監視を行うものもあった。しかしながら、従来の監視システムは、複雑な構造を持つ建物内部を監視する場合には適していない。
すなわち、工場やビルのように大規模の建物では、フロア構成が複雑になり、部屋の数も多くなる。そのような複雑な構造を持つ建物内部の監視においては、カメラ設置台数が多数になり、画像表示装置に表示される監視画像の数も増大する。そのため、画像表示装置に表示されている複数の監視画像がどこのフロアのどの部屋のものであるかを一見して把握し難く、建物全体の状況を把握するのが困難であった。
これに対して、フロアの複数の監視領域毎に設けた監視カメラにより撮影された監視画像を別に用意したフロア画像に合成することにより、複数の監視画像をフロアのレイアウトに従って1画面に一度に表示できるようにしたシステムが提案されている(例えば、特許文献1参照)。この特許文献1に記載の技術によれば、建物内の各部屋の内部や廊下などの監視領域をフロアのレイアウトに従って1画面で同時に監視することが可能である。
しかしながら、特許文献1に記載の技術では、トップビューで表した平面的なフロア画像の各監視領域の位置に、各監視領域に設置した監視カメラで撮影された監視画像を割り当てて表示させているだけである。よって、基本的には複数の監視画像を1つの画像表示装置に分割表示させて監視を行うのと変わりはない。そのため、複数の監視画像がどこの監視領域のものであるかを把握することは可能であるが、建物全体の状況を把握するためには複数の監視画像を個別に確認しなければならず、ユーザにとっては依然として使い難いという問題があった。
また、特許文献1に記載の技術は、大規模でフロア構成が複雑な建物の監視に適したものではない。すなわち、特許文献1の技術は、複数の監視画像を1画面に分割表示するものであるため、表示できる画像数に限界がある。現実的には、特許文献1の図7に示すように、1つのフロアにおける複数の監視領域で撮影された監視画像を表示できる程度であり、工場やビル、百貨店といった大規模で複雑な建物の全体の監視に使えるものではない。無理に多数の監視画像を1画面に表示しようとすれば、個々の監視画像の表示サイズが小さくなるため、非常に見づらいものとなってしまうのである。
なお、特許文献1の段落[0004]において先行技術文献として引用されている特開2008−118466号公報(特許文献2)の図9によれば、複数の部屋における監視画像を合成してフロア毎に俯瞰画像(各フロアを上から見下ろしたような画像)を生成するとともに、それら複数フロアの俯瞰画像を更に合成することによって1F〜3Fのフロア重ね合せ画像を生成している。これにより、複数のフロアを有するビル等の全体の監視画像を1画面に表示することが可能となっている。
しかしながら、このように大規模で複雑な建物の全体の監視画像を1画面で表示しようとすればするほど、個々の監視領域における監視画像の表示サイズが小さくなり、監視画像は極めて見づらいものになってしまう。したがって、この特許文献2に記載の技術も、大規模でフロア構成が複雑な建物の監視に適したものとは言い難い。
本発明は、このような問題を解決するために成されたものであり、大規模でフロア構成が複雑な建物であっても、その俯瞰的な画像を分かりやすく提供できるようにし、建物全体の状況をユーザが容易に把握できるようにすることを目的とする。
上記した課題を解決するために、本発明では、撮影対象領域を複数の角度から撮影するように設置された複数のカメラからそれぞれ撮影画像を入力する画像入力部と、入力された複数の撮影画像に含まれる移動物体のカメラからの距離を表す奥行情報を画素毎に算出する奥行情報算出部と、複数のカメラ間の相対的な角度関係に合わせて複数の投影面を設定し、複数の撮影画像に含まれる移動物体の各画素の値を、各撮影画像に対応する投影面の方向に奥行情報に従って投影させることにより、複数の撮影画像に含まれている移動物体が1つに合成された立体画像を生成する立体画像生成部と、撮影対象領域の空間を表す空間画像に移動物体の立体画像を合成することにより、撮影対象領域の俯瞰画像を生成する俯瞰画像生成部と、生成された俯瞰画像をディスプレイに表示させる表示制御部とを備えている。
上記のように構成した本発明によれば、撮影画像から検出した奥行情報に従って各画素の値が投影面の方向に投影されて成る点群のデータとして移動物体の立体画像が生成され、その立体画像が撮影対象領域の空間画像と合成されて、1つの全体的な俯瞰画像として表示される。そのため、大規模でフロア構成が複雑な建物で撮影対象領域の数が増えたとしても、多数の撮影画像が画面分割して表示されたり時分割により切り替えて表示されたりするようなことはない。すなわち、建物の全体空間の中に複数の撮影対象領域が含まれていて、各々の撮影対象領域内に点群の立体画像が合成されて成る1つの俯瞰画像がディスプレイに表示されることとなる。
これにより、ユーザは、従来のように撮影対象領域毎に表示された複数の撮影画像を個別に確認する必要がなく、俯瞰画像の確認により建物全体の状況を一目で把握することができるようになる。また、画面分割して表示された個々の撮影画像がその表示サイズが小さくなって見づらくなるという不都合も解消することができる。したがって、本発明によれば、大規模でフロア構成が複雑な建物であっても、その俯瞰画像を分かりやすく提供することができ、建物全体の状況をユーザが容易に把握することができる。
また、本発明によれば、複数の角度から撮影対象領域を撮影して得られた撮影画像から、それぞれの撮影画像に含まれる移動物体の各画素の値が各撮影画像の投影面の方向に投影されて立体画像が合成される。そのため、移動物体の立体画像を含む俯瞰画像を見る仮想的な視点の位置を移動させて投影面の向きを変えることにより、様々な角度から見た俯瞰画像に任意に切り替えてディスプレイに表示させることができる。
なお、従来の技術では、1つの撮影対象領域に1つのカメラが設置されているので、そのカメラが設置された方向からの撮影画像しか表示できない。仮に、1つの撮影対象領域に複数のカメラを設置しても、その1つの撮影対象領域を複数の角度から撮影した複数の撮影画像を画面分割して表示するか、時分割して表示することができるだけである。
これに対して、本発明によれば、上述したように、複数の撮影画像から点群のデータに加工された移動物体の立体画像を含む撮影対象領域の俯瞰画像をディスプレイに表示させ、しかもその俯瞰画像の視点を任意に切り替えて表示させることができる。これにより、例えば、ある角度から見たときに物陰に隠れて見えなくなるようなものを俯瞰画像の角度を変えて表示させることも可能となる。
(第1の実施形態)
以下、本発明の第1の実施形態を図面に基づいて説明する。図1は、第1の実施形態による画像処理システムの構成例を示す図である。第1の実施形態では、本発明の画像処理システムを監視システムに実施した例を示す。
以下、本発明の第1の実施形態を図面に基づいて説明する。図1は、第1の実施形態による画像処理システムの構成例を示す図である。第1の実施形態では、本発明の画像処理システムを監視システムに実施した例を示す。
図1に示すように、第1の実施形態による監視システムは、複数の撮像部101,102,・・・と、複数の画像入力装置201,202,・・・と、画像処理装置300と、ディスプレイ400とを備えている。複数の撮像部101,102,・・・は、それぞれ複数の画像入力装置201,202,・・・に接続されている。また、複数の画像入力装置201,202,・・・は、建物内の構内ネットワーク500を介して画像処理装置300に接続されている。
複数の撮像部101,102,・・・は、建物内の複数の撮影対象領域毎に設置される。ここで言う複数の撮影対象領域とは、例えば、建物の各フロアにある各部屋の内部、廊下、階段、エレベータなど、監視対象としたい所望の空間領域をいう。1つの撮影対象領域に対して1つの撮像部が割り当てられている。なお、以下では説明の便宜上、2つの撮像部101,102が備えられているものとして説明する。
1つの撮像部には、複数のカメラが備えられている。例えば、第1の撮像部101には4台のカメラ101A〜101Dが備えられている。なお、図1では図示を省略しているが、第2の撮像部102にも複数のカメラが備えられている。第2の撮像部102が備えるカメラの台数は、必ずしも第1の撮像部101と同じでなくてもよい。
複数のカメラ101A〜101Dは、撮影対象領域を複数の角度から撮影するように設置されている。例えば、ある部屋を撮影対象領域とする場合、その部屋の4方向の壁面に、部屋内の全体を撮影できるように4台のカメラ101A〜101Dが設置される。この場合、それぞれの撮影範囲が少なくとも一部において重複するように各カメラ101A〜101Dの位置や姿勢を設定するのが好ましい。
これらのカメラ101A〜101Dは何れもステレオカメラであり、撮影対象領域内の対象物を2つの異なる方向から同時に撮影する。後述するように、その撮影画像を画像処理装置300が公知の手法により解析することにより、対象物の奥行き方向の情報を取得できるようになされている。
複数の画像入力装置201,202は、複数の撮像部101,102からからそれぞれ撮影画像を入力するものであり、例えばパーソナルコンピュータ等により構成される。図1の例では、第1の撮像部101に対して第1の画像入力装置201が接続され、第2の撮像部102に対して第2の画像入力装置202が接続されているが、本発明はこのような接続形態に限定されない。例えば、2つの撮像部101,102を1つの画像入力装置に接続し、2つの撮像部101,102から1つの画像入力装置に撮影画像を入力するようにしてもよい。
画像処理装置300は、複数の画像入力装置201,202から撮影画像を入力し、以下に詳しく説明する画像処理を行う。そして、その画像処理の結果得られる画像をディスプレイ400に表示させる。ここで、画像処理装置300は、例えばパーソナルコンピュータあるいはサーバ装置により構成され、建物内の監視室等に設置される。また、ディスプレイ400は、例えば液晶表示装置により構成される。
図1に示したシステム構成のうち、複数の画像入力装置201,202および画像処理装置300の部分が本発明の画像処理システムに相当する。図2は、この画像処理システムの機能構成例を示すブロック図である。図2に示すように、第1の実施形態による画像処理システムは、その機能構成として、画像入力部1、奥行情報算出部2、立体画像生成部3、俯瞰画像生成部4、表示制御部5、関連情報生成部6、操作受付部7、空間画像記憶部8および関連情報記憶部9を備えている。
ここで、画像入力部1の機能は、図1に示した画像入力装置201,202にそれぞれ備えられる。また、奥行情報算出部2、立体画像生成部3、俯瞰画像生成部4、表示制御部5、関連情報生成部6、操作受付部7、空間画像記憶部8および関連情報記憶部9の各機能は、図1に示した画像処理装置300に備えられる。
画像処理装置300が備える奥行情報算出部2、立体画像生成部3、俯瞰画像生成部4、表示制御部5、関連情報生成部6および操作受付部7の各機能は、ハードウェア、DSP(Digital Signal Processor)、ソフトウェアの何れによっても構成することが可能である。例えばソフトウェアによって構成する場合、上記各機能は、実際には画像処理装置300のCPU、RAM、ROMなどを備えて構成され、RAMやROM、ハードディスクまたは半導体メモリ等の記録媒体に記憶された画像処理用プログラムが動作することによって実現される。
画像入力部1は、複数のカメラからそれぞれ撮影画像を入力する。すなわち、第1の画像入力装置201が備える画像入力部1は、複数のカメラ101A〜101Dからそれぞれ撮影画像を入力する。また、第1の画像入力装置201が備える画像入力部1は、複数のカメラ(図1では図示せず)からそれぞれ撮影画像を入力する。
奥行情報算出部2は、画像入力部1により入力された複数の撮影画像に含まれる移動物体のカメラからの距離を表す奥行情報を画素毎に算出する。上述したように、画像入力部1による入力される撮影画像は、ステレオカメラにより撮影された視差画像である。奥行情報算出部2は、この視差画像を公知の手法により解析することにより、移動物体のカメラからの距離を表す奥行情報を画素毎に算出する。
なお、撮影画像内から移動物体を抽出する方法としては、種々の方法を適用することが可能である。例えば、所定のフレームレートに従ってカメラ101A〜101Dにより順次撮影されるフレーム画像間の差分を検出することにより、差分が生じている領域を移動物体の領域として抽出することが可能である。または、撮影対象領域に移動物体がない状態であらかじめ撮影した画像を背景画像として記憶しておき、撮影画像と背景画像との差分を検出することにより、差分が生じている領域を移動物体の領域として抽出することも可能である。
立体画像生成部3は、奥行情報算出部2により算出された奥行情報を利用して、画像入力部1により入力された複数の撮影画像から移動物体の立体画像を生成する。ここで、立体画像生成部3は、1つの撮影対象領域について1セットの立体画像を生成する。例えば、第1の撮像部101が備える4台のカメラ101A〜101Dから画像入力部1に入力された4枚の撮影画像から1セットの立体画像を生成する。1セットというのは、撮影画像から複数の移動物体が抽出された場合は、それら複数の移動物体の立体画像で1セットという意味である。
以下に、立体画像生成部3の具体的な処理内容を、図3を参照しながら説明する。図3は、複数の撮影画像から移動物体の立体画像を生成する処理の説明図である。図3に示すように、立体画像生成部3は、複数のカメラ101A〜101D間の相対的な角度関係に合わせて複数の投影面31〜34を設定する。図3の例では説明の簡便のため、互いに90度を成す角度で4方向に投影面31〜34を設定している。
つまり、●印で示す位置(例えば、部屋内の4方向の壁面)に4台のカメラ101A〜101Dが設置されていて、その位置から矢印A〜Dで示す方向を撮影するように各カメラ101A〜101Dの姿勢が設定されている。立体画像生成部3は、この各カメラ101A〜101Dの取付位置および取付姿勢に応じた撮影方向に投影面31〜34を設定する。なお、各カメラ101A〜101Dの取付位置および取付姿勢に関する情報は、事前のキャリブレーションによって立体画像生成部3に登録しておく。
立体画像生成部3は、画像入力部1により入力された複数の撮影画像(図3の例では、4台のカメラ101A〜101Dの撮影画像)に含まれる移動物体の各画素の値を、各撮影画像に対応する投影面31〜34の方向に奥行情報に従って投影させることにより、複数の撮影画像に含まれている移動物体が1つに合成された立体画像を生成する。
すなわち、立体画像生成部3は、第1のカメラ101Aから画像入力部1に入力された撮影画像に含まれる移動物体の各画素の値を、第1のカメラ101Aの位置から投影面31がある矢印Aの方向に奥行情報で示される距離だけ投影させた位置に描画する。ここで描画する各画素の値は、撮影画像が元々持っているRGBの値であってもよいし、これを2値化あるいはグレースケール化した値などであってもよい。
立体画像生成部3は、第2〜第4のカメラ101B〜101Dから画像入力部1に入力された撮影画像についても同様の処理を行う。このように本実施形態では、同じ撮影対象領域を複数のカメラ101A〜101Dで撮影し、各撮影画像に含まれる移動物体の各画素の値を1つの画像上に合成しているので、同じ画素位置に対して複数の方向から複数の画素値が重ねて投影されることになる。
この場合、立体画像生成部3は、合成される立体画像をユーザが見る仮想的な視点(ディスプレイ画面手前の方向にある点)から見て立体の前面に来るものを優先して描画する。図3の例では、第1のカメラ101Aおよび第2のカメラ101Bによる撮影画像に含まれる画素の値を、第3のカメラ101Cおよび第4のカメラ101Dによる撮影画像に含まれる画素の値よりも優先して描画する。第1のカメラ101Aによる撮影画像と第2のカメラ101Bによる撮影画像とのどちらを優先するかは任意に決めることが可能である。例えば、奥行情報による距離が短い方を優先するといった処理が可能である。
俯瞰画像生成部4は、立体画像生成部3により生成された移動物体の立体画像を、撮影対象領域の空間を表す空間画像に合成することにより、撮影対象領域の俯瞰画像を生成する。空間画像は、撮影対象領域を立体的に表した立体画像であり、あらかじめ作成されたものが空間画像記憶部8に記憶されている。
空間画像記憶部8に記憶されている空間画像は、各部屋、廊下、階段、エレベータといった個々の撮影対象領域(以下、個別領域という)の空間を立体的に表したものの他に、建物全体、フロア全体といったように複数の撮影対象領域を複合させた領域(以下、複合領域という)の空間を立体的に表したものもある。
俯瞰画像生成部4がどの撮影対象領域の立体画像をどの空間画像に合成するかは、ユーザが任意に指定することができるようになっている。すなわち、建物全体、フロア全体、フロア内の部屋、廊下、階段、エレベータのうちどの個別領域または複合領域を俯瞰画像としてディスプレイ400に表示させるのかについて、ユーザが操作部(図示せず)を操作することによって指定することが可能である。
操作受付部7は、この領域指定のための操作を受け付けて、その指定内容を俯瞰画像生成部4に通知する。俯瞰画像生成部4は、この通知を受けて、指定された領域(以下、表示対象領域という)の空間画像を空間画像記憶部8から読み出す。そして、読み出した空間画像に対し、表示対象領域について立体画像生成部3により生成された移動物体の立体画像を合成して俯瞰画像を生成する。なお、操作受付部7が領域指定の内容を立体画像生成部3にも通知し、指定された表示対象領域についてのみ移動物体の立体画像を生成するようにしてもよい。
表示制御部5は、俯瞰画像生成部4により生成された俯瞰画像をディスプレイ400に表示させるように制御する。上述したように、本実施形態では、どの領域の俯瞰画像をディスプレイ400に表示させるのかをユーザが操作部の操作によって指定可能となっている。表示制御部5は、指定された表示対象領域について立体画像生成部3および俯瞰画像生成部4により生成された俯瞰画像をディスプレイ400に表示させるように制御する。
また、本実施形態では、俯瞰画像をユーザが見る仮想的な視点(ディスプレイ画面手前の方向にある点)の位置を移動させて投影面31〜34の向きを変えることにより、様々な角度から見た俯瞰画像に任意に切り替えてディスプレイ400に表示させることも可能である。操作受付部7は、この視点移動のための操作を受け付けて、その指定内容を立体画像生成部3および俯瞰画像生成部4に通知する。
立体画像生成部3は、指定された視点の位置から見た投影面31〜34を設定し、上述した処理により移動物体の立体画像を生成する。また、俯瞰画像生成部4は、空間画像記憶部8から読み出した空間画像を、指定された視点の位置から見た状態の立体画像に変形させた上で、立体画像生成部3により生成された移動物体の立体画像を合成することによって俯瞰画像を生成する。表示制御部5は、このようにして指定された視点から見た状態の俯瞰画像をディスプレイ400に表示させる。
図4は、ディスプレイ400に表示される俯瞰画像の一例を示す図である。図4(a)は、表示対象領域として建物全体を指定したときに表示される俯瞰画像を示している。また、図4(b)は、表示対象領域としてある特定のフロア(ここでは7階)を指定したときに表示される俯瞰画像を示している。
図4(a)において、41-1〜41-9は建物内の各フロアを示した空間画像、42-1〜42-2は建物内のエレベータを示した空間画像である。各フロアの空間画像41-1〜41-9と、各エレベータの空間画像42-1〜42-2とにより建物全体の空間画像が構成されている。この建物全体の空間画像は、各フロアやエレベータの構造と位置関係を厳密に表したものではなく、簡略化して表したものとなっている。
また、図4(a)において、43は立体画像生成部3により生成された移動物体の立体画像を示している。本実施形態では、各フロアの各部屋等に撮影対象領域が設定されていて、その撮影対象領域毎に立体画像生成部3により移動物体の立体画像が生成されている。図4(a)に示すように建物全体といった複合領域の俯瞰画像を表示するときは、建物全体の空間画像に対して、複数の撮影対象領域毎に生成された移動物体の立体画像が、各フロアの各部屋内の対応する位置に合成される。
図4(b)において、44-1〜44-5はフロア内の各部屋を示し、45はフロア内の廊下を示している。これらの各部屋44-1〜44-5と廊下45とによりフロア全体の空間画像が構成されている。このフロア全体の空間画像は、各部屋や廊下の構造と位置関係とをある程度厳密に表したものとなっている。
また、図4(b)において、46は立体画像生成部3により生成された移動物体の立体画像を示している。図4(b)に示す例では、フロア内の各部屋や廊下に対して設定された撮影対象領域毎に立体画像生成部3により生成された移動物体の立体画像が、フロア全体の空間画像における対応する位置に合成されている。
図2に戻って説明する。関連情報生成部6は、移動物体の立体画像を構成している各画素の位置と、当該画素の値の投影元である撮影画像とを関連付ける関連情報を生成して関連情報記憶部9に記憶させる。図5は、関連情報記憶部9に記憶される関連情報の一例を示す図である。
図5に示すように、関連情報は、個々の移動物体の立体画像に対してユニークに付与された移動物体IDと、当該立体画像を構成している各画素の俯瞰画像上での座標位置と、当該立体画像を構成している各画素の値の投影元である撮影画像に対してユニークに付与された画像IDとを有している。
1つの立体画像は、複数のカメラにより撮影された複数の撮影画像から生成されている。すなわち、立体画像を構成している各画素の値の投影元である撮影画像は複数存在している。よって、画像IDは1つの移動物体IDに対して複数記憶されることになる。
ここで、移動物体IDと画像IDは、立体画像生成部3が撮影画像から移動物体の立体画像を生成するときに付与し、関連情報生成部6に通知する。また、立体画像を構成している各画素の俯瞰画像上での座標位置は、俯瞰画像生成部4が立体画像を空間画像に合成して俯瞰画像を生成するときに特定し、関連情報生成部6に通知する。
表示制御部5は、ユーザによる操作部の操作を通じて、ディスプレイ400に表示されている俯瞰画像の中から任意の立体画像上の位置が指定されたときに、関連情報記憶部9に記憶された関連情報を参照して、指定された位置に関連付けられた撮影画像をディスプレイ400に表示させるように制御する。
すなわち、ユーザの操作により俯瞰画像上の任意の位置が指定されたことを操作受付部7が受け付けると、その指定された位置を表示制御部5に通知する。表示制御部5は、関連情報記憶部9に記憶されている関連情報を参照して、俯瞰画像上で指定された位置が、移動物体の立体画像上の位置であるか否かを判定する。そうである場合、表示制御部5は、指定された位置に関連付けられた画像IDにより特定される撮影画像を画像入力部1から入力してディスプレイ400に表示させるように制御する。
なお、俯瞰画像上で指定された立体画像の位置に対して複数の画像IDが関連づけられている場合は、何れか1つの画像IDに対応する撮影画像を1画面に選択的に表示させるようにしてもよいし、複数の画像IDに対応する撮影画像を1画面に分割表示させるようにしてもよい。1つの撮影画像を選択的に表示させる場合、その選択ルールは任意に設定することが可能である。例えば、視点の位置に最も近い投影面に対応する撮影画像を選択するといったルールが考えられる。
図6は、以上のように構成した第1の実施形態による画像処理システムの一構成要素である画像処理装置300の動作例を示すフローチャートである。なお、図6に示すフローチャートは、画像処理装置300の電源をオンとしたときに開始する。
まず、画像処理装置300は、複数の画像入力装置201,202から複数の撮像部101,102による1フレーム分の撮影画像を入力する(ステップS1)。ここで、操作受付部7は、建物全体、フロア全体、フロア内の部屋、廊下、階段、エレベータのうちどの領域を俯瞰画像としてディスプレイ400に表示させるのかについて、操作部の操作によりユーザから表示対象領域の指定を受け付けたか否かを判定する(ステップS2)。
操作受付部7がこの表示対象領域を指定するための操作を受け付けた場合、立体画像生成部3および俯瞰画像生成部4は、その指定された表示対象領域について立体画像および俯瞰画像を生成するように設定を変更する(ステップS3)。一方、操作受付部7が表示対象領域を指定するための操作を受け付けていない場合、立体画像生成部3および俯瞰画像生成部4は上述のような設定の変更はしない。なお、初期状態では、例えば、建物全体の複合領域が表示対象領域として設定されている。
次に、操作受付部7は、ユーザが俯瞰画像を見る仮想的な視点の位置を移動させる操作を受け付けたか否かを判定する(ステップS4)。操作受付部7がこの指定移動の操作を受け付けた場合、立体画像生成部3および俯瞰画像生成部4は、移動された視点の位置から見た状態の投影面31〜34を設定する(ステップS5)。一方、操作受付部7が視点移動のための操作を受け付けていない場合、立体画像生成部3および俯瞰画像生成部4は上述のような投影面31〜34の変更はしない。
その後、奥行情報算出部2は、表示対象領域についてステップS1で入力された複数の撮影画像のそれぞれについて、当該撮影画像上から移動物体を検出する(ステップS6)。そして、各撮影画像から検出したそれぞれの移動物体について、カメラからの距離を表す奥行情報を画素毎に算出する(ステップS7)。
次に、立体画像生成部3は、表示対象領域に含まれる撮影対象領域毎に、複数の撮影画像から検出した移動物体の各画素の値を投影面31〜34の方向に奥行情報に従って投影させる。これにより、移動物体の立体画像を撮影対象領域毎に生成する(ステップS8)。
さらに、俯瞰画像生成部4は、ステップS8で撮影対象領域毎に生成された移動物体の立体画像を、表示対象領域(1つの撮影対象領域から成る個別領域または複数の撮影対象領域から成る複合領域)に対応する空間画像に合成することにより、表示対象領域の俯瞰画像を生成する(ステップS9)。そして、この生成された俯瞰画像を表示制御部5がディスプレイ400に表示させる(ステップS10)。
このように俯瞰画像がディスプレイ400に表示された状態で、操作受付部7は、ユーザが俯瞰画像上の任意の位置を指定する操作を受け付けたか否かを判定する(ステップS11)。この位置指定の操作を操作受付部7が受け付けていない場合、操作受付部7はさらに、画像処理装置300の電源をオフにする操作を受け付けたか否かを判定する(ステップS12)。
ここで、電源オフの操作を操作受付部7が受け付けていない場合、処理はステップS1に戻り、次のフレームの撮影画像を入力する。一方、電源オフの操作を操作受付部7が受け付けた場合、図6に示すフローチャートの処理は終了する。
上記ステップS11において、俯瞰画像上の任意の位置を指定する操作を操作受付部7が受け付けた場合、表示制御部5は、関連情報記憶部9に記憶されている関連情報を参照して、俯瞰画像上で指定された位置が移動物体の立体画像上の位置であるか否かを判定する(ステップS13)。
俯瞰画像上で指定された位置が移動物体の立体画像上の位置でなかった場合、処理はステップS12に進む。一方、俯瞰画像上で指定された位置が移動物体の立体画像上の位置であった場合、表示制御部5は、指定された位置に関連付けられた画像IDにより特定される撮影画像をディスプレイ400に表示させる(ステップS14)。
その後、操作受付部7は、撮影画像の表示を俯瞰画像の表示に戻すための操作を受け付けたか否かを判定する(ステップS15)。この操作を操作受付部7が受け付けた場合、処理はステップS12に進む。一方、この操作を操作受付部7が受け付けていない場合、操作受付部7はさらに、画像処理装置300の電源をオフにする操作を受け付けたか否かを判定する(ステップS16)。
ここで、電源オフの操作を操作受付部7が受け付けていない場合、画像処理装置300は、上記ステップS14で特定された画像IDに対応する撮影画像の次のフレームを入力する(ステップS17)。その後、処理はステップS14に戻り、当該入力した撮影画像を表示制御部5がディスプレイ400に表示させる。一方、電源オフの操作を操作受付部7が受け付けた場合、図6に示すフローチャートの処理は終了する。
以上詳しく説明したように、第1の実施形態によれば、撮影画像から検出した奥行情報に従って各画素の値が投影面31〜34の方向に投影されて成る点群のデータとして移動物体の立体画像が生成され、その立体画像が表示対象領域の空間画像と合成されて、1つの全体的な俯瞰画像として表示される。
そのため、大規模でフロア構成が複雑な建物などで撮影対象領域の数が増えたとしても、多数の撮影画像がディスプレイ400に画面分割して表示されたり時分割により切り替えて表示されたりするようなことはない。すなわち、建物の全体空間の中に複数の撮影対象領域が含まれていて、各々の撮影対象領域内に点群の立体画像が合成されて成る1つの俯瞰画像がディスプレイ400に表示されることとなる。
これにより、ユーザは、俯瞰画像の確認により建物全体の状況を一目で把握することができるようになる。また、画面分割して表示された個々の撮影画像がその表示サイズが小さくなって見づらくなるという不都合も解消することができる。したがって、第1の実施形態によれば、大規模でフロア構成が複雑な建物であっても、その俯瞰画像を分かりやすく提供することができ、建物全体の状況をユーザが容易に把握することができる。
なお、立体画像の描画には多面体モデルを用いるのが一般的だが、点群データを多面体モデル化するには連続性のある精度の高いデータが必要である。断続性の高いデータおよび精度の低いデータでは多面体モデル化が困難であり、データの3次元空間での統合は困難である。第1の実施形態によれば、断続性の高い精度の低い点群データであっても、人間が識別可能な移動物体の画像を描画することができる。
また、第1の実施形態によれば、複数の角度から撮影対象領域を撮影して得られた撮影画像から、それぞれの撮影画像に含まれる移動物体の各画素の値が各撮影画像の投影面の方向に投影されて立体画像が合成される。そのため、移動物体の立体画像を含む俯瞰画像を見る仮想的な視点の位置を移動させて投影面の向きを変えることにより、様々な角度から見た俯瞰画像に任意に切り替えてディスプレイ400に表示させることができる。
すなわち、第1の実施形態によれば、複数の撮影画像から点群のデータに加工された移動物体の立体画像を含む表示対象領域の俯瞰画像をディスプレイ400に表示させ、しかもその俯瞰画像の視点を任意に切り替えて表示させることができる。これにより、例えば、ある角度から見たときに物陰に隠れて見えなくなるようなものを俯瞰画像の角度を変えて表示させることも可能となる。
また、第1の実施形態によれば、建物全体、フロア全体、フロア内の部屋、廊下、階段、エレベータのうちどの個別領域または複合領域を俯瞰画像の表示対象領域とするかを任意に選んで切り替えることができる。これにより、例えば、建物全体あるいはフロア全体といった複合領域の俯瞰画像で各領域の移動物体の動きを1画面で俯瞰的に確認しつつ、必要に応じて任意の部屋、廊下、階段、エレベータといった個別領域の俯瞰画像に瞬時に切り替えて移動物体の動きを精緻に確認することができる。
さらに、第1の実施形態によれば、移動物体の立体画像を構成している点群データの各々の点(各画素)は、俯瞰画像上での位置と、当該画素の値の投影元である撮影画像とを関連付ける関連情報を有している。そのため、俯瞰画像上に表示されている移動物体の位置を指定することにより、その指定した移動物体が写っている元の撮影画像に切り替えて表示することもできる。これにより、点群のデータに加工される前の撮影画像そのものによって移動物体をより精密に監視することも可能である。
(第2の実施形態)
以下、本発明の第2の実施形態を図面に基づいて説明する。図7は、第2の実施形態による画像処理システムの構成例を示す図である。第2の実施形態も、本発明の画像処理システムを監視システムに実施した例を示す。
以下、本発明の第2の実施形態を図面に基づいて説明する。図7は、第2の実施形態による画像処理システムの構成例を示す図である。第2の実施形態も、本発明の画像処理システムを監視システムに実施した例を示す。
図7に示すように、第2の実施形態による監視システムは、図1に示した各構成に加え、タブレット、ノート型パーソナルコンピュータあるいはスマートフォン等の携帯端末600を備えている。この携帯端末600は、画像を表示させるディスプレイを備えている。この携帯端末600は、構内ネットワーク500を介して画像処理装置300に接続されている。
図8は、第2の実施形態による画像処理システムの機能構成例を示すブロック図である。なお、この図8において、図2に示した符号と同一の符号を付したものは同一の機能を有するものであるので、ここでは重複する説明を省略する。
図8に示すように、第2の実施形態による画像処理システムは、図2に示した機能構成に加えて、位置・方位検出部11、表示対象領域特定部12、画像送信部15および表示制御部16を備えている。また、立体画像生成部3および俯瞰画像生成部4の代わりに立体画像生成部13および俯瞰画像生成部14を備えている。
ここで、位置・方位検出部11および表示制御部16の機能は、図1に示した携帯端末600に備えられる。また、表示対象領域特定部12、立体画像生成部13、俯瞰画像生成部14および画像送信部15の機能は、図1に示した画像処理装置300に備えられる。
画像処理装置300が備える奥行情報算出部2、立体画像生成部13、俯瞰画像生成部14、表示制御部5、関連情報生成部6、操作受付部7、表示対象領域特定部12および画像送信部15の各機能は、ハードウェア、DSP、ソフトウェアの何れによっても構成することが可能である。ソフトウェアによって構成する場合、上記各機能は、実際には画像処理装置300のCPU、RAM、ROMなどを備えて構成され、RAMやROM、ハードディスクまたは半導体メモリ等の記録媒体に記憶された画像処理用プログラムが動作することによって実現される。
位置・方位検出部11は、携帯端末600の現在位置および携帯端末600が向けられている現在方位を検出する。この位置・方位検出部11は、例えばGPS受信機により構成される。位置・方位検出部11は、携帯端末600の現在位置および現在方位を常時検出し、検出した情報を構内ネットワーク500を介して画像処理装置300に常時送信している。
画像処理装置300の表示対象領域特定部12は、位置・方位検出部11により検出された携帯端末600の現在位置および現在方位に基づいて、複数の撮影対象領域の中から俯瞰画像として表示させる撮影対象領域を表示対象領域として特定する。
図9は、この表示対象領域特定部12による処理を説明するための図である。ここでは、図4(b)に示したフロアの間取りを示している。携帯端末600を所持した監視員がこのフロアの廊下45にいて、携帯端末600を部屋44-2の方向に向けていたとする。この場合、位置・方位検出部11により携帯端末600の現在位置PPおよび現在方位PDが検出され、画像処理装置300に送信される。
画像処理装置300の表示対象領域特定部12は、位置・方位検出部11により検出された携帯端末600の現在位置PPから現在方位PDの方向にある部屋44-2の撮影対象領域を、俯瞰画像を表示させる表示対象領域として特定する。
立体画像生成部13は、第1の実施形態で説明した機能に加えて、以下の機能を有する。すなわち、立体画像生成部13は、表示対象領域特定部12により表示対象領域が特定された場合、当該特定された表示対象領域に含まれる撮影対象領域について、第1の実施形態で説明した方法により立体画像を生成する。なお、図9の例では、表示対象領域に含まれる撮影対象領域は、部屋44-2の撮影対象領域の1つのみである。
ここで、立体画像を生成する際の投影面31〜34をどのような角度に設定するかについては、任意に決めることが可能である。例えば、位置・方位検出部11により検出された現在位置PPから現在方位PDの方向を見た状態で俯瞰画像が表示されるように、投影面31〜34の角度を現在位置PPおよび現在方位PDに応じて動的に設定する。あるいは、例えば図4(b)に示したような固定の角度で俯瞰画像が表示されるように、投影面31〜34を所定の角度にあらかじめ設定しておくようにしてもよい。
俯瞰画像生成部14は、第1の実施形態で説明した機能に加えて、以下の機能を有する。すなわち、俯瞰画像生成部14は、表示対象領域特定部12により表示対象領域が特定された場合、当該特定された表示対象領域について俯瞰画像を生成する。そして、俯瞰画像生成部4は、生成した俯瞰画像を画像送信部15に供給する。
画像送信部15は、俯瞰画像生成部14により生成された俯瞰画像を携帯端末600に送信する。携帯端末600の表示制御部16は、画像送信部15により送信された俯瞰画像を、位置・方位検出部11により検出された現在位置PPから現在方位PDの方向にある表示対象領域の俯瞰画像として、携帯端末600のディスプレイ(図示せず)に表示させる。
以上詳しく説明したように、第2の実施形態によれば、携帯端末600を用いて、壁の向こう側や別のフロアを移動している移動物体の動きをあたかも透視したように表示することができる。これにより、監視員は、例えば特定の人物を追跡する場合などに、その人物がいる場所とは異なる場所から、その人物の動きをリアルタイムに確認することができる。よって、監視能力が飛躍的に向上する。
なお、上記第2の実施形態では、携帯端末600のディスプレイに俯瞰画像を表示させる例について説明したが、本発明はこれに限定されない。例えば、HUD(Head-Up Display)等の携帯型ディスプレイを用いるようにしてもよい。この場合、当該携帯型ディスプレイにGPS受信機やデータ送受信機能を備えるのが好ましい。
(第3の実施形態)
以下、本発明の第3の実施形態を図面に基づいて説明する。第3の実施形態による画像処理システムの構成は、図1または図6と同様である。すなわち、第3の実施形態による画像処理システムは、上述した第1の実施形態または第2の実施形態の応用例である。以下では、第1の実施形態の応用例として第3の実施形態を説明する。
以下、本発明の第3の実施形態を図面に基づいて説明する。第3の実施形態による画像処理システムの構成は、図1または図6と同様である。すなわち、第3の実施形態による画像処理システムは、上述した第1の実施形態または第2の実施形態の応用例である。以下では、第1の実施形態の応用例として第3の実施形態を説明する。
図10は、第3の実施形態による画像処理システムの機能構成例を示すブロック図である。なお、この図10において、図2に示した符号と同一の符号を付したものは同一の機能を有するものであるので、ここでは重複する説明を省略する。
図10に示すように、第3の実施形態による画像処理システムは、図2に示した機能構成に加えて、動き検出部21、動きパターン記憶部22、動き判定部23、警報発生部24および移動物体追跡部26を備えている。また、表示制御部5の代わりに表示制御部25を備えている。動き検出部21、動きパターン記憶部22、動き判定部23、警報発生部24、表示制御部25、移動物体追跡部26の何れも、図1に示した画像処理装置300に備えられている。
画像処理装置300が備える奥行情報算出部2、立体画像生成部3、俯瞰画像生成部4、表示制御部25、関連情報生成部6、操作受付部7、動き検出部21、動き判定部23、警報発生部24および移動物体追跡部26の各機能は、ハードウェア、DSP、ソフトウェアの何れによっても構成することが可能である。ソフトウェアによって構成する場合、上記各機能は、実際には画像処理装置300のCPU、RAM、ROMなどを備えて構成され、RAMやROM、ハードディスクまたは半導体メモリ等の記録媒体に記憶された画像処理用プログラムが動作することによって実現される。
動き検出部21は、立体画像生成部3により生成された立体画像の時間軸上での変化を解析することにより、当該立体画像で表されている移動物体の動きを検出する。すなわち、所定のフレームレートに従って撮像部101,102により順次撮影される撮影画像を用いて立体画像生成部3により立体画像が順次生成されているので、動き検出部21は、順次される立体画像のフレーム間差分を検出することにより、当該立体画像で表される移動物体の動きを検出する。
本実施形態では、移動物体の移動の様子を検出するのみならず、移動物体の形状の細かい変化も検出する。立体画像は点群のデータで構成されているので、このような細かい変化の検出も可能である。例えば、移動物体が人物の場合、動き検出部21は、人体の骨格構造の動きまで検出することが可能である。
動きパターン記憶部22は、移動物体に関する特定の動きパターンのデータをあらかじめ記憶する。例えば、人が重い荷物を右手で持つと引き上げようという意識から右肩が上がって左肩が下がるとか、人が重い荷物を持って歩くと上下動が普段より大きくなるとか、そういった動きのパターンに関するデータを動きパターン記憶部22は記憶している。
動き判定部23は、動き検出部21により検出された移動物体の動きが、動きパターン記憶部22に記憶されている動きパターンと合致するか否かを判定する。なお、ここでいう合致とは、完全合致のみならず、合致度が所定値以上の場合を含む概念である。
警報発生部24は、動き判定部23により移動物体の動きが動きパターンと合致すると判定された場合に、所定の警報を発する。例えば、警報発生部24は、図11に示すように、動きパターンと合致すると判定された移動物体の周囲に枠60を表示するように表示制御部25を制御する。この枠60の表示と共に警報音を鳴らすようにしてもよい。
移動物体追跡部26は、動き判定部23により動きが動きパターンと合致すると判定された移動物体の時間軸上での動きを追跡する。動き検出部21により検出される人体の骨格構造の動きは、ある程度固有のものであり、連続性の特定にも利用できる。これにより、1つの撮影対象領域の撮影画像から順次生成される立体画像について、その動きの固有性をもとに同じ移動物体であることを特定して、その移動物体を追跡することが可能となる。
また、図12のように移動物体が複数の撮影対象領域を跨いて移動するような場合でも、その移動物体の連続した追跡が可能である。すなわち、移動物体が部屋44-2にいるときに当該部屋44-2の撮影対象領域について生成された立体画像と、移動物体が廊下45に移動した後に当該廊下45の撮影対象領域について生成された立体画像とが同じ移動物体のものであることを、その移動物体の動きの固有性をもとに容易に特定することができる。そのため、複数の撮影対象領域を跨いて移動する移動物体を確実に追跡することが可能となる。
移動物体追跡部26による移動物体の追跡結果は、例えば警報発生部24に通知する。警報発生部24、この追跡結果を受けて、動き判定部23により動きパターンと合致すると判定された移動物体の周囲に、警報のための枠60を追尾させて表示させる。
なお、上記第3の実施形態では、動き検出部21、動き判定部23、警報発生部24および移動物体追跡部26による解析処理を撮像部101,102による撮影と共にリアルタイムに行う例について説明したが、本発明はこれに限定されない。例えば、俯瞰画像生成部4により順次生成される俯瞰画像をデータベースに蓄積し、蓄積した俯瞰画像を対象として事後的に解析処理を行うようにしてもよい。
また、データベースに蓄積した俯瞰画像の事後的な解析処理により、過去に何らかの不正を働いた人物の特徴的な動きを動き検出部21により検出して、その動きを動きパターンのデータとして動きパターン記憶部22に記憶させるようにしてもよい。このようにすれば、要注意人物の監視を容易に行うことができる。すなわち、要注意人物が撮影対象領域内に入ってきたときに、その要注意人物の立体画像の周囲に枠60を表示させて監視員への注意を喚起することができる。
また、データベースに順次蓄積した俯瞰画像の中から、特定の動きを有する移動物体が含まれている時間帯の俯瞰画像のみを抽出して表示させることも可能である。その際、移動物体の軌跡を表示させることも可能であるし、移動物体の一連の動きをストロボ写真のように表示させることも可能である。また、骨格構造の動きで特定の変化がある部分を強調して表示させることも可能である。さらに、表示する時間間隔を間引くことによって移動物体の動きを見やすくすることも可能である。
なお、上記第1〜第3の実施形態では、本発明の画像処理システムを監視システムに実施する例について説明したが、本発明はこれに限定されない。例えば、小売店における来店者の解析(人数計測、購買行動認識など)、介護施設や病院等における安否確認や徘徊確認などのシステムに実施することも可能である。
また、上記第1〜第3の実施形態では、移動物体の奥行情報を検出するための手段としてステレオカメラを用いる例について説明したが、本発明はこれに限定されない。例えば、ステレオカメラの代わりに通常のカメラを用いる一方、レーダや赤外線、超音波等を用いる距離を測定するセンサを用いて撮像部101,102から移動物体までの距離を測定するようにしてもよい。
また、移動物体の立体画像を点群データとして生成するために、必ずしもカメラを用いて画像を撮像することは必須ではない。すなわち、レーダや赤外線等のセンサといった距離情報(奥行情報)を出力可能な装置を用いて、当該装置から移動物体までの距離を測定することにより、その距離情報から移動物体の立体画像を色情報を持たない点群データとして生成するようにしてもよい。この場合、描画時には適切な色を用いて描画を行う。
その他、上記第1〜第3の実施形態は、何れも本発明を実施するにあたっての具体化の一例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその要旨、またはその主要な特徴から逸脱することなく、様々な形で実施することができる。
Claims (6)
- 撮影対象領域を複数の角度から撮影するように設置された複数のカメラによりそれぞれ撮影された画像を入力する画像入力部と、
上記画像入力部により入力された複数の撮影画像に含まれる移動物体の上記カメラからの距離を表す奥行情報を画素毎に算出する奥行情報算出部と、
上記複数のカメラ間の相対的な角度関係に合わせて複数の投影面を設定し、上記画像入力部により入力された複数の撮影画像に含まれる上記移動物体の各画素の値を、各撮影画像に対応する投影面の方向に上記奥行情報に従って投影させることにより、上記複数の撮影画像に含まれている上記移動物体が1つに合成された立体画像を生成する立体画像生成部と、
上記立体画像生成部により生成された上記移動物体の立体画像を、上記撮影対象領域の空間を表す空間画像に合成することにより、上記撮影対象領域の俯瞰画像を生成する俯瞰画像生成部と、
上記俯瞰画像生成部により生成された俯瞰画像をディスプレイに表示させる表示制御部とを備えたことを特徴とする画像処理システム。 - 上記立体画像を構成している各画素の位置と、当該画素の値の投影元である撮影画像とを関連付けた関連情報を生成して関連情報記憶部に記憶させる関連情報生成部を更に備え、
上記表示制御部は、上記立体画像上の位置が指定されたときに、上記関連情報記憶部に記憶された関連情報を参照して、上記指定された位置に関連付けられた撮影画像を上記ディスプレイに表示させることを特徴とする請求項1に記載の商品情報提供システム。 - 上記ディスプレイは、携帯型ディスプレイまたは携帯端末に備えられたディスプレイにより構成され、
上記携帯型ディスプレイまたは上記携帯端末の現在位置および上記ディスプレイが向けられている現在方位を検出する位置・方位検出部と、
上記位置・方位検出部により検出された上記現在位置および上記現在方位に基づいて、複数の上記撮影対象領域の中から上記俯瞰画像として表示させる撮影対象領域を表示対象領域として特定する表示対象領域特定部とを更に備え、
上記立体画像生成部は、上記表示対象領域特定部により特定された上記表示対象領域に含まれる上記撮影対象領域について上記立体画像を生成し、
上記俯瞰画像生成部は、上記表示対象領域特定部により特定された上記表示対象領域について上記俯瞰画像を生成し、
上記表示制御部は、上記表示対象領域特定部により特定された上記表示対象領域の俯瞰画像を上記ディスプレイに表示させることを特徴とする請求項1に記載の画像処理システム。 - 上記立体画像生成部により生成された上記立体画像の時間軸上での変化を解析することにより、当該立体画像で表されている上記移動物体の動きを検出する動き検出部と、
上記移動物体に関する特定の動きパターンのデータを記憶する動きパターン記憶部と、
上記動き検出部により検出された上記移動物体の動きが、上記動きパターン記憶部に記憶されている動きパターンと合致するか否かを判定する動き判定部と、
上記動き判定部により上記移動物体の動きが上記動きパターンと合致すると判定された場合に警報を発する警報発生部とを更に備えたことを特徴とする請求項1に記載の画像処理システム。 - 上記動き判定部により上記移動物体の動きが上記動きパターンと合致すると判定された上記移動物体の時間軸上での動きを追跡する移動物体追跡部を更に備えたことを特徴とする請求項4に記載の画像処理システム。
- 撮影対象領域を複数の角度から撮影するように設置された複数のカメラからそれぞれ入力された複数の撮影画像を解析することにより、上記撮影画像に含まれる移動物体の上記カメラからの距離を表す奥行情報を画素毎に算出する奥行情報算出手段、
上記複数のカメラ間の相対的な角度関係に合わせて複数の投影面を設定し、上記複数のカメラからそれぞれ入力された複数の撮影画像に含まれる上記移動物体各画素の値を、各撮影画像に対応する投影面の方向に上記奥行情報に従って投影させることにより、上記複数の撮影画像に含まれている上記移動物体が1つに合成された立体画像を生成する立体画像生成手段、
上記立体画像生成手段により生成された上記移動物体の立体画像を、上記撮影対象領域の空間を表す空間画像に合成することにより、上記撮影対象領域の俯瞰画像を生成する俯瞰画像生成手段、および
上記俯瞰画像生成手段により生成された俯瞰画像をディスプレイに表示させる表示制御手段
としてコンピュータを機能させるための画像処理用プログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2013/060303 WO2014162554A1 (ja) | 2013-04-04 | 2013-04-04 | 画像処理システムおよび画像処理用プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6062039B2 true JP6062039B2 (ja) | 2017-01-18 |
JPWO2014162554A1 JPWO2014162554A1 (ja) | 2017-02-16 |
Family
ID=51657885
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015509805A Active JP6062039B2 (ja) | 2013-04-04 | 2013-04-04 | 画像処理システムおよび画像処理用プログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US9832447B2 (ja) |
JP (1) | JP6062039B2 (ja) |
WO (1) | WO2014162554A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020136882A (ja) * | 2019-02-19 | 2020-08-31 | 株式会社メディア工房 | 点群データ通信システム、点群データ送信装置および点群データ送信方法 |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10217003B2 (en) * | 2014-04-10 | 2019-02-26 | Sensormatic Electronics, LLC | Systems and methods for automated analytics for security surveillance in operation areas |
US10057546B2 (en) | 2014-04-10 | 2018-08-21 | Sensormatic Electronics, LLC | Systems and methods for automated cloud-based analytics for security and/or surveillance |
US11120274B2 (en) | 2014-04-10 | 2021-09-14 | Sensormatic Electronics, LLC | Systems and methods for automated analytics for security surveillance in operation areas |
US11093545B2 (en) | 2014-04-10 | 2021-08-17 | Sensormatic Electronics, LLC | Systems and methods for an automated cloud-based video surveillance system |
JP6573361B2 (ja) * | 2015-03-16 | 2019-09-11 | キヤノン株式会社 | 画像処理装置、画像処理システム、画像処理方法及びコンピュータプログラム |
JP2016201007A (ja) * | 2015-04-13 | 2016-12-01 | Ihi運搬機械株式会社 | 搬送設備の遠隔メンテナンスシステム |
JPWO2017013806A1 (ja) * | 2015-07-23 | 2018-05-10 | オリンパス株式会社 | 固体撮像装置 |
JP2017041125A (ja) * | 2015-08-20 | 2017-02-23 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
WO2017106846A2 (en) | 2015-12-18 | 2017-06-22 | Iris Automation, Inc. | Real-time visual situational awareness system |
WO2018079767A1 (ja) * | 2016-10-31 | 2018-05-03 | パナソニックIpマネジメント株式会社 | 建物画像生成装置および建物画像表示システム |
JP7320352B2 (ja) * | 2016-12-28 | 2023-08-03 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 三次元モデル送信方法、三次元モデル受信方法、三次元モデル送信装置及び三次元モデル受信装置 |
JP7132730B2 (ja) * | 2018-03-14 | 2022-09-07 | キヤノン株式会社 | 情報処理装置および情報処理方法 |
JP2022158042A (ja) * | 2021-04-01 | 2022-10-14 | キヤノン株式会社 | 光電変換装置 |
CN115205311B (zh) * | 2022-07-15 | 2024-04-05 | 小米汽车科技有限公司 | 图像处理方法、装置、车辆、介质及芯片 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002031515A (ja) * | 2000-07-17 | 2002-01-31 | Central Res Inst Of Electric Power Ind | カメラのキャリブレーション方法およびこれを利用する装置並びにキャリブレーションプログラムを記録したコンピュータ読み取り可能な記録媒体 |
JP2005173685A (ja) * | 2003-12-08 | 2005-06-30 | Canon Inc | 仮想空間構築装置およびその方法、画像合成装置およびその方法 |
JP2005252831A (ja) * | 2004-03-05 | 2005-09-15 | Mitsubishi Electric Corp | 設備監視支援装置 |
JP2006109118A (ja) * | 2004-10-06 | 2006-04-20 | Matsushita Electric Ind Co Ltd | 監視装置 |
JP2008217602A (ja) * | 2007-03-06 | 2008-09-18 | Toshiba Corp | 不審行動検知システム及び方法 |
WO2012124331A1 (ja) * | 2011-03-17 | 2012-09-20 | パナソニック株式会社 | 3d撮像装置 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS61226722A (ja) * | 1985-03-29 | 1986-10-08 | Canon Inc | 実体顕微鏡 |
US5850352A (en) * | 1995-03-31 | 1998-12-15 | The Regents Of The University Of California | Immersive video, including video hypermosaicing to generate from multiple video views of a scene a three-dimensional video mosaic from which diverse virtual video scene images are synthesized, including panoramic, scene interactive and stereoscopic images |
US20090040309A1 (en) | 2004-10-06 | 2009-02-12 | Hirofumi Ishii | Monitoring Device |
JP4827694B2 (ja) | 2006-11-06 | 2011-11-30 | パナソニック株式会社 | 監視システム |
JP2012004630A (ja) | 2010-06-14 | 2012-01-05 | Mitsubishi Electric Corp | 監視システム |
CN103501699B (zh) * | 2011-02-24 | 2016-01-13 | 卡丹医学成像股份有限公司 | 用于隔离成像数据中的潜在异常的方法和装置和其对医学图像的应用 |
WO2013067437A1 (en) * | 2011-11-02 | 2013-05-10 | Hoffman Michael Theodor | Systems and methods for dynamic digital product synthesis, commerce, and distribution |
US8719687B2 (en) * | 2011-12-23 | 2014-05-06 | Hong Kong Applied Science And Technology Research | Method for summarizing video and displaying the summary in three-dimensional scenes |
US20150178321A1 (en) * | 2012-04-10 | 2015-06-25 | Google Inc. | Image-based 3d model search and retrieval |
JP6316568B2 (ja) * | 2013-10-31 | 2018-04-25 | 株式会社トプコン | 測量システム |
US20160012646A1 (en) * | 2014-07-10 | 2016-01-14 | Perfetch, Llc | Systems and methods for constructing a three dimensional (3d) color representation of an object |
-
2013
- 2013-04-04 JP JP2015509805A patent/JP6062039B2/ja active Active
- 2013-04-04 WO PCT/JP2013/060303 patent/WO2014162554A1/ja active Application Filing
- 2013-04-04 US US14/781,642 patent/US9832447B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002031515A (ja) * | 2000-07-17 | 2002-01-31 | Central Res Inst Of Electric Power Ind | カメラのキャリブレーション方法およびこれを利用する装置並びにキャリブレーションプログラムを記録したコンピュータ読み取り可能な記録媒体 |
JP2005173685A (ja) * | 2003-12-08 | 2005-06-30 | Canon Inc | 仮想空間構築装置およびその方法、画像合成装置およびその方法 |
JP2005252831A (ja) * | 2004-03-05 | 2005-09-15 | Mitsubishi Electric Corp | 設備監視支援装置 |
JP2006109118A (ja) * | 2004-10-06 | 2006-04-20 | Matsushita Electric Ind Co Ltd | 監視装置 |
JP2008217602A (ja) * | 2007-03-06 | 2008-09-18 | Toshiba Corp | 不審行動検知システム及び方法 |
WO2012124331A1 (ja) * | 2011-03-17 | 2012-09-20 | パナソニック株式会社 | 3d撮像装置 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020136882A (ja) * | 2019-02-19 | 2020-08-31 | 株式会社メディア工房 | 点群データ通信システム、点群データ送信装置および点群データ送信方法 |
US11146773B2 (en) | 2019-02-19 | 2021-10-12 | Media Kobo, Inc. | Point cloud data communication system, point cloud data transmitting apparatus, and point cloud data transmission method |
Also Published As
Publication number | Publication date |
---|---|
JPWO2014162554A1 (ja) | 2017-02-16 |
US9832447B2 (en) | 2017-11-28 |
WO2014162554A1 (ja) | 2014-10-09 |
US20160119607A1 (en) | 2016-04-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6062039B2 (ja) | 画像処理システムおよび画像処理用プログラム | |
CN110383343B (zh) | 不一致检测***、混合现实***、程序和不一致检测方法 | |
CN107836012B (zh) | 投影图像生成方法及其装置、图像像素与深度值之间的映射方法 | |
JP6055823B2 (ja) | 監視カメラ制御装置及び映像監視システム | |
JP7423683B2 (ja) | 画像表示システム | |
JP6562437B1 (ja) | 監視装置、及び、監視方法 | |
JP5869712B1 (ja) | 没入型仮想空間に実空間のユーザの周辺環境を提示するためのヘッドマウント・ディスプレイ・システムおよびコンピュータ・プログラム | |
JP6712778B2 (ja) | 物体検知装置、物体検知システムおよび物体検知方法 | |
US11736802B2 (en) | Communication management apparatus, image communication system, communication management method, and recording medium | |
WO2014182898A1 (en) | User interface for effective video surveillance | |
CN107437063A (zh) | 用于感测环境的装置和方法、非暂态计算机可读介质 | |
JP2010093783A5 (ja) | ||
Chen et al. | Camera networks for healthcare, teleimmersion, and surveillance | |
JP2020194493A (ja) | 介護設備又は病院用の監視システム及び監視方法 | |
JP2006303989A (ja) | 監視装置 | |
US20160086372A1 (en) | Three Dimensional Targeting Structure for Augmented Reality Applications | |
US20180350216A1 (en) | Generating Representations of Interior Space | |
US10819883B2 (en) | Wearable scanning device for generating floorplan | |
JP7379785B2 (ja) | 3dツアーの比較表示システム及び方法 | |
WO2020144848A1 (ja) | オーサリング装置、オーサリング方法、及びオーサリングプログラム | |
JP2016134765A (ja) | 監視システム | |
KR101036107B1 (ko) | 고유식별 정보를 이용한 증강 현실 구현시스템 | |
KR102613487B1 (ko) | 전방위 영상 촬영 장치 및 그것을 포함하는 전자 장치 | |
JP2019101476A (ja) | 操作案内システム | |
Galatas et al. | Multi-modal person localization and emergency detection using the kinect |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20161206 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20161213 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6062039 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |