JP2008015573A - Image processor, image processing method and image monitoring system - Google Patents

Image processor, image processing method and image monitoring system Download PDF

Info

Publication number
JP2008015573A
JP2008015573A JP2006182940A JP2006182940A JP2008015573A JP 2008015573 A JP2008015573 A JP 2008015573A JP 2006182940 A JP2006182940 A JP 2006182940A JP 2006182940 A JP2006182940 A JP 2006182940A JP 2008015573 A JP2008015573 A JP 2008015573A
Authority
JP
Japan
Prior art keywords
real space
region
unit
image
coordinate system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006182940A
Other languages
Japanese (ja)
Inventor
Hideto Takeuchi
英人 竹内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2006182940A priority Critical patent/JP2008015573A/en
Publication of JP2008015573A publication Critical patent/JP2008015573A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To favorably determine the presence of a predetermined region (a kinetic region) in a real space. <P>SOLUTION: A kinetic region (a region where a moving body exists) is detected from the respective images obtained by photographing with cameras 111, 112 by a kinetic region detecting part 122. The detected kinetic regions are converted to a kinetic region of a plane coordinate system in a coordinate conversion part 123 using conversion information for converting the respective camera images obtained by a conversion information obtaining part 121 to a specified plane coordinate system in the real space. An overlap of the respective converted kinetic regions is detected by an overlap detecting part 124, and based on the detection result, it is determined by a determination part 125 whether or not a kinetic region exists in a specified plane in the real space. For example, when an overlap region is enough large, the existence is decided, and when an overlap region is small, noise is decided and excluded. Thus, the existence of a moving body of such a size to extend over the respective planes can be determined by conversion to a plurality of plane coordinate systems. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

この発明は、画像処理装置、画像処理方法および画像監視システムに関する。詳しくは、この発明は、実空間を撮影した複数の画像からそれぞれ所定領域である複数の領域を検出し、この検出された複数の領域をそれぞれ実空間内の指定された平面座標系に変換し、この変換された複数の画像の重なりにより実空間内の指定された平面における所定領域の存在を判定することによって、実空間内における所定領域の存在を良好に判定できるようにした画像処理装置等に係るものである。   The present invention relates to an image processing apparatus, an image processing method, and an image monitoring system. Specifically, the present invention detects a plurality of areas, which are predetermined areas, from a plurality of images obtained by photographing a real space, and converts each of the detected plurality of areas into a designated plane coordinate system in the real space. An image processing apparatus or the like that can determine the presence of a predetermined region in the real space by determining the presence of the predetermined region in the specified plane in the real space by overlapping the plurality of converted images. It is related to.

画像を用いた三次元物体計測では、一般にステレオ画像処理アルゴリズムが用いられることが多い。しかし、ステレオ画像処理システムには、演算量が多いためハードウェア化が必要になる、カメラ間間隔(ベースライン)を長くすることが難しいため正確なキャリブレーションが必要である、などのデメリットが知られている。   In three-dimensional object measurement using images, a stereo image processing algorithm is generally used in many cases. However, the stereo image processing system has disadvantages such as a large amount of computation, which requires hardware, and it is difficult to lengthen the inter-camera interval (baseline), so accurate calibration is necessary. It has been.

視体積交差法は、ステレオ画像処理に比べ、正確な三次元形状を取得する必要がなく、より多くのカメラを用いて簡便な手法で立体形状を計測することが可能である。視体積交差法では、複数視点のシルエット画像を取得し、それを三次元空間上に逆投影することにより、その形状を復元する。ステレオ画像処理アルゴリズムを用いた場合よりも三次元計測の精度は落ちるが、物体のだいたいの大きさ、構造を求めるには十分である。この視体積交差法は、例えば非特許文献1に記載されており、図11はその概念図を示している。   The visual volume intersection method does not need to acquire an accurate three-dimensional shape as compared with stereo image processing, and can measure a three-dimensional shape by a simple method using more cameras. In the view volume intersection method, silhouette images of a plurality of viewpoints are acquired, and their shapes are restored by back projecting them onto a three-dimensional space. Although the accuracy of three-dimensional measurement is lower than when using a stereo image processing algorithm, it is sufficient to determine the approximate size and structure of an object. This visual volume intersection method is described in Non-Patent Document 1, for example, and FIG. 11 shows a conceptual diagram thereof.

この視体積交差法では、ある空間に物体が存在することを、各カメラで得られた画像を実空間内のある平面に投影し、各画像を重ね合わせ、テクスチャの違いを見ることで判定する。各変換画像のテクスチャが同じであれば、そこに物体があると判定する。この視体積交差法を使った物体検知方法は、例えば特許文献1等に記載されている。
ウ小軍、和田俊和、東海彰吾、松山隆司、"平面間透視投影を用いた並列視体積交差法“、Vol.42No.SIG6(CVIM2) 情報処理学会論文誌:コンピュータビジョンとイメージメディア、June 2001. 特開2002‐366932号公報
In this visual volume intersection method, the existence of an object in a certain space is determined by projecting the image obtained by each camera onto a certain plane in the real space, overlaying each image, and looking at the difference in texture. . If the textures of the converted images are the same, it is determined that there is an object there. An object detection method using this visual volume intersection method is described in, for example, Patent Document 1 and the like.
U Small Army, Toshikazu Wada, Shogo Tokai, Takashi Matsuyama, "Parallel volumetric intersection method using inter-plane perspective projection", Vol.42No.SIG6 (CVIM2) IPSJ Transactions on Computer Vision and Image Media, June 2001 . JP 2002-366932 A

特許文献1等に記載される物体検知方法では、実空間内のある平面に投影された各画像のテクスチャの違いを見ることで物体の存在を判定するものであり、処理部の負荷が大きく、また夜間等でテクスチャが十分に取れない場合、あるいはノイズが多く載っている場合には、テクスチャの比較が難しいことから物体の存在の判定を良好に行うことができない。   In the object detection method described in Patent Literature 1 and the like, the presence of an object is determined by looking at the difference in texture of each image projected on a certain plane in real space, and the load on the processing unit is large. In addition, when the texture is not sufficiently obtained at night or when there is a lot of noise, it is difficult to compare the textures, and thus the presence of the object cannot be determined satisfactorily.

この発明の目的は、実空間内における所定領域の存在を良好に判定可能とすることにある。   An object of the present invention is to make it possible to satisfactorily determine the presence of a predetermined area in real space.

この発明の概念は、
実空間を撮影して得られた第1〜第N(Nは2以上の整数)の画像からそれぞれ所定領域である第1〜第Nの領域を検出する領域検出部と、
上記第1〜第Nの画像をそれぞれ上記実空間内の指定された平面座標系に変換するための第1〜第Nの座標変換情報を用いて、上記領域検出部で検出された上記第1〜第Nの領域をそれぞれ上記平面座標系の領域に変換する座標変換部と、
上記座標変換部で得られた上記平面座標系の複数の領域の重なりを検出する重なり検出部と、
上記重なり検出部の検出結果に基づいて、上記実空間内の指定された平面における所定領域の存在を判定する判定部と
を備えることを特徴とする画像処理装置にある。
The concept of this invention is
An area detection unit that detects first to Nth areas, which are predetermined areas, from first to Nth (N is an integer of 2 or more) images obtained by photographing a real space;
The first to N-th images detected by the region detection unit using the first to N-th coordinate conversion information for converting the first to N-th images respectively into a designated plane coordinate system in the real space. A coordinate conversion unit for converting each of the Nth region into a region of the planar coordinate system;
An overlap detection unit for detecting an overlap of a plurality of regions of the planar coordinate system obtained by the coordinate conversion unit;
An image processing apparatus comprising: a determination unit that determines presence of a predetermined region in a specified plane in the real space based on a detection result of the overlap detection unit.

この発明においては、実空間を撮影して得られた第1〜第Nの画像からそれぞれ所定領域である第1〜第Nの領域が検出される。第1〜第Nの画像は、例えば第1〜第Nの画像撮影部により、互いに視野の一部が重なるように実空間が撮影されて得られる。所定領域は、例えば動体領域(画像内で動物体が存在する領域)等であって、何らかの方法で検出可能な領域である。例えば、動体領域の検出は、従来周知のフレーム間差分処理あるいは背景差分処理等を用いて行われる。   In the present invention, first to Nth areas, which are predetermined areas, are detected from first to Nth images obtained by photographing a real space. The first to Nth images are obtained, for example, by photographing the real space so that the fields of view overlap each other by the first to Nth image photographing units. The predetermined area is, for example, a moving object area (an area where a moving object exists in an image) or the like, and can be detected by some method. For example, the moving object region is detected by using a conventionally known inter-frame difference process or background difference process.

このように検出された第1〜第Nの画像はそれぞれ実空間内の指定された平面座標系に変換される。この場合、第1〜第Nの画像をそれぞれ実空間内の指定された平面座標系に変換するための第1〜第Nの座標変換情報が用いられる。この第1〜第Nの座標変換情報としては予め設定されているもの、あるいは変換情報取得部を備えていて第1〜第Nの画像に基づいて適宜のタイミングで取得したものが使用される。座標変換情報を適宜なタイミングで取得することで、例えば画像撮影部(カメラ)が風などで動く場合であっても常に最適な座標変換情報を使用し得る。   The first to Nth images detected in this way are each converted into a designated plane coordinate system in the real space. In this case, first to Nth coordinate conversion information for converting each of the first to Nth images into a designated plane coordinate system in the real space is used. As the first to N-th coordinate conversion information, information set in advance or information obtained at an appropriate timing based on the first to N-th images provided with a conversion information acquisition unit is used. By acquiring the coordinate conversion information at an appropriate timing, for example, even when the image capturing unit (camera) moves in the wind or the like, the optimal coordinate conversion information can always be used.

平面座標系に変換された複数の領域の重なりが検出される。そして、その検出結果に基づいて、実空間における所定領域の存在が判定される。例えば、重なり領域がある一定以上の大きさがある場合に、その平面に所定領域が存在するものと判定される。この判定結果は、例えばモニタ部(PC)で提示される。   Overlap of a plurality of areas converted into the plane coordinate system is detected. Based on the detection result, the presence of the predetermined area in the real space is determined. For example, when the overlap area has a certain size or more, it is determined that the predetermined area exists on the plane. This determination result is presented, for example, on a monitor unit (PC).

この場合、所定領域が存在すると判定された実空間の位置を、該位置を示すメタデータに変換するメタデータ化部をさらに備えるようにしてもよい。例えば、このメタデータで表示部に所定領域が存在する位置を表示することで、ユーザは所定領域が存在する実空間位置を容易に把握できる。   In this case, you may make it further provide the metadata conversion part which converts the position of the real space determined that the predetermined area | region exists into the metadata which shows this position. For example, by displaying the position where the predetermined area exists on the display unit with this metadata, the user can easily grasp the real space position where the predetermined area exists.

この発明は、上述したように、実空間を撮影して得られた複数の画像からそれぞれ所定領域である複数の領域を検出し、この検出された複数の領域をそれぞれ実空間内の指定された平面座標系に変換し、この変換された複数の画像の重なりにより実空間内の指定された平面における所定領域の存在を判定するものであり、上述した特許文献1に記載されるように各変換画像のテクスチャの違いをみるものではなく、処理部の負荷が小さくなり、また夜間やノイズが多く乗っている場合であっても所定領域の存在を良好に判定できる。   As described above, the present invention detects a plurality of areas, which are predetermined areas, from a plurality of images obtained by photographing a real space, and each of the detected plurality of areas is designated in the real space. It is converted into a plane coordinate system, and the presence of a predetermined area in a specified plane in the real space is determined by the overlap of the plurality of converted images. As described in Patent Document 1 described above, each conversion is performed. The difference in the texture of the image is not observed, the load on the processing unit is reduced, and the presence of the predetermined area can be determined well even at night or when there is a lot of noise.

なお、実空間内の指定された平面座標系は、この平面に直交した方向に所定間隔をもって存在する複数の平面にそれぞれ対応した複数の平面座標系であって、領域検知部で検出された第1〜第Nの領域がそれぞれ複数の平面座標系の領域に変換されるようにしてもよい。この場合、複数の平面座標系に交わる上述した直交した方向にある程度の大きさを持つ所定領域の存在を判定できる。   The designated plane coordinate system in the real space is a plurality of plane coordinate systems respectively corresponding to a plurality of planes existing at a predetermined interval in a direction orthogonal to the plane, and the first coordinate system detected by the area detection unit. The 1st to Nth areas may be converted into areas of a plurality of plane coordinate systems, respectively. In this case, it is possible to determine the presence of a predetermined area having a certain size in the above-described orthogonal direction intersecting a plurality of plane coordinate systems.

この発明によれば、実空間を撮影した複数の画像からそれぞれ所定領域である複数の領域を検出し、この検出された複数の領域をそれぞれ実空間内の指定された平面座標系に変換し、この変換された複数の画像の重なりにより実空間内の指定された平面における所定領域の存在を判定するものであり、実空間内における所定領域の存在を良好に判定できる。   According to the present invention, a plurality of areas that are predetermined areas are detected from a plurality of images obtained by photographing the real space, and the detected plurality of areas are respectively converted into designated plane coordinate systems in the real space, The presence of the predetermined area in the designated plane in the real space is determined by the overlap of the plurality of converted images, and the presence of the predetermined area in the real space can be determined well.

以下、図面を参照しながら、この発明の実施の形態について説明する。図1は、実施の形態としての画像監視システム100の概略構成を示している。この画像監視システム100は、監視部110と、処理部120と、モニタ部130とを有している。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 shows a schematic configuration of an image monitoring system 100 as an embodiment. The image monitoring system 100 includes a monitoring unit 110, a processing unit 120, and a monitor unit 130.

監視部110は、カメラ等を用いた画像入力の機能を持つ。この監視部110は、2台以上のカメラを用いて構成でき、カメラの台数が多いほど、処理部120における後述する実空間における所定領域の存在の判定精度を高めることができる。この実施の形態では、説明を簡単にするために、2台のカメラを用いたものとする。   The monitoring unit 110 has an image input function using a camera or the like. The monitoring unit 110 can be configured using two or more cameras, and the greater the number of cameras, the higher the determination accuracy of the presence of a predetermined area in the real space described later in the processing unit 120. In this embodiment, it is assumed that two cameras are used in order to simplify the description.

処理部120は、監視部110のカメラで撮影して得られる画像に基づいて、実空間内における所定領域、この実施の形態では動体領域(動いている物体が存在する領域)の検知機能を持つ。モニタ部130は、処理部120の判定結果をユーザに提示する機能を持つ。   The processing unit 120 has a function of detecting a predetermined area in the real space, in this embodiment, a moving object area (an area where a moving object exists), based on an image obtained by photographing with the camera of the monitoring unit 110. . The monitor unit 130 has a function of presenting the determination result of the processing unit 120 to the user.

例えば、監視部110はカメラユニットで構成され、処理部120およびモニタ部130はPC(パーソナルコンピュータ)で構成される。また例えば、監視部110および処理部120はカメラユニットで構成され、モニタ部130はPCで構成される。この場合、カメラユニットからPCに処理結果がメタデータ等で送られて提示される。   For example, the monitoring unit 110 is configured by a camera unit, and the processing unit 120 and the monitoring unit 130 are configured by a PC (personal computer). Further, for example, the monitoring unit 110 and the processing unit 120 are configured by a camera unit, and the monitor unit 130 is configured by a PC. In this case, the processing result is sent as metadata from the camera unit to the PC and presented.

さらに例えば、監視部110および処理部120の一部はカメラユニットで構成され、処理部120の一部およびモニタ部130はPCで構成される。この場合、カメラユニットからPCに画像と処理結果がメタデータ等で送られ、PCで残りの処理が行われ、処理結果が提示される。カメラユニット内で処理部の一部もしくは全部を行うことで、後段の処理を軽減できる。   Further, for example, a part of the monitoring unit 110 and the processing unit 120 is configured by a camera unit, and a part of the processing unit 120 and the monitoring unit 130 are configured by a PC. In this case, the image and the processing result are sent from the camera unit to the PC as metadata, the remaining processing is performed by the PC, and the processing result is presented. By performing part or all of the processing unit in the camera unit, it is possible to reduce subsequent processing.

モニタ部130では、監視部110のカメラからの画像信号による画像が表示される他、その画像上に処理によって検出された動体領域が重ねて表示され、さらにはその動体領域における実空間の位置を示す文字、記号、マークなどが表示される。この文字、記号、マークなどの表示は、動体領域における実空間の位置(座標)が例えばテーブルを参照してその位置を示すメタデータに変換されことで可能とされる。   In the monitor unit 130, an image based on an image signal from the camera of the monitoring unit 110 is displayed, and a moving object region detected by processing is displayed on the image so as to be superimposed. Further, the position of the real space in the moving object region is displayed. Displayed characters, symbols, marks, etc. are displayed. This display of characters, symbols, marks, etc. is made possible by converting the position (coordinates) of the real space in the moving object region into metadata indicating the position with reference to a table, for example.

また、このモニタ部130では、実空間に動体領域が存在するとの判定時点でアラーム音を発生してユーザに知らせることができる。なお、この他、メール送信、バイブレーション等、ユーザの注意を引くことのできる警告が利用可能である。また、判定時点で画像の録画を開始するなどのトリガとしても利用可能である。   In addition, the monitor unit 130 can generate an alarm sound to notify the user when it is determined that a moving object area exists in the real space. In addition, warnings that can attract the user's attention, such as email transmission and vibration, can be used. It can also be used as a trigger for starting image recording at the time of determination.

図2は、画像監視システム100の具体的な構成を示している。   FIG. 2 shows a specific configuration of the image monitoring system 100.

監視部110は、2台のカメラ111,112を有している。これらカメラ111,112は、それぞれ画像撮影部を構成している。カメラ111,112は、それぞれ、互いに視野の一部が重なるように実空間を撮影する。例えば、カメラ111,112は、いわゆるステレオカメラのように近くに並べて配置してもよいし、あるいは所定の距離を取って配置してもよい。   The monitoring unit 110 has two cameras 111 and 112. Each of these cameras 111 and 112 constitutes an image photographing unit. Each of the cameras 111 and 112 captures a real space so that a part of the field of view overlaps each other. For example, the cameras 111 and 112 may be arranged side by side like a so-called stereo camera, or may be arranged at a predetermined distance.

処理部120は、変換情報取得部121と、動体領域検出部122と、座標変換部123と、重なり検出部124と、判定部125とを有している。変換情報取得部121は、カメラ111,112で撮影して得られた画像に基づき、それらの画像をそれぞれ実空間内の指定された平面座標系に変換するための座標変換情報(カメラ画像座標系と実空間座標系間の変換情報)を取得する。   The processing unit 120 includes a conversion information acquisition unit 121, a moving object region detection unit 122, a coordinate conversion unit 123, an overlap detection unit 124, and a determination unit 125. The conversion information acquisition unit 121 is coordinate conversion information (camera image coordinate system) for converting each of these images into a specified plane coordinate system in the real space based on the images acquired by the cameras 111 and 112. And conversion information between real space coordinate system).

この場合、変換情報取得部121は、例えば実空間に設置されたマーカーの画像上における位置と実空間での位置から、キャリブレーションを行って、変換情報を算出する。もしくは、明確にマーカーを使わなくても、画像内の数点と実空間の数点の対応をとることで、変換情報を算出する。たとえば、画像内を身長などのわかっている人に動き回ってもらうことで、対応を取ることができる。また、画像内に特徴的な物が写っている場合にはそれを手がかりにすることでマーカーをつける必要はなくなる。   In this case, the conversion information acquisition unit 121 calculates the conversion information by performing calibration from the position of the marker installed in the real space on the image and the position in the real space, for example. Alternatively, the conversion information is calculated by taking correspondence between several points in the image and several points in the real space without clearly using a marker. For example, it is possible to take action by having a person whose height is known move around in the image. Further, when a characteristic object is reflected in the image, it is not necessary to attach a marker by using it as a clue.

この変換情報取得部121における変換情報の算出を、実空間における動体領域の存在の判定処理を行う前に予め行っておくことで、処理の高速化をはかることができる。カメラ111,112等が風邪や振動によって動くことを考慮する場合は、毎時位置関係を把握しキャリブレーションすることも可能である。   By calculating the conversion information in the conversion information acquisition unit 121 in advance before performing the determination process of the existence of the moving object region in the real space, the processing speed can be increased. When considering that the cameras 111, 112, etc. move due to a cold or vibration, it is possible to grasp and calibrate the positional relationship every hour.

ここで、座標変換情報の算出処理について、さらに説明する。   Here, the coordinate conversion information calculation process will be further described.

座標変換情報は、例えば、実空間内に所定数、例えば4つのマーカーを配置し、それをカメラで撮影することで算出できる。このとき、実空間内でのマーカーの位置は分かっているものとする。   The coordinate conversion information can be calculated, for example, by arranging a predetermined number, for example, four markers in the real space and photographing them with a camera. At this time, it is assumed that the position of the marker in the real space is known.

カメラ画像座標におけるある点Piの位置を(x,y,zとする。zは定数(例えば1)と考えてよい。このとき、実空間座標における同じ点の位置を(X,Y,Zと表すと、カメラ座像座標と実空間座標の関係は、(1)式で表すことができる。ここで、λは倍率を表す定数、Hは射影変換行列である。 The position of a certain point Pi in the camera image coordinates is assumed to be (x i , y i , z h ) T. z h may be considered as a constant (eg, 1). At this time, if the position of the same point in the real space coordinates is expressed as (X i , Y i , Z i ) T , the relationship between the camera seat image coordinates and the real space coordinates can be expressed by the following equation (1). Here, λ i is a constant representing a magnification, and H is a projective transformation matrix.

Figure 2008015573
Figure 2008015573

ここで、射影変換行列Hは、(2)式で表される。   Here, the projective transformation matrix H is expressed by equation (2).

Figure 2008015573
Figure 2008015573

この射影変換行列を求めることで、カメラ画像座標と実空間座標の関連が求められる。(1)式を変形することで、λは(3)式のように求まる。 By obtaining this projective transformation matrix, the relationship between camera image coordinates and real space coordinates is obtained. By modifying equation (1), λ i can be obtained as in equation (3).

Figure 2008015573
Figure 2008015573

この(3)式を再度(1)式に代入することで、(4)式および(5)式の関係式が求まる。   By substituting Equation (3) into Equation (1) again, the relational expressions of Equations (4) and (5) can be obtained.

Figure 2008015573
Figure 2008015573

そして、この(4)式、(5)式を、Ah=0の形式に書き直すと、(6)式のようになる。   Then, when rewriting Formulas (4) and (5) in the format of Ah = 0, Formula (6) is obtained.

Figure 2008015573
Figure 2008015573

(6)式における射影変換行列h=(H111213212223313233を求めるためには、複数のカメラ画像上の点と実空間上の点の位置の組を複数用意することで算出可能である。複数の点を用いた場合、Aは(7)式に示すようになる。 In order to obtain the projective transformation matrix h = (H 11 H 12 H 13 H 21 H 22 H 23 H 31 H 32 H 33 ) T in Equation (6), a point on a plurality of camera images and a point on the real space It can be calculated by preparing a plurality of sets of positions. When a plurality of points are used, A is as shown in Equation (7).

Figure 2008015573
Figure 2008015573

例えば、実空間上で同一平面上にある点を両座標系で十分なだけ用意し、行列Aを作成することで、hはAAの最小固有値に対する固有ベクトルとして求まる。このようにして求まった座標変換情報は、上述したように、カメラ画像を実空間内の指定された平面に投影する際に用いられる。この平面の指定は、例えばPCの操作部を操作することで行うことができる。 For example, a sufficient number of points on the same plane in real space are prepared in both coordinate systems, and the matrix A is created, whereby h is obtained as an eigenvector for the minimum eigenvalue of A T A. As described above, the coordinate conversion information obtained in this way is used when a camera image is projected onto a designated plane in real space. The designation of this plane can be performed by operating the operation unit of the PC, for example.

動体領域検出部122は、カメラ111,112で撮影して得られた画像から、それぞれ、動体領域(画像内で動いている物体が存在する領域)を検出する。この動体領域検出部122は、従来周知の背景差分処理やフレーム間差分処理を用いることで、画像内で動いている物体の領域を検出する。   The moving body region detection unit 122 detects a moving body region (a region where an object moving in the image exists) from the images obtained by photographing with the cameras 111 and 112, respectively. The moving object region detection unit 122 detects the region of the moving object in the image by using conventionally known background difference processing and inter-frame difference processing.

背景差分処理は、動体領域が写っていない背景画像を作成し、この背景画像と入力画像とを比較することで、動体領域を検出する手法である。フレーム間差分処理は、入力画像(現在の画像)と過去の画像とを比較することで、変化領域を動体領域として検出する手法である。   Background difference processing is a method of detecting a moving object region by creating a background image that does not include a moving object region and comparing the background image with an input image. The inter-frame difference process is a method of detecting a change area as a moving object area by comparing an input image (current image) with a past image.

座標変換部123は、カメラ111,112のそれぞれで得られる画像に対応して変換情報取得部121で取得された座標変換情報を用いて、カメラ111,112の画像から動体領域検出部122で検出された各動体領域を、それぞれ、実空間内の指定された平面座標系に変換する。この処理により、各動体領域は、それぞれ、実空間における指定平面に投影変換される。ここで、指定平面は、1つの平面だけでなく、この平面に直交した方向に所定間隔を持って存在する複数の平面であってもよい。   The coordinate conversion unit 123 is detected by the moving object region detection unit 122 from the images of the cameras 111 and 112 using the coordinate conversion information acquired by the conversion information acquisition unit 121 corresponding to the images obtained by the cameras 111 and 112, respectively. Each moving object region thus converted is converted into a designated plane coordinate system in the real space. By this processing, each moving object region is projected and converted to a designated plane in the real space. Here, the designated plane is not limited to a single plane, but may be a plurality of planes existing at a predetermined interval in a direction orthogonal to the plane.

重なり検出部124は、座標変換部123で実空間内の指定された平面座標系に変換された各動体領域の重なりを検出する。判定部125は、重なり検出部124の検出結果に基づいて、実空間内の指定された平面における動体領域の存在を判定する。例えば、重なり領域がある一定以上の大きさである場合に、動体領域が存在すると判定する。重なり領域は実空間に投影されているため、判定部125では、動体領域が存在する実空間における位置も同時に特定できる。   The overlap detection unit 124 detects an overlap of each moving object region converted into a designated plane coordinate system in the real space by the coordinate conversion unit 123. Based on the detection result of the overlap detection unit 124, the determination unit 125 determines the presence of a moving object region on a specified plane in the real space. For example, it is determined that the moving object region exists when the overlapping region has a certain size or more. Since the overlapping area is projected in the real space, the determination unit 125 can simultaneously specify the position in the real space where the moving object area exists.

複数の平面での動体領域の重なり結果を用いることで、例えば地面からの高さの異なる複数の平面において同一地点に動体領域が存在するという判定結果を得ることができ、高さのある動物体の検知精度を向上できる。   By using the overlapping results of moving object areas in a plurality of planes, for example, it is possible to obtain a determination result that a moving object area exists at the same point in a plurality of planes having different heights from the ground. Detection accuracy can be improved.

この判定部125の判定結果が上述したようにモニタ部130に送られる。そして、モニタ部130で、ユーザに、判定結果、つまり実空間内における動体領域の検知結果が提示される。   The determination result of the determination unit 125 is sent to the monitor unit 130 as described above. Then, the monitor unit 130 presents the determination result, that is, the detection result of the moving object region in the real space to the user.

なお、判定部125では、動体領域が存在するかしないかの判定を行うと同時に、上述したように動体領域が存在する実空間における位置を求めることが可能である。動体領域が重なる領域の位置は投影された実空間の位置に合致する。そのため、動体領域の位置を後段のモニタ部130に送り、動体領域の位置をユーザに提示することができる。たとえば、監視している場所が、電車のプラットホームの場合であれば、何両目あたりの箇所に動体領域が存在するかという細かい情報を提示することができる。このとき処理部120で得られた処理結果は、例えばメタデータ化されてモニタ部130に送られる。この場合、判定部125は、メタデータ化部も構成している。   The determination unit 125 can determine whether or not the moving object region exists, and at the same time obtain the position in the real space where the moving object region exists as described above. The position of the area where the moving object area overlaps coincides with the position of the projected real space. Therefore, the position of the moving object area can be sent to the monitor unit 130 at the subsequent stage, and the position of the moving object area can be presented to the user. For example, if the place being monitored is a train platform, detailed information on how many eyes the moving object area exists can be presented. At this time, the processing result obtained by the processing unit 120 is converted to metadata, for example, and sent to the monitor unit 130. In this case, the determination unit 125 also constitutes a metadata conversion unit.

次に、図1、図2に示す画像監視システム100における処理の流れを説明する。   Next, the flow of processing in the image monitoring system 100 shown in FIGS. 1 and 2 will be described.

図3は、処理の流れを大まかに示している。処理は大きく二つに別れ、座標変換情報を取得する処理(ステップST1)と、実際に実空間内における動体領域(動物体)を検知する処理(ステップST2)とからなる。なお、図3では、座標変換情報を取得した後、実空間内における動体領域を検知するようになっているが、座標変換情報の取得を、動体領域を検知しながら行うこともできる。   FIG. 3 roughly shows the flow of processing. The processing is roughly divided into two, and includes processing for acquiring coordinate conversion information (step ST1) and processing for actually detecting a moving object region (animal body) in real space (step ST2). In FIG. 3, the moving object region in the real space is detected after the coordinate conversion information is acquired. However, the coordinate conversion information can be acquired while detecting the moving object region.

図4は、動体領域検知処理の流れを示している。   FIG. 4 shows the flow of the moving object region detection process.

処理が開始された後、ステップST11で、処理平面の番号を示すNを1とすると共に、処理カメラの番号を示すMを1とする。この実施の形態では、例えばカメラ111のカメラ番号が1とされ、カメラ112のカメラ番号が2とされ、Mの最大値Mmaxは2である。そして、ステップST12で、番号Mのカメラで撮影されて得られた画像が動体領域検出部122に入力される。   After the processing is started, in step ST11, N indicating the number of the processing plane is set to 1, and M indicating the number of the processing camera is set to 1. In this embodiment, for example, the camera number of the camera 111 is 1, the camera number of the camera 112 is 2, and the maximum value Mmax of M is 2. In step ST <b> 12, an image obtained by shooting with the camera of number M is input to the moving object region detection unit 122.

次に、ステップST13で、動体領域検出部122により、ステップST12で入力された番号Mのカメラの画像から動体領域が検出される。そして、ステップST14で、座標変換部123により、変換情報取得部121で取得された番号Mのカメラの画像を変換するための座標変換情報に基づいて、当該番号Mのカメラの画像からステップST13で検出された動体領域を、実空間内の、番号Nの平面の座標系に変換する。   Next, in step ST13, the moving object region detection unit 122 detects the moving object region from the image of the camera with the number M input in step ST12. In step ST14, based on the coordinate conversion information for converting the image of the camera of number M acquired by the conversion information acquisition unit 121 by the coordinate conversion unit 123, in step ST13, the image of the camera of number M is used. The detected moving body region is converted into a coordinate system of a plane number N in real space.

次に、ステップST15で、平面番号Nが最大値Nmaxより小さいか否かを判定する。N<Nmaxであるときは、ステップST16で、Nの値を1だけ増加し、ステップST14に戻り、当該番号Mのカメラの画像を次の平面の座標系に変換する処理に移行する。平面番号Nが最大値NmaxとなってN<Nmaxでなくなるときは、ステップST17に進む。   Next, in step ST15, it is determined whether or not the plane number N is smaller than the maximum value Nmax. When N <Nmax, the value of N is incremented by 1 in step ST16, and the process returns to step ST14 to shift to the process of converting the image of the camera with the number M into the coordinate system of the next plane. When the plane number N becomes the maximum value Nmax and N <Nmax is not satisfied, the process proceeds to step ST17.

このステップST17では、カメラ番号Mが最大値Mmaxより小さいか否かを判定する。M<Mmaxであるときは、ステップST18で、Mの値を1だけ増加し、ステップST12に戻り、次のカメラの画像の座標変換処理に移行する。カメラ番号Mが最大値MmaxとなってM<Mmaxでなくなるときは、ステップST19に進む。   In step ST17, it is determined whether the camera number M is smaller than the maximum value Mmax. If M <Mmax, the value of M is increased by 1 in step ST18, and the process returns to step ST12 to shift to the coordinate conversion process for the next camera image. When the camera number M becomes the maximum value Mmax and M <Mmax is not satisfied, the process proceeds to step ST19.

このステップST19では、重なり検出部124により、上述したように実空間内の指定された平面座標系に変換された各カメラの画像に係る動体領域の重なりを検出する。例えば、全ての動体領域のアンド処理を行うことで、全てのカメラに係る全ての平面に動体領域が存在する領域のみを検出できる。   In this step ST19, the overlap detection unit 124 detects the overlap of the moving object regions related to the images of the respective cameras converted into the designated plane coordinate system in the real space as described above. For example, by performing AND processing on all moving object regions, it is possible to detect only regions where moving object regions exist on all planes related to all cameras.

次に、ステップST20で、判定部125により、ステップST19の検出結果に基づいて、実空間内の指定された平面に動体領域が存在するか否かが判定される。例えば、ステップST19で検出される領域が十分に大きい場合には存在すると判定し、一方ステップST19で検出される領域が小さい場合にはノイズとして除外する。また、ステップST19で検出される領域があまりにも大きい場合を取り除くことも可能である。   Next, in step ST20, the determination unit 125 determines whether or not a moving object region exists on a specified plane in the real space based on the detection result in step ST19. For example, if the area detected in step ST19 is sufficiently large, it is determined that the area exists. On the other hand, if the area detected in step ST19 is small, it is excluded as noise. It is also possible to remove the case where the area detected in step ST19 is too large.

なお、図4に示す動体検知処理の流れでは、画像入力から各平面への座標変換の処理を各カメラからの画像に対してシーケンシャルに行うようになっているが、各カメラからの画像を並列的に処理してもよい。   In the flow of the moving object detection process shown in FIG. 4, the coordinate conversion process from image input to each plane is performed sequentially on the image from each camera, but the images from each camera are arranged in parallel. May be processed automatically.

次に、図1、図2に示す画像監視システム100における、動体領域検知処理の具体例について説明する。この具体例は、電車のプラットホームに沿って、カメラ111,112を所定距離、例えば50mほど間をあけて設置した場合の例である。   Next, a specific example of moving object region detection processing in the image monitoring system 100 shown in FIGS. 1 and 2 will be described. In this specific example, the cameras 111 and 112 are installed along a train platform at a predetermined distance, for example, about 50 m apart.

図5A,Bは、それぞれ、カメラ111,112で撮影されて得られ、変換情報取得部121および動体領域検出部122に入力される画像の一例を示している。これら図5A,Bの画像例では、動きのある物体である人物MNは、プラットホームPFにおり、線路LWには侵入していない。一方、図6A,Bは、それぞれ、カメラ111,112で撮影されて得られ、変換情報取得部121および動体領域検出部122に入力される画像の他の例を示している。これら図6A,Bの画像例では、動きのある物体である人物MNは、線路LWに侵入している。動体領域検知処理では、このように人物MNが線路LWに侵入したことを検知できる。   5A and 5B show examples of images obtained by being photographed by the cameras 111 and 112 and input to the conversion information acquisition unit 121 and the moving object region detection unit 122, respectively. In these image examples of FIGS. 5A and 5B, the person MN, which is a moving object, is on the platform PF and has not entered the track LW. On the other hand, FIGS. 6A and 6B show other examples of images obtained by being photographed by the cameras 111 and 112 and input to the conversion information acquisition unit 121 and the moving object region detection unit 122, respectively. In the image examples of FIGS. 6A and 6B, the person MN, which is a moving object, has entered the track LW. In the moving object region detection process, it is possible to detect that the person MN has entered the track LW in this way.

図7A,Bは、それぞれ、図6A,Bに示すカメラ画像を、実空間内の座標系に変換して得られた画像(上方から観察した画像)の一例を示している。ただし、実際には、座標変換部123では、動体領域検出部122で検出された動体領域が、実空間内の指定された平面座標系、ここでは地面に平行な平面の座標系に変換されるので、図6A,Bに示すカメラ画像から検出された動体領域が、それぞれ、図8A,Bに示すように、実空間内の指定された平面の動体領域MAa,MAbに変換される。なお、図8A,Bは1つの平面の座標系に変換されたものを示しているが、実空間内に地面に平行な複数の高さの平面の座標系が指定されているときは、それぞれの平面に対応して変換が行われる。   7A and 7B show examples of images (images observed from above) obtained by converting the camera images shown in FIGS. 6A and 6B into a coordinate system in real space, respectively. However, in practice, the coordinate conversion unit 123 converts the moving object region detected by the moving object region detection unit 122 into a designated plane coordinate system in the real space, here, a coordinate system of a plane parallel to the ground. Therefore, the moving object areas detected from the camera images shown in FIGS. 6A and 6B are converted into moving object areas MAa and MAb of designated planes in the real space, as shown in FIGS. 8A and 8B, respectively. 8A and 8B show one converted into a coordinate system of one plane, but when a coordinate system of a plurality of height planes parallel to the ground is specified in the real space, Conversion is performed corresponding to the plane of

重なり検出部124では、図8A,Bに示すように実空間内の平面座標系に変換された動体領域MAa,MAbの重なりが検出される。図9は、動体領域MAa,MAbが重なった状態を示している。また、図10は、動体領域MAa,MAbが重なっていない状態を示している。   8A and 8B, the overlap detector 124 detects the overlap of the moving object areas MAa and MAb converted into the plane coordinate system in the real space. FIG. 9 shows a state in which the moving body areas MAa and MAb overlap. FIG. 10 shows a state where the moving body areas MAa and MAb do not overlap.

判定部125では、重なりの検出結果に基づいて、実空間内の指定された平面における動体領域の存在が判定される。例えば、図9に示すように動体領域MAa,MAbの重なり領域が大きいときには、実空間内の指定された平面に動体が存在しているものと判定され、図10に示すように動体領域MAa,MAbの重なり領域が全くないか、あるいは小さいときは、実空間内の指定された平面に動体が存在していないと判定される。   The determination unit 125 determines the presence of a moving object region on a specified plane in the real space based on the overlap detection result. For example, when the overlapping area of the moving object areas MAa and MAb is large as shown in FIG. 9, it is determined that the moving object exists on a specified plane in the real space, and as shown in FIG. When there is no or small MAb overlapping area, it is determined that there is no moving object on the specified plane in the real space.

この場合、上述したように実空間内に地面に平行な複数の高さの複数の平面の座標系が予め指定されている場合であって、各平面座標系に変換された動体領域の重なり領域が大きい場合には、線路上に各平面に跨る高さの動物体、例えば人物がいると判定できる。   In this case, as described above, the coordinate system of a plurality of planes having a plurality of heights parallel to the ground is designated in advance in the real space, and the overlapping area of the moving object regions converted into the respective plane coordinate systems When is large, it can be determined that there is an animal body, such as a person, having a height straddling each plane on the track.

図1、図2に示す画像監視システム100によれば、カメラ111,112で実空間を撮影して得られた画像からそれぞれ動体領域が検出され、この検出領域がそれぞれ実空間内の指定された平面座標系に変換され、この変換された複数の動体領域の重なりにより実空間内の指定された平面における動体領域の存在が判定されるものである。各変換画像のテクスチャの違いをみるものではなく、処理部120の負荷を低減でき、また夜間やノイズが多く乗っている場合であっても動体領域の存在を良好に判定できる。   According to the image monitoring system 100 shown in FIGS. 1 and 2, moving object regions are detected from images obtained by photographing the real space with the cameras 111 and 112, and the detection regions are designated in the real space. It is converted into a plane coordinate system, and the existence of the moving object region in the designated plane in the real space is determined by the overlapping of the converted moving object regions. The difference in texture of each converted image is not seen, the load on the processing unit 120 can be reduced, and the presence of a moving object region can be determined well even at night or when there is a lot of noise.

なお、上述実施の形態においては、カメラ111,112で撮影されて得られた画像に基づいて、実空間内で指定された平面に動体領域が存在しているか否かを判定可能としたものであるが、判断対象は動体領域に限定されるものではなく、その他の所定領域、例えば道路上の固定障害物等であってもよい。   In the above-described embodiment, it is possible to determine whether or not a moving object area exists on a plane designated in the real space based on images obtained by the cameras 111 and 112. However, the determination target is not limited to the moving object area, and may be another predetermined area such as a fixed obstacle on the road.

この発明は、実空間内における所定領域の存在を良好に判定できるものであり、例えば線路上の障害物等を監視する画像監視システム等に適用できる。   The present invention can satisfactorily determine the presence of a predetermined region in real space, and can be applied to, for example, an image monitoring system for monitoring obstacles on a track.

実施の形態としての画像監視システムの概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the image monitoring system as embodiment. 実施の形態としての画像監視システムの具体的な構成を示すブロック図である。It is a block diagram which shows the specific structure of the image monitoring system as embodiment. 画像監視システムにおけるおおまかな処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a rough process in an image monitoring system. 画像監視システムにおける動体領域検知処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the moving body area | region detection process in an image monitoring system. 電車のプラットホームに沿って所定距離をあけて設置された2つのカメラで撮影されて得られたカメラ画像の一例を示す図である。It is a figure which shows an example of the camera image acquired by image | photographing with two cameras installed at predetermined distances along the platform of a train. 電車のプラットホームに沿って所定距離をあけて設置された2つのカメラで撮影されて得られたカメラ画像の一例(侵入)を示す図である。It is a figure which shows an example (intrusion) of the camera image acquired by image | photographing with two cameras installed at predetermined distance along the platform of a train. カメラ画像を実空間内の座標系に変換して得られた画像(上方から観察した画像)の一例を示している。An example of an image obtained by converting a camera image into a coordinate system in real space (an image observed from above) is shown. カメラ画像から検出された動体領域が実空間内の指定された平面座標系の動体領域に変換された例を示す図である。It is a figure which shows the example into which the moving body area | region detected from the camera image was converted into the moving body area | region of the designated plane coordinate system in real space. 実空間内の指定平面の座標系に変換された2つの動体領域が重なっている例を示す図である。It is a figure which shows the example which the two moving body area | regions converted into the coordinate system of the designated plane in real space have overlapped. 実空間内の指定平面の座標系に変換された2つの動体領域が重なっていない例を示す図である。It is a figure which shows the example in which the two moving body area | regions converted into the coordinate system of the designated plane in real space have not overlapped. 視体積交差法の概念を示す図である。It is a figure which shows the concept of a visual volume intersection method.

符号の説明Explanation of symbols

100・・・画像監視システム、110・・・監視部、111,112・・・カメラ、120・・・処理部、121・・・変換情報取得部、122・・・動体領域検出部、123・・・座標変換部、124・・・重なり検出部、125・・・判定部、130・・・モニタ部   DESCRIPTION OF SYMBOLS 100 ... Image monitoring system, 110 ... Monitoring part, 111, 112 ... Camera, 120 ... Processing part, 121 ... Conversion information acquisition part, 122 ... Moving body area | region detection part, 123 * ..Coordinate conversion unit, 124 ... overlap detection unit, 125 ... determination unit, 130 ... monitor unit

Claims (7)

実空間を撮影して得られた第1〜第N(Nは2以上の整数)の画像からそれぞれ所定領域である第1〜第Nの領域を検出する領域検出部と、
上記第1〜第Nの画像をそれぞれ上記実空間内の指定された平面座標系に変換するための第1〜第Nの座標変換情報を用いて、上記領域検出部で検出された上記第1〜第Nの領域を、それぞれ上記平面座標系の領域に変換する座標変換部と、
上記座標変換部で得られた上記平面座標系の複数の領域の重なりを検出する重なり検出部と、
上記重なり検出部の検出結果に基づいて、上記実空間内の指定された平面における上記所定領域の存在を判定する判定部と
を備えることを特徴とする画像処理装置。
An area detection unit that detects first to Nth areas, which are predetermined areas, from first to Nth (N is an integer of 2 or more) images obtained by photographing a real space;
The first to N-th images detected by the region detection unit using the first to N-th coordinate conversion information for converting the first to N-th images respectively into a designated plane coordinate system in the real space. A coordinate conversion unit for converting each of the Nth region into a region of the planar coordinate system;
An overlap detection unit for detecting an overlap of a plurality of regions of the planar coordinate system obtained by the coordinate conversion unit;
An image processing apparatus comprising: a determination unit that determines presence of the predetermined region on a specified plane in the real space based on a detection result of the overlap detection unit.
上記所定領域は、動物体が存在する領域である動体領域である
ことを特徴とする請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the predetermined area is a moving body area in which a moving object is present.
上記第1〜第Nの画像に基づき、該第1〜第Nの画像をそれぞれ上記実空間内の指定された平面座標系に変換する上記第1〜第Nの座標変換情報を取得する変換情報取得部をさらに備える
ことを特徴とする請求項1に記載の画像処理装置。
Conversion information for acquiring the first to N-th coordinate conversion information for converting the first to N-th images into the designated plane coordinate system in the real space based on the first to N-th images, respectively. The image processing apparatus according to claim 1, further comprising an acquisition unit.
上記実空間内の指定された平面座標系は、該平面に直交した方向に所定間隔をもって存在する複数の平面にそれぞれ対応した複数の平面座標系であって、
上記座標変換部は、上記領域検出部で検出された上記第1〜第Nの領域を、それぞれ上記複数の平面座標系の領域に変換する
ことを特徴とする請求項1に記載の画像処理装置。
The designated plane coordinate system in the real space is a plurality of plane coordinate systems respectively corresponding to a plurality of planes existing at a predetermined interval in a direction orthogonal to the plane,
The image processing apparatus according to claim 1, wherein the coordinate conversion unit converts the first to Nth areas detected by the area detection unit into areas of the plurality of planar coordinate systems. .
上記判定部で上記所定領域が存在すると判定された上記実空間の位置を、該位置を示すメタデータに変換するメタデータ化部をさらに備える
ことを特徴とする請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, further comprising: a metadata conversion unit that converts the position of the real space determined by the determination unit to include the predetermined area into metadata indicating the position. .
実空間を撮影して得られた第1〜第N(Nは2以上の整数)の画像からそれぞれ所定領域である第1〜第Nの領域を検出する領域検出ステップと、
上記第1〜第Nの画像をそれぞれ上記実空間内の指定された平面座標系に変換するための第1〜第Nの座標変換情報を用いて、上記領域検出ステップで検出された上記第1〜第Nの領域を、それぞれ上記平面座標系の領域に変換する座標変換ステップと、
上記座標変換ステップで得られた上記平面座標系の複数の領域の重なりを検出する重なり検出ステップと、
上記重なり検出ステップの検出結果に基づいて、上記実空間内の指定された平面における上記所定領域の存在を判定する判定ステップと
を備えることを特徴とする画像処理方法。
An area detection step of detecting first to Nth areas, which are predetermined areas, from first to Nth (N is an integer of 2 or more) images obtained by photographing a real space;
The first to N-th images detected in the region detection step using the first to N-th coordinate conversion information for converting the first to N-th images respectively into a designated plane coordinate system in the real space. A coordinate conversion step of converting each of the Nth region to the region of the planar coordinate system;
An overlap detection step of detecting an overlap of a plurality of regions of the planar coordinate system obtained in the coordinate conversion step;
An image processing method comprising: a determination step of determining the presence of the predetermined region on a specified plane in the real space based on a detection result of the overlap detection step.
実空間を互いに視野の一部が重なるように撮影する第1〜第N(Nは2以上の整数)の画像撮影部と、
上記第1〜第Nの画像撮影部で撮影して得られた第1〜第Nの画像からそれぞれ所定領域である第1〜第Nの領域を検出する領域検出部と、
上記第1〜第Nの画像をそれぞれ上記実空間内の指定された平面座標系に変換するための第1〜第Nの座標変換情報を用いて、上記領域検出部で検出された上記第1〜第Nの領域を、それぞれ上記平面座標系の領域に変換する座標変換部と、
上記座標変換部で得られた上記平面座標系の複数の領域の重なりを検出する重なり検出部と、
上記重なり検出部の検出結果に基づいて、上記実空間内の指定された平面における上記所定領域の存在を判定する判定部と、
上記判定部の判定結果を提示するするモニタ部と
を備えることを画像監視システム。
First to Nth (N is an integer greater than or equal to 2) image photographing units that photograph real space so that parts of the field of view overlap each other;
An area detecting unit for detecting first to Nth areas, which are predetermined areas, from the first to Nth images obtained by photographing with the first to Nth image photographing parts;
The first to N-th images detected by the region detection unit using the first to N-th coordinate conversion information for converting the first to N-th images respectively into a designated plane coordinate system in the real space. A coordinate conversion unit for converting each of the Nth region to the region of the planar coordinate system;
An overlap detection unit for detecting an overlap of a plurality of regions of the planar coordinate system obtained by the coordinate conversion unit;
A determination unit that determines the presence of the predetermined region in a specified plane in the real space based on a detection result of the overlap detection unit;
An image monitoring system comprising: a monitor unit that presents a determination result of the determination unit.
JP2006182940A 2006-07-03 2006-07-03 Image processor, image processing method and image monitoring system Pending JP2008015573A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006182940A JP2008015573A (en) 2006-07-03 2006-07-03 Image processor, image processing method and image monitoring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006182940A JP2008015573A (en) 2006-07-03 2006-07-03 Image processor, image processing method and image monitoring system

Publications (1)

Publication Number Publication Date
JP2008015573A true JP2008015573A (en) 2008-01-24

Family

ID=39072553

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006182940A Pending JP2008015573A (en) 2006-07-03 2006-07-03 Image processor, image processing method and image monitoring system

Country Status (1)

Country Link
JP (1) JP2008015573A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010101227A1 (en) 2009-03-04 2010-09-10 日本電気株式会社 Device for creating information for positional estimation of matter, method for creating information for positional estimation of matter, and program
WO2010126071A1 (en) 2009-04-28 2010-11-04 日本電気株式会社 Object position inference device, object position inference method, and program
US9299000B2 (en) 2010-06-23 2016-03-29 Nec Corporation Object region extraction system, method and program
US9652857B2 (en) 2011-07-01 2017-05-16 Nec Corporation Object detection apparatus detection method and program
KR101785205B1 (en) 2016-05-17 2017-10-18 한국과학기술원 Method and Apparatus for Multi-object Segmentation based on Shadow using Depth Sensor
JP2018055198A (en) * 2016-09-26 2018-04-05 キヤノン株式会社 Image processing device, image processing method, and program
US10769951B2 (en) 2015-09-30 2020-09-08 Sony Corporation Image processing apparatus, image processing method, and vehicle control system to determine the presence of an object from an image of a peripheral area of a moving body
CN111951201A (en) * 2019-05-16 2020-11-17 杭州海康机器人技术有限公司 Unmanned aerial vehicle aerial image splicing method and device and storage medium
JP2021033601A (en) * 2019-08-23 2021-03-01 公益財団法人鉄道総合技術研究所 Safety confirmation method

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010101227A1 (en) 2009-03-04 2010-09-10 日本電気株式会社 Device for creating information for positional estimation of matter, method for creating information for positional estimation of matter, and program
US8995714B2 (en) 2009-03-04 2015-03-31 Nec Corporation Information creation device for estimating object position and information creation method and program for estimating object position
EP2405393A4 (en) * 2009-03-04 2016-10-26 Nec Corp Device for creating information for positional estimation of matter, method for creating information for positional estimation of matter, and program
WO2010126071A1 (en) 2009-04-28 2010-11-04 日本電気株式会社 Object position inference device, object position inference method, and program
CN102414718A (en) * 2009-04-28 2012-04-11 日本电气株式会社 Object position inference device, object position inference method, and program
JP5454573B2 (en) * 2009-04-28 2014-03-26 日本電気株式会社 Object position estimation apparatus, object position estimation method, and program
US8885879B2 (en) 2009-04-28 2014-11-11 Nec Corporation Object position estimation device, object position estimation method and program
US9299000B2 (en) 2010-06-23 2016-03-29 Nec Corporation Object region extraction system, method and program
US9652857B2 (en) 2011-07-01 2017-05-16 Nec Corporation Object detection apparatus detection method and program
US10769951B2 (en) 2015-09-30 2020-09-08 Sony Corporation Image processing apparatus, image processing method, and vehicle control system to determine the presence of an object from an image of a peripheral area of a moving body
KR101785205B1 (en) 2016-05-17 2017-10-18 한국과학기술원 Method and Apparatus for Multi-object Segmentation based on Shadow using Depth Sensor
JP2018055198A (en) * 2016-09-26 2018-04-05 キヤノン株式会社 Image processing device, image processing method, and program
CN111951201A (en) * 2019-05-16 2020-11-17 杭州海康机器人技术有限公司 Unmanned aerial vehicle aerial image splicing method and device and storage medium
CN111951201B (en) * 2019-05-16 2024-01-23 杭州海康威视数字技术股份有限公司 Unmanned aerial vehicle aerial image splicing method, device and storage medium
JP2021033601A (en) * 2019-08-23 2021-03-01 公益財団法人鉄道総合技術研究所 Safety confirmation method
JP7141987B2 (en) 2019-08-23 2022-09-26 公益財団法人鉄道総合技術研究所 Safety confirmation method

Similar Documents

Publication Publication Date Title
JP2008015573A (en) Image processor, image processing method and image monitoring system
JP5097765B2 (en) Measuring method, measuring program and measuring device
JP4537557B2 (en) Information presentation system
JP3054681B2 (en) Image processing method
JP2016057108A (en) Arithmetic device, arithmetic system, arithmetic method and program
JP2008506953A5 (en)
JP2003083742A (en) Distance correction apparatus and method of monitoring system
KR101011813B1 (en) Installaion for displaying overlap line of adjoined digital aerial photograph
JPH0997337A (en) Trespasser monitor device
JP5463584B2 (en) Displacement measuring method, displacement measuring apparatus, and displacement measuring program
EP3161412B1 (en) Indexing method and system
JP2016175586A (en) Vehicle periphery monitoring device, vehicle periphery monitoring method, and program
JP4077385B2 (en) Global coordinate acquisition device using image processing
JP7121644B2 (en) Temperature treatment device and temperature treatment method
CN108510528A (en) A kind of method and device of visible light and infrared image registration fusion
JP6171781B2 (en) Gaze analysis system
JP4914870B2 (en) Congestion degree measuring device, congestion degree measuring method, congestion degree measuring program, and recording medium recording the program
JP4752319B2 (en) Image recognition apparatus and image recognition method
JP5837404B2 (en) Image processing apparatus and image processing method
JP2005141655A (en) Three-dimensional modeling apparatus and three-dimensional modeling method
JPH11248431A (en) Three-dimensional model forming apparatus and computer readable medium recorded with three-dimensional model generating program
WO2019186677A1 (en) Robot position/posture estimation and 3d measurement device
WO2018134866A1 (en) Camera calibration device
JP5230354B2 (en) POSITIONING DEVICE AND CHANGED BUILDING DETECTION DEVICE
JP4742695B2 (en) Gaze recognition apparatus and gaze recognition method