JP4976939B2 - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP4976939B2
JP4976939B2 JP2007176039A JP2007176039A JP4976939B2 JP 4976939 B2 JP4976939 B2 JP 4976939B2 JP 2007176039 A JP2007176039 A JP 2007176039A JP 2007176039 A JP2007176039 A JP 2007176039A JP 4976939 B2 JP4976939 B2 JP 4976939B2
Authority
JP
Japan
Prior art keywords
coordinate system
monitoring
image
information
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007176039A
Other languages
Japanese (ja)
Other versions
JP2009017179A (en
Inventor
一成 岩永
光恵 伊藤
渡 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Kokusai Electric Inc
Original Assignee
Hitachi Kokusai Electric Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Kokusai Electric Inc filed Critical Hitachi Kokusai Electric Inc
Priority to JP2007176039A priority Critical patent/JP4976939B2/en
Publication of JP2009017179A publication Critical patent/JP2009017179A/en
Application granted granted Critical
Publication of JP4976939B2 publication Critical patent/JP4976939B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、撮像装置により撮像される画像に対して領域などの情報を設定する画像処理装置に関し、特に、例えば、異なる配置を有する複数の撮像装置を用いる場合や或いは撮像装置の配置を変更するような場合においても、領域などの情報の設定に要する作業の負担を低減した画像処理装置に関する。   The present invention relates to an image processing apparatus that sets information such as a region for an image captured by an imaging apparatus, and particularly, for example, when a plurality of imaging apparatuses having different arrangements are used or the arrangement of imaging apparatuses is changed. Even in such a case, the present invention relates to an image processing apparatus that reduces the burden of work required for setting information such as areas.

例えば、CCD(Charge Coupled Deice)やCMOS(Complementary Metal−Oxide Semiconductor)などといった固体撮像素子を搭載した撮像装置によって監視領域を撮像した画像(入力画像)を画像処理機能によって処理し、入力画像中の所定の物体を自動的に検出するような監視装置が、従来より広く用いられている。   For example, an image (input image) obtained by imaging a monitoring area by an imaging device equipped with a solid-state imaging device such as a charge coupled device (CCD) or a complementary metal-oxide semiconductor (CMOS) is processed by an image processing function. Monitoring devices that automatically detect a predetermined object have been widely used.

このような入力画像中の所定の物体を自動的に検出する方法の一例として、差分法と呼ばれる方法が従来より使用されている。
図12を参照して、差分法の基本的な処理の様子を説明する。
図12には、差分法による物体検出方法の概略の一例を示してある。
まず、入力画像301と、予め用意された背景画像302がある。差分器303は、入力画像301と背景画像302との画素毎の差分を計算し、差分画像304を算出する。ここで、入力画像301に映る人型の物体(検出すべき物体)311は、差分画像304中で、差分が生じた領域312として検出される。次に、二値化器305は、差分画像304の各画素の値と所定のしきい値(例えば、1画素8ビットを仮定して、しきい値20)とを比較し、しきい値以上の画素の値を“255”とする一方でしきい値未満の画素の値を“0”とする変換を行う。これにより、二値化画像306が得られる。ここで、差分画像304で差分が生じた領域312は、二値化された画素(検出された物体)313として検出され、更にラベリングなどの処理によって、二値化された画素のかたまりを番号付けすることで、検出された物体が存在する領域314が得られる。
As an example of a method for automatically detecting a predetermined object in such an input image, a method called a difference method has been conventionally used.
With reference to FIG. 12, the basic process of the difference method will be described.
FIG. 12 shows an example of an outline of the object detection method based on the difference method.
First, there are an input image 301 and a background image 302 prepared in advance. The differentiator 303 calculates a difference for each pixel between the input image 301 and the background image 302 and calculates a difference image 304. Here, a humanoid object (object to be detected) 311 shown in the input image 301 is detected as a region 312 where a difference has occurred in the difference image 304. Next, the binarizer 305 compares the value of each pixel of the difference image 304 with a predetermined threshold value (for example, a threshold value 20 assuming that one pixel is 8 bits), and is equal to or higher than the threshold value. The pixel value of “255” is set to “255” while the pixel value less than the threshold value is set to “0”. Thereby, the binarized image 306 is obtained. Here, a region 312 in which a difference is generated in the difference image 304 is detected as a binarized pixel (detected object) 313, and a binarized pixel block is numbered by a process such as labeling. As a result, a region 314 where the detected object exists is obtained.

このような監視装置では、撮像された入力画像中で、いずれの領域に存在する物体を検出すべき物体とするかという情報(領域情報)を予め設定する必要がある。従来の監視装置では、このような領域設定を行うために、入力画像を表示装置に表示し、例えば人がマウス等の指示装置を用いて、多角形の頂点を表示画面中で設定することで所望の領域を指定する。   In such a monitoring apparatus, it is necessary to set in advance information (region information) as to whether an object existing in which region is to be detected in the captured input image. In the conventional monitoring device, in order to perform such area setting, an input image is displayed on a display device, and for example, a person uses a pointing device such as a mouse to set a polygon vertex on the display screen. Specify the desired area.

図13(a)及び図13(b)を参照して、このような領域設定の様子を説明する。
図13(a)には、撮像装置による入力画像321の一例を示してあり、建物322が映っている。
図13(b)には、図13(a)に示される入力画像321において指定されて設定された多角形の監視領域331を示してある。
例えば、入力画像321中の建物322に近づく物体を検出する場合には、図13(b)に示されるように、入力画像321に対して所定の指示装置を用いて、例えば多角形331のような領域(図13(b)中の点線部分)を指定する。このようにして指定された多角形331の中に、上述した差分法などのような方法で物体が検出されるか否かを判断することにより、建物332に近づく物体を検出することができる。
With reference to FIG. 13A and FIG. 13B, the state of such region setting will be described.
FIG. 13A shows an example of an input image 321 by the imaging apparatus, and a building 322 is shown.
FIG. 13B shows a polygonal monitoring area 331 designated and set in the input image 321 shown in FIG.
For example, when an object approaching the building 322 in the input image 321 is detected, a predetermined pointing device is used for the input image 321 as shown in FIG. A region (a dotted line portion in FIG. 13B) is designated. An object approaching the building 332 can be detected by determining whether or not an object is detected in the polygon 331 specified in this way by a method such as the difference method described above.

また、上述した監視装置を撮像装置の位置や角度などが異なる条件で複数台配置することにより、監視精度の向上や監視範囲の拡大などを実現する監視方法も、従来より用いられている。
図1及び図5(a)〜図5(c)を参照して、このような監視方法を説明する。なお、図1及び図5(a)〜図5(c)は、後述する本発明に係る実施例で参照されるものであるが、ここでは、本発明を不要に限定する意図は無い。
図1には、監視領域を地面に垂直な方向から見下ろした見取り図101の一例が示されている。
本例では、3台の監視装置を用いて、多角形の監視領域114に侵入する物体を監視することを想定する。図1に示されるように配置された撮像装置111、撮像装置112、撮像装置113を用いて領域を撮像する。
In addition, a monitoring method that improves the accuracy of monitoring and expands the monitoring range by arranging a plurality of the above-described monitoring devices under conditions where the positions and angles of the imaging devices are different has been conventionally used.
Such a monitoring method will be described with reference to FIGS. 1 and 5A to 5C. 1 and 5 (a) to 5 (c) are referred to in examples according to the present invention described later, but there is no intention to unnecessarily limit the present invention here.
FIG. 1 shows an example of a sketch 101 in which the monitoring area is looked down from a direction perpendicular to the ground.
In this example, it is assumed that an object entering the polygonal monitoring area 114 is monitored using three monitoring devices. A region is imaged using the imaging device 111, the imaging device 112, and the imaging device 113 arranged as shown in FIG.

図5(a)、図5(b)、図5(c)には、それぞれ、撮像装置111、撮像装置112、撮像装置113により撮像される映像(入力画像)121、131、141の一例が示されている。
このような監視方法では、それぞれの映像(入力画像)について、領域情報を多角形122、132、142のように指定して、差分法によって指定領域に侵入する物体の自動検出をそれぞれの監視装置で行う。それぞれの監視装置による検出結果を見ることで、1台の監視装置で監視するよりも、全体的な監視領域の死角を少なくして、広範囲での監視を実現することができる。
5A, 5B, and 5C show examples of video images (input images) 121, 131, and 141 captured by the imaging device 111, the imaging device 112, and the imaging device 113, respectively. It is shown.
In such a monitoring method, for each video (input image), area information is designated as polygons 122, 132, 142, and automatic detection of an object that enters the designated area by the difference method is performed for each monitoring apparatus. To do. By observing the detection results of the respective monitoring devices, it is possible to realize wide-area monitoring by reducing the blind spots in the entire monitoring area, rather than monitoring by one monitoring device.

特開2006−211696号公報JP 2006-211696 A

しかしながら、上述の方法により所望の領域を指定する作業は、当然に撮像装置を配置する場所や角度などによって映像上の領域の見え方が異なってくるため、使用する監視装置を追加したり或いは監視装置の場所や角度などを変更したりする毎に、新たに領域を指定しなければならないという問題があった。
領域の設定作業は、例えば、撮像装置から離れている場所(例えば、画像の上部)ほど撮像装置に近い場所(例えば、画像の下部)と比較して建物等の見かけの大きさが小さくなるため、撮像装置から離れている場所への設定作業は細かく困難な作業となるなどのように、熟練性と時間を要する作業である。このような作業が、監視装置(撮像装置)の数を増やすことや撮像装置の位置などを変更することに伴って必要となることは、監視装置の利用者にとって大きな負担となっていた。
However, in the operation of designating a desired area by the above-described method, since the appearance of the area on the image varies depending on the location and angle of the imaging device, the monitoring device to be used is added or monitored. There is a problem that a new area has to be designated every time the location or angle of the apparatus is changed.
In the area setting operation, for example, the apparent distance of a building or the like is smaller in a place farther from the imaging device (for example, the upper portion of the image) than in a location closer to the imaging device (for example, the lower portion of the image). The work for setting the place away from the imaging device is a work that requires skill and time, such as a detailed and difficult work. It is a heavy burden on the user of the monitoring device that such work is required in association with increasing the number of monitoring devices (imaging devices) or changing the position of the imaging device.

このように、従来の監視装置や領域設定方法においては、撮像装置により得られる入力画像に対して領域設定が必要となるが、その設定作業はカメラからの距離によって見かけの大きさが変わる画像上で1つ乃至はそれ以上の領域情報を設定しなけれならないという困難な作業である上、複数の監視装置を用いた監視を行う場合には、全ての監視装置について同様な領域情報の設定が必要となり、作業量が大幅に増えるという問題があった。また、撮像装置の場所や角度などを変えるなどのように監視装置の運用方法を変更する場合においても、再度、領域の設定作業を行わなければならないという問題があった。
また、設定する情報としては、領域の情報に限られず、例えば、検出対象とする物体に関する情報などもあり、設定作業の負担が大きかった。
As described above, in the conventional monitoring apparatus and area setting method, area setting is required for the input image obtained by the imaging apparatus. However, the setting operation is performed on an image whose apparent size changes depending on the distance from the camera. In addition, it is a difficult task to set one or more area information, and when monitoring using a plurality of monitoring devices, it is necessary to set the same region information for all the monitoring devices. As a result, there was a problem that the amount of work increased significantly. Further, even when the operation method of the monitoring device is changed, such as changing the location or angle of the imaging device, there is a problem that the region setting operation must be performed again.
Further, the information to be set is not limited to the information on the area, but includes information on an object to be detected, for example, and the burden of setting work is large.

本発明は、このような従来の事情に鑑み為されたもので、例えば、異なる配置を有する複数の撮像装置を用いる場合や或いは撮像装置の配置を変更するような場合においても、撮像装置により撮像される画像に対する領域などの情報の設定に要する作業の負担を低減することができる画像処理装置を提供することを目的とする。   The present invention has been made in view of such conventional circumstances. For example, even when a plurality of imaging devices having different arrangements are used or when the arrangement of the imaging devices is changed, imaging is performed by the imaging device. An object of the present invention is to provide an image processing apparatus capable of reducing the work load required for setting information such as an area for an image to be processed.

上記目的を達成するため、本発明では、画像を処理する画像処理装置において、次のような構成とした。
すなわち、表示手段が、撮像装置による撮像時の座標系である第1の座標系(カメラ座標系)の画像が当該撮像装置の配置に基づいて基準となる平面上に設けられた第2の座標系(シーン座標系)の画像へ変換された当該画像(第2の座標系の画像)を表示する。受付手段が、前記表示手段により表示された画像に関する設定情報をユーザから受け付ける。座標系変換手段が、前記受付手段により受け付けられた設定情報を、第2の座標系の情報から、撮像装置の配置によらない基準となる平面上に設けられた第3の座標系(ワールド座標系)の情報へ変換する。
In order to achieve the above object, in the present invention, an image processing apparatus for processing an image has the following configuration.
In other words, the display means has the second coordinates provided on the plane on which the image of the first coordinate system (camera coordinate system), which is the coordinate system at the time of imaging by the imaging device, is based on the arrangement of the imaging device. The image (second coordinate system image) converted into an image of the system (scene coordinate system) is displayed. The accepting means accepts setting information related to the image displayed by the display means from the user. The coordinate system converting means converts the setting information received by the receiving means from the information of the second coordinate system to a third coordinate system (world coordinate system) provided on a reference plane that does not depend on the arrangement of the imaging device. System) information.

従って、各撮像装置の配置に応じた画像を見ることができて遠近による見かけ上の大きさの違いが無い第2の座標系の画像を見て、ユーザ(人)により設定情報を入力することにより、ユーザにとって設定情報の設定を感覚的に(例えば、視覚的に)分かり易く容易に行うことができ、また、第2の座標系の設定情報が撮像装置の配置によらない第3の座標系の設定情報へ変換されることにより、配置が異なる撮像装置においても設定情報の共有を可能とすることができる。
これにより、例えば、異なる配置を有する複数の撮像装置を用いる場合や或いは撮像装置の配置を変更するような場合においても、撮像装置により撮像される画像に対する領域などの情報の設定に要する作業の負担を低減することができる。また、撮像装置を追加する場合や、設定情報を追加或いは変更する場合などにおいても、設定情報を効率的に設定することができる。
Therefore, the user (person) inputs setting information by looking at the image of the second coordinate system in which an image corresponding to the arrangement of each imaging device can be seen and there is no difference in apparent size depending on perspective. Thus, the setting information can be easily and intuitively understood (for example, visually) for the user, and the second coordinate system setting information does not depend on the arrangement of the imaging device. By converting into system setting information, it is possible to share setting information even in imaging apparatuses having different arrangements.
Thereby, for example, even when a plurality of imaging devices having different arrangements are used or when the arrangement of the imaging devices is changed, the burden of work required for setting information such as an area for an image captured by the imaging device Can be reduced. Also, the setting information can be set efficiently when an imaging device is added, or when setting information is added or changed.

ここで、画像処理装置の構成としては、種々な構成が用いられてもよく、例えば、複数の撮像装置がそれぞれの配置で設置されるような場合に、各撮像装置毎に異なる処理装置(例えば、監視装置)を設けて、これら複数の処理装置を用いて画像処理装置を構成するようなことができ、或いは、複数の撮像装置を1つの処理装置で管理する構成として、この処理装置を画像処理装置とみなすようなことができる。また、撮像装置やその処理装置(例えば、監視装置)ばかりでなく、処理装置とは別体の記憶装置や、処理装置とは別体の表示装置や、処理装置とは別体のサーバ装置などを画像処理装置に含めて構成するようなこともできる。   Here, various configurations may be used as the configuration of the image processing device. For example, when a plurality of imaging devices are installed in respective arrangements, different processing devices (for example, each imaging device) The image processing apparatus can be configured by using the plurality of processing apparatuses, or the processing apparatus can be configured as a configuration in which the plurality of imaging apparatuses are managed by one processing apparatus. It can be regarded as a processing device. In addition to the imaging device and its processing device (for example, a monitoring device), a storage device separate from the processing device, a display device separate from the processing device, a server device separate from the processing device, etc. Can be included in the image processing apparatus.

また、画像処理装置が複数の装置から構成される場合には、それぞれの装置に任意の機能手段が備えられてもよく、異なる装置の間で情報の受け渡しが必要な場合には当該異なる装置の間でその情報が通信(入出力)される。
なお、画像を撮像する撮像装置としては、例えば、画像処理装置に備えられてもよく、或いは、画像処理装置の外部に備えられて、撮像装置により撮像された画像が画像処理装置に入力されてもよい。
In addition, when the image processing apparatus is composed of a plurality of apparatuses, each apparatus may be provided with an arbitrary functional unit. When it is necessary to exchange information between different apparatuses, The information is communicated (input / output).
In addition, as an imaging device which images an image, for example, the image processing device may be provided, or an image processing device provided outside the image processing device and input by the imaging device is input to the image processing device. Also good.

また、画像の処理としては、種々な処理が行われてもよく、一例として、画像に映る所定の対象を検出する処理を行うことができる。また、このような画像処理は、任意の座標系で行われてもよい。一例として、ワールド座標系上で設定情報や撮像装置の配置情報を表示させると、複数の設定情報や複数の撮像装置があるような場合に、これらを人にとって視覚的に一括して把握し易くすることができる。   In addition, various types of processing may be performed as image processing. For example, processing for detecting a predetermined target in an image can be performed. Such image processing may be performed in an arbitrary coordinate system. As an example, when setting information and arrangement information of an imaging device are displayed on the world coordinate system, when there are a plurality of setting information and a plurality of imaging devices, it is easy for a person to grasp them visually and collectively. can do.

また、撮像装置の配置としては、例えば、設置される位置や、視点の方向(例えば、設置状態において撮像する角度)がある。
また、位置の情報としては、例えば、緯度や経度などのように絶対的な位置の情報を用いることもでき、或いは、1つの撮像装置などの位置を基準として相対的な位置の情報を用いることもできる。
Further, the arrangement of the imaging device includes, for example, an installation position and a viewpoint direction (for example, an imaging angle in the installation state).
Also, as position information, for example, absolute position information such as latitude and longitude can be used, or relative position information is used with reference to the position of one imaging device or the like. You can also.

また、撮像時の座標系である第1の座標系(カメラ座標系)としては、例えば、撮像装置(例えば、カメラ)の視点で見た座標系が用いられる。
また、基準となる平面上に設けられた第2の座標系(シーン座標系)としては、例えば、地面の平面を基準となる平面として、当該平面(地面)に対して真上から見た座標系が用いられる。第2の座標系は、撮像装置の配置に依存して異なり得る。
また、基準となる平面上に設けられた第3の座標系(ワールド座標系)としては、例えば、地面の平面を基準となる平面として、当該平面(地面)に対して真上から見た座標系が用いられる。第3の座標系は、撮像装置の配置に依存せずに一定である。
Further, as a first coordinate system (camera coordinate system) that is a coordinate system at the time of imaging, for example, a coordinate system viewed from the viewpoint of an imaging device (for example, a camera) is used.
Further, as the second coordinate system (scene coordinate system) provided on the reference plane, for example, the ground plane is used as a reference plane, and the coordinates viewed from directly above the plane (ground) are used. A system is used. The second coordinate system may be different depending on the arrangement of the imaging device.
In addition, as a third coordinate system (world coordinate system) provided on the reference plane, for example, the ground plane is used as a reference plane, and coordinates viewed from directly above the plane (ground) are used. A system is used. The third coordinate system is constant without depending on the arrangement of the imaging device.

なお、基準となる平面の座標系(第2の座標系や第3の座標系)は、例えば、予めユーザにより設定されて、画像処理装置のメモリに記憶されている。基準となる平面としては、一例として、地面を真上から見た当該地面の平面が用いられるが、地面は完全には平らではないことや、必ずしも完全に地面の平面にしなくてもよい場合もあることなどから、実用上で有効な程度で、ずれがあってもよい。
具体例として、第2の座標系は、撮像装置毎に、設置位置を原点として、高さ方向をz軸として、初期的な視点方向(或いは、雲台の方向などのように所定の方向)に応じて予め決められた直交するx軸及びy軸から構成され、また、第3の座標系は、高さ方向をZ軸として、予め決められた直交するX軸及びY軸から構成される。
Note that the reference plane coordinate system (second coordinate system or third coordinate system) is set in advance by the user and stored in the memory of the image processing apparatus, for example. As a reference plane, for example, the ground plane viewed from directly above the ground is used. However, the ground plane is not completely flat or may not necessarily be completely ground plane. For some reasons, there may be a deviation in a practically effective level.
As a specific example, the second coordinate system is an initial viewpoint direction (or a predetermined direction such as a pan head direction) with the installation position as the origin and the height direction as the z-axis for each imaging device. The third coordinate system is composed of a predetermined orthogonal X-axis and Y-axis with the height direction as the Z-axis. .

また、第1の座標系(カメラ座標系)と第2の座標系(シーン座標系)との座標変換は、例えば、撮像装置(例えば、カメラ)の設置状況や撮像状況に応じたパラメータを用いて行うことができる。
また、第2の座標系(シーン座標系)と第3の座標系(ワールド座標系)とは、例えば、同一の基準となる平面上に設けられるため、これらの座標変換は、回転や平行移動により行うことができる。具体的には、第2の座標系の原点と第3の座標系の原点との差異(位置の差異)を補正するために平行移動し、第2の座標系の平面上の座標軸(例えば、直交するx軸及びy軸)と第3の座標系の平面上の座標軸との差異(角度の差異)を補正するために回転する。なお、第2の座標系と第3の座標系とで、基準となる平面が異なっていて平行である(つまり、高さ方向のみ異なる)場合には、高さ方向の移動の処理を加えて、これらの座標変換を行うことができる。
また、必要に応じて、第1の座標系と第3の座標系との間で直接的に座標変換が行われてもよい。
The coordinate conversion between the first coordinate system (camera coordinate system) and the second coordinate system (scene coordinate system) uses, for example, parameters according to the installation status and imaging status of the imaging device (for example, camera). Can be done.
Further, since the second coordinate system (scene coordinate system) and the third coordinate system (world coordinate system) are provided on the same reference plane, for example, these coordinate transformations can be performed by rotation or parallel movement. Can be performed. Specifically, in order to correct the difference (positional difference) between the origin of the second coordinate system and the origin of the third coordinate system, the coordinate axis on the plane of the second coordinate system (for example, In order to correct the difference (angle difference) between the coordinate axes on the plane of the third coordinate system and the orthogonal coordinate axes x and y). When the second coordinate system and the third coordinate system have different reference planes and are parallel (that is, only the height direction is different), a process for moving in the height direction is added. These coordinate transformations can be performed.
Further, if necessary, coordinate conversion may be directly performed between the first coordinate system and the third coordinate system.

具体的には、画像処理装置では、例えば、設定された基準となる平面の座標系(第2の座標系や第3の座標系)と、設置された撮像装置(例えば、カメラ)の配置や焦点距離などに基づく座標系(第1の座標系)との間で、変換式(数式)などを用いて、直接的に或いは間接的に、互いに座標変換を行うことが可能である。
撮像装置の配置や焦点距離などの情報は、例えば、ユーザにより画像処理装置に設定されてもよく、或いは、画像処理装置が撮像装置などからの情報に基づいて(自動的に)検出してもよく、或いは、画像処理装置が撮像装置の配置や焦点距離などを制御し、その制御により実現される撮像装置の配置や焦点距離などの情報を用いてもよい。
Specifically, in the image processing apparatus, for example, the arrangement of a plane coordinate system (second coordinate system or third coordinate system) serving as a set reference and an installed imaging apparatus (for example, a camera) It is possible to perform coordinate conversion with each other directly or indirectly using a conversion formula (formula) or the like with a coordinate system (first coordinate system) based on a focal length or the like.
Information such as the arrangement and focal length of the imaging device may be set in the image processing device by a user, or may be detected (automatically) based on information from the imaging device or the like. Alternatively, the image processing apparatus may control the arrangement and focal length of the imaging device, and information such as the arrangement and focal length of the imaging device realized by the control may be used.

また、ユーザにより入力される情報を受け付ける手段としては、例えば、ユーザにより操作されるマウスやキーボードなどの操作部を用いて構成することができる。
また、ユーザにより入力される情報を受け付ける態様としては、例えば、画面に表示された第2の座標系(或いは、他の構成例として、他の座標系)の画像を見ながらユーザが操作部を操作して情報を入力することができるような態様や、ユーザから受け付けた例えば領域や大きさや長さや数値などの情報をその画面上に表示するような態様を用いることにより、ユーザにとって利便性を高めることが可能である。
The means for receiving information input by the user can be configured using an operation unit such as a mouse or a keyboard operated by the user, for example.
In addition, as an aspect of receiving information input by the user, for example, the user can operate the operation unit while viewing an image of the second coordinate system (or another coordinate system as another configuration example) displayed on the screen. By using a mode in which information can be input by operating, or a mode in which information such as area, size, length, and numerical values received from the user is displayed on the screen, convenience is provided to the user. It is possible to increase.

また、画像を表示する手段としては、例えば、画面に画像を表示出力する表示装置を用いて構成することができる。
また、ユーザから受け付ける設定情報としては、種々な情報が用いられてもよく、例えば、画像を処理する際に使用されるパラメータなどの数値や各種の条件の情報を用いることができる。
Moreover, as a means to display an image, it can comprise using the display apparatus which displays and outputs an image on a screen, for example.
Various information may be used as setting information received from the user. For example, numerical values such as parameters used when processing an image and information on various conditions can be used.

本発明に係る画像処理装置では、一構成例として、次のような構成とした。
すなわち、前記座標系変換手段は、所定の配置を有する一の撮像装置により撮像された画像に基づいて取得された第3の座標系の設定情報を、前記所定の配置とは異なる配置に対応した第2の座標系の情報へ変換する。
また、当該画像処理装置では、変換情報設定手段が、前記座標系変換手段により変換された情報(第2の座標系の設定情報)を、前記所定の配置とは異なる配置を有する前記一の撮像装置とは異なる撮像装置又は配置が変更された前記一の撮像装置により得られる画像に関して設定する。
The image processing apparatus according to the present invention has the following configuration as one configuration example.
That is, the coordinate system conversion unit corresponds to the setting information of the third coordinate system acquired based on the image captured by one imaging device having a predetermined arrangement, in an arrangement different from the predetermined arrangement. Conversion into information of the second coordinate system.
Further, in the image processing apparatus, the conversion information setting unit is configured to convert the information (second coordinate system setting information) converted by the coordinate system conversion unit into the one image pickup having an arrangement different from the predetermined arrangement. The setting is made with respect to an image obtained by an imaging device different from the device or the one imaging device whose arrangement is changed.

従って、第3の座標系の設定情報を取得して、その情報を任意の配置(撮像装置の配置)に対応した第2の座標系の情報へ変換することにより、例えば、異なる配置を有する複数の撮像装置を用いる場合や或いは撮像装置の配置を変更するような場合においても、撮像装置により撮像される画像に対する領域などの情報の設定に要する作業の負担を低減することができる。   Therefore, by acquiring setting information of the third coordinate system and converting the information into information of the second coordinate system corresponding to an arbitrary arrangement (arrangement of the imaging device), for example, a plurality of pieces having different arrangements Even when the image pickup apparatus is used or when the arrangement of the image pickup apparatus is changed, it is possible to reduce a burden of work required for setting information such as a region for an image picked up by the image pickup apparatus.

ここで、ある撮像装置により撮像された画像に基づいて取得された設定情報を、異なる配置を有する同一又は異なる撮像装置により得られる画像に関して設定する態様としては、その設定情報と同等な設定情報がその画像の処理で使用されるようにする態様が用いられ、例えば、その画像を処理する処理装置(例えば、監視装置)にその設定情報と同等な設定情報が設定されるようにする。   Here, as an aspect of setting setting information acquired based on an image captured by a certain imaging device with respect to images obtained by the same or different imaging devices having different arrangements, setting information equivalent to the setting information is included. For example, the setting information equivalent to the setting information is set in a processing device (for example, a monitoring device) that processes the image.

また、ここでは、第3の座標系の設定情報を第2の座標系の設定情報へ変換して設定する場合を示したが、他の構成例として、第3の座標系の設定情報を(例えば、第2の座標系を経由して)第1の座標系の情報へ変換して設定するような態様が用いられてもよい。
通常、第2の座標系の設定情報が設定される場合には、その設定情報を用いて第2の座標系の画像が処理され、また、第1の座標系の設定情報が設定される場合には、その設定情報を用いて第1の座標系の画像が処理される。また、第3の座標系の設定情報を用いて第3の座標系の画像が処理されてもよい。
In addition, here, the setting information of the third coordinate system is converted into the setting information of the second coordinate system and set. However, as another configuration example, the setting information of the third coordinate system is ( For example, an aspect may be used in which the information is converted into the information of the first coordinate system and set (via the second coordinate system).
Usually, when setting information of the second coordinate system is set, an image of the second coordinate system is processed using the setting information, and setting information of the first coordinate system is set The image of the first coordinate system is processed using the setting information. Further, the third coordinate system image may be processed using the setting information of the third coordinate system.

本発明に係る画像処理装置では、一構成例として、次のような構成とした。
すなわち、前記画像に関する設定情報として、監視する領域を指定する情報、又は、検出の対象に関する情報、のうちの少なくとも一方が用いられる。
従って、これらの情報を、異なる配置を有する同一又は異なる撮像装置の間で共有することができる。
The image processing apparatus according to the present invention has the following configuration as one configuration example.
That is, at least one of information specifying a region to be monitored and information regarding a detection target is used as the setting information regarding the image.
Therefore, these pieces of information can be shared between the same or different imaging devices having different arrangements.

ここで、監視する領域としては、種々な領域が用いられてもよく、例えば、画像に映る対象を検出する領域を用いることができる。
また、検出の対象としては、例えば、画像に映る所定の物体などを用いることができる。
また、検出の対象に関する情報としては、種々な情報が用いられてもよく、例えば、対象の大きさや幅や高さや長さなどに関する閾値の情報を用いることができる。一例として、対象の大きさ等がその閾値以上である場合(又は、その閾値以下や、ある範囲(範囲を表す閾値)内などでもよい)に、その対象を検出するような処理を行うことができる。
また、画像に関する設定情報としては、これらに限られず、種々なものが用いられてもよい。
Here, various areas may be used as the area to be monitored. For example, an area for detecting an object shown in an image can be used.
As a detection target, for example, a predetermined object shown in an image can be used.
Various information may be used as the information regarding the detection target. For example, threshold information regarding the size, width, height, length, and the like of the target can be used. As an example, when the size or the like of the target is equal to or greater than the threshold (or may be equal to or smaller than the threshold or within a certain range (threshold indicating the range)), a process for detecting the target may be performed. it can.
Further, the setting information regarding the image is not limited to these, and various types of information may be used.

なお、本発明は、方法や、プログラムや、記録媒体などとして提供することも可能である。
本発明に係る方法では、装置やシステムにおいて各手段が各種の処理を実行する。
本発明に係るプログラムでは、装置やシステムを構成するコンピュータに実行させるものであって、当該コンピュータを各種の手段として機能させる。
本発明に係る記録媒体では、装置やシステムを構成するコンピュータに実行させるプログラムを当該コンピュータの入力手段により読み取り可能に記録したものであって、当該プログラムは各種の処理(手順)を当該コンピュータに実行させる。
The present invention can also be provided as a method, a program, a recording medium, and the like.
In the method according to the present invention, each unit executes various processes in the apparatus or system.
The program according to the present invention is executed by a computer constituting the apparatus or system, and causes the computer to function as various means.
In the recording medium according to the present invention, a program to be executed by a computer constituting an apparatus or system is recorded so as to be readable by input means of the computer, and the program executes various processes (procedures) on the computer. Let

以上説明したように、本発明に係る画像処理装置によると、例えば、異なる配置を有する複数の撮像装置を用いる場合や或いは撮像装置の配置を変更するような場合においても、撮像装置により撮像される画像に対する領域などの情報の設定に要する作業の負担を低減することができる。   As described above, according to the image processing device of the present invention, for example, even when a plurality of imaging devices having different arrangements are used or when the arrangement of the imaging devices is changed, images are taken by the imaging device. It is possible to reduce the work burden required for setting information such as an area for an image.

本発明に係る実施例を図面を参照して説明する。   Embodiments according to the present invention will be described with reference to the drawings.

本発明の第1実施例を説明する。
本例では、少なくとも1台(1台以上)の監視装置を用いて監視を行う監視システムの例を示す。
図1には、本例の監視システムで監視を行う監視領域並びにその周辺の見取り図101の一例を示してある。この見取り図101は、監視領域を地面に垂直な方向から見下ろしたものである。
具体的には、道路や建物や空き地があり、第1の監視装置に備えられた第1の撮像装置111の配置(位置や方向)と、第2の監視装置に備えられた第2の撮像装置112の配置と、第3の監視装置に備えられた第3の撮像装置113の配置と、建物の付近に設定された多角形の監視領域114が示されている。
A first embodiment of the present invention will be described.
In this example, an example of a monitoring system that performs monitoring using at least one (one or more) monitoring device is shown.
FIG. 1 shows an example of a layout diagram 101 of the monitoring area monitored by the monitoring system of this example and its surroundings. This sketch 101 is a view of the monitoring area looking down from a direction perpendicular to the ground.
Specifically, there are roads, buildings, and vacant lots, the arrangement (position and direction) of the first imaging device 111 provided in the first monitoring device, and the second imaging provided in the second monitoring device. The arrangement of the device 112, the arrangement of the third imaging device 113 provided in the third monitoring device, and the polygonal monitoring area 114 set in the vicinity of the building are shown.

図2には、本例の監視システムの構成例を示してある。
本例の監視システム1は、3台の監視装置11、12、13(第1の監視装置11、第2の監視装置12、第3の監視装置13)を備えており、これらがネットワーク14で接続されている。
各監視装置11、12、13は、本例では、監視の対象となる領域を撮像して領域内に進入する物体を自動検出する装置であり、例えばTCP(Transmission Control Protocol)/IP(Internet Protocol)のプロトコルを使用するネットワーク14を介してそれぞれ接続され、それぞれの監視装置11、12、13で異なる位置や角度やレンズの焦点距離などによって監視を行っている。各監視装置11、12、13における撮像装置111、112、113は、それぞれ、図1に示されるように配置されている。
FIG. 2 shows a configuration example of the monitoring system of this example.
The monitoring system 1 of this example includes three monitoring devices 11, 12, and 13 (a first monitoring device 11, a second monitoring device 12, and a third monitoring device 13). It is connected.
In the present example, each of the monitoring devices 11, 12, and 13 is a device that images a region to be monitored and automatically detects an object that enters the region. For example, TCP (Transmission Control Protocol) / IP (Internet Protocol). Are respectively connected via the network 14 using the protocol (1), and the monitoring devices 11, 12, and 13 are monitored by different positions, angles, focal lengths of the lenses, and the like. The imaging devices 111, 112, and 113 in each of the monitoring devices 11, 12, and 13 are arranged as shown in FIG.

図3には、監視装置11の構成例を示してある。なお、本例では、他の監視装置12、13の構成や動作についても、監視装置11の構成や動作と同様である。
本例の監視装置11は、例えばカメラを用いて構成された撮像装置21と、映像入力回路22と、画像処理プロセッサ23と、プログラムメモリ24と、ワークメモリ25と、例えば直接的に或いはネットワーク14などを介して間接的に外部の装置と接続される外部I/F回路26と、映像出力回路27と、例えば表示画面を有する表示装置28と、例えば人により操作されるキーボードやマウスなどを有する入力装置29と、入力回路30と、例えばメモリを用いて構成された記憶装置31と、データバス32を備えている。映像入力回路22と画像処理プロセッサ23とプログラムメモリ24とワークメモリ25と外部I/F回路26と映像出力回路27と入力回路30と記憶装置31は、データバス32に接続されている。
なお、撮像装置21の構成としては、例えば、従来より知られる技術として、撮像装置21の制御のための装置や、各種の外部記録装置等の構成要素を持つものも存在するが、本例では、説明を簡単にするために、それらについては図示や詳しい説明を省略する。
FIG. 3 shows a configuration example of the monitoring device 11. In this example, the configuration and operation of the other monitoring devices 12 and 13 are the same as the configuration and operation of the monitoring device 11.
The monitoring device 11 of this example includes an imaging device 21 configured using, for example, a camera, a video input circuit 22, an image processing processor 23, a program memory 24, a work memory 25, and a network 14 An external I / F circuit 26 that is indirectly connected to an external device through a video output circuit 27, a display device 28 having a display screen, for example, and a keyboard or a mouse operated by a person An input device 29, an input circuit 30, a storage device 31 configured using a memory, for example, and a data bus 32 are provided. The video input circuit 22, image processor 23, program memory 24, work memory 25, external I / F circuit 26, video output circuit 27, input circuit 30, and storage device 31 are connected to a data bus 32.
The configuration of the imaging device 21 includes, for example, a conventionally known technique having components such as a device for controlling the imaging device 21 and various external recording devices. In order to simplify the description, illustration and detailed description thereof are omitted.

本例の監視装置11において行われる動作の一例を示す。
撮像装置21は監視の対象となる領域を撮像する。撮像装置21により撮像された映像(入力画像)は、映像入力回路22を介して、ワークメモリ25に記録される。
画像処理プロセッサ23は、プログラムメモリ24に記録されているプログラムに従って、ワークメモリ25内に記録された入力画像を処理(例えば、物体検出処理)し、その処理結果を映像出力回路27を介して表示装置28に表示する。また、画像処理プロセッサ23は、物体検出処理以外にも、各種の処理を実行する。
An example of the operation performed in the monitoring apparatus 11 of this example is shown.
The imaging device 21 images a region to be monitored. The video (input image) captured by the imaging device 21 is recorded in the work memory 25 via the video input circuit 22.
The image processor 23 processes the input image recorded in the work memory 25 according to the program recorded in the program memory 24 (for example, object detection processing), and displays the processing result via the video output circuit 27. Display on device 28. In addition to the object detection process, the image processor 23 executes various processes.

また、画像処理プロセッサ23は、外部I/F回路26から入力される指示又は入力装置29から入力回路30を介して入力される指示に基づいて前記プログラムのパラメータを変更や修正しながら、前記入力画像の処理などを行う。ここで、このような指示としては、例えば、入力装置29又は外部I/F回路26を介して接続された入力機能を持つ外部装置を使ったオペレータ(人)からの指示が用いられる。
記憶装置31は、監視を所望する領域の情報などの保持や、監視装置11により出力された監視結果の情報などの保存を行う。なお、領域情報などはワークメモリ25内にも記録されてもよい。
Also, the image processor 23 changes or corrects the parameters of the program based on an instruction input from the external I / F circuit 26 or an instruction input from the input device 29 via the input circuit 30. Perform image processing. Here, as such an instruction, for example, an instruction from an operator (person) using an external device having an input function connected via the input device 29 or the external I / F circuit 26 is used.
The storage device 31 stores information on a region desired to be monitored and stores information on a monitoring result output by the monitoring device 11. The area information or the like may be recorded in the work memory 25.

図4には、画像処理プロセッサ23により実行されるプログラムの処理のフローの一例を示してある。
なお、図4では、説明を分かり易くするために、処理のステップS1〜S9以外に、ワークメモリ25(或いは、記憶装置31など)に記録される背景画像T1及び領域情報T2と、表示装置28と、入力装置29(或いは、外部I/F回路26を介する監視装置11の外部からの入力機能でもよい)と、記憶装置31(或いは、外部I/F回路26を介する監視装置11の外部にある記憶装置でもよい)を示してある。また、図4において、点線で示す矢印は、データの流れを表している。
FIG. 4 shows an example of the processing flow of the program executed by the image processor 23.
In FIG. 4, in order to make the explanation easy to understand, in addition to the processing steps S <b> 1 to S <b> 9, the background image T <b> 1 and the region information T <b> 2 recorded in the work memory 25 (or the storage device 31), And an input device 29 (or an input function from outside the monitoring device 11 via the external I / F circuit 26) and a storage device 31 (or outside the monitoring device 11 via the external I / F circuit 26). It may be a storage device). In FIG. 4, arrows indicated by dotted lines represent the flow of data.

まず、画像入力処理ステップでは、撮像装置21で撮像した映像(画像)を、映像入力回路22を介してワークメモリ25へ転送する処理を行う(ステップS1)。
次に、設定判定処理ステップでは、入力装置29からオペレータの設定指示があるか否かを判定し、このような設定指示があった場合には領域設定処理ステップ(ステップS9)へ分岐し、このような設定指示がなかった場合には差分処理ステップ(ステップS3)へ分岐する(ステップS2)。
ここで、入力装置29からの領域の設定に関する指示は、例えば、領域情報としてオペレータなどが任意の情報を指定することや、或いは、記憶装置31に予め記録された領域情報を参照することにより実現する。
First, in the image input processing step, a process of transferring a video (image) captured by the imaging device 21 to the work memory 25 via the video input circuit 22 (step S1).
Next, in the setting determination processing step, it is determined whether or not there is an operator setting instruction from the input device 29. If there is such a setting instruction, the process branches to an area setting processing step (step S9). If there is no such setting instruction, the process branches to a difference processing step (step S3) (step S2).
Here, the instruction regarding the setting of the area from the input device 29 is realized by, for example, an operator specifying arbitrary information as the area information or referring to the area information recorded in advance in the storage device 31. To do.

差分処理ステップでは、画像入力処理ステップ(ステップS1)で入力された入力画像(図12では、入力画像301)とワークメモリ25内に記録されている背景画像T1(図12では、背景画像302)との画素毎の差分を計算して、差分画像(図12では、差分画像304)を得る(ステップS3)。
次に、二値化処理ステップでは、差分画像の各画素の値と所定のしきい値(例えば、1画素8ビットを仮定して、しきい値20)とを比較し、しきい値以上の画素の値を“255”とする一方でしきい値未満の画素の値を“0”とする変換を行う(ステップS4)。これにより、二値化画像(図12では、二値化画像306)を得る。
In the difference processing step, the input image (input image 301 in FIG. 12) input in the image input processing step (step S1) and the background image T1 recorded in the work memory 25 (background image 302 in FIG. 12). And a difference image (difference image 304 in FIG. 12) is obtained (step S3).
Next, in the binarization processing step, the value of each pixel of the difference image is compared with a predetermined threshold value (for example, a threshold value 20 assuming 8 bits per pixel), Conversion is performed in which the pixel value is set to “255” and the pixel value less than the threshold value is set to “0” (step S4). Thereby, a binarized image (binarized image 306 in FIG. 12) is obtained.

次に、ラベリング処理ステップでは、二値化画像中の画素値“255”の画素のかたまりに番号を付け、各かたまり毎を区別して処理できるようにする(ステップS5)。
次に、背景更新処理ステップでは、画像入力処理ステップ(ステップS1)で得られた入力画像を用いてワークメモリ25内に記録している背景画像T1を更新する(ステップS6)。
ここで、背景画像の更新としては、例えば、背景画像T1と入力画像の画素毎の移動平均などの方法を用いて新しい背景画像T1を作成することができ、これにより、監視環境の天候変化などによる照度変化に追従して、背景画像T1を常に最新の状態に保つことができる。
Next, in the labeling processing step, a number is assigned to the cluster of pixels having the pixel value “255” in the binarized image so that each cluster can be distinguished and processed (step S5).
Next, in the background update processing step, the background image T1 recorded in the work memory 25 is updated using the input image obtained in the image input processing step (step S1) (step S6).
Here, as the update of the background image, for example, a new background image T1 can be created by using a method such as moving average for each pixel of the background image T1 and the input image. The background image T1 can always be kept up-to-date following the change in illuminance due to the above.

次に、領域判定処理ステップでは、ワークメモリ25内に記録された領域情報T2に基づいて、例えば、指定された領域内に二値化画像のラベリング処理したかたまりが存在するか否かを判定して、存在する場合には、当該かたまりを侵入物体であると判断する(ステップS7)。
次に、処理結果表示ステップでは、領域判定処理ステップ(ステップS7)の判定結果を、例えば表示装置28の画面に表示する(ステップS8)。この処理結果表示ステップの処理が終了すると、画像入力処理ステップ(ステップS1)へ分岐する。
Next, in the area determination processing step, based on the area information T2 recorded in the work memory 25, for example, it is determined whether or not a binarized image labeling cluster exists in the specified area. If it exists, it is determined that the cluster is an intruding object (step S7).
Next, in the processing result display step, the determination result of the region determination processing step (step S7) is displayed, for example, on the screen of the display device 28 (step S8). When the processing result display step is completed, the process branches to the image input processing step (step S1).

一方、上記した設定判定処理ステップ(ステップS2)において入力装置29によってオペレータなどからの設定指示があったと判定された場合に分岐される領域設定処理ステップでは、領域情報T2の設定を行う(ステップS9)。
なお、本例では、領域情報T2の設定について示したが、例えば、物体検出に関する他の情報が設定されてもよい。
On the other hand, in the above-described setting determination processing step (step S2), in the region setting processing step that is branched when it is determined that there is a setting instruction from the operator or the like by the input device 29, the region information T2 is set (step S9). ).
In this example, the setting of the region information T2 has been described. However, for example, other information related to object detection may be set.

ここで、図5(a)〜図5(f)を参照して、領域設定処理の流れを説明する。
図5(a)には、画像入力処理ステップ(ステップS1)において第1の撮像装置111(図3では、撮像装置21)により撮像された入力画像121の一例を示してある。また、多角形の監視領域(点線)122の一例を示してある。
図5(b)には、画像入力処理ステップ(ステップS1)において第2の撮像装置112(図3では、撮像装置21)により撮像された入力画像131の一例を示してある。また、多角形の監視領域(点線)132の一例を示してある。
図5(c)には、画像入力処理ステップ(ステップS1)において第3の撮像装置113(図3では、撮像装置21)により撮像された入力画像141の一例を示してある。また、多角形の監視領域(点線)142の一例を示してある。
Here, the flow of the region setting process will be described with reference to FIGS. 5 (a) to 5 (f).
FIG. 5A shows an example of the input image 121 captured by the first imaging device 111 (the imaging device 21 in FIG. 3) in the image input processing step (step S1). An example of a polygonal monitoring area (dotted line) 122 is shown.
FIG. 5B shows an example of the input image 131 captured by the second imaging device 112 (the imaging device 21 in FIG. 3) in the image input processing step (step S1). An example of a polygonal monitoring area (dotted line) 132 is shown.
FIG. 5C shows an example of the input image 141 captured by the third imaging device 113 (the imaging device 21 in FIG. 3) in the image input processing step (step S1). An example of a polygonal monitoring area (dotted line) 142 is shown.

図5(d)には、第1の監視装置について、第1の撮像装置111の位置や撮像角度や焦点距離などの情報に基づいて、入力画像121を撮像装置111が設置された地面に対して平行な平面に投影したシーン座標系のシーン画像151の一例を示してある。また、監視領域(点線)152の一例を示してある。
図5(e)には、第2の監視装置について、第2の撮像装置112の位置や撮像角度や焦点距離などの情報に基づいて、入力画像131を撮像装置112が設置された地面に対して平行な平面に投影したシーン座標系のシーン画像161の一例を示してある。
図5(f)には、第3の監視装置について、第3の撮像装置113の位置や撮像角度や焦点距離などの情報に基づいて、入力画像141を撮像装置113が設置された地面に対して平行な平面に投影したシーン座標系のシーン画像171の一例を示してある。
FIG. 5D shows the input image 121 with respect to the ground on which the imaging device 111 is installed, based on information such as the position of the first imaging device 111, the imaging angle, and the focal length of the first monitoring device. An example of a scene image 151 of a scene coordinate system projected onto a plane parallel to each other is shown. An example of the monitoring area (dotted line) 152 is shown.
FIG. 5E shows an input image 131 with respect to the ground on which the imaging device 112 is installed, based on information such as the position, imaging angle, and focal length of the second imaging device 112 for the second monitoring device. An example of a scene image 161 of a scene coordinate system projected onto a plane parallel to the plane is shown.
In FIG. 5F, the input image 141 is displayed with respect to the ground on which the imaging device 113 is installed on the third monitoring device based on information such as the position, imaging angle, and focal length of the third imaging device 113. An example of a scene image 171 of a scene coordinate system projected onto a plane parallel to the plane is shown.

本例では、領域設定処理は、最初に、撮像装置111、112、113の位置や撮像角度などによって座標軸が異なるカメラ座標系で表現される入力画像121、131、141を、撮像装置111、112、113の位置や撮像角度などに依存するシーン座標系で表現されたシーン画像151、161、171へ変換し、そして、シーン座標系上に表現されたシーン画像(例えば、シーン画像151)上で所望する監視領域152を設定することで実現する。この場合、各撮像装置111、112、113毎に、その位置や撮像角度に応じて見える画像を用いて、監視領域を設定することができるため、人にとって監視領域の設定が感覚的に分かり易く容易となり、また、遠近による見かけ上の大きさの違いも無く設定を行い易い。なお、この場合、監視領域の設定作業は、例えば、表示装置28の画面に表示されたシーン座標系のシーン画像を人が見ながら行われる。
また、この場合、シーン座標系で設定された領域情報は、ワールド座標系の情報へ変換されて記憶される。
In this example, in the area setting process, first, the input devices 121, 131, and 141 expressed in the camera coordinate system having different coordinate axes depending on the positions and imaging angles of the imaging devices 111, 112, and 113 are converted into the imaging devices 111 and 112. , 113 are converted into scene images 151, 161, 171 expressed in the scene coordinate system depending on the position, imaging angle, etc., and on the scene image (for example, scene image 151) expressed on the scene coordinate system This is realized by setting a desired monitoring area 152. In this case, since the monitoring area can be set for each of the imaging devices 111, 112, and 113 using an image that can be seen according to the position and the imaging angle, it is easy for a person to easily understand the setting of the monitoring area. In addition, it is easy to set without any difference in apparent size due to perspective. In this case, the monitoring area setting operation is performed, for example, while a person watches a scene image of the scene coordinate system displayed on the screen of the display device 28.
In this case, the area information set in the scene coordinate system is converted into information in the world coordinate system and stored.

他の例として、領域設定処理は、最初に、撮像装置111、112、113の位置や撮像角度などによって座標軸が異なるカメラ座標系で表現される入力画像121、131、141を、撮像装置111、112、113の位置や撮像角度などに依存せずに常に座標軸が一定となるワールド座標系で表現できるシーン画像(シーン画像151、161、171に対応するもの)へ変換し、そして、ワールド座標系上に表現したシーン画像(例えば、シーン画像151に対応するもの)上で所望する監視領域(監視領域152に対応するもの)を設定することで実現する。なお、この場合、監視領域の設定作業は、例えば、表示装置28の画面に表示されたワールド座標系のシーン画像を人が見ながら行われる。   As another example, in the region setting process, first, input images 121, 131, and 141 expressed in a camera coordinate system having different coordinate axes depending on the positions and imaging angles of the imaging devices 111, 112, and 113 are converted into the imaging devices 111, It is converted into a scene image (corresponding to the scene images 151, 161, 171) that can be expressed in the world coordinate system in which the coordinate axes are always constant without depending on the positions of 112, 113, the imaging angle, etc., and the world coordinate system This is realized by setting a desired monitoring area (corresponding to the monitoring area 152) on the scene image expressed above (for example, corresponding to the scene image 151). In this case, the monitoring area setting operation is performed, for example, while a person watches a scene image of the world coordinate system displayed on the screen of the display device 28.

ここで、どのような条件で撮像された入力画像についても、シーン座標系又はワールド座標系のシーン画像へ変換すれば全て同一のワールド座標系で表現することが可能であるため、シーン座標系上又はワールド座標系上で設定した監視領域(例えば、監視領域152に対応するもの)を、同じ領域を一部分でも撮像する全ての監視装置に対して適用することができる利点がある。   Here, any input image captured under any conditions can be expressed in the same world coordinate system if converted to a scene image in the scene coordinate system or the world coordinate system. Alternatively, there is an advantage that a monitoring area set on the world coordinate system (for example, one corresponding to the monitoring area 152) can be applied to all monitoring apparatuses that capture even a part of the same area.

次に、カメラ座標系の座標とワールド座標系の座標との間の変換処理方法の一例を示す。本例では、この変換処理は、例えば、画像処理プロセッサ23により行われる。
なお、本例では、カメラ座標系からワールド座標系への直接的な座標変換は場合によっては計算が複雑となることや、シーン座標系が領域などの設定に役立つことなどから、最初に、ワールド座標系を回転や並行移動した座標系であって撮像装置21の鉛直下向きベクトルと地面との交点を原点とするシーン座標系へカメラ座標系から変換し、その後に、シーン座標系からワールド座標系へ変換する処理を示す。
つまり、本例では、カメラ座標系とシーン座標系との変換や、シーン座標系とワールド座標系との変換を行う。
Next, an example of a conversion processing method between the coordinates of the camera coordinate system and the coordinates of the world coordinate system will be described. In this example, this conversion process is performed by the image processor 23, for example.
In this example, the direct coordinate conversion from the camera coordinate system to the world coordinate system may be complicated in some cases, and the scene coordinate system may be useful for setting the area. A coordinate system obtained by rotating or translating the coordinate system and converting from the camera coordinate system to a scene coordinate system having an intersection point between the vertical downward vector of the imaging device 21 and the ground as the origin, and then changing from the scene coordinate system to the world coordinate system The process of converting to
That is, in this example, conversion between the camera coordinate system and the scene coordinate system and conversion between the scene coordinate system and the world coordinate system are performed.

具体的には、本例では、撮像装置21により撮像されたカメラ座標系で表現される入力画像121から、地面に対して平行な平面に投影したワールド座標系で表現することが可能なシーン画像(シーン画像151に対応するもの)への変換処理について説明する。なお、この変換の逆変換を行うことで、ワールド座標系の座標からカメラ座標系の座標へ変換することもできる。
本例では、カメラ座標系の入力画像121からシーン画像151への変換はカメラ座標系からシーン座標系への座標変換により行う。また、シーン座標系はワールド座標系を単純に回転や平行移動した直交座標系であるため、シーン画像151は、その回転や平行移動の逆変換を行うことにより、ワールド座標系上で表現することができる。
Specifically, in this example, a scene image that can be expressed in a world coordinate system projected on a plane parallel to the ground from an input image 121 expressed in a camera coordinate system captured by the imaging device 21. The conversion process to (corresponding to the scene image 151) will be described. In addition, it is also possible to convert from the coordinates of the world coordinate system to the coordinates of the camera coordinate system by performing inverse conversion of this conversion.
In this example, the conversion from the input image 121 of the camera coordinate system to the scene image 151 is performed by coordinate conversion from the camera coordinate system to the scene coordinate system. Further, since the scene coordinate system is an orthogonal coordinate system obtained by simply rotating or translating the world coordinate system, the scene image 151 can be expressed on the world coordinate system by performing inverse transformation of the rotation or translation. Can do.

図6(a)には、地面に対して水平な方向で(真横から)撮像装置21を見た場合の様子の一例を示してある。
図6(b)には、地面に対して垂直な方向で(真上から)撮像装置21を見た場合の様子の一例を示してある。
図6(a)及び図6(b)は、シーン座標系で表現されている。本例では、シーン座標系は、原点Oを撮像装置21の鉛直下向き(z方向)で基準となる平面(地面)と交差する点として、地面の平面上にx軸及びy軸を取り、高さ方向にz軸を取る直交座標系である。また、撮像装置21が向いている視線方向(光軸方向)にr軸を設けてある。
FIG. 6A shows an example of a state when the imaging device 21 is viewed in a direction horizontal to the ground (from the side).
FIG. 6B shows an example of a state when the imaging device 21 is viewed in a direction perpendicular to the ground (from directly above).
6A and 6B are expressed in the scene coordinate system. In this example, the scene coordinate system takes the x-axis and the y-axis on the ground plane as the point where the origin O intersects the reference plane (ground) vertically downward (z direction) of the imaging device 21, It is an orthogonal coordinate system taking the z axis in the vertical direction. In addition, an r-axis is provided in the line-of-sight direction (optical axis direction) in which the imaging device 21 faces.

本例では、撮像装置21の設置の高さをHで表しており、撮像装置21の俯角をθで表しており、撮像装置21の縦方向の視野角をθで表している。
また、撮像装置21の横方向の視野角をθで表している。なお、撮像装置21の縦方向の視野角θは、撮像装置21の横方向の視野角θから撮像素子のアスペクト比(縦横比)によって算出することができる。
また、撮像装置21により撮像される画像の視野の中で、撮像装置21から最も近い所までの水平距離をLで表しており、撮像装置21から最も遠い所までの水平距離をLで表している。
In this example, represents the height of installation of the imaging device 21 are expressed on H, the depression angle of the imaging device 21 are expressed on theta T, the viewing angle in the vertical direction of the image pickup device 21 in theta V.
Also, it represents the viewing angle in the lateral direction of the image pickup device 21 in theta H. Incidentally, the viewing angle theta V in the vertical direction of the image pickup apparatus 21 can be calculated by the aspect ratio of the image pickup device (aspect ratio) from the viewing angle theta H in the lateral direction of the image pickup device 21.
Further, in the field of view of the image captured by the imaging device 21, the horizontal distance from the imaging device 21 to the nearest place is represented by LN , and the horizontal distance from the imaging device 21 to the farthest place is represented by LF . Represents.

まず、例えば、撮像装置21の位置や方向を変更するための電動台座(カメラ雲台)の現在の方向(例えば、雲台の正面を原点として、パン角θ、チルト角θ)を取得し、撮像装置21の撮像レンズの現在の焦点距離fを取得する。これらの取得した情報に基づいて、撮像範囲の位置を算出する。
撮像範囲の位置の算出方法を示す。本例では、説明を簡易化するために、監視対象領域は平面であり、地面の凹凸が無いとする。
撮像装置21の横方向の視野角である画角θは(式1)により求められる。
First, for example, the current direction of the electric pedestal (camera head) for changing the position and direction of the imaging device 21 (for example, the pan angle θ P and the tilt angle θ T with the front of the head as the origin) is acquired. The current focal length f of the imaging lens of the imaging device 21 is acquired. Based on the acquired information, the position of the imaging range is calculated.
A method for calculating the position of the imaging range will be described. In this example, in order to simplify the description, it is assumed that the monitoring target area is a plane and has no unevenness on the ground.
The angle of view θ H that is the viewing angle in the horizontal direction of the imaging device 21 is obtained by (Equation 1).

Figure 0004976939
Figure 0004976939

ここで、wは、撮像装置21の撮像素子である例えばCCD素子の横幅であり、一例として、1/3インチ(素子サイズ4.8mm×3.6mm)の撮像素子を使用した場合には、w=4.8mmである。また、1/3インチの撮像素子を使用して、撮像レンズの焦点距離をf=8.00mmとした場合には、撮像装置21の画角は、θ=33.4°となる。すなわち、撮像装置21の視野は横方向に33.4°の範囲を有する。 Here, w is the horizontal width of, for example, a CCD element that is an image pickup element of the image pickup device 21. As an example, when an image pickup element of 1/3 inch (element size 4.8 mm × 3.6 mm) is used, w = 4.8 mm. When a 1/3 inch imaging device is used and the focal length of the imaging lens is f = 8.00 mm, the angle of view of the imaging device 21 is θ H = 33.4 °. In other words, the field of view of the imaging device 21 has a range of 33.4 ° in the lateral direction.

通常、撮像装置21は、監視対象領域と比べて、高い位置に設置される場合が多い。このため、雲台の現在の方向θに応じて、撮像装置21の真下の領域には撮像することができない領域が発生する。この領域は、撮像装置21から視線方向Lの範囲に現れる。それ以上の所定の領域(距離Lと距離Lとの間の領域)は、撮像装置21の視野に入る。
これらの距離L、Lについて説明する。
撮像装置21の縦方向の視野角である画角θは(式2)により求められる。
Usually, the imaging device 21 is often installed at a higher position than the monitoring target area. Therefore, depending on the current direction theta T of the camera platform, in the area beneath the imaging device 21 is a region that can not occur be imaged. This region appears in the range of the line-of-sight direction LN from the imaging device 21. A predetermined region beyond that (the region between the distance L N and the distance L F ) enters the field of view of the imaging device 21.
The distances L N and L F will be described.
The angle of view θ V that is the viewing angle in the vertical direction of the imaging device 21 is obtained by (Expression 2).

Figure 0004976939
Figure 0004976939

ここで、hは、撮像装置21の撮像素子である例えばCCD素子の縦幅であり、一例として、1/3インチの撮像素子を使用した場合には、h=3.6mmである。また、1/3インチの撮像素子を使用して、撮像レンズの焦点距離をf=8.00mmとした場合には、撮像装置21の画角は、θ=25.4°となる。すなわち、撮像装置21の視野は、縦方向に25.4°の範囲を有する。
距離L及び距離Lは、(式3)により求められる。
Here, h is the vertical width of, for example, a CCD element, which is an image pickup element of the image pickup device 21. For example, when a 1/3 inch image pickup element is used, h = 3.6 mm. In addition, when a 1/3 inch imaging device is used and the focal length of the imaging lens is f = 8.00 mm, the angle of view of the imaging device 21 is θ V = 25.4 °. That is, the field of view of the imaging device 21 has a range of 25.4 ° in the vertical direction.
The distance L N and the distance L F are obtained by (Equation 3).

Figure 0004976939
Figure 0004976939

この結果、撮像装置21により撮像することができる範囲は、図6(a)に示される撮像装置21と距離Lの点と距離Lの点で囲まれる三角形の領域の内部と、図6(b)に示される点P1、P2、P3、P4で囲まれる台形の領域の内部となる。
一例として、1/3インチの撮像素子を使用して、撮像レンズの焦点距離をf=8.00mmとし、雲台の現在の方向をθ=30°とし、撮像装置21の設置高をH=5.0mとした場合には、L=5.42m、L=16.1mとなる。
As a result, a range that can be imaged by the imaging device 21, and the internal region of the triangle surrounded by the terms of the point and the distance L F of the imaging device 21 and the distance L N shown in FIG. 6 (a), 6 The inside of the trapezoidal region surrounded by the points P1, P2, P3, and P4 shown in (b).
As an example, using a 1/3 inch imaging device, the focal length of the imaging lens is f = 8.00 mm, the current direction of the camera platform is θ T = 30 °, and the installation height of the imaging device 21 is H = 5.0 m, L N = 5.42 m and L F = 16.1 m.

上述のように、撮像装置21の視野範囲の位置は、(式1)〜(式3)により演算される。
この結果に基づいて、視野範囲に含まれるカメラ座標系の画像上の各位置(x’、y’)をシーン座標系の(x、y)座標へ変換することができる。
例えば、画像上(x’、y’)で表される画素が図6(a)における点Cの位置を撮像したものである場合、入力画像121の縦方向の画素数を480画素とすると、点Cを撮像する俯角θは(式4)により表される。
As described above, the position of the field-of-view range of the imaging device 21 is calculated by (Expression 1) to (Expression 3).
Based on this result, each position (x ′, y ′) on the image of the camera coordinate system included in the visual field range can be converted to the (x, y) coordinate of the scene coordinate system.
For example, when the pixel represented by (x ′, y ′) on the image is an image of the position of point C in FIG. 6A, if the number of pixels in the vertical direction of the input image 121 is 480 pixels, The depression angle θ y for imaging the point C is expressed by (Equation 4).

Figure 0004976939
Figure 0004976939

また、カメラ座標における画素(x’、y’)が、例えば、図6(b)における点Dの位置(空間的な位置は図6(a)における点Cの位置と同じもの)を撮像したものである場合、入力画像121の横方向の画素数を640とすると、点Dを撮像する回転角θは(式5)により表される。 In addition, the pixel (x ′, y ′) in the camera coordinates images, for example, the position of the point D in FIG. 6B (the spatial position is the same as the position of the point C in FIG. 6A). If the number of pixels in the horizontal direction of the input image 121 is 640, the rotation angle θ x for capturing the point D is expressed by (Equation 5).

Figure 0004976939
Figure 0004976939

ここで、θは、撮像装置21のパン角であり、本例では、x軸と撮像装置21の光軸とのなす角を示す。従って、カメラ座標系の入力画像121上の(x’、y’)で表される任意の位置の画素は、シーン座標系のシーン画像151の座標(x、y)として、(式6)により求められる。 Here, θ P is the pan angle of the imaging device 21, and in this example, indicates the angle formed by the x axis and the optical axis of the imaging device 21. Accordingly, a pixel at an arbitrary position represented by (x ′, y ′) on the input image 121 in the camera coordinate system is expressed as (x, y) in the scene image 151 of the scene coordinate system according to (Expression 6). Desired.

Figure 0004976939
Figure 0004976939

すなわち、シーン画像151は、入力画像121を(式1)〜(式6)に従って座標変換することで得られる。なお、視野範囲の位置の座標は、撮像装置21のパンやチルトやズームにより変化し得る。また、シーン座標系に変換した画像は、(式4)〜(式6)で表される変換の逆変換を行うことで、カメラ座標系に戻すことができる。
ここでは、第1の撮像装置111(撮像装置21)について説明したが、他の撮像装置112、113により撮影されたカメラ座標における入力画像131、141についても、(式1)〜(式6)と同様な座標変換を行うことで、シーン座標系上で表現されるシーン画像161、171へ変換することができる。
That is, the scene image 151 is obtained by coordinate-transforming the input image 121 according to (Expression 1) to (Expression 6). Note that the coordinates of the position of the visual field range can be changed by panning, tilting, or zooming of the imaging device 21. Further, the image converted into the scene coordinate system can be returned to the camera coordinate system by performing inverse conversion of the conversion expressed by (Expression 4) to (Expression 6).
Here, the first imaging device 111 (imaging device 21) has been described, but the input images 131 and 141 in the camera coordinates captured by the other imaging devices 112 and 113 are also expressed by (Expression 1) to (Expression 6). By performing coordinate conversion similar to the above, it is possible to convert into scene images 161 and 171 expressed on the scene coordinate system.

ここで、上述した座標変換法で得られるシーン座標系は、各撮像装置111、112、113の位置からの鉛直方向と地面との交点に原点を取る座標系であるため、それぞれのシーン画像151、161、171の座標系は異なる。
このため、全ての監視装置11、12、13(全ての撮像装置111、112、113)から得られたシーン画像151、161、171を統一された座標系で見るためには、各シーン座標系から唯一の座標系であるワールド座標系への座標変換が必要となる。
Here, since the scene coordinate system obtained by the coordinate transformation method described above is a coordinate system having an origin at the intersection of the vertical direction from the position of each of the imaging devices 111, 112, and 113 and the ground, each scene image 151 is obtained. 161, 171 have different coordinate systems.
Therefore, in order to view the scene images 151, 161, 171 obtained from all the monitoring devices 11, 12, 13 (all the imaging devices 111, 112, 113) in a unified coordinate system, each scene coordinate system The coordinate conversion from the world coordinate system, which is the only coordinate system, is required.

例えば、ワールド座標系が、その原点Oに対して、地面の平面上から鉛直上向きにz軸を取り、地面の平面上にx軸及びy軸を取る直交座標系であるとすると、各シーン座標系が地面の平面上にx軸及びy軸を取って各撮像装置の鉛直方向にz軸を取る直交座標系であることから、各シーン座標系はワールド座標系を回転や平行移動した座標系となる。このため、各シーン座標系の座標(x、y、z)は、ワールド座標系上におけるシーン座標系の原点O’の位置ベクトルをOO’=(q、qとし、ワールド座標系とシーン座標系との回転角をθとすると、ワールド座標系の座標(x、y、z)としては(式7)により表現される。 For example, suppose that the world coordinate system is an orthogonal coordinate system that takes the z w axis vertically upward from the ground plane and the x w axis and the y w axis on the ground plane with respect to the origin O w . Since each scene coordinate system is an orthogonal coordinate system that takes the x-axis and y-axis on the ground plane and takes the z-axis in the vertical direction of each imaging device, each scene coordinate system rotates or parallels the world coordinate system. It becomes the moved coordinate system. For this reason, the coordinates (x, y, z) of each scene coordinate system are represented by the position vector of the origin O ′ of the scene coordinate system on the world coordinate system as O w O ′ = (q x , q y ) T Assuming that the rotation angle between the coordinate system and the scene coordinate system is θ, the coordinates (x w , y w , z w ) of the world coordinate system are expressed by (Expression 7).

Figure 0004976939
Figure 0004976939

(式7)により、図7(a)に示されるように、シーン画像151をワールド座標系上で表現することができる。
図7(a)には、シーン画像151をワールド座標系上で表現したもの(シーン画像181)と、多角形の監視領域(点線)182(図5(d)における監視領域152に対応するもの)を示してある。
By (Expression 7), as shown in FIG. 7A, the scene image 151 can be expressed on the world coordinate system.
7A shows a scene image 151 represented on the world coordinate system (scene image 181) and a polygonal monitoring area (dotted line) 182 (corresponding to the monitoring area 152 in FIG. 5D). ) Is shown.

特に、このようにして得られるワールド座標系上のシーン画像181(及びシーン画像系上のシーン画像151)は、監視領域の地図と相似の関係にあり、例えば、道路などは平行な線として表示される。また、画像中に写る植木の大きさや、標識の大きさなどは、実際の大きさ(例えば、メートル法による単位)に比例したものとなる。
例えば、図13(b)に示されるようなカメラ座標系の画像を用いた従来の領域指定方法では、建物322から一定距離の領域を指定するような場合に、画像上の位置によって見かけの大きさが異なってしまう問題があったが、本例のように、(各撮像装置毎に個別のシーン座標系における、又は、全ての撮像装置に共通なワールド座標系における)シーン画像を用いて領域を指定する場合には、画像上の位置によって見かけの大きさが異なる問題は発生しない。
In particular, the scene image 181 on the world coordinate system (and the scene image 151 on the scene image system) obtained in this way has a similar relationship with the map of the monitoring area. For example, roads are displayed as parallel lines. Is done. In addition, the size of the plant and the size of the sign appearing in the image are proportional to the actual size (for example, metric units).
For example, in the conventional area designation method using the camera coordinate system image as shown in FIG. 13B, when an area of a certain distance from the building 322 is designated, the apparent size depends on the position on the image. However, as in this example, the area using the scene image (in the individual scene coordinate system for each imaging device or in the world coordinate system common to all imaging devices) is used. In the case of designating, the problem that the apparent size differs depending on the position on the image does not occur.

次に、以上で述べた各手法によって、シーン座標(或いは、ワールド座標でもよい)を用いて監視領域を設定する方法及び監視装置間で監視領域の情報を共有する方法について説明する。
監視領域の設定や共有を行うために、まず、各監視装置11、12、13において撮像した入力画像121、131、141を、(式1)〜(式6)によって、それぞれ、シーン座標系のシーン画像151、161、171へ変換する。次に、例えば1つの監視装置11において、入力装置29を用いて、そのシーン座標系のシーン画像151上で監視を所望する領域を例えば多角形152で設定する。そして、(式7)により、各シーン座標系のシーン画像151、161、171及び設定された監視領域152の座標系をワールド座標系へ変換する。
Next, a method for setting a monitoring area using scene coordinates (or world coordinates) by each method described above and a method for sharing monitoring area information between monitoring apparatuses will be described.
In order to set and share the monitoring area, first, the input images 121, 131, and 141 captured by the respective monitoring devices 11, 12, and 13 are respectively represented by (Expression 1) to (Expression 6) in the scene coordinate system. The scene images 151, 161, and 171 are converted. Next, for example, in one monitoring device 11, the input device 29 is used to set a region desired to be monitored on the scene image 151 of the scene coordinate system, for example, by a polygon 152. Then, according to (Equation 7), the coordinate system of the scene images 151, 161, 171 of each scene coordinate system and the set monitoring area 152 is converted into the world coordinate system.

図7(b)には、ワールド座標系上で表現した各シーン画像191、192、193(それぞれシーン画像151、161、171に対応するもの)及び監視領域(点線)194(監視領域152に対応するもの)の一例を示してある。
監視装置11では、ワールド座標系で表現される監視領域194の情報を、例えば記憶装置31に保存するなどして、他の監視装置12、13と共有できるように保持しておく。そして、監視装置11は、当該監視装置11上で定めた監視領域194のワールド座標の情報を、必要に応じて、他の監視装置12、13に対してネットワーク14を介して伝送する。
FIG. 7B shows scene images 191, 192, 193 (corresponding to scene images 151, 161, 171 respectively) and a monitoring area (dotted line) 194 (corresponding to the monitoring area 152) expressed on the world coordinate system. An example is shown.
In the monitoring device 11, information on the monitoring area 194 expressed in the world coordinate system is stored in the storage device 31 so that it can be shared with other monitoring devices 12 and 13, for example. And the monitoring apparatus 11 transmits the information of the world coordinate of the monitoring area | region 194 defined on the said monitoring apparatus 11 with respect to the other monitoring apparatuses 12 and 13 via the network 14 as needed.

なお、本例では、例えば外部I/F回路26により接続するネットワーク14を介して監視領域194のワールド座標の情報を伝送する場合を示したが、他の構成例として、外部I/F回路26などに接続されるCD−RAMなどの可搬な媒体を利用して伝送を行うことも可能である。   In this example, the case where the world coordinate information of the monitoring area 194 is transmitted via the network 14 connected by the external I / F circuit 26, for example, is shown. However, as another configuration example, the external I / F circuit 26 is used. It is also possible to perform transmission using a portable medium such as a CD-RAM connected to the device.

次に、例えば、各監視装置12、13に対して、入力装置29などを用いて、受信された監視領域194のワールド座標の情報に基づいて監視領域を設定するように指示を出す。これに応じて、各監視装置12、13では、それぞれの監視装置12、13が持つ画像処理プロセッサ23により、受信された監視領域194の情報に基づく領域設定を行う。
具体的には、監視領域194と各シーン画像192、193は、ワールド座標系上では図7(b)に示されるように表現できるため、それぞれのシーン画像192、193と監視領域194とが重複する領域の座標を、各監視装置12、13における監視領域として設定する。つまり、1つの監視装置11上で決定した監視領域194(監視領域152に対応するもの)と同等な監視領域を、他の監視装置12、13で共有して設定することができる。また、ワールド座標系上での監視領域の設定情報をそれぞれの監視装置12、13に対応するシーン座標系の情報やカメラ座標系の情報へ変換して設定することができる。
Next, for example, the monitoring device 12 or 13 is instructed to set the monitoring region based on the received world coordinate information of the monitoring region 194 using the input device 29 or the like. In response to this, in each of the monitoring devices 12 and 13, the image processing processor 23 of each of the monitoring devices 12 and 13 performs area setting based on the received information on the monitoring area 194.
Specifically, since the monitoring area 194 and the scene images 192 and 193 can be expressed as shown in FIG. 7B on the world coordinate system, the respective scene images 192 and 193 overlap with the monitoring area 194. The coordinates of the area to be set are set as the monitoring area in each of the monitoring devices 12 and 13. That is, a monitoring area equivalent to the monitoring area 194 determined on one monitoring apparatus 11 (corresponding to the monitoring area 152) can be shared and set by the other monitoring apparatuses 12 and 13. In addition, the setting information of the monitoring area on the world coordinate system can be set by converting into the information of the scene coordinate system and the information of the camera coordinate system corresponding to each of the monitoring devices 12 and 13.

例えば、従来の方法で複数台の監視装置に対して監視領域を設定する場合には、監視する全ての撮像装置により撮像された画像のそれぞれ毎に対して、マウスなどの入力装置を用いて、手動で直接的に、その監視領域を例えば図5(a)、図5(b)、図5(c)における多角形122、132、142のように設定する必要があり、監視装置の数が増えるほど、領域の設定作業に時間と労力がかかっていた。
これに対して、本例の場合には、1つの監視装置によって得られたシーン座標系(或いは、ワールド座標系)のシーン画像に対して、例えば図5(d)における多角形152のように監視領域の設定を行えば、監視装置の台数に係らず、他の全ての監視装置に対して、前記監視領域と等しい監視領域を自動的且つ瞬時に設定することが可能である。
For example, when setting a monitoring area for a plurality of monitoring devices by a conventional method, an input device such as a mouse is used for each of the images captured by all the imaging devices to be monitored, The monitoring area needs to be set manually and directly like the polygons 122, 132, 142 in FIGS. 5A, 5B, and 5C, for example. The more it took, the more time and effort it took to set the area.
On the other hand, in the case of this example, for a scene image in the scene coordinate system (or world coordinate system) obtained by one monitoring device, for example, a polygon 152 in FIG. If the monitoring area is set, regardless of the number of monitoring apparatuses, it is possible to automatically and instantaneously set a monitoring area equal to the monitoring area for all other monitoring apparatuses.

以上のように、本例の監視装置11〜13では、監視領域を撮像する撮像装置21と、撮像装置21で撮影した入力画像を処理して当該監視領域の中の物体を検出する処理などを行う画像処理装置(本例では、画像処理プロセッサ23などの機能)と、画像処理装置による物体の検出結果などに基づいて出力画像を表示する表示装置28を備えている。画像処理装置は、前記監視領域を撮像装置21で撮像した第1の座標系(カメラ座標系)の入力画像を第2の座標系(シーン座標系)に基づくシーン画像へ変換する画像変換機能と、前記入力画像を処理するために必要な情報(例えば、領域情報)を前記画像変換機能によって得られたシーン画像上で設定する設定機能を有し、前記した入力画像を処理するために必要な情報に基づいて前記監視領域の中の物体を検出する処理などを行う。   As described above, in the monitoring devices 11 to 13 of the present example, the imaging device 21 that images the monitoring region, the process of processing the input image captured by the imaging device 21 and detecting an object in the monitoring region, and the like. An image processing apparatus (in this example, a function of the image processing processor 23 and the like) to be performed, and a display device 28 that displays an output image based on a detection result of an object by the image processing apparatus are provided. The image processing apparatus has an image conversion function for converting an input image of the first coordinate system (camera coordinate system) obtained by imaging the monitoring area with the imaging device 21 into a scene image based on the second coordinate system (scene coordinate system); A setting function for setting information (for example, region information) necessary for processing the input image on the scene image obtained by the image conversion function, and necessary for processing the input image Based on the information, processing for detecting an object in the monitoring area is performed.

また、画像処理装置は、画像の情報或いは領域などの設定情報について、カメラ座標系とシーン座標系とワールド座標系との間の変換を任意に行うことが可能な機能を有している。特に、シーン座標系で設定された領域情報をワールド座標系の情報へ変換して記憶する。
また、本例の監視装置11〜13では、領域情報や各監視装置11〜13における検出結果の情報などを保持(記憶)するための記憶装置31を備えており、例えば、記憶装置31などに対して領域情報などを入力するための入力装置29を備えている。
In addition, the image processing apparatus has a function capable of arbitrarily performing conversion between the camera coordinate system, the scene coordinate system, and the world coordinate system with respect to setting information such as image information or regions. In particular, the area information set in the scene coordinate system is converted into information in the world coordinate system and stored.
In addition, the monitoring devices 11 to 13 of the present example include a storage device 31 for holding (storing) region information and detection result information in each of the monitoring devices 11 to 13. An input device 29 for inputting region information and the like is provided.

また、本例の監視装置11〜13では、シーン座標系(或いは、ワールド座標系)のシーン画像上で設定した情報を内部或いは外部の記憶部に保持しておき、前記監視領域の一部若しくは全てを含む領域内の物体を異なる位置や角度などから監視する少なくとも1台(1台以上)の監視装置に対して、前記記憶部に記録された前記情報を参照して、その撮像装置における監視情報(例えば、領域情報)を設定する。
また、本例の監視装置11〜13では、前記した入力画像を処理するために必要な情報として、物体を検出する領域を表す検出領域(監視領域)の情報が用いられる。
Further, in the monitoring devices 11 to 13 of this example, information set on the scene image in the scene coordinate system (or the world coordinate system) is held in an internal or external storage unit, and a part of the monitoring area or With respect to at least one (one or more) monitoring devices that monitor objects in a region including all from different positions, angles, etc., refer to the information recorded in the storage unit and monitor the imaging device. Information (for example, area information) is set.
Further, in the monitoring apparatuses 11 to 13 of this example, information on a detection area (monitoring area) representing an area for detecting an object is used as information necessary for processing the input image.

また、本例の監視装置11〜13では、前記した第2の座標系(シーン座標系)は、前記監視領域の地図に相似する座標系である。
また、本例の監視装置11〜13では、第3の座標系として、前記監視領域を監視する全ての監視装置において共通な座標系であるワールド座標系を用いている。ワールド座標系も、前記監視領域の地図に相似する座標系である。
In the monitoring devices 11 to 13 of this example, the second coordinate system (scene coordinate system) described above is a coordinate system similar to the map of the monitoring area.
In the monitoring devices 11 to 13 of this example, the third coordinate system uses a world coordinate system that is a common coordinate system in all the monitoring devices that monitor the monitoring area. The world coordinate system is also a coordinate system similar to the map of the monitoring area.

具体例として、監視領域の監視を、1台以上の監視装置を用いて行う。
1台以上の監視装置において撮影した監視領域の画像は、それぞれの監視装置の撮像条件で見え方が異なる情報であり、すなわちそれぞれのカメラ座標系毎に異なる情報となるが、これらの異なるカメラ座標系で表現された入力画像情報を物体の絶対的な位置を示すことができる共通のワールド座標系で表現できるように座標変換することで、監視領域などの情報を異なる監視装置間並びに異なる監視条件間で共有して扱うことができる状況が実現される。また、カメラ座標系の入力画像を各撮像装置毎のシーン座標系のシーン画像へ変換し、得られたシーン座標系のシーン画像上で所望の監視領域の設定などを行うことで、人にとって感覚的に分かり易いシーン座標系のシーン画像を用いて領域などの設定を効果的に行うことができる。なお、ワールド座標系の画像において領域などの設定が行われてもよい。
As a specific example, monitoring of a monitoring area is performed using one or more monitoring devices.
The image of the monitoring area captured by one or more monitoring devices is information that looks different depending on the imaging conditions of each monitoring device, that is, information that differs for each camera coordinate system. By converting the input image information expressed in the system so that it can be expressed in a common world coordinate system that can indicate the absolute position of the object, information such as the monitoring area is different between different monitoring devices and different monitoring conditions A situation that can be shared and handled between the two is realized. In addition, by converting the input image of the camera coordinate system into a scene image of the scene coordinate system for each imaging device and setting a desired monitoring area on the scene image of the obtained scene coordinate system, a human sense Thus, it is possible to effectively set a region or the like using a scene image in a scene coordinate system that is easy to understand. Note that an area or the like may be set in an image of the world coordinate system.

ここで、複数の監視装置或いは複数の監視条件で共有される監視領域などの情報は、ワールド座標系上であれば、ほかの監視装置の領域などの決定においても、そのまま適用することができる。このように、複数の監視装置或いは複数の監視条件で監視領域などの情報を共有することを可能とすることで、例えば、同じ監視領域(の一部又は全部)を監視する撮像装置(監視装置)の追加や同一の撮像装置(監視装置)の移動などがあった場合においても、監視領域などの新たな情報設定作業の必要をなくすことができる。   Here, information such as a monitoring area shared by a plurality of monitoring devices or a plurality of monitoring conditions can be applied as it is in determining the area of other monitoring devices as long as it is on the world coordinate system. As described above, for example, an imaging device (monitoring device) that monitors the same monitoring region (part or all) by enabling sharing of information such as a monitoring region with a plurality of monitoring devices or a plurality of monitoring conditions. ) And the movement of the same imaging device (monitoring device), etc., it is possible to eliminate the need for new information setting work such as a monitoring area.

また、監視を所望する領域などの情報の変更が必要となった場合においても、共有可能としたワールド座標系上における領域などの情報を1つの監視装置において変更することで、その変更を全ての監視装置に対して容易に反映させることができる。
また、シーン座標系やワールド座標系は、監視領域の地面に対して平行な平面に投影した座標系として、当該監視領域の地図に相似する座標系にすることが可能であり、このような座標系とすることで、領域などの情報を人により直感的且つ簡単に設定することが可能となる。
In addition, even when it is necessary to change information such as an area desired to be monitored, by changing information such as an area on the world coordinate system that can be shared in one monitoring device, the change can be made to all This can be easily reflected in the monitoring device.
In addition, the scene coordinate system and the world coordinate system can be a coordinate system similar to the map of the monitoring area as a coordinate system projected onto a plane parallel to the ground of the monitoring area. By using the system, information such as a region can be set intuitively and easily by a person.

従って、本例では、被写体を領域毎に区別して検出するために用いる監視領域などの設定情報を、撮像装置の位置や角度などが異なる複数の監視装置間並びに撮像装置の位置や角度などが異なる同一の監視装置間(配置が変更された場合)で共有することができる。そして、撮像された入力画像中に映る物体を、監視対象となる領域の地図に相似するシーン座標系或いはワールド座標系において設定された領域情報などに基づいて監視することにより、効果的な監視を行うことができる。   Therefore, in this example, the setting information such as the monitoring area used for distinguishing and detecting the subject for each area is different among a plurality of monitoring apparatuses having different positions and angles of the imaging apparatus, and the positions and angles of the imaging apparatuses are different. It can be shared between the same monitoring devices (when arrangement is changed). Then, effective monitoring is performed by monitoring an object shown in the captured input image based on the area information set in the scene coordinate system or the world coordinate system similar to the map of the area to be monitored. It can be carried out.

例えば、従来では、撮像する入力画像中でいずれの領域に存在する物体を検出すべき物体とするかという情報などを各監視装置で用いられる撮像装置により得られる入力画像毎に予め設定する必要があったために、監視装置の追加や監視装置の使用条件の変更の際に、膨大な作業が必要であった。
これに対して、本例のような監視装置や監視情報の設定方法では、撮像装置により撮像された入力画像を地図に相似するワールド座標系で表現可能なシーン画像へ変換することで、ワールド座標系で全ての撮像装置で撮像された入力画像情報や領域情報などを表現することができ、シーン座標系或いはワールド座標系で所望の領域などを設定して、当該領域などの情報を全ての撮像装置で共有することができる。これにより、監視装置の追加や使用条件の変更に伴う領域などの設定作業の手間が削減され、より効率的で簡単で容易な監視装置の運用が可能となる。
For example, conventionally, it is necessary to previously set information such as in which area in an input image to be captured an object to be detected for each input image obtained by an imaging device used in each monitoring device. For this reason, enormous work is required when adding a monitoring device or changing usage conditions of the monitoring device.
On the other hand, in the monitoring device and the monitoring information setting method as in the present example, the world coordinates are obtained by converting the input image captured by the imaging device into a scene image that can be expressed in a world coordinate system similar to a map. It is possible to express input image information and area information captured by all imaging devices in the system, and set a desired area in the scene coordinate system or the world coordinate system, and capture all the information such as the area. Can be shared by devices. As a result, it is possible to reduce the labor of setting work such as an area associated with addition of a monitoring device or change of use conditions, and it is possible to operate the monitoring device more efficiently, easily and easily.

ここで、本例では、入力画像を処理するために必要な情報として、主に、監視領域の情報を設定する場合を示したが、このような情報としては種々なものが用いられてもよく、例えば、検出対象とする物体の大きさや幅や高さや長さなどに関する閾値の情報を設定するようなことも可能である。
また、本例では、監視領域の形状として、多角形を用いたが、他の任意の形状が用いられてもよい。
Here, in this example, the case where information of a monitoring area is mainly set as information necessary for processing an input image has been shown, but various kinds of information may be used as such information. For example, it is possible to set threshold information related to the size, width, height, length, etc. of an object to be detected.
In this example, a polygon is used as the shape of the monitoring area, but any other shape may be used.

なお、本例では、複数の監視装置11、12、13やネットワーク14の全体により画像処理装置が構成されている。
本例の画像処理装置では、例えば、監視装置11〜13に備えられた表示装置28により画像を表示する機能により表示手段が構成されており、監視装置11〜13に備えられた入力装置29などによりユーザ(人)から領域などの設定情報を受け付ける機能により受付手段が構成されており、監視装置11〜13に備えられた画像処理プロセッサ23などにより情報の座標系を変換する機能により座標系変換手段が構成されており、ある撮像装置の配置で取得された設定情報を他の配置を有する(前記ある撮像装置と同一の又は異なる)撮像装置に設定する機能により変換情報設定手段が構成されている。
本例では、例えば、各監視装置11〜13毎に自装置で取得された設定情報などをワールド座標系の情報へ変換して、監視装置11〜13の間ではワールド座標系の情報を通信するが、他の態様が用いられてもよい。
In this example, the image processing apparatus is configured by the plurality of monitoring apparatuses 11, 12, 13 and the entire network 14.
In the image processing apparatus of this example, for example, a display unit is configured by a function of displaying an image by the display device 28 provided in the monitoring devices 11 to 13, and the input device 29 provided in the monitoring devices 11 to 13. The receiving means is configured by the function of receiving setting information such as the area from the user (person), and the coordinate system conversion is performed by the function of converting the coordinate system of information by the image processor 23 provided in the monitoring devices 11 to 13. The conversion information setting means is configured by the function of setting the setting information acquired by the arrangement of a certain imaging apparatus in an imaging apparatus having another arrangement (same or different from the certain imaging apparatus). Yes.
In this example, for example, the setting information acquired by the own device for each of the monitoring devices 11 to 13 is converted into information of the world coordinate system, and the information of the world coordinate system is communicated between the monitoring devices 11 to 13. However, other aspects may be used.

本発明の第2実施例を説明する。
なお、上記した第1実施例の場合と同様な構成や動作については詳しい説明を省略する。
上記した第1実施例では、少なくとも1つの監視装置の各々で設定した監視領域のワールド座標系で表される情報を、例えばネットワークを介して他の監視装置で共有できるようにした。この監視領域の情報は、少なくとも1つの監視装置で共有するものであるため、情報の保存管理を担う情報サーバを設ける形態を用いることも可能であり、本例では、このような形態について説明する。
A second embodiment of the present invention will be described.
Detailed description of the same configuration and operation as in the first embodiment will be omitted.
In the first embodiment described above, information represented in the world coordinate system of the monitoring area set in each of at least one monitoring device can be shared with other monitoring devices via a network, for example. Since this monitoring area information is shared by at least one monitoring device, it is possible to use a form in which an information server responsible for information storage management is provided. In this example, such a form will be described. .

図8には、本発明の一実施例に係る監視システムの構成例を示してある。
本例の監視システム41は、3台以上の監視装置51、52、53(第1の監視装置51、第2の監視装置52、第3の監視装置53、・・・)を備えており、これらがネットワーク55で接続されており、また、ネットワーク55に接続された情報サーバ54を備えている。情報サーバ54は、例えば、人により操作されることや、各種の情報を内部或いは外部の記憶装置に記憶することや、各種の情報を画面に表示することなどが可能である。
なお、監視装置の数は任意であってもよく、本例では、説明の便宜上から、まず3台として説明し、次に1台追加する場合を示す。
FIG. 8 shows a configuration example of a monitoring system according to an embodiment of the present invention.
The monitoring system 41 of this example includes three or more monitoring devices 51, 52, and 53 (a first monitoring device 51, a second monitoring device 52, a third monitoring device 53,...), These are connected by a network 55, and an information server 54 connected to the network 55 is provided. For example, the information server 54 can be operated by a person, store various types of information in an internal or external storage device, and display various types of information on a screen.
Note that the number of monitoring devices may be arbitrary, and in this example, for convenience of explanation, the description will first be made on the assumption that there are three devices, and then one device is added.

情報サーバ54は、全て若しくはいずれかの監視装置51、52、53から得られた監視を所望する領域の情報や、監視装置51、52、53に対する入出力情報及び監視装置51、52、53で得られた侵入物体の有無などの情報の保持を行い、更に、必要に応じて、各監視装置51、52、53に対してこれらの情報を伝送する。例えば、監視装置51、52、53のうちの1つ(例えば、監視装置51)に対してオペレータがシーン座標系のシーン画像上で監視領域の情報を修正すると、その修正後の情報がワールド座標系の領域情報へ変換され、当該変換された領域情報に基づいて情報サーバ54に保存されている監視領域の情報が更新される。
ここで、本例では、情報サーバ54には、ワールド座標系の情報が保持されるが、必要に応じて、各監視装置毎のシーン座標系やカメラ座標系の情報が保持されてもよい。
The information server 54 includes information on areas desired to be monitored obtained from all or any of the monitoring devices 51, 52, 53, input / output information for the monitoring devices 51, 52, 53, and monitoring devices 51, 52, 53. Information such as the presence / absence of an intruding object obtained is retained, and further, the information is transmitted to each of the monitoring devices 51, 52, 53 as necessary. For example, when the operator corrects the monitoring area information on the scene image in the scene coordinate system for one of the monitoring devices 51, 52, and 53 (for example, the monitoring device 51), the corrected information becomes the world coordinates. The monitoring area information is converted to the system area information, and the monitoring area information stored in the information server 54 is updated based on the converted area information.
Here, in this example, the information server 54 holds information on the world coordinate system, but information on the scene coordinate system and camera coordinate system for each monitoring device may be held as necessary.

また、各監視装置51、52、53では、定期的(例えば、10分間隔など)に情報サーバ54にアクセスし、そして、情報サーバ54における監視領域の情報が更新されていた場合には、それに基づいて当該各監視装置51、52、53の記憶装置31などに記憶された領域情報が更新され、このようにして更新された領域情報がそれ以降における物体の検出処理などで利用される。   Each of the monitoring devices 51, 52, and 53 accesses the information server 54 periodically (for example, every 10 minutes), and if the information of the monitoring area in the information server 54 has been updated, Based on this, the region information stored in the storage device 31 of each of the monitoring devices 51, 52, and 53 is updated, and the region information updated in this way is used in subsequent object detection processing and the like.

図9(a)には、ワールド座標系上でシーン画像を表現したものの一例を示してある。具体的には、第1の監視装置51により得られたシーン画像201と、第2の監視装置52により得られたシーン画像202と、第3の監視装置53により得られたシーン画像203と、多角形の監視領域(点線)204をワールド座標系上で示してある。   FIG. 9A shows an example of a scene image expressed on the world coordinate system. Specifically, the scene image 201 obtained by the first monitoring device 51, the scene image 202 obtained by the second monitoring device 52, the scene image 203 obtained by the third monitoring device 53, A polygonal monitoring area (dotted line) 204 is shown on the world coordinate system.

なお、本例では、例えば、各監視装置51、52、53におけるシーン画像201、202、203の情報をネットワーク55を介して情報サーバ54へ伝送し、情報サーバ54を用いてワールド座標系上で各シーン画像201、202、203を表現することができる。そして、このようなワールド座標系上で人の操作によって多角形204を監視領域として描いて設定することも可能であり、当該監視領域204のワールド座標の情報を例えば情報サーバ54などにおいて監視システム全体で共有可能な情報とすることで、全ての監視装置51、52、53に対して監視領域204と重複する領域を監視すべき領域として設定することが可能となる。
本例のように、監視装置51、52、53間に、情報の保存管理を行う情報サーバ54を設けることで、監視領域204の情報を一括管理することができるとともに、監視領域204の設定や変更なども一括して行うことができる。
In this example, for example, the information of the scene images 201, 202, and 203 in each of the monitoring devices 51, 52, and 53 is transmitted to the information server 54 via the network 55, and is used on the world coordinate system using the information server 54. Each scene image 201, 202, 203 can be expressed. Further, it is possible to draw and set the polygon 204 as a monitoring area by a human operation on such a world coordinate system, and the information on the world coordinates of the monitoring area 204 is, for example, the information server 54 or the like for the entire monitoring system. By making the information sharable, the area overlapping with the monitoring area 204 can be set as the area to be monitored for all the monitoring devices 51, 52, 53.
As in this example, by providing the information server 54 for storing and managing information between the monitoring devices 51, 52, and 53, the information in the monitoring area 204 can be collectively managed, Changes can be made in a batch.

更に、本例の監視システム41では、新たな監視領域を追加する場合にも効率的である。
図9(b)には、ワールド座標系上でシーン画像を表現したものの一例を示してある。具体的には、3つの監視装置51、52、53により得られたシーン画像211、212、213(シーン画像201、202、203と同じもの)と、既に設定されている多角形の監視領域(点線)214(監視領域204と同じもの)と、新たに設定された多角形の監視領域(点線)215をワールド座標系上で示してある。
Furthermore, the monitoring system 41 of this example is efficient when a new monitoring area is added.
FIG. 9B shows an example of a scene image represented on the world coordinate system. Specifically, the scene images 211, 212, and 213 (same as the scene images 201, 202, and 203) obtained by the three monitoring devices 51, 52, and 53, and the polygonal monitoring area that is already set ( A dotted line) 214 (the same as the monitoring area 204) and a newly set polygonal monitoring area (dotted line) 215 are shown on the world coordinate system.

例えば、新たな監視領域として図9(b)に示される多角形215を追加して、2つの監視領域214、215を監視することを所望する場合には、いずれかの監視装置51、52、53或いは情報サーバ54に対してマウスなどの入力装置によって、新しい監視領域の多角形215のシーン座標系或いはワールド座標系の座標を入力することで、情報サーバ54に新しい監視領域のワールド座標の情報を設定する。そして、情報サーバ54から、当該監視領域215を監視する全ての監視装置51、52、53(いずれかの監視装置で新たな監視領域を設定した場合にはその監視装置は除かれてもよい)に対して当該監視領域215のワールド座標の情報を伝送して、2つの監視領域214、215の両方を監視するように当該監視装置51、52、53(いずれかの監視装置で新たな監視領域を設定した場合にはその監視装置は除かれてもよい)に指示を出すことで、瞬時に監視システム41全体で監視領域を追加することができる。   For example, when it is desired to add the polygon 215 shown in FIG. 9B as a new monitoring area and monitor the two monitoring areas 214 and 215, one of the monitoring devices 51, 52, 53 or the information server 54 by inputting the coordinates of the scene coordinate system or world coordinate system of the polygon 215 of the new monitoring area to the information server 54 by using an input device such as a mouse. Set. Then, all the monitoring devices 51, 52, 53 that monitor the monitoring area 215 from the information server 54 (if a new monitoring area is set by any monitoring device, the monitoring device may be excluded). Information of the world coordinates of the monitoring area 215 is transmitted to the monitoring apparatuses 51, 52, and 53 (in either monitoring apparatus, a new monitoring area is monitored so that both the monitoring areas 214 and 215 are monitored). The monitoring area may be added to the entire monitoring system 41 instantaneously by giving an instruction to the monitoring device 41).

例えば、従来の方法では、監視領域の追加についても、監視を行う全ての監視装置のそれぞれに対して、例えばマウスなどの入力装置によって手動で多角形を描くことで、監視領域を追加指定する必要があった。
これに対して、本例では、例えばいずれかの監視装置51、52、53或いは情報サーバ54を用いて追加を所望する監視領域をマウスなどの入力装置によって手動で設定して、当該監視領域のワールド座標の情報を情報サーバ54から各監視装置51、52、53へ送信することにより、一度の追加領域の設定で全ての監視装置51、52、53に対してその追加領域を瞬時に反映させることができ、監視装置51、52、53を運用する利用者の負担を削減することができる。
For example, in the conventional method, it is necessary to additionally specify a monitoring area by manually drawing a polygon with an input device such as a mouse for each monitoring apparatus to be monitored. was there.
On the other hand, in this example, a monitoring area desired to be added is manually set by an input device such as a mouse using any one of the monitoring devices 51, 52, 53 or the information server 54, and the monitoring area By transmitting the world coordinate information from the information server 54 to each of the monitoring devices 51, 52, and 53, the additional region is instantaneously reflected to all the monitoring devices 51, 52, and 53 by setting the additional region once. It is possible to reduce the burden on the user who operates the monitoring devices 51, 52, and 53.

また、本例の監視システム41では、監視装置(撮像装置)の追加についても、簡易に実現することができる。
図10には、本例の監視システム41で監視を行う監視領域並びにその周辺の見取り図221の一例を示してある。この見取り図221は、監視領域を地面に垂直な方向から見下ろしたものである。
具体的には、道路や建物や空き地があり、第1の監視装置51に備えられた第1の撮像装置231の配置(位置や方向)と、第2の監視装置52に備えられた第2の撮像装置232の配置と、第3の監視装置53に備えられた第3の撮像装置233の配置と、第4の監視装置(新規な監視装置)に備えられた第4の撮像装置234の配置が示されている。
例えば、監視精度の向上などを目的として、図10に示される地図上におけるある地点(建物の屋上)234に撮像装置を持つ新たな監視装置Pを追加する場合においても、本例の監視システム41では、この新規な監視装置Pに対して監視領域などの情報を設定することを簡単に実現することができる。
Moreover, in the monitoring system 41 of this example, addition of a monitoring device (imaging device) can be easily realized.
FIG. 10 shows an example of a monitor area 221 monitored by the monitoring system 41 of the present example and a sketch 221 around it. This sketch 221 is a view of the monitoring area looking down from a direction perpendicular to the ground.
Specifically, there are roads, buildings, and vacant lots, the arrangement (position and direction) of the first imaging device 231 provided in the first monitoring device 51, and the second provided in the second monitoring device 52. Of the second imaging device 232, the arrangement of the third imaging device 233 provided in the third monitoring device 53, and the fourth imaging device 234 provided in the fourth monitoring device (new monitoring device). The arrangement is shown.
For example, even when a new monitoring device P having an imaging device is added to a certain point (the roof of a building) 234 on the map shown in FIG. 10 for the purpose of improving the monitoring accuracy, the monitoring system 41 of this example. Then, it is possible to easily realize setting of information such as a monitoring area for the new monitoring device P.

図11(a)には、新規な監視装置Pの撮像装置234により撮像される入力画像241の一例を示してあり、また、設定される監視領域242の一例を示してある。
図11(b)には、新規な監視装置Pにおいて、図11(a)に示される入力画像241を(式1)〜(式6)により変換して得られたシーン画像251の一例を示してある。
図11(c)には、図11(b)に示されるシーン座標系上のシーン画像251を(式7)により変換して得られたワールド座標系上のシーン画像261の一例を示してあり、また、多角形の監視領域262の一例をワールド座標系上で示してある。
FIG. 11A shows an example of the input image 241 captured by the imaging device 234 of the new monitoring device P, and also shows an example of the monitoring region 242 to be set.
FIG. 11B shows an example of a scene image 251 obtained by converting the input image 241 shown in FIG. 11A by (Equation 1) to (Equation 6) in the new monitoring device P. It is.
FIG. 11C shows an example of the scene image 261 on the world coordinate system obtained by converting the scene image 251 on the scene coordinate system shown in FIG. An example of a polygonal monitoring area 262 is shown on the world coordinate system.

新規な監視装置Pに対する領域設定では、まず、図11(b)に示されるシーン画像251を(式7)に従って図11(c)に示されるようにワールド座標系で表現し、次に、新規な監視装置Pに対して情報サーバ54などにより共有可能とされた監視領域のワールド座標として例えば多角形262の座標を送信して、当該監視領域262のワールド座標を新規な監視装置Pで監視するように指示を出す。これにより、この監視領域262は、図11(c)に示される多角形のように設定され、瞬時且つ自動的に監視領域を設定することができる。   In the area setting for the new monitoring device P, first, the scene image 251 shown in FIG. 11B is expressed in the world coordinate system as shown in FIG. For example, the coordinates of the polygon 262 are transmitted as the world coordinates of the monitoring area that can be shared by the information server 54 or the like to the monitoring apparatus P, and the world coordinates of the monitoring area 262 are monitored by the new monitoring apparatus P. Give instructions to do so. Thereby, the monitoring area 262 is set like a polygon shown in FIG. 11C, and the monitoring area can be set instantaneously and automatically.

このような結果として、監視システム41では、図11(d)に示されるように、複数の監視装置(本例では、監視装置51、52、53及び新規な監視装置P)により、同じ監視領域262を重複して監視することができる。
図11(d)には、4つの監視装置(本例では、監視装置51、52、53及び新規な監視装置P)により得られたシーン画像271、272、273、274の一例と、共通な監視領域275の一例をワールド座標系上で示してある。
As a result, in the monitoring system 41, as shown in FIG. 11D, the same monitoring area is obtained by a plurality of monitoring devices (in this example, the monitoring devices 51, 52, and 53 and the new monitoring device P). 262 can be monitored in duplicate.
FIG. 11D shows a common scene image 271, 272, 273, and 274 obtained by four monitoring devices (in this example, the monitoring devices 51, 52, and 53 and the new monitoring device P). An example of the monitoring area 275 is shown on the world coordinate system.

例えば、従来の方法では、監視システムに新たな監視装置を追加して監視領域を監視するときには、その新たな監視装置により得られた入力画像に対して、例えばマウスなどの入力装置を用いて、監視領域の多角形を手動で設定する必要があり、監視装置の追加に伴って監視領域を手動で追加する作業が必要であった。
これに対して、本例では、監視システム41で共有可能とした監視領域の情報をワールド座標系に変換することで、当該監視領域を監視する全ての監視装置において数値的に設定することが可能であるため、たとえ監視装置を何台追加することとなっても、当該監視領域を監視する分には、新たに手動で監視領域を設定する必要はなくなり、監視システム41の運用者は非常に少ない負担で監視装置を追加することができる。
For example, in the conventional method, when a monitoring area is monitored by adding a new monitoring device to the monitoring system, an input device such as a mouse is used for an input image obtained by the new monitoring device, It is necessary to manually set the polygon of the monitoring area, and it is necessary to manually add the monitoring area as the monitoring apparatus is added.
On the other hand, in this example, by converting the information of the monitoring area that can be shared by the monitoring system 41 into the world coordinate system, it can be set numerically in all the monitoring devices that monitor the monitoring area. Therefore, no matter how many monitoring devices are added, it is not necessary to manually set a monitoring area for monitoring the monitoring area, and the operator of the monitoring system 41 is very A monitoring device can be added with a small burden.

また、本例では、例えば、監視装置における撮像装置の位置や角度を変更して、監視領域を監視する場合においても、当該監視領域と同じ領域を監視する限り、新たに監視領域を手動で変更する必要がない。
例えば、図11(c)に示される監視領域262を監視する監視装置Pにおける撮像装置の位置と角度と焦点距離を変更したところ、図11(a)に示されるように撮像されていた入力画像241が、撮像装置の位置と角度と焦点距離の変更に伴って図11(e)に示される入力画像281のように変化した場合を考える。
図11(e)には、監視装置Pの撮像装置により撮像された入力画像281の一例と、監視領域(点線)282の一例を示してある。
In this example, for example, even when the monitoring area is monitored by changing the position or angle of the imaging device in the monitoring apparatus, the monitoring area is manually changed as long as the same area as the monitoring area is monitored. There is no need to do.
For example, when the position, the angle, and the focal length of the imaging device in the monitoring device P that monitors the monitoring region 262 shown in FIG. 11C are changed, the input image that has been picked up as shown in FIG. Consider a case where 241 changes as in the input image 281 shown in FIG. 11E in accordance with the change in the position, angle, and focal length of the imaging device.
FIG. 11E shows an example of the input image 281 captured by the imaging device of the monitoring device P and an example of the monitoring area (dotted line) 282.

この場合、従来の方法では、図11(a)に示される監視領域242と重複する領域を監視領域として設定し直すために、例えば、入力画像281に対して、監視を所望する領域282をマウスなどの入力装置により手動で設定する必要があった。
これに対して、本例では、撮像装置の設定を変更する前における監視装置Pの監視領域をワールド座標系上で図11(c)に示される多角形262のように設定してワールド座標の値を保持しておく。これにより、たとえ撮像装置の設定を変更して入力画像が図11(e)に示されるように変化した場合においても、この入力画像281を図11(f)に示されるワールド座標系上のシーン画像291へ変換することでワールド座標上で表現することが可能であるため、撮像装置の設定を変更する前に決定した監視領域262の座標を撮像装置の設定変更後もそのまま監視領域として用いることができ、新たに監視領域を設定し直す手間が削減される。
図11(f)には、図11(e)に示される入力画像281をワールド座標系上で表現したシーン画像291の一例と、監視領域292の一例をワールド座標系上で示してある。
In this case, in the conventional method, in order to reset the area overlapping the monitoring area 242 shown in FIG. 11A as the monitoring area, for example, the area 282 that is desired to be monitored is input to the input image 281 with the mouse. It was necessary to set it manually by the input device.
On the other hand, in this example, the monitoring area of the monitoring device P before changing the setting of the imaging device is set on the world coordinate system like a polygon 262 shown in FIG. Keep the value. Thereby, even when the setting of the imaging device is changed and the input image changes as shown in FIG. 11E, the input image 281 is converted into a scene on the world coordinate system shown in FIG. Since it can be expressed in world coordinates by converting to the image 291, the coordinates of the monitoring area 262 determined before changing the setting of the imaging apparatus can be used as the monitoring area as it is after the setting of the imaging apparatus is changed. This can reduce the time and effort to newly set the monitoring area.
FIG. 11F shows an example of a scene image 291 in which the input image 281 shown in FIG. 11E is expressed on the world coordinate system and an example of the monitoring area 292 on the world coordinate system.

また、シーン座標系上やワールド座標系上で表現されたシーン画像が監視領域の地図と相似の関係にあるという特徴を利用して、地図により直感的な監視領域などの設定や、監視システム41間での監視情報の共有が可能である。
例えば、図9(a)に示されるワールド座標系上で表現されたシーン画像201、202、203と、図1に示されるこれらの領域を真上から見下ろした見取り図101とは相似であり、建物の位置などの情報において相違ない。
In addition, by using the feature that scene images expressed on the scene coordinate system and the world coordinate system are similar to the map of the monitoring area, it is possible to set an intuitive monitoring area or the like based on the map, or the monitoring system 41. Monitoring information can be shared between them.
For example, the scene images 201, 202, and 203 represented on the world coordinate system shown in FIG. 9A are similar to the floor plan 101 in which these areas shown in FIG. There is no difference in information such as the position of

このため、図1に示されるように設定された監視領域114のワールド座標系上での座標を例えば見取り図の縮尺率を考慮して算出し、当該監視領域114のワールド座標を情報サーバ54などにより共有可能とすることで、当該監視領域114と重複する領域を全ての監視装置に対して瞬時に設定することができる。一例として、見取り図や地図などを用いて監視装置の外部の媒体を利用して監視領域を設定するような場合には、シーン画像などのように監視装置の出力結果に基づく情報を用いる必要がないため、監視装置の利用に熟練しない人であっても直感的に領域などの指定が可能である。   Therefore, the coordinates of the monitoring area 114 set as shown in FIG. 1 on the world coordinate system are calculated in consideration of the scale of the sketch, for example, and the world coordinates of the monitoring area 114 are calculated by the information server 54 or the like. By enabling sharing, an area overlapping with the monitoring area 114 can be instantaneously set for all monitoring apparatuses. As an example, when a monitoring area is set using a medium outside the monitoring device using a floor plan or a map, it is not necessary to use information based on the output result of the monitoring device such as a scene image. Therefore, even a person who is not skilled in using the monitoring device can intuitively specify a region or the like.

以上のように、本例の監視装置51、52、53では、入力画像を処理するために必要な情報(例えば、領域情報)をネットワーク55を介して外部記憶装置(本例では、情報サーバ54)により保存や管理する情報外部記憶機能を備えている。また、本例の監視システム41は、ネットワーク55に接続された監視装置51、52、53との間で前記情報などを送受信する情報サーバ54を有している。
従って、本例では、監視装置51、52、53の外部に設けられた情報サーバ54により、複数の監視装置51、52、53に関する情報を共有して一括して記憶や管理や設定などすることができる。
As described above, in the monitoring devices 51, 52, and 53 of this example, information (for example, area information) necessary for processing the input image is transmitted via the network 55 to the external storage device (in this example, the information server 54). ) To store and manage information. In addition, the monitoring system 41 of this example includes an information server 54 that transmits and receives the above information to and from the monitoring devices 51, 52, and 53 connected to the network 55.
Therefore, in this example, the information server 54 provided outside the monitoring devices 51, 52, 53 shares information related to the plurality of monitoring devices 51, 52, 53 and collectively stores, manages, and sets the information. Can do.

なお、本例では、複数の監視装置51、52、53や情報サーバ54やネットワーク55の全体により画像処理装置が構成されている。
また、本例の画像処理装置では、画像を表示する表示手段の機能や、ユーザ(人)から設定情報を受け付ける受付手段の機能や、情報の座標系を変換する座標系変換手段の機能や、配置が異なる撮像装置間で設定情報を設定する変換情報設定手段の機能の一部又は全部が情報サーバ54に備えられており、また、これらの機能の一部又は全部は監視装置51〜53にも備えられている。
本例では、例えば、各監視装置51〜53毎に自装置で取得された設定情報などをワールド座標系の情報へ変換して、監視装置51〜53と情報サーバ54との間ではワールド座標系の情報を通信するが、他の態様が用いられてもよい。
In this example, the image processing apparatus is configured by the plurality of monitoring apparatuses 51, 52, 53, the information server 54, and the network 55 as a whole.
In the image processing apparatus of this example, the function of a display unit that displays an image, the function of a reception unit that receives setting information from a user (person), the function of a coordinate system conversion unit that converts a coordinate system of information, A part or all of the function of the conversion information setting means for setting the setting information between the imaging devices having different arrangements is provided in the information server 54, and part or all of these functions are provided in the monitoring devices 51 to 53. Is also provided.
In this example, for example, the setting information acquired by the own device for each of the monitoring devices 51 to 53 is converted into information of the world coordinate system, and the world coordinate system between the monitoring devices 51 to 53 and the information server 54 is converted. Although other information may be communicated, other aspects may be used.

ここで、本発明に係るシステムや装置などの構成としては、必ずしも以上に示したものに限られず、種々な構成が用いられてもよい。また、本発明は、例えば、本発明に係る処理を実行する方法或いは方式や、このような方法や方式を実現するためのプログラムや当該プログラムを記録する記録媒体などとして提供することも可能であり、また、種々なシステムや装置として提供することも可能である。
また、本発明の適用分野としては、必ずしも以上に示したものに限られず、本発明は、種々な分野に適用することが可能なものである。
また、本発明に係るシステムや装置などにおいて行われる各種の処理としては、例えばプロセッサやメモリ等を備えたハードウエア資源においてプロセッサがROM(Read Only Memory)に格納された制御プログラムを実行することにより制御される構成が用いられてもよく、また、例えば当該処理を実行するための各機能手段が独立したハードウエア回路として構成されてもよい。
また、本発明は上記の制御プログラムを格納したフロッピー(登録商標)ディスクやCD(Compact Disc)−ROM等のコンピュータにより読み取り可能な記録媒体や当該プログラム(自体)として把握することもでき、当該制御プログラムを当該記録媒体からコンピュータに入力してプロセッサに実行させることにより、本発明に係る処理を遂行させることができる。
Here, the configuration of the system and apparatus according to the present invention is not necessarily limited to the configuration described above, and various configurations may be used. The present invention can also be provided as, for example, a method or method for executing the processing according to the present invention, a program for realizing such a method or method, or a recording medium for recording the program. It is also possible to provide various systems and devices.
The application field of the present invention is not necessarily limited to the above-described fields, and the present invention can be applied to various fields.
In addition, as various processes performed in the system and apparatus according to the present invention, for example, the processor executes a control program stored in a ROM (Read Only Memory) in hardware resources including a processor and a memory. A controlled configuration may be used, and for example, each functional unit for executing the processing may be configured as an independent hardware circuit.
The present invention can also be understood as a computer-readable recording medium such as a floppy (registered trademark) disk or a CD (Compact Disc) -ROM storing the control program, and the program (itself). The processing according to the present invention can be performed by inputting the program from the recording medium to the computer and causing the processor to execute the program.

監視領域の見取り図の一例及び設置された撮像装置の位置の一例を示す図である。It is a figure which shows an example of the sketch of a monitoring area | region, and an example of the position of the installed imaging device. 本発明の第1実施例に係る監視システムの一例を示す図である。It is a figure which shows an example of the monitoring system which concerns on 1st Example of this invention. 本発明の一実施例に係る監視装置の構成例を示す図である。It is a figure which shows the structural example of the monitoring apparatus which concerns on one Example of this invention. 画像処理プロセッサにより実行されるプログラムの処理のフローの一例を示す図である。It is a figure which shows an example of the flow of the process of the program performed by the image processor. (a)は第1の撮像装置により撮像される入力画像の一例を示す図であり、(b)は第2の撮像装置により撮像される入力画像の一例を示す図であり、(c)は第3の撮像装置により撮像される入力画像の一例を示す図であり、(d)は第1の監視装置によるシーン画像の一例を示す図であり、(e)は第2の監視装置によるシーン画像の一例を示す図であり、(f)は第3の監視装置によるシーン画像の一例を示す図である。(A) is a figure which shows an example of the input image imaged by the 1st imaging device, (b) is a figure which shows an example of the input image imaged by the 2nd imaging device, (c) is It is a figure which shows an example of the input image imaged by the 3rd imaging device, (d) is a figure which shows an example of the scene image by a 1st monitoring apparatus, (e) is a scene by a 2nd monitoring apparatus. It is a figure which shows an example of an image, (f) is a figure which shows an example of the scene image by a 3rd monitoring apparatus. (a)は座標変換を説明するための図であり、(b)は座標変換を説明するための図である。(A) is a figure for demonstrating coordinate transformation, (b) is a figure for demonstrating coordinate transformation. (a)は領域指定の方法を説明するための図であり、(b)は領域指定の方法を説明するための図である。(A) is a figure for demonstrating the method of area | region designation | designated, (b) is a figure for demonstrating the method of area | region designation | designated. 本発明の第2実施例に係る監視システムの一例を示す図である。It is a figure which shows an example of the monitoring system which concerns on 2nd Example of this invention. (a)は領域指定の方法を説明するための図であり、(b)は領域指定の方法を説明するための図である。(A) is a figure for demonstrating the method of area | region designation | designated, (b) is a figure for demonstrating the method of area | region designation | designated. 監視領域の見取り図の一例及び設置された撮像装置の位置の一例を示す図である。It is a figure which shows an example of the sketch of a monitoring area | region, and an example of the position of the installed imaging device. (a)は撮像装置により撮像される入力画像の一例を示す図であり、(b)は監視装置によるシーン画像の一例を示す図であり、(c)は領域指定の方法を説明するための図であり、(d)は領域指定の方法を説明するための図であり、(e)は撮像装置により撮像される入力画像の一例を示す図であり、(f)は領域指定の方法を説明するための図である。(A) is a figure which shows an example of the input image imaged with an imaging device, (b) is a figure which shows an example of the scene image by a monitoring apparatus, (c) is for demonstrating the area | region designation | designated method (D) is a figure for demonstrating the method of area | region designation | designated, (e) is a figure which shows an example of the input image imaged with an imaging device, (f) is a method of area | region designation | designated. It is a figure for demonstrating. 差分法による物体検出処理の流れの一例を示す図である。It is a figure which shows an example of the flow of the object detection process by a difference method. (a)は撮像装置により撮像される入力画像の一例を示す図であり、(b)は領域指定の方法を説明するための図である。(A) is a figure which shows an example of the input image imaged with an imaging device, (b) is a figure for demonstrating the method of area | region designation | designated.

符号の説明Explanation of symbols

1、41・・監視システム、 11〜13、51〜53・・監視装置、 14、55・・ネットワーク、 21・・撮像装置、 22・・映像入力回路、 23・・画像処理プロセッサ、 24・・プログラムメモリ、 25・・ワークメモリ、 26・・外部I/F回路、 27・・映像出力回路、 28・・表示装置、 29・・入力装置、 30・・入力回路、 31・・記憶装置、 32・・データバス、 54・・情報サーバ、
101、221・・見取り図、 111〜113、231〜234・・撮像装置、 114、122、132、142、152、182、194、204、214、215、242、262、275、282、292・・監視領域、 121、131、141、241、281・・入力画像、 151、161、171、181、191〜193、201〜203、211〜213、251、261、271〜274、291・・シーン画像、
301、321・・入力画像、 302・・背景画像、 303・・差分器、 304・・差分画像、 305・・二値化器、 306・・二値化画像、 311・・物体、 312・・領域、 313・・画素、 314・・領域、 322・・建物、 331・・監視領域、
T1・・背景画像、 T2・・領域情報、
1, 41 ... Monitoring system, 11-13, 51-53 ... Monitoring device, 14, 55 ... Network, 21 ... Imaging device, 22 ... Video input circuit, 23 ... Image processor, 24 ... Program memory, 25 ... Work memory, 26 ... External I / F circuit, 27 ... Video output circuit, 28 ... Display device, 29 ... Input device, 30 ... Input circuit, 31 ... Storage device, 32 ..Data bus 54.Information server
101, 221, sketch, 111 to 113, 231 to 234, imaging device 114, 122, 132, 142, 152, 182, 194, 204, 214, 215, 242, 262, 275, 282, 292,. Monitoring area 121, 131, 141, 241, 281 .. Input image, 151, 161, 171, 181, 191-193, 201-203, 211-213, 251, 261, 271-274, 291 ... Scene image ,
301, 321 ... Input image 302 ... Background image 303 ... Differencer 304 ... Difference image 305 ... Binarizer 306 ... Binarized image 311 ... Object 312 ... Area, 313 ... pixel, 314 ... area, 322 ... building, 331 ... monitoring area,
T1, ... background image, T2, ... area information,

Claims (3)

画像を処理する画像処理装置において、
撮像装置による撮像時の座標系である第1の座標系の画像が当該撮像装置の配置に基づいて基準となる平面上に設けられた第2の座標系の画像へ変換された当該画像を表示する表示手段と、
前記表示手段により表示された画像に関する設定情報をユーザから受け付ける受付手段と、
前記受付手段により受け付けられた設定情報を第2の座標系の情報から撮像装置の配置によらない基準となる平面上に設けられた第3の座標系の情報へ変換する座標系変換手段と、
を備えたことを特徴とする画像処理装置。
In an image processing apparatus that processes an image,
Displaying the image obtained by converting the image of the first coordinate system, which is the coordinate system at the time of imaging by the imaging device, into the image of the second coordinate system provided on the reference plane based on the arrangement of the imaging device Display means to
Accepting means for accepting setting information regarding the image displayed by the display means from a user;
Coordinate system conversion means for converting the setting information received by the receiving means from information of the second coordinate system to information of a third coordinate system provided on a reference plane independent of the arrangement of the imaging device;
An image processing apparatus comprising:
請求項1に記載の画像処理装置において、
前記座標系変換手段は、所定の配置を有する一の撮像装置により撮像された画像に基づいて取得された第3の座標系の設定情報を、前記所定の配置とは異なる配置に対応した第2の座標系の情報へ変換し、
当該画像処理装置は、前記座標系変換手段により変換された情報を、前記所定の配置とは異なる配置を有する前記一の撮像装置とは異なる撮像装置又は配置が変更された前記一の撮像装置により得られる画像に関して設定する変換情報設定手段を備えた、
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The coordinate system conversion means uses second information corresponding to an arrangement different from the predetermined arrangement for setting information of the third coordinate system acquired based on an image captured by one imaging device having a predetermined arrangement. To the coordinate system information of
The image processing apparatus uses the imaging apparatus different from the one imaging apparatus having an arrangement different from the predetermined arrangement or the one imaging apparatus whose arrangement has been changed, by converting the information converted by the coordinate system conversion unit. Provided with conversion information setting means for setting the obtained image;
An image processing apparatus.
請求項1又は請求項2に記載の画像処理装置において、
前記画像に関する設定情報として、監視する領域を指定する情報又は検出の対象に関する情報のうちの少なくとも一方が用いられる、
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 1 or 2,
As the setting information related to the image, at least one of information specifying an area to be monitored or information related to a detection target is used.
An image processing apparatus.
JP2007176039A 2007-07-04 2007-07-04 Image processing device Active JP4976939B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007176039A JP4976939B2 (en) 2007-07-04 2007-07-04 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007176039A JP4976939B2 (en) 2007-07-04 2007-07-04 Image processing device

Publications (2)

Publication Number Publication Date
JP2009017179A JP2009017179A (en) 2009-01-22
JP4976939B2 true JP4976939B2 (en) 2012-07-18

Family

ID=40357526

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007176039A Active JP4976939B2 (en) 2007-07-04 2007-07-04 Image processing device

Country Status (1)

Country Link
JP (1) JP4976939B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10192128B2 (en) 2015-03-27 2019-01-29 Nec Corporation Mobile surveillance apparatus, program, and control method

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9948897B2 (en) 2012-05-23 2018-04-17 Sony Corporation Surveillance camera management device, surveillance camera management method, and program
JP6381918B2 (en) * 2013-01-23 2018-08-29 キヤノンメディカルシステムズ株式会社 Motion information processing device
JP6226539B2 (en) 2013-03-15 2017-11-08 キヤノン株式会社 Information processing apparatus, information processing apparatus control method, and program
JP6226538B2 (en) * 2013-03-15 2017-11-08 キヤノン株式会社 Display control apparatus, display control method, and program
US10032249B2 (en) 2014-09-05 2018-07-24 Sakai Display Products Corporation Image generating apparatus, image generating method, and computer program
JP6509546B2 (en) * 2014-12-12 2019-05-08 株式会社日立システムズ Image search system and image search method
JP6494418B2 (en) * 2015-05-25 2019-04-03 キヤノン株式会社 Image analysis apparatus, image analysis method, and program
JP6700845B2 (en) * 2016-02-22 2020-05-27 キヤノン株式会社 Information processing apparatus, information processing method, and program
US11457180B2 (en) 2018-03-28 2022-09-27 Nec Corporation Video monitoring support apparatus, video monitoring support method, and computer readable recording medium

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001319218A (en) * 2000-02-29 2001-11-16 Hitachi Ltd Image monitoring device
JP4424031B2 (en) * 2004-03-30 2010-03-03 株式会社日立製作所 Image generating apparatus, system, or image composition method.

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10192128B2 (en) 2015-03-27 2019-01-29 Nec Corporation Mobile surveillance apparatus, program, and control method
US10650263B2 (en) 2015-03-27 2020-05-12 Nec Corporation Mobile surveillance apparatus, program, and control method
US10769468B2 (en) 2015-03-27 2020-09-08 Nec Corporation Mobile surveillance apparatus, program, and control method
US11144776B2 (en) 2015-03-27 2021-10-12 Nec Corporation Mobile surveillance apparatus, program, and control method
US11644968B2 (en) 2015-03-27 2023-05-09 Nec Corporation Mobile surveillance apparatus, program, and control method

Also Published As

Publication number Publication date
JP2009017179A (en) 2009-01-22

Similar Documents

Publication Publication Date Title
JP4976939B2 (en) Image processing device
CN108830894B (en) Remote guidance method, device, terminal and storage medium based on augmented reality
US10095458B2 (en) Information processing apparatus, information processing method, non-transitory computer-readable storage medium, and system
EP3550513B1 (en) Method of generating panorama views on a mobile mapping system
JP4478510B2 (en) Camera system, camera, and camera control method
JP2010128727A (en) Image processor
JP5183152B2 (en) Image processing device
JP7051616B2 (en) Image display system and method
US20190303685A1 (en) Monitoring system, monitoring method, and non-transitory computer-readable storage medium
CN110796738B (en) Three-dimensional visualization method and device for state tracking of inspection equipment
JP6381265B2 (en) Information processing apparatus, display method, and program
US10462448B2 (en) Image generation system and image generation method
JP2017076943A (en) Content projector, content projection method and content projection program
CN112514366A (en) Image processing method, image processing apparatus, and image processing system
JP5574551B2 (en) Image processing apparatus and image processing method
JP2016197797A (en) Image processing apparatus, image processing method, and image processing system
US10728522B2 (en) Control device for a camera apparatus, camera arrangement and method for the stereoscopic recording of a monitoring area
US10089726B2 (en) Image processing apparatus, image processing method, and storage medium, relating to generating an image corresponding to a predetermined three-dimensional shape by transforming a captured image
EP4258015A1 (en) Support system for mobile coordinate scanner
JP3785033B2 (en) Surveillance camera control system and surveillance camera control device
WO2021138856A1 (en) Camera control method, device, and computer readable storage medium
CA3201066A1 (en) Collaborative augmented reality measurement systems and methods
KR102057845B1 (en) Method for video control by interaction with terminal and video control system using the method
CN111950420A (en) Obstacle avoidance method, device, equipment and storage medium
JP2005333628A (en) Camera control apparatus, and monitoring camera system using same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100702

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20101216

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20110509

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120327

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120413

R150 Certificate of patent or registration of utility model

Ref document number: 4976939

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150420

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250