JP2012103921A - Passing vehicle monitoring system and vehicle monitoring camera - Google Patents

Passing vehicle monitoring system and vehicle monitoring camera Download PDF

Info

Publication number
JP2012103921A
JP2012103921A JP2010252248A JP2010252248A JP2012103921A JP 2012103921 A JP2012103921 A JP 2012103921A JP 2010252248 A JP2010252248 A JP 2010252248A JP 2010252248 A JP2010252248 A JP 2010252248A JP 2012103921 A JP2012103921 A JP 2012103921A
Authority
JP
Japan
Prior art keywords
monitoring
unit
spotlight
light
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010252248A
Other languages
Japanese (ja)
Other versions
JP5516344B2 (en
Inventor
Noboru Nashiki
登 梨木
Hirotaka Yajima
浩孝 矢島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SAIBUAASU KK
Saxa Inc
Original Assignee
SAIBUAASU KK
Saxa Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SAIBUAASU KK, Saxa Inc filed Critical SAIBUAASU KK
Priority to JP2010252248A priority Critical patent/JP5516344B2/en
Publication of JP2012103921A publication Critical patent/JP2012103921A/en
Application granted granted Critical
Publication of JP5516344B2 publication Critical patent/JP5516344B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a passing vehicle monitoring system and vehicle monitoring cameras which can accurately recognize passing vehicles on a road, be easily installed, analyze a running state for each vehicle without concentrating a load, and allow a driver to easily realize the presence of a still object.SOLUTION: A passing vehicle monitoring system 1 comprises a plurality of monitoring cameras 2 which are connected in a daisy chain manner and photograph vehicle passing conditions, and a center device 4 connected to the plurality of monitoring cameras. Each of the monitoring cameras 2 comprises: a plurality of photographing sections 31; a spotlight 24; a solid measuring section 33 for generating distance image data from a plurality of images; a detection processing section P1 for detecting the still object based on the distance image; an additional processing section Q1 for outputting a light lighting signal to irradiate the still object with light of the spotlight 24; and a light controlling section 41 for controlling to change an irradiation position of the spotlight 24 to a position of the still object based on the light lighting signal.

Description

本発明は、通行車両監視システム及び車両用監視カメラに関する。   The present invention relates to a traffic vehicle monitoring system and a vehicle monitoring camera.

従来より、道路上を通行する車両の事故防止等のために車両監視システムが広く実用化されている。車両監視システムには、車両を撮影した画像の車両のナンバープレートから車両番号を認識するもの、運転席画像を記録するもの、等がある。   Conventionally, vehicle monitoring systems have been widely put into practical use in order to prevent accidents of vehicles traveling on roads. Examples of the vehicle monitoring system include one that recognizes a vehicle number from a vehicle license plate of an image obtained by photographing the vehicle, and one that records a driver's seat image.

また、特にトンネル内で発生する所定の事象を監視し、事故の発生を未然に防止するために情報掲示板にメッセージを表示し、さらに毒物を運搬する車両を検出するトンネル内監視システムも提案されている(例えば、特許文献1参照)。   In addition, a tunnel monitoring system has been proposed that monitors specific events that occur in tunnels, displays messages on information boards to prevent accidents from occurring, and detects vehicles that carry poisons. (For example, refer to Patent Document 1).

特開2003−272086号公報JP 2003-272086 A

しかし、従来のいずれの監視装置あるいは監視システムも、撮影画像から対象物の立体的な大きさは認識することができない。
例えばトンネル内で道路上の落下物が新聞紙のような薄い物であれば、事故の発生する危険度は高くないが、落下物が段ボール箱のような立体的な物であれば、事故の発生する危険度は高い。また、撮影された対象物の実際の大きさ及びその立体形状が不明なため、物の認識、例えば人の認識、の精度も低い。
However, any conventional monitoring device or monitoring system cannot recognize the three-dimensional size of the object from the captured image.
For example, if the falling object on the road in the tunnel is a thin object such as newspaper, the risk of an accident is not high, but if the falling object is a three-dimensional object such as a cardboard box, an accident will occur. The risk is high. In addition, since the actual size of the photographed object and its three-dimensional shape are unknown, the accuracy of object recognition, for example, human recognition, is low.

また、例えばトンネルの場合、法令等により所定の長さ以上のトンネルにのみ監視カメラの設置義務がなく、かつ監視カメラの設置コストが高いため、監視カメラの設置がされていないトンネルが多く、さらに監視カメラが設置されているトンネルでも、カメラの設置台数も少ない、という問題がある。
さらに、複数の監視カメラからの画像情報は、監視室の装置に集中的に集められて画像処理が行われるため、車両毎の状況、例えば各車両の走行状況、を分析するには、その画像処理を行う装置の負荷が大きくなってしまうという問題もある。
Also, for example, in the case of tunnels, there are no monitoring camera installation obligations only for tunnels of a predetermined length or longer due to laws and regulations, and the installation cost of surveillance cameras is high, so there are many tunnels where surveillance cameras are not installed, Even in tunnels where surveillance cameras are installed, there is a problem that the number of cameras installed is small.
Furthermore, since image information from a plurality of monitoring cameras is concentrated on the devices in the monitoring room and image processing is performed, in order to analyze the situation of each vehicle, for example, the running situation of each vehicle, the image There is also a problem that the load on the apparatus that performs the processing increases.

さらにまた、例えばトンネル内において、事故または故障により車両が停止する、あるいは、落下物が存在する場合、トンネル内は薄暗いため、後続の車両のドライバは、停止した車両あるいは落下物等の停止物体の認識が遅れることがある。そのため、後続の車両が停止物体に衝突する、あるいは、停止物体を急に避けることで事故に繋がるという問題もある。   Furthermore, for example, when the vehicle stops due to an accident or failure in the tunnel, or there is a fallen object, the tunnel is dim, so the driver of the following vehicle can stop the stopped vehicle or a fallen object such as a fallen object. Recognition may be delayed. Therefore, there is a problem that the following vehicle collides with a stopped object, or an accident is caused by suddenly avoiding the stopped object.

そこで、本発明は、道路上の通行車両を正確に認識し、設置が容易で、車両毎の走行状態の分析を負荷が集中することなく行い、かつ停止物体の存在を容易に認識させることができる通行車両監視システム及び車両用監視カメラを提供することを目的とする。   Therefore, the present invention accurately recognizes a passing vehicle on the road, is easy to install, performs an analysis of the running state of each vehicle without concentrating the load, and easily recognizes the presence of a stopped object. An object of the present invention is to provide a traffic vehicle monitoring system and a vehicle monitoring camera that can be used.

本発明の一態様によれば、数珠繋ぎに接続され、車両の通行状況を撮像する複数の監視カメラと、その複数の監視カメラに接続されたセンタ装置とからなる通行車両監視システムであって、各監視カメラは、複数の撮像部と、少なくとも1つのスポットライトと、前記スポットライトの照射位置を変更させる照射位置変更部と、前記複数の撮像部において得られた複数の画像から距離画像のデータを生成する距離画像生成部と、前記距離画像に基づいて、停止物体の検出を行う停止物体検出処理部と、前記停止物体検出処理部で前記停止物体の検出が行われると、前記距離画像に基づいて、前記停止物体の位置を検出するとともに、前記停止物体に前記スポットライトの光を照射させるためのライト点灯信号を出力するライト点灯処理部と、前記ライト点灯信号に基づいて、前記スポットライトの照射位置を前記停止物体の位置に変更させるように、前記照射位置変更部の制御を行うとともに、前記スポットライトを点灯させる制御を行うライト制御部と、を有することを特徴とする通行車両監視システムを提供することができる。   According to an aspect of the present invention, there is provided a traffic vehicle monitoring system including a plurality of surveillance cameras connected to a rosary and imaging a vehicle traffic situation, and a center device connected to the plurality of surveillance cameras. The monitoring camera includes a plurality of imaging units, at least one spotlight, an irradiation position changing unit that changes an irradiation position of the spotlight, and distance image data from a plurality of images obtained by the plurality of imaging units. A distance image generation unit to generate, a stop object detection processing unit that detects a stop object based on the distance image, and when the stop object detection is performed by the stop object detection processing unit, based on the distance image A light lighting processing unit that detects a position of the stop object and outputs a light lighting signal for irradiating the stop object with light of the spotlight; A light control unit for controlling the irradiation position changing unit and controlling the lighting of the spotlight so as to change the irradiation position of the spotlight to the position of the stop object based on the light lighting signal; It is possible to provide a passing vehicle monitoring system characterized by comprising:

本発明によれば、道路上の通行車両を正確に認識し、設置が容易で、車両毎の走行状態の分析を負荷が集中することなく行い、かつ停止物体の存在を容易に認識させることができる通行車両監視システム及び車両用監視カメラを提供することができる。   According to the present invention, it is possible to accurately recognize a passing vehicle on a road, easily install, analyze the running state of each vehicle without concentration of load, and easily recognize the presence of a stopped object. A traffic vehicle monitoring system and a vehicle monitoring camera that can be provided can be provided.

本発明の実施の形態に係わる通行車両監視システムの構成を説明するための図である。It is a figure for demonstrating the structure of the passing vehicle monitoring system concerning embodiment of this invention. 本発明の実施の形態に係わる、トンネル内における監視カメラの設置状況を示す図である。It is a figure which shows the installation condition of the monitoring camera in a tunnel concerning embodiment of this invention. 本発明の実施の形態に係わる監視カメラの外観斜視図である。1 is an external perspective view of a surveillance camera according to an embodiment of the present invention. 本発明の実施の形態に係わる監視カメラの平面図である。It is a top view of the surveillance camera concerning an embodiment of the invention. 本発明の実施の形態に係わるスポットライトユニットの構成を説明するための図である。It is a figure for demonstrating the structure of the spotlight unit concerning embodiment of this invention. 本発明の実施の形態に係わる監視カメラ2の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of the surveillance camera 2 concerning embodiment of this invention. 本発明の実施の形態に係わる基本監視処理の流れの例を示すフローチャートである。It is a flowchart which shows the example of the flow of the basic monitoring process concerning embodiment of this invention. 本発明の実施の形態に係わるコマンド処理の流れの例を示すフローチャートである。It is a flowchart which shows the example of the flow of the command processing concerning embodiment of this invention. 図7及び図8における異常処理の流れの例を示すフローチャートである。It is a flowchart which shows the example of the flow of the abnormality process in FIG.7 and FIG.8. 図9におけるライト処理の流れの例を示すフローチャートである。10 is a flowchart illustrating an example of a flow of write processing in FIG. 9. 本発明の実施の形態に係わる、センタ装置4における異常処理の流れの例を示すフローチャートである。It is a flowchart which shows the example of the flow of the abnormality process in the center apparatus 4 concerning embodiment of this invention. 図11におけるライト処理の流れの例を示すフローチャートである。12 is a flowchart illustrating an example of a flow of write processing in FIG. 11. 本発明の実施の形態に係わる、モニタ6上に表示される監視画面の例を示す図である。It is a figure which shows the example of the monitoring screen displayed on the monitor 6 concerning embodiment of this invention. 図13の画面の表示処理の流れの例を示すフローチャートである。It is a flowchart which shows the example of the flow of a display process of the screen of FIG. 本発明の実施の形態に係わるログデータのデータ構造を示す図である。It is a figure which shows the data structure of the log data concerning embodiment of this invention. 本発明の実施の形態に係わる、センタ装置4における車両IDの関連付けを説明するための図である。It is a figure for demonstrating correlation of vehicle ID in the center apparatus 4 concerning embodiment of this invention.

以下、図面を参照して本発明の実施の形態を説明する。
(システム構成)
まず図1に基づき、本実施の形態に係わるシステムの構成を説明する。図1は、本実施の形態に係わる通行車両監視システムの構成を説明するための図である。図2は、トンネル内における監視カメラの設置状況を示す図である。図3は、監視カメラの外観斜視図である。図4は、監視カメラの平面図である。図5は、スポットライトユニットの構成を説明するための図である。
Embodiments of the present invention will be described below with reference to the drawings.
(System configuration)
First, based on FIG. 1, the structure of the system concerning this Embodiment is demonstrated. FIG. 1 is a diagram for explaining the configuration of a passing vehicle monitoring system according to the present embodiment. FIG. 2 is a diagram showing the installation status of the monitoring camera in the tunnel. FIG. 3 is an external perspective view of the surveillance camera. FIG. 4 is a plan view of the surveillance camera. FIG. 5 is a diagram for explaining the configuration of the spotlight unit.

図1に示すように、トンネル内を監視する交通監視システム1は、それぞれがステレオカメラである複数の監視カメラ2と、隣り合う2台の監視カメラ2を接続する通信ケーブル3と、複数の監視カメラ2の中の1台と通信ケーブル3により接続されたセンタ装置4と、センタ装置4に接続された記憶装置5と、センタ装置4に接続された画像表示装置であるモニタ6とを含んで構成されている。   As shown in FIG. 1, a traffic monitoring system 1 for monitoring the inside of a tunnel includes a plurality of monitoring cameras 2, each of which is a stereo camera, a communication cable 3 that connects two adjacent monitoring cameras 2, and a plurality of monitoring cameras. A center device 4 connected to one of the cameras 2 by a communication cable 3, a storage device 5 connected to the center device 4, and a monitor 6 that is an image display device connected to the center device 4 are included. It is configured.

図1に示すように、トンネル101の一端TAに設置される監視カメラ2(1)から他端TBまでの監視カメラ2(n)のn台(nは整数)の監視カメラ2が、トンネル内の天井側に、略等間隔に配置されている。図1では、各監視カメラ2には、識別番号が付されて示されている。1番目の監視カメラ2(1)からn番目の監視カメラ2(n)までが、通信ケーブル3で数珠繋ぎに接続され、監視カメラ2(1)がセンタ装置4に接続されている。なお、以下の説明で、特定の監視カメラを指さない場合は、監視カメラ2と表記する。   As shown in FIG. 1, n (n is an integer) number of surveillance cameras 2 (n is an integer) of surveillance cameras 2 (n) from the surveillance camera 2 (1) installed at one end TA of the tunnel 101 to the other end TB. Are arranged at substantially equal intervals on the ceiling side. In FIG. 1, each surveillance camera 2 is shown with an identification number. The first monitoring camera 2 (1) to the n th monitoring camera 2 (n) are connected in a daisy chain by the communication cable 3, and the monitoring camera 2 (1) is connected to the center device 4. In the following description, the term “surveillance camera 2” is used when a specific surveillance camera is not pointed out.

通信ケーブル3は、電源供給可能な信号線であり、例えば、電源供給も可能なパワー・オーバ・イーサネット(登録商標)(PoE)対応のケーブルである。センタ装置4は、電源回路を含み、電源回路の電源は、通信ケーブル3を介して各監視カメラ2に供給される。   The communication cable 3 is a signal line capable of supplying power, for example, a cable compatible with Power over Ethernet (registered trademark) (PoE) capable of supplying power. The center device 4 includes a power supply circuit, and the power of the power supply circuit is supplied to each monitoring camera 2 via the communication cable 3.

センタ装置4、記憶装置5及びモニタ6は、例えば、監視室に配置されている。センタ装置4には、記憶装置5とモニタ6が接続されており、センタ装置4は、所定のデータを記憶装置5に記憶し、モニタ6に監視用画面を表示する。よって、監視員は、センタ装置4を操作して、モニタ6に所望の画像を表示させることができる。記憶装置5には、後述する、各種データを記憶する複数の記憶部5a,5b,5cを含む。   The center device 4, the storage device 5, and the monitor 6 are arranged in a monitoring room, for example. A storage device 5 and a monitor 6 are connected to the center device 4, and the center device 4 stores predetermined data in the storage device 5 and displays a monitoring screen on the monitor 6. Therefore, the monitor can operate the center device 4 to display a desired image on the monitor 6. The storage device 5 includes a plurality of storage units 5a, 5b, and 5c that store various data, which will be described later.

図1に示すように、複数の監視カメラ2が、通信ケーブル3によりデイジーチェーン接続されて、すなわち数珠繋ぎで接続されて、センタ装置4に接続されている。図2に示すように、各監視カメラ2は、トンネル101の内壁の天井部分102の最も高い位置よりもやや低いところに、トンネル101の経路方向に沿って、所定の間隔Ltを持って設置されている。所定の間隔Ltは、隣り合う監視カメラ2の撮影範囲PAが一部重なるように、設定される。所定の間隔Ltは、例えば10mである。   As shown in FIG. 1, a plurality of surveillance cameras 2 are daisy chained by a communication cable 3, that is, connected in a daisy chain, and are connected to a center device 4. As shown in FIG. 2, each surveillance camera 2 is installed at a predetermined distance Lt along the route direction of the tunnel 101 at a position slightly lower than the highest position of the ceiling portion 102 of the inner wall of the tunnel 101. ing. The predetermined interval Lt is set so that the shooting ranges PA of the adjacent monitoring cameras 2 partially overlap. The predetermined interval Lt is, for example, 10 m.

監視カメラ2間の通信及び監視カメラ2とセンタ装置4間の通信は、イーサネット(登録商標)を利用したデータ通信である。各監視カメラ2からのデータは、デイジーチェーン接続のネットワークを介して、センタ装置4へ送信可能である。また、センタ装置4も、全てのあるいは所望の監視カメラ2へ、撮影画像の送信要求のコマンド、等の各種コマンドを送信することができる。従って、センタ装置4は、監視カメラ2からの動画像の画像情報、認識情報、イベント情報等を、センタ装置4からのコマンドに応じて、デイジーチェーン接続のネットワークを介して、取得することができる。
なお、図1では、センタ装置4が1つのトンネルを監視する例であるが、センタ装置4は、複数のトンネルを監視するようにしてもよい。
Communication between the monitoring cameras 2 and communication between the monitoring cameras 2 and the center device 4 are data communication using Ethernet (registered trademark). Data from each monitoring camera 2 can be transmitted to the center device 4 via a daisy chain network. The center device 4 can also transmit various commands such as a command for requesting transmission of captured images to all or desired monitoring cameras 2. Therefore, the center device 4 can acquire the image information, recognition information, event information, and the like of the moving image from the monitoring camera 2 via the daisy chain connection network in accordance with the command from the center device 4. .
Although FIG. 1 shows an example in which the center device 4 monitors one tunnel, the center device 4 may monitor a plurality of tunnels.

図3に示すように、車両用監視カメラである監視カメラ2は、細長い直方体の形状のケーシング11を有する。2つの対物光学系12が、細長いケーシング11の一側面に、所定の距離だけ離れて光軸が互いに平行になるように設けられている。ケーシング11内には、各対物光学系の結像位置に、CMOSイメージセンサ等の撮像素子が設けられている。   As shown in FIG. 3, the surveillance camera 2 that is a surveillance camera for vehicles has a casing 11 in the shape of an elongated rectangular parallelepiped. Two objective optical systems 12 are provided on one side of the elongated casing 11 so that their optical axes are parallel to each other with a predetermined distance. An imaging element such as a CMOS image sensor is provided in the casing 11 at the imaging position of each objective optical system.

また、ケーシング11の2つの対物光学系12の設けられた面の略中央には、スポットライトユニット21が設けられている。なお、各監視カメラ2は、1つのスポットライトユニットを有する例で説明するが、2つ以上のスポットライトユニットを有していてもよい。   In addition, a spotlight unit 21 is provided at substantially the center of the surface of the casing 11 where the two objective optical systems 12 are provided. In addition, although each monitoring camera 2 demonstrates in the example which has one spotlight unit, you may have two or more spotlight units.

図3及び図4に示すように、スポットライトユニット21は、略半球体の形状を有するカバー22を備える。このカバー22は、後述するスポットライトからの光を透過させるため、透明または半透明の部材で構成されている。2つの対物光学系12及びスポットライトユニット21の設けられた面が、道路面103に対向するように、各監視カメラ2は、天井部分102に設置される。   As shown in FIGS. 3 and 4, the spotlight unit 21 includes a cover 22 having a substantially hemispherical shape. The cover 22 is made of a transparent or translucent member in order to transmit light from a spotlight described later. Each surveillance camera 2 is installed on the ceiling portion 102 so that the surface on which the two objective optical systems 12 and the spotlight unit 21 are provided faces the road surface 103.

なお、ここでは、各監視カメラ2は、ステレオ撮像のために2つの撮像素子を有している例で説明するが、撮像素子は、3つ以上でもよく、少なくとも2つの撮像素子を有していればよい。   Here, each monitoring camera 2 will be described as an example having two image sensors for stereo imaging, but there may be three or more image sensors, and at least two image sensors. Just do it.

また、ケーシング11の両端面には、通信ケーブル3を接続するためのコネクタ13が設けられており、複数の監視カメラ2を互いにデイジーチェーン接続することができる。
上述したように、通信ケーブル3は、イーサネット(登録商標)通信用のケーブルであって、電源供給も可能なイーサネット(登録商標)PoE対応のケーブルであるので、監視カメラ2(1)をセンタ装置4に接続し、隣り合う監視カメラ2同士を、通信ケーブル3で接続するだけでよく、監視カメラ2の設置及び増設は容易である。
Moreover, the connector 13 for connecting the communication cable 3 is provided in the both end surfaces of the casing 11, and the some monitoring camera 2 can mutually be daisy chain-connected.
As described above, the communication cable 3 is an Ethernet (registered trademark) communication cable and is a cable compatible with Ethernet (registered trademark) PoE that can supply power, so that the monitoring camera 2 (1) is connected to the center device. It is only necessary to connect the adjacent monitoring cameras 2 to each other by the communication cable 3, and the installation and extension of the monitoring cameras 2 are easy.

監視カメラ2の1つの撮像部は、視野範囲PArを有し、他方の撮像部は、視野範囲PAlを有する。2つの視野範囲により、監視カメラ2の撮影範囲PAが決定される。   One imaging unit of the monitoring camera 2 has a visual field range PAr, and the other imaging unit has a visual field range PAl. The imaging range PA of the surveillance camera 2 is determined by the two visual field ranges.

センタ装置4は、コンピュータ装置であり、CPU(中央処理装置)、ROM、RAMなどを含み、各監視カメラ2からのデータを受信すると共に、各監視カメラ2へ各種コマンドを送信して、情報を取得することができると共に、各種データ処理を実行することができる。   The center device 4 is a computer device and includes a CPU (Central Processing Unit), ROM, RAM, etc., receives data from each monitoring camera 2 and sends various commands to each monitoring camera 2 to obtain information. While being able to acquire, various data processing can be performed.

図5に示すように、スポットライトユニット21は、カバー22内に、球体部材23と、スポットライト24と、球体部材23を支持する複数の支持ローラ25と、球体部材23の垂直方向軸に対して球体部材23を回動させる駆動部26と、球体部材23の水平方向軸に対して球体部材23を回動させる駆動部26とを有する。   As shown in FIG. 5, the spotlight unit 21 includes a spherical member 23, a spotlight 24, a plurality of support rollers 25 that support the spherical member 23, and a vertical axis of the spherical member 23 in the cover 22. And a drive unit 26 that rotates the spherical member 23 and a drive unit 26 that rotates the spherical member 23 with respect to the horizontal axis of the spherical member 23.

スポットライト24は、球体部材23の表面からレンズ部24aが突出するように、球体部材23に設けられている。このスポットライト24は、内部にLED等の光源を有していて、直線状の光を出射するものである。   The spotlight 24 is provided on the spherical member 23 so that the lens portion 24 a protrudes from the surface of the spherical member 23. The spotlight 24 has a light source such as an LED inside and emits linear light.

駆動部26は、モータ26aと、モータ26aに支持部材を介して固着された円盤状のローラ26bとを有して構成されている。ローラ26bは、球体部材23の横側表面に当接されており、モータ26aからの回動力、すなわち、駆動力を球体部材23に伝達する。   The drive unit 26 includes a motor 26a and a disk-shaped roller 26b fixed to the motor 26a via a support member. The roller 26 b is in contact with the lateral surface of the spherical member 23, and transmits the rotational power from the motor 26 a, that is, the driving force, to the spherical member 23.

また、駆動部27は、モータ27aと、モータ27aに支持部材を介して固着された円盤状のローラ27bとを有して構成されている。ローラ27bは、球体部材23の上側表面に当接されており、モータ27aからの回動力、すなわち、駆動力を球体部材23に伝達する。これにより、球体部材23に設けられたスポットライト24の位置が自由に変更され、スポットライト24は、道路面上の所定の位置に光を照射することができる。このように、駆動部26及び27は、スポットライト24の照射位置を変更する照射位置変更部を構成する。   The drive unit 27 includes a motor 27a and a disk-shaped roller 27b fixed to the motor 27a via a support member. The roller 27 b is in contact with the upper surface of the spherical member 23, and transmits the rotational force from the motor 27 a, that is, the driving force, to the spherical member 23. Thereby, the position of the spotlight 24 provided on the spherical member 23 is freely changed, and the spotlight 24 can irradiate a predetermined position on the road surface with light. Thus, the drive units 26 and 27 constitute an irradiation position changing unit that changes the irradiation position of the spotlight 24.

(監視カメラの構成)
図6は、監視カメラ2の内部構成を示すブロック図である。
監視カメラ2は、2つの撮像部31、撮像部インターフェース部(以下、撮像部I/Fという)32、立体計測部33、基本監視部34、追加監視部35、判定部36、メモリ37、画像供給部38、通信制御部39、2つの通信インターフェース部(以下、通信I/Fという)40、ライト制御部41、及び2つのコネクタ13を含んで構成されている。
(Configuration of surveillance camera)
FIG. 6 is a block diagram illustrating an internal configuration of the monitoring camera 2.
The surveillance camera 2 includes two imaging units 31, an imaging unit interface unit (hereinafter referred to as an imaging unit I / F) 32, a three-dimensional measurement unit 33, a basic monitoring unit 34, an additional monitoring unit 35, a determination unit 36, a memory 37, and an image. A supply unit 38, a communication control unit 39, two communication interface units (hereinafter referred to as communication I / F) 40, a light control unit 41, and two connectors 13 are configured.

監視カメラ2の一部の機能は、監視カメラ2に搭載された中央処理装置(CPU)によって実行されるソフトウェアプログラムにより、実現される。例えば、立体計測部33、基本監視部34、追加監視部35及び判定部36は、ソフトウェアプログfラムにより実現される。なお、監視カメラ2の一部の機能は、デジタル・シグナル・プロセッサ(DSP)により、実現してもよい。   Some functions of the monitoring camera 2 are realized by a software program executed by a central processing unit (CPU) mounted on the monitoring camera 2. For example, the three-dimensional measurement unit 33, the basic monitoring unit 34, the additional monitoring unit 35, and the determination unit 36 are realized by a software program. Note that some functions of the monitoring camera 2 may be realized by a digital signal processor (DSP).

各撮像部31は、対物レンズである対物光学系12と、対物光学系12の結像位置に配設されたCMOSイメージセンサ等の撮像素子42を有する。各撮像素子42により撮像して得られた画像データは、撮像部I/F32を介して、立体計測部33と画像供給部38に供給される。   Each imaging unit 31 includes an objective optical system 12 that is an objective lens, and an imaging element 42 such as a CMOS image sensor disposed at an imaging position of the objective optical system 12. Image data obtained by imaging with each imaging element 42 is supplied to the three-dimensional measurement unit 33 and the image supply unit 38 via the imaging unit I / F 32.

立体計測部33は、2つの画像データから距離画像のデータを生成する距離画像生成部である。距離画像のデータは、入力された2つの画像データから、各画素値が距離値である画像データである。立体計測部33は、距離画像データを生成する。なお、距離画像は、各画素値が3次元空間内の位置情報でもよい。立体計測部33は、生成した距離画像の情報を基本監視部34と追加監視部35に供給する。   The three-dimensional measurement unit 33 is a distance image generation unit that generates distance image data from two image data. The distance image data is image data in which each pixel value is a distance value from two input image data. The three-dimensional measurement unit 33 generates distance image data. In the distance image, each pixel value may be position information in a three-dimensional space. The three-dimensional measurement unit 33 supplies the generated distance image information to the basic monitoring unit 34 and the additional monitoring unit 35.

基本監視部34は、距離画像に基づく、停止物体の検出等の、所定の監視処理を実行する基本監視機能の処理を実行する第1の監視処理部である。
本実施の形態では、基本監視部34は、基本監視機能の監視処理部として、停止物体の検出処理部P1と物体の軌跡の検出処理部P2を含む。基本監視部34は、これらの監視処理部とは別に、計測及び記録処理部P3を含む。なお、本実施の形態では、これら3つの処理部P1,P2,P3を基本監視機能の処理部としているが、基本監視機能の処理は、これらに限定されず、他の処理を基本監視部34に含めてもよい。
The basic monitoring unit 34 is a first monitoring processing unit that executes processing of a basic monitoring function that executes predetermined monitoring processing such as detection of a stopped object based on a distance image.
In the present embodiment, the basic monitoring unit 34 includes a stopped object detection processing unit P1 and an object locus detection processing unit P2 as monitoring processing units for the basic monitoring function. The basic monitoring unit 34 includes a measurement and recording processing unit P3 separately from these monitoring processing units. In the present embodiment, these three processing units P1, P2, and P3 are the processing units for the basic monitoring function, but the processing for the basic monitoring function is not limited to these, and other processing is performed by the basic monitoring unit 34. May be included.

停止物体の検出処理部P1は、ステレオ処理により得られた距離画像から、停止物体を認識して検出する処理を行う。例えば、停止物体の検出処理部P1は、距離画像から認識して得られた物体の位置が、所定の時間以上移動しない状態にあるか否かを判定し、その物体の位置が所定の時間以上移動しない場合に、停止物体ありの異常を、検出する。停止物体は、例えば、停止した車両、道路上の落下物などである。停止物体の検出処理部P1が、距離画像に基づいて、停止物体の検出を行う停止物体検出処理部を構成する。   The stop object detection processing unit P1 performs processing for recognizing and detecting a stop object from the distance image obtained by the stereo processing. For example, the stop object detection processing unit P1 determines whether or not the position of the object obtained by recognizing from the distance image is in a state of not moving for a predetermined time or more, and the position of the object is not less than a predetermined time or more When it does not move, an abnormality with a stopped object is detected. The stopped object is, for example, a stopped vehicle, a fallen object on the road, or the like. The stop object detection processing unit P1 constitutes a stop object detection processing unit that detects a stop object based on the distance image.

物体の軌跡の検出処理部P2は、距離画像から物体を認識し、認識して得られた物体に関する、位置の変化(道路平面上の位置の変化)から得られた軌跡が所定の軌跡に合致するかしないか、言い換えれば得られた軌跡が所定の軌跡と不一致であるか否か、を検出する処理を行う。所定の軌跡とは、例えば移動物体の軌跡が略直線状である軌跡である。軌跡は、認識された物体の位置、例えば重心位置、の変化である。物体の進行方向に対する移動量が所定量以上であるような蛇行運転の軌跡は、この所定の軌跡に合致しないという異常として、検出される。   The object trajectory detection processing unit P2 recognizes the object from the distance image, and the trajectory obtained from the change in position (change in position on the road plane) of the object obtained by the recognition matches the predetermined trajectory. A process of detecting whether or not to perform, in other words, whether or not the obtained trajectory does not match the predetermined trajectory is performed. The predetermined trajectory is a trajectory in which the trajectory of the moving object is substantially linear, for example. The trajectory is a change in the position of the recognized object, for example, the position of the center of gravity. A locus of meandering operation in which the amount of movement of the object in the traveling direction is greater than or equal to a predetermined amount is detected as an abnormality that does not match the predetermined locus.

計測及び記録処理部P3は、距離画像から物体を認識し、認識して得られた各物体の位置の変化量から各物体の速度(例えば車速)、所定の時間内に撮像領域内を通過した車両の数(すなわちカウント値)、監視領域に入った時刻及び位置、監視領域から出た時刻及び位置、色などの属性データ、等の計測あるいは認識を行う計測処理を行う。   The measurement and recording processing unit P3 recognizes the object from the distance image, and passes through the imaging area within a predetermined time from the amount of change in the position of each object obtained by the recognition, the speed of each object (for example, the vehicle speed). A measurement process for measuring or recognizing the number of vehicles (that is, the count value), the time and position of entering the monitoring area, the time and position of leaving the monitoring area, attribute data such as color, etc. is performed.

さらに、計測及び記録処理部P3は、認識された通行車両の識別情報を生成して、上述した計測データと、その識別情報を関連付けて、ログデータとして、記憶部であるメモリ37に記録する記録処理を含む。すなわち、計測及び記録処理部P3は、距離画像に基づいて認識された通行車両の識別情報を生成して、その識別情報と、その認識された通行車両についての時刻情報等とをメモリ37に記録する記録処理部を構成する。ここでは、ログデータは、基本監視部34から判定部36を介してメモリ37に記憶される。なお、ログデータの記録は、基本監視部34がメモリ37に直接書き込むようにしてもよい。
追加監視部35は、基本監視部34の監視処理とは別の追加監視機能の処理を実行する第2の監視処理部である。具体的には、追加監視部35は、異常の内容に応じた異常処理、センタ装置4からのコマンドに応じたコマンド対応処理、等の処理を行うための、複数の追加処理部Q1,Q2,Q3,・・・Qmを含む(mは整数)。なお、図6において、追加処理部Q1,Q2が異常有りの判定時に実行すべき処理部であり、追加処理部Q3〜Qmがコマンド対応処理のための処理部である。
Further, the measurement and recording processing unit P3 generates identification information of the recognized passing vehicle, associates the above-described measurement data with the identification information, and records it as log data in the memory 37 that is a storage unit. Includes processing. That is, the measurement and recording processing unit P3 generates identification information of the recognized passing vehicle based on the distance image, and records the identification information and time information about the recognized passing vehicle in the memory 37. The recording processing unit is configured. Here, the log data is stored in the memory 37 from the basic monitoring unit 34 via the determination unit 36. The log data may be recorded by the basic monitoring unit 34 directly in the memory 37.
The additional monitoring unit 35 is a second monitoring processing unit that executes processing of an additional monitoring function different from the monitoring processing of the basic monitoring unit 34. Specifically, the additional monitoring unit 35 includes a plurality of additional processing units Q1, Q2, and the like for performing processing such as abnormality processing according to the content of the abnormality and command response processing according to the command from the center device 4. Q3, ... includes Qm (m is an integer). In FIG. 6, the additional processing units Q1 and Q2 are processing units to be executed when it is determined that there is an abnormality, and the additional processing units Q3 to Qm are processing units for command response processing.

異常処理は、基本監視部34において検出された異常の内容に応じて、判定部36により選択されて実行される処理である。基本監視部34において異常が検出されたときに実行される追加処理部が、異常時の処理部として、追加監視部35に含まれる。   The abnormality process is a process selected and executed by the determination unit 36 according to the content of the abnormality detected by the basic monitoring unit 34. An additional processing unit that is executed when an abnormality is detected in the basic monitoring unit 34 is included in the additional monitoring unit 35 as a processing unit at the time of abnormality.

例えば、停止物体の検出に対応する追加処理部Q1は、静止画データに基づいて、停止物体が車両であるのか、人であるのかを判定して、車両の場合は、破損状況、停止位置、向き(すなわち道路の走行方向に対して平行な方向を向いているのか、斜め方向を向いているのか)、大きさ、車両の台数、等々の検出をし、人の場合は、その位置、姿勢(横になっているのか(倒れているのか)、道路上に立っているのか、等)、人数、等々の検出をする処理部である。停止物体の大きさは、距離画像データから算出あるいは推定することができ、さらに、形状の情報から、停止物体が人であるか否かの判定をすることができる。   For example, the additional processing unit Q1 corresponding to the detection of the stopped object determines whether the stopped object is a vehicle or a person based on the still image data. It detects the direction (that is, whether it is facing parallel or oblique to the road direction), the size, the number of vehicles, and so on. It is a processing unit that detects the number of persons (whether they are lying (falling down), standing on the road, etc.), the number of people, and so on. The size of the stop object can be calculated or estimated from the distance image data, and further, it can be determined from the shape information whether the stop object is a person.

また、停止物体の検出に対応する追加処理部Q1は、停止物体の位置情報に基づき、停止物体の位置を検出するとともに、停止物体にスポットライト24の光を照射させるライト点灯処理を実行する。このライト点灯処理により、停止物体にスポットライト24の光を照射させるためのスポットライト点灯信号が、判定部36及び通信制御部39を介してライト制御部41に供給される。この追加処理部Q1が、停止物体の位置を検出するとともに、停止物体にスポットライト24の光を照射させるためのライト点灯信号を出力するライト点灯処理部を構成する。なお、ライト制御部41によって実行される処理については、後述する。   Further, the additional processing unit Q1 corresponding to the detection of the stopped object detects the position of the stopped object based on the position information of the stopped object, and executes a light lighting process for irradiating the light of the spotlight 24 to the stopped object. With this light lighting process, a spotlight lighting signal for irradiating the stop object with the light of the spotlight 24 is supplied to the light control unit 41 via the determination unit 36 and the communication control unit 39. The additional processing unit Q1 constitutes a light lighting processing unit that detects the position of the stopped object and outputs a light lighting signal for irradiating the light from the spotlight 24 to the stopped object. The process executed by the write control unit 41 will be described later.

また、物体の軌跡が所定の軌跡に合致しない場合に対応する追加処理部Q2は、後述するRAM38aの動画データ(すなわち複数のフレームデータ)又はメモリ37に格納されたログデータに基づいて、車線変更であるのか、減速であるのか、物体の分離であるのか、を判定する。車線変更は、車両の避走、蛇行、回転(スピン)、接触(壁面への接触、車両同士の接触)、等を検出することによって、判定することができる。減速は、ログデータに基づいて判定することができる。   Further, the additional processing unit Q2 corresponding to the case where the locus of the object does not match the predetermined locus changes the lane based on moving image data (that is, a plurality of frame data) of the RAM 38a described later or log data stored in the memory 37. Whether the object is a deceleration or an object separation. Lane change can be determined by detecting vehicle escape, meandering, rotation (spinning), contact (contact with walls, contact between vehicles), and the like. Deceleration can be determined based on log data.

さらに、物体の軌跡から、車両から分離した物の有無を検出することができる。よって、分離の検出と、落下物の大きさ及び落下物が人であるか否かの判定とをすることができるので、車両から荷物が落下したのか、二輪車が転倒して人が投げ出されているのか、車両から降りた人の移動方向、等の検出をすることができる。
以上のように、追加監視部35は、基本監視部34の処理結果に基づいて、実行可能に構成されている。
Furthermore, the presence or absence of an object separated from the vehicle can be detected from the locus of the object. Therefore, it is possible to detect separation and determine the size of the fallen object and whether or not the fallen object is a person, so whether the load has fallen from the vehicle, the motorcycle has fallen and the person has been thrown out. It is possible to detect whether the person gets off the vehicle or the moving direction of the person getting off the vehicle.
As described above, the additional monitoring unit 35 is configured to be executable based on the processing result of the basic monitoring unit 34.

また、追加監視部35中のコマンド対応処理とは、ログデータ送信コマンド、人検出コマンド、画像送信コマンド、ライト点灯コマンド、ライト危険点灯コマンド、等のセンタ装置4からのコマンドに応じて、判定部36等により指定されて実行される処理である。コマンドに応じて実行される追加処理部が、追加監視部35に含まれる。センタ装置4からのコマンドは、通信制御部39を介して、判定部36および画像供給部38に供給される。追加監視部35は、コマンドに基づいて、距離画像に基づく監視処理を実行する。   Further, the command response processing in the additional monitoring unit 35 refers to a determination unit according to commands from the center device 4 such as a log data transmission command, a person detection command, an image transmission command, a light lighting command, a light danger lighting command, and the like. This process is designated and executed by 36 or the like. The additional monitoring unit 35 includes an additional processing unit that is executed in response to the command. A command from the center device 4 is supplied to the determination unit 36 and the image supply unit 38 via the communication control unit 39. The additional monitoring unit 35 executes monitoring processing based on the distance image based on the command.

例えば、ログデータ送信コマンドに対応するログデータ送信処理Q3は、センタ装置4からのコマンドがログデータの送信を指示するコマンドである場合に、コマンドで指定された、メモリ37に格納されているログデータを読み出して送信する処理である。人検出コマンドに対応する人検出処理Q4は、センタ装置4からのコマンドが人の検出を指示するコマンドである場合に同様に実行され、撮像画像の中から人を検出して、検出結果をセンタ装置4へ送信する処理である。監視カメラ2の画像データは、距離データであるので、人を正確に検出することができる。   For example, the log data transmission process Q3 corresponding to the log data transmission command is a log stored in the memory 37 designated by the command when the command from the center device 4 is a command for instructing transmission of log data. This is a process of reading and transmitting data. The human detection process Q4 corresponding to the human detection command is executed in the same manner when the command from the center device 4 is a command for instructing human detection, detects a human from the captured image, and detects the detection result as the center. This is a process of transmitting to the device 4. Since the image data of the monitoring camera 2 is distance data, a person can be accurately detected.

画像送信コマンドに対応する画像送信処理Q5は、センタ装置4からのコマンドが画像データの送信を指示するコマンドである場合に通信制御部39が画像供給部38から画像データを読み出して、監視カメラ2で撮像して得られた画像データを送信する処理である。センタ装置4からのコマンドには複数の種類があり、また一つのコマンドが複数の追加処理を実行させるようなコマンドも有るので、追加監視部35は、そのコマンドに対応する処理を実行するに必要な数の処理部を含む。   In the image transmission processing Q5 corresponding to the image transmission command, when the command from the center device 4 is a command for instructing transmission of image data, the communication control unit 39 reads the image data from the image supply unit 38, and the monitoring camera 2 This is a process for transmitting the image data obtained by imaging with. There are a plurality of types of commands from the center apparatus 4, and there are also commands in which one command causes a plurality of additional processes to be executed. Therefore, the additional monitoring unit 35 is necessary to execute a process corresponding to the command. Including a large number of processing units.

ライト点灯コマンドに対応するライト点灯処理Q6は、センタ装置4からのコマンドが停止物体にスポットライト24の光を照射させる場合に実行され、追加処理部Q1のライト点灯処理と同様の処理を実行する処理である。すなわち、ライト点灯処理Q6により、停止物体にスポットライト24の光を照射させるためのスポットライト点灯信号が、判定部36及び通信制御部39を介してライト制御部41に供給される。このライト点灯コマンドは、センタ装置4から停止物体をカバーしている、言い換えると、停止物体を撮影している監視カメラ2に対して送信される。なお、ライト制御部41によって実行される処理については、後述する。   The light lighting process Q6 corresponding to the light lighting command is executed when the command from the center device 4 irradiates the light of the spotlight 24 to the stop object, and executes the same process as the light lighting process of the additional processing unit Q1. It is processing. In other words, a spotlight lighting signal for irradiating the stop object with the light of the spotlight 24 is supplied to the light control unit 41 via the determination unit 36 and the communication control unit 39 by the light lighting process Q6. This light turn-on command is transmitted from the center device 4 to the surveillance camera 2 that covers the stop object, in other words, the stop camera is photographed. The process executed by the write control unit 41 will be described later.

ライト危険点灯コマンドに対応するライト危険点灯処理Q7は、センタ装置4からのコマンドがスポットライト24に危険点灯を指示するコマンドである場合に実行され、スポットライト24を点滅、回転または回動させる処理である。このライト危険点灯コマンドは、センタ装置4から停止物体を撮影している監視カメラ2以外の監視カメラ2に送信される。特に、ライト危険点灯コマンドは、停止物体を撮影している監視カメラ2の1つ前の監視カメラ2からトンネルの入り口の監視カメラ2に対して送信される。これにより、停止物体等の危険があることを後続の車両のドライバに対して認識させることができる。ライト危険点灯処理Q7により、スポットライト24を点滅、回転または回動させるための危険点灯信号が、判定部36及び通信制御部39を介してライト制御部41に供給される。   The light danger lighting process Q7 corresponding to the light danger lighting command is executed when the command from the center device 4 is a command for instructing the spotlight 24 to perform dangerous lighting, and the spotlight 24 blinks, rotates or rotates. It is. This light danger lighting command is transmitted from the center device 4 to the monitoring camera 2 other than the monitoring camera 2 that is photographing the stop object. In particular, the light danger lighting command is transmitted to the monitoring camera 2 at the entrance of the tunnel from the monitoring camera 2 immediately before the monitoring camera 2 that is photographing the stopped object. As a result, the driver of the subsequent vehicle can recognize that there is a danger such as a stopped object. By the dangerous light lighting process Q7, a dangerous lighting signal for blinking, rotating or rotating the spotlight 24 is supplied to the light control unit 41 via the determination unit 36 and the communication control unit 39.

このライト危険点灯処理Q7が、停止物体を検出した監視カメラ2のスポットライト24と異なる処理、例えば、スポットライト24を点滅、回転または回動させるためのライト危険点灯信号を出力するライト危険点灯処理部を構成する。なお、スポットライト24を回転及び回動させる際の回転データ及び回動データは、メモリ37に格納させている。また、ライト制御部41によって実行される処理については、後述する。   This light danger lighting process Q7 is different from the spotlight 24 of the surveillance camera 2 that has detected the stop object, for example, a light danger lighting process for outputting a light danger lighting signal for blinking, rotating or rotating the spotlight 24. Parts. Note that rotation data and rotation data when the spotlight 24 is rotated and rotated are stored in the memory 37. Further, processing executed by the write control unit 41 will be described later.

なお、センタ装置4からのコマンドには、全ての監視カメラ2に対するグローバルコマンドと、特定の監視カメラ2に対するコマンドの2種類がある。
以上のように、追加監視部35は、基本監視部34の処理結果に基づいて、実行可能であると共に、センタ装置4からのコマンドに応じて実行可能に構成されている。
There are two types of commands from the center device 4, that is, global commands for all monitoring cameras 2 and commands for specific monitoring cameras 2.
As described above, the additional monitoring unit 35 is configured to be executable based on the processing result of the basic monitoring unit 34 and to be executable according to the command from the center device 4.

判定部36は、基本監視部34及び追加監視部35からの検出結果あるいは判定結果に基づいて、ルールベースの判定処理を行うと共に、必要な追加監視部35に含まれる複数の処理部の中から実行すべき処理部を、そのルールに従って選択して実行させる処理を行う。さらに判定部36は、センタ装置4からのコマンドの内容に応じて、追加監視部35の中の複数の追加処理部の中から、実行すべき処理部を選択して実行させる処理を行う。   The determination unit 36 performs a rule-based determination process based on the detection results or determination results from the basic monitoring unit 34 and the additional monitoring unit 35, and from among a plurality of processing units included in the necessary additional monitoring unit 35. The processing unit to be executed is selected and executed according to the rule. Further, the determination unit 36 performs a process of selecting and executing a processing unit to be executed from among a plurality of additional processing units in the additional monitoring unit 35 according to the content of the command from the center device 4.

具体的には、基本監視部34により異常が検出された場合、判定部36は、後述するような、追加解析処理、異常対応処理の実施指示処理、通報処理、及び画像送信処理を実行する。さらに、判定部36は、センタ装置4からコマンドを受信すると、コマンドの内容を解析し、そのコマンドに対応する処理を、追加監視部35内の対応する追加処理部を実行する。   Specifically, when an abnormality is detected by the basic monitoring unit 34, the determination unit 36 executes an additional analysis process, an execution instruction process for an abnormality handling process, a notification process, and an image transmission process as described later. Further, when receiving a command from the center device 4, the determination unit 36 analyzes the content of the command, and executes a process corresponding to the command by the corresponding additional processing unit in the additional monitoring unit 35.

また、判定部36の処理内容は、ルールベースで定められるので、判定部36は、ルールによる判定のための基準データ及び判断ルールを含む。その基準データと判断ルールは、判定部36のプログラム中に記述されてもよいし、メモリ37内に記憶されていてもよい。基準データ及び判断ルールを変更することによって、判定部36が実行を指示する、基本監視部34及び追加監視部35内の処理内容を変更することができる。さらに、判定部36は、メモリ37に格納されたログデータを用いて、判定を行うことも可能である。判定部36の異常処理とコマンド処理の詳細については、後述する。   Moreover, since the processing content of the determination part 36 is determined on a rule basis, the determination part 36 contains the reference data and determination rule for determination by a rule. The reference data and the determination rule may be described in the program of the determination unit 36 or may be stored in the memory 37. By changing the reference data and the determination rule, the processing contents in the basic monitoring unit 34 and the additional monitoring unit 35 that the determination unit 36 instructs to execute can be changed. Further, the determination unit 36 can also perform determination using log data stored in the memory 37. Details of the abnormality processing and command processing of the determination unit 36 will be described later.

メモリ37は、上述したログデータを記憶する記憶部である。メモリ37に格納されるログデータの構造については後述する。   The memory 37 is a storage unit that stores the log data described above. The structure of log data stored in the memory 37 will be described later.

画像供給部38は、2つの撮像部31により撮像して得られた画像データの少なくとも一方の撮像部からの、最新の複数フレームの画像データを格納可能なRAM38aを有している。画像供給部38のRAM38aに格納された1以上の画像データは、判定部36により読み出し可能である。後述するように、RAM38aに格納された1以上の画像データは、センタ装置4からのコマンドに応じて、あるいは判定部36からの指示に応じて、センタ装置4へ送信される。   The image supply unit 38 includes a RAM 38 a that can store the latest plural frames of image data from at least one of the image data obtained by imaging with the two imaging units 31. One or more pieces of image data stored in the RAM 38 a of the image supply unit 38 can be read by the determination unit 36. As will be described later, one or more pieces of image data stored in the RAM 38a are transmitted to the center device 4 according to a command from the center device 4 or according to an instruction from the determination unit 36.

通信制御部39は、デイジーチェーン接続された通信ケーブル3を介して、センタ装置4及び他の監視カメラ2との通信を行うための制御部である。特に、通信制御部39は、センタ装置4からのコマンドを受信するコマンド受信部を構成する。なお、本実施の形態では、センタ装置4からの画像データの送信コマンドを受信すると、通信制御部39が画像供給部38から画像データを読み出して、センタ装置4へ送信しているが、判定部36がコマンドを解釈して、RAM38aから画像データを読み出して、センタ装置4へ送信するようにしてもよい。   The communication control unit 39 is a control unit for performing communication with the center device 4 and other monitoring cameras 2 via the communication cable 3 connected in a daisy chain. In particular, the communication control unit 39 constitutes a command receiving unit that receives a command from the center device 4. In this embodiment, when the image data transmission command is received from the center device 4, the communication control unit 39 reads the image data from the image supply unit 38 and transmits it to the center device 4. 36 may interpret the command, read out the image data from the RAM 38a, and transmit it to the center device 4.

2つの通信I/F40は、通信制御部39とコネクタ13との間のインターフェースである。   The two communication I / Fs 40 are interfaces between the communication control unit 39 and the connector 13.

ライト制御部41は、上述した追加処理部Q1またはライト点灯処理Q6によるライト点灯信号が供給された場合、静止画データに基づいて、事故などにより停止した車両、道路上の落下物などの停止物体の位置を取得する。ライト制御部41は、この停止物体の位置情報に基づき、停止物体に光を照射するための、スポットライト24の角度を算出する。ライト制御部41は、算出された角度情報に基づき、モータ26a及び27aを制御し、スポットライト24を点灯する。これにより、停止物体にスポットライト24の光を照射することができる。   When the light lighting signal is supplied by the additional processing unit Q1 or the light lighting processing Q6 described above, the light control unit 41 is based on the still image data, and is a stopped object such as a vehicle stopped due to an accident or a falling object on the road. Get the position of. The light control unit 41 calculates the angle of the spotlight 24 for irradiating the stop object with light based on the position information of the stop object. The light control unit 41 controls the motors 26a and 27a based on the calculated angle information, and turns on the spotlight 24. Thereby, the light of the spotlight 24 can be irradiated to the stop object.

また、ライト制御部41は、上述したライト危険点灯処理Q7による危険点灯信号が供給された場合、スポットライト24を点滅、回転または回動させる制御を行う。ここでは、スポットライト24を回転させる制御について説明する。ライト制御部41は、スポットライト24を回転させるための危険点灯信号が供給された場合、スポットライト24を回転させるための回転データをメモリ37から読み出す。ライト制御部41は、読み出した回転データに基づき、モータ26a及び27aを制御し、スポットライト24を点灯する。具体的には、ライト制御部41は、回転データに基づき、スポットライト24が重力方向に対して所定の角度を有するようにモータ27aを駆動した後、モータ27aの駆動を停止する。そして、ライト制御部41は、モータ26aの回転が継続するように、モータ26aを駆動することで、スポットライト24を重力方向の軸に対して回転させる。   The light control unit 41 controls the spotlight 24 to blink, rotate, or rotate when the danger lighting signal is supplied by the above-described light danger lighting process Q7. Here, control for rotating the spotlight 24 will be described. When the danger lighting signal for rotating the spotlight 24 is supplied, the light control unit 41 reads out rotation data for rotating the spotlight 24 from the memory 37. The light control unit 41 controls the motors 26a and 27a based on the read rotation data, and turns on the spotlight 24. Specifically, the light control unit 41 drives the motor 27a based on the rotation data so that the spotlight 24 has a predetermined angle with respect to the direction of gravity, and then stops driving the motor 27a. And the light control part 41 rotates the spotlight 24 with respect to the axis | shaft of a gravity direction by driving the motor 26a so that rotation of the motor 26a may continue.

(監視カメラにおける基本監視処理)
次に、基本監視処理について説明する。
図7は、基本監視処理の流れの例を示すフローチャートである。本実施の形態では、上述したように、基本監視部34の処理は、CPUによって実行されるプログラムの一部の機能として実行される。
(Basic monitoring processing for surveillance cameras)
Next, the basic monitoring process will be described.
FIG. 7 is a flowchart illustrating an example of the flow of basic monitoring processing. In the present embodiment, as described above, the processing of the basic monitoring unit 34 is executed as a partial function of a program executed by the CPU.

立体計測部33から距離画像データが取得される(S1)。距離画像データに基づいて、基本監視部34における、停止物体の検出処理部P1と、物体の軌跡の検出処理部P2とが、基本監視処理として実行される(S2)。   Distance image data is acquired from the three-dimensional measurement unit 33 (S1). Based on the distance image data, the stop object detection processing unit P1 and the object locus detection processing unit P2 in the basic monitoring unit 34 are executed as basic monitoring processing (S2).

停止物体の検出処理部P1は、背景以外の物体の認識を行い、フレーム間での物体の位置に変化があるか否かに基づいて、停止物体の検出を行う。立体形状の大きさが所定の大きさ以上の物体が、停止物体の検出対象として選択される。距離画像データに基づいて停止物体の検出を行っているので、物体の体積が検出でき、検出すべき停止物体を精度良く認識し、検出することができる。   The stop object detection processing unit P1 recognizes an object other than the background, and detects a stop object based on whether there is a change in the position of the object between frames. An object having a three-dimensional shape greater than or equal to a predetermined size is selected as a stop object detection target. Since the stop object is detected based on the distance image data, the volume of the object can be detected, and the stop object to be detected can be accurately recognized and detected.

物体の軌跡の検出処理部P2は、認識された物体の軌跡を、フレーム間の物体の位置情報から検出し、その軌跡が所定の軌跡に合致するかしないかを検出あるいは判定する。   The object locus detection processing unit P2 detects the recognized object locus from the position information of the object between frames, and detects or determines whether the locus matches a predetermined locus.

この軌跡の検出も、距離画像データに基づいて行っているので、物体の軌跡を精度良く検出して判定することができる。
次に、ログデータ記録処理が実行される(S3)。この処理は、上述した計測及び記録処理部P3により実行される。
Since the locus is also detected based on the distance image data, the locus of the object can be accurately detected and determined.
Next, a log data recording process is executed (S3). This process is executed by the above-described measurement and recording processing unit P3.

そして、判定部36は、上記の停止物体の検出処理部P1と物体の軌跡の検出処理部P2のいずれかで、異常が検出されたか否かを判定し(S4)、異常が無ければ(S4:NO)、処理は終了し、異常が有れば(S4:YES)、異常処理を実行する(S5)。
なお、図7の処理は、監視カメラ2が動作中は、常に繰り返し実行されている。
Then, the determination unit 36 determines whether or not an abnormality is detected in any of the stop object detection processing unit P1 and the object locus detection processing unit P2 (S4), and if there is no abnormality (S4). : NO), the process ends, and if there is an abnormality (S4: YES), the abnormality process is executed (S5).
Note that the processing in FIG. 7 is always executed repeatedly while the surveillance camera 2 is operating.

(監視カメラにおけるコマンド処理)
次に、コマンド処理について説明する。図8は、コマンド処理の流れの例を示すフローチャートである。
監視カメラ2は、センタ装置4からのコマンドを受信したか否かを判定する(S11)。コマンドは、通信制御部39を介して、判定部36により受信される。コマンドを受信しないときは(S11:NO)、処理は、終了し、コマンドを受信したときは(S11:YES)、受信したコマンドを解析する、すなわちコマンドの内容を判定する(S12)。
(Command processing in surveillance camera)
Next, command processing will be described. FIG. 8 is a flowchart illustrating an example of the flow of command processing.
The monitoring camera 2 determines whether a command from the center device 4 has been received (S11). The command is received by the determination unit 36 via the communication control unit 39. When no command is received (S11: NO), the process ends. When a command is received (S11: YES), the received command is analyzed, that is, the content of the command is determined (S12).

判定部36は、コマンドに対応する処理部を、追加監視部35の中から選択して、その処理を実行する(S13)。例えば、コマンドがログデータの送信要求コマンドであれば、判定部36は、追加監視部35の中からそのコマンドに対応する処理部Q3を選択して、メモリ37から指定されたログデータを読み出して、センタ装置4へ送信する。コマンドが、人の検出処理を行う人検出コマンドであれば、追加監視部35の中からそのコマンドに対応する処理部Q4を選択して、画像データから人を検出する処理が実行される。   The determination unit 36 selects a processing unit corresponding to the command from the additional monitoring unit 35 and executes the processing (S13). For example, if the command is a log data transmission request command, the determination unit 36 selects the processing unit Q3 corresponding to the command from the additional monitoring unit 35 and reads the specified log data from the memory 37. To the center device 4. If the command is a human detection command for performing human detection processing, the processing unit Q4 corresponding to the command is selected from the additional monitoring unit 35, and processing for detecting a human from the image data is executed.

コマンドに対応する処理の結果、何らかの異常が検出されたか否かが判定され(S14)、人が検出された等の異常が無ければ(S14:NO)、異常が無かった旨の情報を送信したり、要求された情報を送信する、等の、センタ装置4への回答処理を実行して(S16)、処理は終了し、異常が有れば(S14:YES)、異常処理を実行する(S16)。   As a result of processing corresponding to the command, it is determined whether or not any abnormality is detected (S14). If there is no abnormality such as a person detected (S14: NO), information indicating that there was no abnormality is transmitted. Response processing to the center apparatus 4 is executed (S16), and the processing is terminated. If there is an abnormality (S14: YES), the abnormality processing is executed (S14: YES). S16).

(監視カメラにおける異常処理)
次に、異常処理について説明する。図9は、図7及び図8における異常処理の流れの例を示すフローチャートである。
基本監視処理あるいは追加監視処理において検出された異常の内容に応じて実行すべき処理の内容が、ルールベースで予め設定されている。判定部36は、その予め決められたルールベースの内容に従って、図9に示す処理を実行する。
判定部36は、異常が検出されると、ルールベースを参照して、処理内容を決定する(S21)。
(Abnormal processing in surveillance cameras)
Next, the abnormality process will be described. FIG. 9 is a flowchart showing an example of the flow of the abnormality process in FIGS.
The content of the processing to be executed according to the content of the abnormality detected in the basic monitoring processing or the additional monitoring processing is set in advance on a rule basis. The determination unit 36 executes the process shown in FIG. 9 according to the contents of the predetermined rule base.
When an abnormality is detected, the determination unit 36 refers to the rule base and determines the processing content (S21).

そして、判定部36は、その決定された処理内容に従って、異常対応処理の実施指示処理(S22)、追加解析処理(S23)、通報処理(S24)、画像送信処理(S25)及びライト点灯処理(S26)を実行する。これらの5つの処理は、互いに並列に実行され、それぞれ処理内容決定処理(S21)で決定された内容を実行する。処理の内容がルールベースで予め設定されているので、異常の内容によっては、処理内容決定処理(S21)において、5つの処理全てを実行しないように、決定される場合もある。   Then, according to the determined processing content, the determination unit 36 performs an abnormality handling process execution instruction process (S22), an additional analysis process (S23), a notification process (S24), an image transmission process (S25), and a light lighting process ( S26) is executed. These five processes are executed in parallel with each other, and the contents determined in the process content determination process (S21) are executed. Since the content of the process is set in advance on a rule basis, depending on the content of the abnormality, it may be determined not to execute all five processes in the process content determination process (S21).

異常対応処理の実施指示処理(S22)は、センタ装置4を介さずに、監視カメラ2から他の設備、例えばトンネル内に設置された放送設備、トンネルの出入り口に設置された情報表示パネル、に直接、動作する指示を与える処理である。他の設備が、通信ケーブル3で形成されるイーサネット(登録商標)の通信上に接続されている場合に、監視カメラ2は、他の設備と通信をすることができる。   The execution instruction process (S22) of the abnormality handling process is performed from the monitoring camera 2 to other equipment such as broadcasting equipment installed in the tunnel, information display panel installed at the entrance of the tunnel, without going through the center device 4. This process directly gives an instruction to operate. When other equipment is connected on the Ethernet (registered trademark) communication formed by the communication cable 3, the monitoring camera 2 can communicate with the other equipment.

例えば、通信ケーブル3と同じイーサネット(登録商標)に接続されている通信可能な設備として、放送設備と情報表示パネルがあれば、異常対応処理の実施指示処理(S22)は、その放送設備等の制御装置に対する所定の音声出力の指示コマンドの送信、等の処理である。   For example, if there is a broadcast facility and an information display panel as communicable facilities connected to the same Ethernet (registered trademark) as the communication cable 3, the execution instruction process (S22) of the abnormality handling process is performed for the broadcast facility or the like. Processing such as transmission of a predetermined voice output instruction command to the control device.

図1において、設備の制御装置43が、イーサネット(登録商標)に接続されていて、監視カメラ2からのコマンドを受信可能となっている。この場合、ある監視カメラ2(k)が、異常対応処理の実施指示処理(S22)に従って、その制御装置43へ所定のコマンドを送信すると、その設備は、そのコマンドに指定された動作を実行する。よって、監視カメラ2から直接設備に対して、所望の動作指示をすることができるので、異常時の対応を迅速に行うことができる。   In FIG. 1, a facility control device 43 is connected to Ethernet (registered trademark) and can receive commands from the monitoring camera 2. In this case, when a certain monitoring camera 2 (k) transmits a predetermined command to the control device 43 according to the execution instruction process (S22) of the abnormality handling process, the equipment executes the operation specified by the command. . Therefore, since a desired operation instruction can be issued directly from the monitoring camera 2 to the equipment, it is possible to quickly cope with an abnormality.

また、異常対応処理の実施指示処理(S22)は、他の監視カメラ2へのコマンド送信も含まれる。例えば、避走車両の検出がされた場合に、その車両の進行方向にある他の監視カメラ2(隣の監視カメラあるいは、数台先の監視カメラ)へ、避走車両の速度と軌跡データをセンタ装置4へ送信させるような処理を実行させるコマンドを、送信する。これにより、センタ装置4は、検出された避走車両の走行状態を、迅速に監視することができる。   Further, the execution instruction process (S22) of the abnormality handling process includes command transmission to another monitoring camera 2. For example, when a avoiding vehicle is detected, the speed and trajectory data of the avoiding vehicle are sent to another monitoring camera 2 (adjacent monitoring camera or several monitoring cameras ahead) in the traveling direction of the vehicle. A command for executing processing to be transmitted to the center device 4 is transmitted. Thereby, the center apparatus 4 can monitor rapidly the driving state of the detected avoidance vehicle.

以上のように、異常対応処理の実施指示処理(S22)は、基本監視部の処理結果が所定の異常が有りの判定である場合、発生した所定の異常の種類に応じて、所定の設備の所定の動作の指示あるいは他の監視カメラ2に所定の処理の実行を指示するコマンドを、所定の設備あるいは他の監視カメラ2に送信する実行コマンド送信処理部を構成する。   As described above, the execution instruction process (S22) of the abnormality handling process is performed according to the type of the predetermined abnormality that has occurred, when the processing result of the basic monitoring unit is a determination that there is a predetermined abnormality. An execution command transmission processing unit is configured to transmit a command for a predetermined operation or a command for instructing another monitoring camera 2 to execute a predetermined process to a predetermined facility or another monitoring camera 2.

追加解析処理(S23)は、上述した追加監視部35内の追加処理部の処理である。よって、異常の内容に応じた追加解析を行うことができる。
また、通報処理(S24)は、検出された異常の内容に応じた所定のデータ、メッセージ等の所定の情報を、センタ装置4へ送信する処理である。例えば、判定部36が、異常の内容から危険度レベルを判定する処理を実行した場合は、その危険度レベルの情報も、センタ装置4へ送信される。
The additional analysis process (S23) is a process of the additional processing unit in the additional monitoring unit 35 described above. Therefore, additional analysis according to the content of the abnormality can be performed.
The notification process (S24) is a process of transmitting predetermined information such as predetermined data and a message corresponding to the detected abnormality to the center device 4. For example, when the determination unit 36 executes a process of determining the risk level from the content of the abnormality, information on the risk level is also transmitted to the center device 4.

画像送信処理(S25)は、異常を検出した監視カメラ2が、所定の画像データを、画像供給部38から読み出して、センタ装置4へ送信する処理である。
ライト点灯処理(S26)は、停止物体にスポットライト24の光を照射させるためのスポットライト点灯信号をライト制御部41に出力する処理である。なお、ライト制御部41での処理については、後述する。
The image transmission process (S25) is a process in which the monitoring camera 2 that has detected an abnormality reads predetermined image data from the image supply unit 38 and transmits it to the center device 4.
The light lighting process (S26) is a process of outputting a spotlight lighting signal for irradiating the stop object with the light of the spotlight 24 to the light control unit 41. The processing in the write control unit 41 will be described later.

追加解析処理(S23)の実行後、所定の判定処理が実行される(S27)。   After the additional analysis process (S23) is executed, a predetermined determination process is executed (S27).

上述したように、S22からS27の処理の内容は、ルールベースで定められたものであり、異常の内容に応じて異なっている。これらの処理が実行されると、検出された異常が終結したか否かが判定される(S28)。   As described above, the contents of the processing from S22 to S27 are determined based on the rule base, and differ depending on the contents of the abnormality. When these processes are executed, it is determined whether or not the detected abnormality is terminated (S28).

異常が終結していない場合は(S28:NO)、処理は、S21に戻り、異常が終結した場合は(S28:YES)、終結処理が実行されて(S29)、処理は、終了する。   If the abnormality is not terminated (S28: NO), the process returns to S21. If the abnormality is terminated (S28: YES), the termination process is executed (S29), and the process ends.

例えば、基本監視部34の停止物体の検出処理部P1により停止物体の有りの異常が検出された場合、判定部36は、その停止物体の検出に対応する予め決められた追加処理部Q1を、追加解析処理(S23)として実行する。同時に、判定部36は、異常対応処理の実行指示処理(S22)において、情報表示パネルの制御装置に対して、「トンネル中、停止車両有り」等のメッセージを表示するように、コマンドを送信する。さらに、判定部36は、通報処理(S24)において、センタ装置4へ停止車両の検出がされたことのメッセージを送信する。さらに、判定部36は、画像送信処理(S25)において、その停止物体の画像データをセンタ装置4へ送信する。   For example, when an abnormality with the presence of a stopped object is detected by the stopped object detection processing unit P1 of the basic monitoring unit 34, the determination unit 36 uses a predetermined additional processing unit Q1 corresponding to the detection of the stopped object. This is executed as additional analysis processing (S23). At the same time, the determination unit 36 transmits a command to display a message such as “There is a stopped vehicle in the tunnel” to the control device of the information display panel in the execution instruction process (S22) of the abnormality handling process. . Furthermore, the determination unit 36 transmits a message indicating that a stopped vehicle has been detected to the center device 4 in the notification process (S24). Further, the determination unit 36 transmits the image data of the stopped object to the center device 4 in the image transmission process (S25).

判定処理(S27)は、追加解析処理(S23)の処理結果に基づく処理であり、追加処理部Q1の処理結果に応じた処理を実行する。よって、例えば、追加処理部Q1により、人が検出された場合には、判定部36は、人が検出されたことの異常を検出する。   The determination processing (S27) is processing based on the processing result of the additional analysis processing (S23), and executes processing according to the processing result of the additional processing unit Q1. Therefore, for example, when a person is detected by the additional processing unit Q1, the determination unit 36 detects an abnormality that a person has been detected.

異常が終結していない場合には、処理は、処理内容決定処理(S21)に戻る。そして、判定部36は、再度、追加解析処理により検出された異常も加えて、処理内容を決定し、S22からS25の処理を実行する。   If the abnormality has not ended, the process returns to the process content determination process (S21). Then, the determination unit 36 again adds the abnormality detected by the additional analysis processing, determines the processing content, and executes the processing from S22 to S25.

例えば、追加処理部Q1において、人が検出されたときには、異常対応処理の実行指示処理(S22)において、放送設備の制御装置に対して、「他の車両に注意して下さい。」等の音声メッセージをトンネル内に放送するように、コマンドを送信する。   For example, when a person is detected in the additional processing unit Q1, in the execution instruction process (S22) of the abnormality handling process, a voice message such as “Please pay attention to other vehicles” is sent to the control device of the broadcast facility. Send a command to broadcast the message in the tunnel.

別の例として、基本監視部34の物体の軌跡の検出処理部P2により物体の軌跡が所定の軌跡ではないと判定された場合、判定部36は、物体の軌跡が所定の軌跡に合致しない場合に対応する追加処理部Q2を、追加解析処理として実行し、その追加処理部Q2の結果に基づく判定処理(S27)を実行する。   As another example, when the object trajectory detection processing unit P2 of the basic monitoring unit 34 determines that the object trajectory is not a predetermined trajectory, the determination unit 36 determines that the object trajectory does not match the predetermined trajectory. The additional processing unit Q2 corresponding to is executed as additional analysis processing, and determination processing (S27) based on the result of the additional processing unit Q2 is executed.

終結処理(S29)は、異常状態が検出されなくなったので、センタ装置4への異常状態の終了したことのメッセージ等の送信処理、他の設備へ送信したコマンドに基づく動作の終了指示のコマンドの送信処理、等が実行される。   In the termination process (S29), since the abnormal state is no longer detected, a message indicating the termination of the abnormal state to the center device 4 is transmitted, and an operation end instruction command based on the command transmitted to other equipment is transmitted. Transmission processing, etc. are executed.

以上のように、監視カメラ2は、基本監視部34と追加監視部35を有して、通常は、基本監視部34の処理を実行し、基本監視部34において異常が検出された場合、あるいはセンタ装置4からコマンドを受信した場合は、予めルールベースで設定された処理部を実行する。   As described above, the monitoring camera 2 includes the basic monitoring unit 34 and the additional monitoring unit 35, and normally executes the processing of the basic monitoring unit 34, and when an abnormality is detected in the basic monitoring unit 34, or When a command is received from the center apparatus 4, a processing unit set in advance on a rule basis is executed.

図10は、図9におけるライト点灯処理の流れの例を示すフローチャートである。この図10の処理は、ライト制御部41によって実行される。   FIG. 10 is a flowchart showing an example of the flow of the light lighting process in FIG. The process of FIG. 10 is executed by the write control unit 41.

まず、スポットライト点灯信号が供給された否かが判定される(S31)。スポットライト点灯信号が供給されていない場合は(S31:NO)、処理は、S31に戻り、スポットライト点灯信号が供給された場合は(S31:YES)、停止車両あるいは落下物の位置が取得され(S32)、取得された位置情報からスポットライト24の角度が算出される(S33)。そして、算出された角度情報に基づき、モータ26a及び27aが制御される(S34)。最後に、スポットライト24の点灯が実行され(S35)、処理を終了する。   First, it is determined whether or not a spotlight lighting signal is supplied (S31). If the spotlight lighting signal is not supplied (S31: NO), the process returns to S31. If the spotlight lighting signal is supplied (S31: YES), the position of the stopped vehicle or falling object is acquired. (S32) The angle of the spotlight 24 is calculated from the acquired position information (S33). Then, the motors 26a and 27a are controlled based on the calculated angle information (S34). Finally, the spotlight 24 is turned on (S35), and the process ends.

以上のように、監視カメラ2は、スポットライト24を備え、トンネル内に停止物体が存在した場合、ライト点灯処理を実行することにより、停止物体に対してスポットライト24からの光を照射する。この結果、監視カメラ2は、トンネル内を走行中のドライバに、事故原因となる停止物体を容易に認識させることができる。   As described above, the monitoring camera 2 includes the spotlight 24. When a stop object exists in the tunnel, the light from the spotlight 24 is irradiated to the stop object by executing the light lighting process. As a result, the monitoring camera 2 can make the driver traveling in the tunnel easily recognize a stopped object that causes an accident.

(センタ装置における異常処理)
監視室の監視員は、モニタ6に表示される情報、画像などを見ながら、トンネル内の交通状況を監視する。監視員は、上述したように特定の監視カメラ2を指定して所望の処理を実行させて、その監視カメラ2を制御することができる。そして、センタ装置4は、複数の監視カメラ2からの各種情報を受信して、異常が検出された場合には、所定の処理を実行する。
(Abnormal processing in center equipment)
A monitor in the monitoring room monitors traffic conditions in the tunnel while viewing information, images, and the like displayed on the monitor 6. As described above, the monitor can specify a specific monitoring camera 2 and execute a desired process to control the monitoring camera 2. And the center apparatus 4 receives the various information from the some monitoring camera 2, and when abnormality is detected, performs a predetermined | prescribed process.

図11は、センタ装置4における異常処理の流れの例を示すフローチャートである。図11の処理は、センタ装置4のCPUによって実行される。
センタ装置4は、個別カメラからの情報を入手し(S41)、所定の基準に基づいて、状況を判定し、その判定結果に応じた処理内容を決定する(S42)。
FIG. 11 is a flowchart showing an example of the flow of abnormality processing in the center device 4. The process of FIG. 11 is executed by the CPU of the center apparatus 4.
The center device 4 obtains information from the individual cameras (S41), determines the situation based on a predetermined standard, and determines the processing content according to the determination result (S42).

その状況を判定するために所定の基準データは、記憶装置5の基準データ記憶部5aに記憶されている。また、判定された状況に応じて実行すべき処理内容のデータも、記憶装置5内の処理内容データ記憶部5bに記憶されている。   Predetermined reference data for determining the situation is stored in the reference data storage unit 5 a of the storage device 5. In addition, processing content data to be executed according to the determined situation is also stored in the processing content data storage unit 5 b in the storage device 5.

センタ装置4のCPUは、S42における状況判定の結果、異常ありと判定されたか否かを判定し(S43)、異常がなければ(S43:NO)、処理は、S41に戻る。異常があれば(S43:YES)、センタ装置4は、異常対応処理の実行指示処理(S44)、警告画面表示処理(S45)、操作入力確認処理(S46)及びライト危険点灯処理(S47)を実行する。これらの4つの処理は、互いに並列に実行され、それぞれS42において決定された内容を実行する。   The CPU of the center device 4 determines whether or not there is an abnormality as a result of the situation determination in S42 (S43). If there is no abnormality (S43: NO), the process returns to S41. If there is an abnormality (S43: YES), the center device 4 performs an abnormality handling process execution instruction process (S44), a warning screen display process (S45), an operation input confirmation process (S46), and a light danger lighting process (S47). Execute. These four processes are executed in parallel with each other, and the contents determined in S42 are executed.

異常対応処理の実行指示処理(S44)は、例えば、センタ装置4に接続された設備、例えばトンネルの出入り口に設置された情報表示パネル、に対する指示を与える処理、特定の監視カメラ2へのコマンド指示送信処理、等である。   The abnormality response process execution instruction process (S44) includes, for example, a process for giving an instruction to equipment connected to the center device 4, for example, an information display panel installed at the entrance of a tunnel, and a command instruction to a specific monitoring camera 2. Transmission processing, etc.

例えば、基本監視部34の物体の軌跡の検出処理部P2により物体の軌跡が所定の軌跡ではないと判定された場合にその情報を入手すると、情報表示パネルに「走行注意」等の所定のメッセージを表示させるためのコマンドが、情報表示パネルに送信される。その結果、他の車両のドライバは、より注意した運転を心掛けることができる。そのようなコマンドの送信は、予め自動的に行われる設定になっている場合には、監視員は、特に、情報表示パネルへの指示操作をしなくてよい。その設定内容は、処理内容データ記憶部5bに記憶される。   For example, when the object trajectory detection processing unit P2 of the basic monitoring unit 34 determines that the object trajectory is not a predetermined trajectory, when the information is obtained, a predetermined message such as “attention to travel” is displayed on the information display panel. Is sent to the information display panel. As a result, the driver of another vehicle can keep driving more carefully. When the transmission of such a command is set to be automatically performed in advance, the monitoring staff does not particularly need to perform an instruction operation to the information display panel. The setting content is stored in the processing content data storage unit 5b.

異常対応処理の実行指示処理(S44)により、センタ装置4は、例えば、他の特定の監視カメラ2に対して、画像データを送信させるためのコマンドを送信するようにすることもできる。その結果、所定の軌跡に合致しない走行をしている車両がその後通過すると想定される場所の画像がモニタ6に表示されるので、監視員は、その車両がその監視カメラ2の前を通過するのを待ち伏せして、通過したときの走行状況を見て確認することができる。
以上のようにして、異常対応処理の実行指示処理(S44)の処理によって、異常時における所定の処理の自動化を実現することができる。
With the execution instruction process (S44) of the abnormality handling process, the center device 4 can transmit a command for transmitting image data to, for example, another specific monitoring camera 2. As a result, an image of a place where a vehicle that does not conform to the predetermined trajectory is assumed to pass thereafter is displayed on the monitor 6, so that the monitor passes the front of the monitoring camera 2. Can be confirmed by looking at the driving situation when passing.
As described above, it is possible to realize automation of a predetermined process at the time of abnormality by the process of the execution instruction process (S44) of the abnormality handling process.

警告画面表示処理(S45)は、図13に示すようなモニタ6の画面上に、所定のメッセージを表示する処理である。この警告画面表示処理(S45)によって、例えば、ある異常が発生したときは、「・・を操作して下さい。」等の対応操作方法を示すすなわちアドバイスするメッセージが表示される。そのメッセージ表示を見て、監視員に所定の操作をさせることができる。発生した異常に応じて、どのようなメッセージを、どのような順番で表示するかは、処理内容データ記憶部5bに予め記憶されている。   The warning screen display process (S45) is a process for displaying a predetermined message on the screen of the monitor 6 as shown in FIG. By this warning screen display process (S45), for example, when a certain abnormality occurs, a message indicating a corresponding operation method such as “Please operate” is displayed, that is, an advice message is displayed. The monitor can be made to perform a predetermined operation by seeing the message display. Which message is displayed in what order according to the abnormality that has occurred is stored in advance in the processing content data storage unit 5b.

また、操作入力確認処理(S46)は、警告画面表示処理(S45)によって指示された操作が、適切に行われたか否かを確認する処理である。例えば、所定の順番で操作させるべき操作が、所定の順番で正しく行われているか否かが判定され、操作内容及び順番が適切でないときには、操作入力確認処理(S46)は、操作すべき内容をモニタ6上に表示する。   The operation input confirmation process (S46) is a process for confirming whether or not the operation instructed by the warning screen display process (S45) has been appropriately performed. For example, it is determined whether or not the operations to be operated in a predetermined order are correctly performed in the predetermined order. When the operation contents and the order are not appropriate, the operation input confirmation process (S46) Display on the monitor 6.

すなわち、センタ装置4は、いずれかの監視カメラ2の判定部36から所定の異常の通知を受けると、所定の操作内容を示すメッセージを表示装置に表示する表示処理と、所定の操作内容の操作入力を監視して所定の操作内容が入力されているかを確認する操作入力確認処理を実行する。   That is, when the center device 4 receives a notification of a predetermined abnormality from the determination unit 36 of any of the monitoring cameras 2, the center device 4 displays a message indicating the predetermined operation content on the display device, and operates the predetermined operation content. An operation input confirmation process is executed for monitoring the input and confirming whether a predetermined operation content has been input.

ライト危険点灯処理(S47)は、スポットライト24を点滅、回転または回動させるための危険点灯信号をライト制御部41に出力する処理である。なお、ライト制御部41での処理については、後述する。また、センタ装置4における異常処理としては、ライト危険点灯処理(S47)に代わりライト点灯処理が実行されることもあるが、このライト点灯処理の処理内容は、上述した図10と同様の処理のため、説明を省略する。   The light danger lighting process (S47) is a process of outputting a danger lighting signal for blinking, rotating or rotating the spotlight 24 to the light control unit 41. The processing in the write control unit 41 will be described later. Further, as the abnormal process in the center device 4, a light lighting process may be executed instead of the light danger lighting process (S47). The processing content of this light lighting process is the same as that in FIG. Therefore, the description is omitted.

S44〜S47の処理の結果、総合判定が行われる(S48)。異常発生後のデータすなわち経緯データは、記憶装置5に記録される。総合判定の基準も、記憶装置5の基準データ記憶部5aに記憶されている。総合判定処理(S48)は、異常が発生してからの経緯に基づいて、所定の処理が実行されて、異常の発生もなくなり、異常が終結したか否かが判定される。   As a result of the processing of S44 to S47, comprehensive judgment is performed (S48). Data after the occurrence of an abnormality, that is, history data is recorded in the storage device 5. The reference for comprehensive determination is also stored in the reference data storage unit 5 a of the storage device 5. In the comprehensive determination process (S48), a predetermined process is executed on the basis of the circumstances after the occurrence of the abnormality, the occurrence of the abnormality is eliminated, and it is determined whether the abnormality has ended.

総合判定処理(S48)の後、異常が終結したか否かが判定され、異常が終結していなければ(S49:NO)、処理は、S41に戻り、異常が終結していれば(S49:YES)、終結処理を実行して(S50)、処理は終了する。   After the comprehensive determination process (S48), it is determined whether or not the abnormality has ended. If the abnormality has not ended (S49: NO), the process returns to S41, and if the abnormality has ended (S49: YES), a termination process is executed (S50), and the process ends.

よって、センタ装置4は、各監視カメラ2からの情報に基づいて、異常の判定を行い、その異常に応じた処理を実行すると共に、所定のメッセージ等をモニタ6の画面上に表示し、かつ異常に対応する所定の操作が正しく行われたか否かの確認を行う。よって、異常発生時に、監視員がその異常の内容を確認して、必要な設備に対する処理の全てを行う必要もなく、かつ操作内容がガイダンスとして表示されるので、迅速な対応も可能となり、さらに操作ミスも防止することができる。   Therefore, the center device 4 determines an abnormality based on information from each monitoring camera 2, executes a process corresponding to the abnormality, displays a predetermined message on the screen of the monitor 6, and It is confirmed whether or not a predetermined operation corresponding to the abnormality has been correctly performed. Therefore, when an abnormality occurs, it is not necessary for the monitoring staff to check the details of the abnormality and perform all the processing for the necessary equipment, and since the operation contents are displayed as guidance, it is possible to respond quickly. Operation mistakes can also be prevented.

図12は、図11におけるライト処理の流れの例を示すフローチャートである。この図12の処理は、ライト制御部41によって実行される。   FIG. 12 is a flowchart showing an example of the flow of the write process in FIG. The process of FIG. 12 is executed by the write control unit 41.

まず、危険点灯信号が供給された否かが判定される(S51)。危険点灯信号が供給されていない場合は(S51:NO)、処理は、S51に戻り、危険点灯信号が供給された場合は(S51:YES)、メモリ37からスポットライト24の回転データが読み出される(S52)。そして、読み出されたスポットライト24の回転データに基づき、モータ26a及び27aが制御される(S53)。最後に、スポットライト24の点灯が実行され(S54)、処理を終了する。   First, it is determined whether or not a danger lighting signal is supplied (S51). When the danger lighting signal is not supplied (S51: NO), the process returns to S51. When the danger lighting signal is supplied (S51: YES), the rotation data of the spotlight 24 is read from the memory 37. (S52). Based on the read rotation data of the spotlight 24, the motors 26a and 27a are controlled (S53). Finally, the spotlight 24 is turned on (S54), and the process ends.

以上のように、センタ装置4は、トンネル内に停止物体が存在した場合、停止物体に光を照射している監視カメラ2以外の監視カメラ2に対し、ライト危険点灯処理を実行させる。停止物体に光を照射していない各監視カメラ2は、ライト危険点灯処理により、例えば、各監視カメラ2が備えるスポットライト24を回転させる。このように、センタ装置4は、停止物体に光を照射していない各監視カメラ2に対し、停止物体に光を照射している監視カメラ2とは異なる動作を実行させる。この結果、監視カメラ2及びセンタ装置4は、トンネル内を走行中のドライバに、トンネル内に事故原因となる停止物体が存在することを容易に認識させることができる。   As described above, when there is a stopped object in the tunnel, the center apparatus 4 causes the monitoring cameras 2 other than the monitoring camera 2 that irradiates light to the stopped object to execute the light danger lighting process. Each monitoring camera 2 that has not irradiated light to the stopped object rotates, for example, the spotlight 24 included in each monitoring camera 2 by the light danger lighting process. In this way, the center device 4 causes each monitoring camera 2 that does not irradiate light to the stopped object to execute an operation different from that of the monitoring camera 2 that irradiates light to the stopped object. As a result, the monitoring camera 2 and the center device 4 can make the driver traveling in the tunnel easily recognize that there is a stop object that causes an accident in the tunnel.

(監視画面)
図13は、モニタ6上に表示される監視画面の例を示す図である。モニタ6の画面51内には、監視対象トンネルの模式図を表示する表示部52と、トンネルの各出入り口の入車台数と出車台数の表示部53と、監視画像の表示部54と、トンネル内に存在する車両の台数を表示する表示部55とを含む。
(Monitoring screen)
FIG. 13 is a diagram illustrating an example of a monitoring screen displayed on the monitor 6. In the screen 51 of the monitor 6, a display unit 52 for displaying a schematic diagram of the tunnel to be monitored, a display unit 53 for the number of vehicles entering and exiting each entrance and exit, a display unit 54 for monitoring images, a tunnel And a display unit 55 for displaying the number of vehicles existing in the vehicle.

表示部52は、トンネルの模式図の各出入り口の近傍には、行き先を示す、「・・方面」という文字が併せて表示されている。
表示部53は、トンネルの模式図の各出入り口の近傍に配置され、入車台数と出車台数をリアルタイムで表示する。台数は、例えば、日付の始まる午前零時からの累積台数などである。
In the display section 52, characters “.. direction” indicating the destination are also displayed in the vicinity of each doorway in the schematic diagram of the tunnel.
The display unit 53 is arranged in the vicinity of each doorway in the schematic diagram of the tunnel, and displays the number of vehicles entering and exiting in real time. The number is, for example, the cumulative number from midnight when the date starts.

表示部54は、複数の監視カメラ2の中から選択された特定の監視カメラ2から撮影画像を取得して、表示している。上述したように、監視員がセンタ装置4を操作して、監視したい場所の監視カメラ2を選択して、その監視カメラ2に画像送信コマンドを送信することによって、表示部54にその監視カメラ2の画像を表示させることもできる。   The display unit 54 acquires a captured image from a specific monitoring camera 2 selected from the plurality of monitoring cameras 2 and displays the acquired image. As described above, the monitoring staff operates the center device 4 to select the monitoring camera 2 at the location to be monitored, and transmits the image transmission command to the monitoring camera 2, whereby the monitoring camera 2 is displayed on the display unit 54. It is also possible to display the image.

表示部55は、そのときにトンネル内に存在する車両の数を、リアルタイムで表示する。例えば、監視カメラ2(1)と2(n)から、上りと下りの各車線のそれぞれについて、認識した車両であってトンネルに入った車両と出た車両の数の情報を常に送信させ、上りと下りのそれぞれについて入った車両から出た車両の差分を計算することによって、センタ装置4は、トンネル内に存在する車両の数を、表示することができる。   The display unit 55 displays the number of vehicles existing in the tunnel at that time in real time. For example, the monitoring cameras 2 (1) and 2 (n) always transmit information on the number of recognized vehicles that have entered the tunnel and the number of vehicles that have exited for each of the up and down lanes. The center device 4 can display the number of vehicles present in the tunnel by calculating the difference between the vehicles exiting from the vehicles entering for each of the descending and the descending vehicles.

図13の画面は、常にモニタ6に表示され、上述したアドバイスメッセージ等の表示は、図13の画面上に例えば、ポップアップウインドウにより行われる。   The screen of FIG. 13 is always displayed on the monitor 6, and the display of the above-described advice message and the like is performed on the screen of FIG.

図14は、図13の画面の表示処理の流れの例を示すフローチャートである。センタ装置4は、特定の監視カメラ2、例えば監視カメラ2(1)と2(n)、から、入った車両と出た車両の数の情報を取得し、所定演算を実行する(S61)。所定演算とは、上述した表示部53と55の台数を表示するための演算である。   FIG. 14 is a flowchart illustrating an example of the flow of the display process of the screen in FIG. The center device 4 acquires information on the number of vehicles that have entered and the number of vehicles that have exited from a specific surveillance camera 2, for example, surveillance cameras 2 (1) and 2 (n), and executes a predetermined calculation (S61). The predetermined calculation is a calculation for displaying the number of the display units 53 and 55 described above.

そして、センタ装置4は、特定の監視カメラ2からの画像データを取得し(S62)、S61とS62で得た情報に基づき、図13の画面データを更新する(S63)。その結果、モニタ6に表示される画面51の内容は、リアルタイムの表示となる。   And the center apparatus 4 acquires the image data from the specific surveillance camera 2 (S62), and updates the screen data of FIG. 13 based on the information obtained in S61 and S62 (S63). As a result, the contents of the screen 51 displayed on the monitor 6 are displayed in real time.

(ログデータ)
各監視カメラ2のメモリ37には、上述したようにログデータが格納される。計測及び記録処理部P3は、立体計測部33において得られた距離画像に基づいて、認識して得られた各物体について、識別子を付与し、その物体について、図15に示す各データを取得或いは計算して得て、メモリ37に記憶する。
メモリ37の容量は、制限があるので、新しいデータが記録されるときは、最も古いデータが消去される。メモリ37には、例えば、過去、数十時間のデータが記憶される。
(Log data)
As described above, log data is stored in the memory 37 of each surveillance camera 2. The measurement and recording processing unit P3 assigns an identifier to each object obtained by recognition based on the distance image obtained in the three-dimensional measurement unit 33, and acquires each data shown in FIG. Obtained by calculation and stored in the memory 37.
Since the capacity of the memory 37 is limited, the oldest data is erased when new data is recorded. In the memory 37, for example, data for the past several tens of hours is stored.

図15は、ログデータのデータ構造を示す図である。図15のログデータは、監視カメラ2の上りと下り毎に生成されて記憶されるデータである。
図15は、監視カメラ2の識別番号(図15では、監視カメラ2(k)として示されている)の上りの車線のログデータを示す。ログデータ61は、上りと下り別に、カメラ識別番号(カメラ#(上り))、車両ID、時刻(入)、時刻(出)、物体の複数の属性、速度、監視領域内に入ったときの位置(入)、監視領域内から出たときの位置(出)、監視領域内の軌跡、等のデータを含む。
FIG. 15 is a diagram illustrating a data structure of log data. The log data in FIG. 15 is data that is generated and stored every time the monitoring camera 2 goes up and down.
FIG. 15 shows the log data of the lane upstream of the identification number of the monitoring camera 2 (shown as monitoring camera 2 (k) in FIG. 15). The log data 61 includes the camera identification number (camera # (up)), vehicle ID, time (on), time (out), multiple attributes of the object, speed, and when entering the monitoring area separately for ascending and descending. It includes data such as the position (on), the position (out) when exiting from the monitoring area, and the trajectory within the monitoring area.

車両IDは、監視カメラ2毎に付与されるので、所謂ローカルIDである。時刻(入)と時刻(出)は、それぞれ、認識された物体が監視領域内に入った及び出た時刻であり、ミリ秒単位の時刻データである。属性は、例えば、認識された物体の色、体積、高さ、形状などのデータである。体積、高さ、形状などは、距離画像データに基づいて算出される。速度は、監視領域内を走行する物体の位置の変化から演算により算出されるデータである。   Since the vehicle ID is assigned to each surveillance camera 2, it is a so-called local ID. Time (on) and time (out) are the times when the recognized object enters and exits the monitoring area, and are time data in milliseconds. The attribute is, for example, data such as the color, volume, height, and shape of the recognized object. The volume, height, shape, and the like are calculated based on the distance image data. The speed is data calculated by calculation from a change in the position of an object traveling in the monitoring area.

位置(入)と位置(出)は、それぞれ、監視領域内の位置であり、例えば、監視領域のXY平面上において、物体が監視領域に入ったときの位置と監視領域から出て行ったときの位置のデータである。軌跡は、監視領域のXY平面上における、認識された物体の位置、例えば先頭位置、重心位置等、の変化を示す軌跡データである。
図15に示すデータ以外のデータもログデータとしてメモリ37に記憶してもよい。
The position (on) and the position (out) are positions within the monitoring area. For example, on the XY plane of the monitoring area, the position when the object enters the monitoring area and when the object leaves the monitoring area This is the position data. The trajectory is trajectory data indicating changes in the position of the recognized object on the XY plane of the monitoring area, such as the head position and the center of gravity position.
Data other than the data shown in FIG. 15 may be stored in the memory 37 as log data.

上述したように、メモリ37のログデータ61は、車両毎に生成されるが、ローカルIDのデータである。センタ装置4は、全てのあるいは一部の監視カメラ2からログデータを収集することができる。   As described above, the log data 61 in the memory 37 is generated for each vehicle, but is local ID data. The center device 4 can collect log data from all or some of the monitoring cameras 2.

センタ装置4は、各監視カメラ2から収集したログデータ中の時刻(入)、時刻(出)、位置(入)及び位置(出)のデータを用いて、各監視カメラ2からの複数の車両IDを、互いに関連付ける処理を行うことができる。   The center device 4 uses the time (on), time (out), position (on), and position (out) data in the log data collected from each monitoring camera 2 to use a plurality of vehicles from each monitoring camera 2. A process of associating IDs with each other can be performed.

図16は、センタ装置4における車両IDの関連付けを説明するための図である。図16では、連続する監視カメラ2(k)から2(k+4)のそれぞれの撮影範囲が、PA(k)〜PA(k+4)として示されている。上述したように、隣り合う監視カメラ2の撮影範囲PA(点線で示す)は、重なっている。   FIG. 16 is a diagram for explaining association of vehicle IDs in the center device 4. In FIG. 16, the respective imaging ranges of the continuous monitoring cameras 2 (k) to 2 (k + 4) are shown as PA (k) to PA (k + 4). As described above, the shooting ranges PA (indicated by dotted lines) of the adjacent monitoring cameras 2 overlap.

撮影範囲PA内には、ログデータ中、時刻(入)、時刻(出)、位置(入)及び位置(出)のデータを取得するための監視領域MRが設定されている。図16では、撮影範囲PA(k)〜PA(k+4)中に、それぞれ、監視領域MR(k)〜MR(k+4)が設定されている。隣り合う監視カメラ2の監視領域MRは、接するように設定される。この設定は、例えば、トンネル101内に監視カメラ2を設置した後に、各監視カメラ2からの撮影画像に基づいて、行われる。よって、隣り合う監視カメラ2の2つの監視領域MRが接して線(以下、境界線という)TL上の位置は、2つの監視領域MR間で関連付けることができる。   In the imaging range PA, a monitoring area MR for acquiring data of time (on), time (out), position (on) and position (out) in the log data is set. In FIG. 16, monitoring areas MR (k) to MR (k + 4) are set in the imaging ranges PA (k) to PA (k + 4), respectively. The monitoring areas MR of adjacent monitoring cameras 2 are set so as to contact each other. This setting is performed, for example, based on the captured image from each monitoring camera 2 after the monitoring camera 2 is installed in the tunnel 101. Therefore, the position on the line (hereinafter referred to as the boundary line) TL where two monitoring regions MR of adjacent monitoring cameras 2 are in contact with each other can be associated between the two monitoring regions MR.

そして、センタ装置4は、隣り合う監視カメラ2同士の境界線TL上の位置の関連情報を、記憶装置5に予め記憶しておく。その位置の関連情報は、記憶装置5の関連情報記憶部5cに記憶される。関連情報は、例えば、境界線TL上における、2つの監視領域MRの位置の変換式であり、全ての境界線TLについて生成されて、関連情報記憶部5cに記憶される。センタ装置4は、位置の関連情報に基づいて、隣り合う2つの監視領域MRの一方から見た境界線TL上の位置と、他方から見た同じ境界線TL上の位置が同じ位置であるかを判定することができる。   Then, the center device 4 stores in advance in the storage device 5 the related information of the position on the boundary line TL between the adjacent monitoring cameras 2. The related information of the position is stored in the related information storage unit 5 c of the storage device 5. The related information is, for example, a conversion formula for the positions of the two monitoring regions MR on the boundary line TL, and is generated for all the boundary lines TL and stored in the related information storage unit 5c. Based on the position related information, the center device 4 determines whether the position on the boundary line TL viewed from one of the two adjacent monitoring regions MR and the position on the same boundary line TL viewed from the other are the same position. Can be determined.

図16には、上りと下りのそれぞれにおけるある車両の軌跡が、点線で示されている。上りにおける監視領域MR(k)から出た車両の位置P1と、その隣の監視領域MR(k)から出た車両の位置P2は、それぞれの監視カメラ2(k)と2(k+1)から得られるので、監視カメラ2(k)の記録した時刻(出)と監視カメラ2(k+1)の記録した時刻(入)が一致し、かつ監視カメラ2(k)の記録した位置(出)と監視カメラ2(k+1)の記録した位置(入)が一致した場合は、2つの監視カメラ2で別個に生成されたログデータは、同じ車両についてのログデータと決定される。   In FIG. 16, the trajectory of a certain vehicle in each of up and down is indicated by dotted lines. The position P1 of the vehicle exiting from the monitoring area MR (k) and the position P2 of the vehicle exiting from the adjacent monitoring area MR (k) are obtained from the respective monitoring cameras 2 (k) and 2 (k + 1). Therefore, the time (out) recorded by the monitoring camera 2 (k) matches the time (on) recorded by the monitoring camera 2 (k + 1), and the position (out) recorded by the monitoring camera 2 (k) is monitored. When the recorded positions (input) of the cameras 2 (k + 1) match, the log data generated separately by the two monitoring cameras 2 are determined as log data for the same vehicle.

そのために、センタ装置4は、複数の監視カメラ2の監視する領域における、監視カメラ同士の位置を関連付ける関連情報を有し、その関連情報に基づいて、複数の監視カメラが生成した車両の識別情報を関連付ける処理を行う関連付け処理部を有する。   For this purpose, the center device 4 has related information for associating the positions of the monitoring cameras in the area monitored by the plurality of monitoring cameras 2, and vehicle identification information generated by the plurality of monitoring cameras based on the related information. An association processing unit for performing a process of associating

その結果、各監視カメラ2において別個に生成されたローカルIDの車両IDを有する2つのログデータは、同じ車両のものであると判定できるので、一つの車両IDのログデータとして纏めることができる。言い換えると、車両IDをグローバルIDに変換することができる。   As a result, the two log data having the vehicle ID of the local ID generated separately in each monitoring camera 2 can be determined to be of the same vehicle, and can be collected as log data of one vehicle ID. In other words, the vehicle ID can be converted into a global ID.

なお、ログデータには、各種属性データが含まれるので、複数のログデータを、同じ車両についてのログデータと決定するときに、属性データを確認用データとして用いるようにしてもよい。   Since the log data includes various attribute data, the attribute data may be used as confirmation data when determining a plurality of log data as log data for the same vehicle.

センタ装置4は、全ての監視カメラ2のログデータを収集してこのような処理を行うことによって、全ての車両についての、トンネルの入口から出口までの道路上の走行状態のデータを生成して得ることができる。そのデータは、各車両のトンネル内の走行履歴データである。   The center device 4 collects log data of all the monitoring cameras 2 and performs such processing, thereby generating data on the traveling state on the road from the entrance to the exit of the tunnel for all the vehicles. Obtainable. The data is travel history data in the tunnel of each vehicle.

よって、事故等の何らかのイベントが発生した直後に、センタ装置4が全ての監視カメラ2に対してログデータを送信するログデータ送信コマンドを送信して、全ての監視カメラ2のログデータを収集して、上記のような各車両の走行履歴データを生成する。生成された各車両の走行履歴データは、事故直後の事故に関わる車両の走行状態を示すので、事故の原因を調査する者にとっては、有効な情報となる。   Therefore, immediately after an event such as an accident occurs, the center apparatus 4 transmits a log data transmission command for transmitting log data to all the monitoring cameras 2, and collects log data of all the monitoring cameras 2. Thus, the travel history data of each vehicle as described above is generated. The generated traveling history data of each vehicle indicates the traveling state of the vehicle related to the accident immediately after the accident, and thus is effective information for those who investigate the cause of the accident.

なお、図16では、隣り合う監視カメラ2の監視領域MRは、接するように設定されているが、重なって、あるいは完全に接していなくてもよい。重なっている場合は、重なっている領域の位置情報の関連付けを行うことによって、2つのログデータの関連付けを行うことができる。また、隣り合う監視カメラ2の監視領域MRが接していない場合は、その間の距離に応じた時間と位置の推定処理を行うことによって、2つのログデータの関連付けを行うことができる。   In FIG. 16, the monitoring areas MR of the adjacent monitoring cameras 2 are set so as to be in contact with each other, but may not overlap or completely contact with each other. In the case of overlapping, it is possible to associate two pieces of log data by associating positional information of overlapping areas. Further, when the monitoring areas MR of the adjacent monitoring cameras 2 are not in contact with each other, two log data can be associated by performing time and position estimation processing according to the distance between them.

以上のように、上述した本実施の形態による通行車両監視システムによれば、道路上の車両等を正確に認識し、設置が容易で、車両毎の走行状態の分析を負荷が集中することなく行い、かつ停止物体の存在を容易に認識させることができる通行車両監視システム及び車両用監視カメラを提供することができる。   As described above, according to the above-described traffic monitoring system according to the present embodiment, it is possible to accurately recognize vehicles and the like on the road, easy to install, and to analyze the running state of each vehicle without concentrating the load. It is possible to provide a passing vehicle monitoring system and a vehicle monitoring camera that can be performed and can easily recognize the presence of a stopped object.

なお、上述した実施の形態は、通行車両監視システム及び車両用監視カメラをトンネルの車両を監視する例であるが、上述した通行車両監視システム及び車両用監視カメラは、トンネル内の車両の監視だけでなく、通常の道路、高速道路等の車両の監視にも適用できるものである。   In addition, although embodiment mentioned above is an example which monitors the vehicle of a tunnel with a traffic vehicle monitoring system and a vehicle monitoring camera, the above-mentioned traffic vehicle monitoring system and vehicle monitoring camera are only monitoring the vehicle in a tunnel. In addition, it can be applied to monitoring of vehicles such as ordinary roads and highways.

本発明は、上述した実施の形態に限定されるものではなく、本発明の要旨を変えない範囲において、種々の変更、改変等が可能である。   The present invention is not limited to the above-described embodiments, and various changes and modifications can be made without departing from the scope of the present invention.

1 通行車両監視システム、2 監視カメラ、3 通信ケーブル、4 センタ装置、5 記憶装置、5a 基準データ記憶部、5b 処理内容データ記憶部、11 ケーシング、12 対物光学系、13 コネクタ、21 スポットライトユニット、22 カバー、23 球体部材、24 スポットライト、25 支持ローラ、26,27 駆動部、26a,27a モータ、26b,27b ローラ、31 撮像部、32 撮像I/F、33 立体計測部、34 基本監視部、35 追加監視部、36 判定部、37メモリ、38 画像供給部、39 通信制御部、40 通信I/F、41 ライト制御部、42 撮像素子、43 設備の制御装置、101 トンネル、102 天井部分、103 道路面 DESCRIPTION OF SYMBOLS 1 Traffic vehicle monitoring system, 2 Surveillance camera, 3 Communication cable, 4 Center apparatus, 5 Storage apparatus, 5a Reference data storage part, 5b Processing content data storage part, 11 Casing, 12 Objective optical system, 13 Connector, 21 Spotlight unit , 22 cover, 23 spherical member, 24 spotlight, 25 support roller, 26, 27 drive unit, 26a, 27a motor, 26b, 27b roller, 31 imaging unit, 32 imaging I / F, 33 stereoscopic measurement unit, 34 basic monitoring 35, additional monitoring unit, 36 determination unit, 37 memory, 38 image supply unit, 39 communication control unit, 40 communication I / F, 41 light control unit, 42 image sensor, 43 equipment control device, 101 tunnel, 102 ceiling Part, 103 road surface

Claims (4)

数珠繋ぎに接続され、車両の通行状況を撮像する複数の監視カメラと、その複数の監視カメラに接続されたセンタ装置とからなる通行車両監視システムであって、
各監視カメラは、
複数の撮像部と、
少なくとも1つのスポットライトと、
前記スポットライトの照射位置を変更させる照射位置変更部と、
前記複数の撮像部において得られた複数の画像から距離画像のデータを生成する距離画像生成部と、
前記距離画像に基づいて、停止物体の検出を行う停止物体検出処理部と、
前記停止物体検出処理部で前記停止物体の検出が行われると、前記距離画像に基づいて、前記停止物体の位置を検出するとともに、前記停止物体に前記スポットライトの光を照射させるためのライト点灯信号を出力するライト点灯処理部と、
前記ライト点灯信号に基づいて、前記スポットライトの照射位置を前記停止物体の位置に変更させるように、前記照射位置変更部の制御を行うとともに、前記スポットライトを点灯させる制御を行うライト制御部と、
を有することを特徴とする通行車両監視システム。
A traffic vehicle monitoring system comprising a plurality of surveillance cameras connected to a rosary and imaging a vehicle traffic situation, and a center device connected to the plurality of surveillance cameras,
Each surveillance camera
A plurality of imaging units;
At least one spotlight;
An irradiation position changing unit for changing the irradiation position of the spotlight;
A distance image generation unit for generating data of a distance image from a plurality of images obtained by the plurality of imaging units;
A stopped object detection processing unit for detecting a stopped object based on the distance image;
When the stop object is detected by the stop object detection processing unit, the position of the stop object is detected based on the distance image, and a light is turned on to irradiate the stop object with the light of the spotlight. A light lighting processing unit for outputting a signal;
A light control unit for controlling the irradiation position changing unit and controlling the lighting of the spotlight so as to change the irradiation position of the spotlight to the position of the stop object based on the light lighting signal; ,
A passing vehicle monitoring system comprising:
前記センタ装置からのコマンドを受信するコマンド受信処理部と、
前記センタ装置からのコマンドが前記スポットライトに危険点灯を指示するコマンドの場合、前記複数の監視カメラのうち、前記停止物体を検出した監視カメラ以外の監視カメラに、前記停止物体を検出した監視カメラと異なる処理を行わせるためのライト危険点灯信号を出力するライト危険点灯処理部とを有することを特徴とする請求項1に記載の通行車両監視システム。
A command reception processing unit for receiving a command from the center device;
When the command from the center device is a command for instructing the spotlight to perform dangerous lighting, the monitoring camera that has detected the stop object among the plurality of monitoring cameras other than the monitoring camera that has detected the stop object The traffic vehicle monitoring system according to claim 1, further comprising: a light danger lighting processing unit that outputs a light danger lighting signal for performing processing different from the above.
前記ライト制御部は、前記ライト危険点灯信号に基づいて、前記スポットライトを点滅、回転または回動させる処理を行わせることを特徴とする請求項2に記載の通行車両監視システム。   The traffic control system according to claim 2, wherein the light control unit causes the spotlight to blink, rotate, or rotate based on the light danger lighting signal. 複数の撮像部と、
少なくとも1つのスポットライトと、
前記スポットライトの照射位置を変更させる照射位置変更部と、
前記複数の撮像部において得られた複数の画像から距離画像のデータを生成する距離画像生成部と、
前記距離画像に基づいて、停止物体の検出を行う停止物体検出処理部と、
前記停止物体検出処理部で前記停止物体の検出が行われると、前記距離画像に基づいて、前記停止物体の位置を検出するとともに、前記停止物体に前記スポットライトの光を照射させるためのライト点灯信号を出力するライト点灯処理部と、
前記ライト点灯信号に基づいて、前記スポットライトの照射位置を前記停止物体の位置に変更させるように、前記照射位置変更部の制御を行うとともに、前記スポットライトを点灯させる制御を行うライト制御部と、
を有することを特徴とする車両用監視カメラ。
A plurality of imaging units;
At least one spotlight;
An irradiation position changing unit for changing the irradiation position of the spotlight;
A distance image generation unit for generating data of a distance image from a plurality of images obtained by the plurality of imaging units;
A stopped object detection processing unit for detecting a stopped object based on the distance image;
When the stop object is detected by the stop object detection processing unit, the position of the stop object is detected based on the distance image, and a light is turned on to irradiate the stop object with the light of the spotlight. A light lighting processing unit for outputting a signal;
A light control unit for controlling the irradiation position changing unit and controlling the lighting of the spotlight so as to change the irradiation position of the spotlight to the position of the stop object based on the light lighting signal; ,
A vehicle surveillance camera characterized by comprising:
JP2010252248A 2010-11-10 2010-11-10 Traffic vehicle monitoring system and vehicle monitoring camera Active JP5516344B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010252248A JP5516344B2 (en) 2010-11-10 2010-11-10 Traffic vehicle monitoring system and vehicle monitoring camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010252248A JP5516344B2 (en) 2010-11-10 2010-11-10 Traffic vehicle monitoring system and vehicle monitoring camera

Publications (2)

Publication Number Publication Date
JP2012103921A true JP2012103921A (en) 2012-05-31
JP5516344B2 JP5516344B2 (en) 2014-06-11

Family

ID=46394235

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010252248A Active JP5516344B2 (en) 2010-11-10 2010-11-10 Traffic vehicle monitoring system and vehicle monitoring camera

Country Status (1)

Country Link
JP (1) JP5516344B2 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012103920A (en) * 2010-11-10 2012-05-31 Saxa Inc Passing vehicle monitoring system and vehicle monitoring camera
JP2014006697A (en) * 2012-06-25 2014-01-16 Saxa Inc Monitoring system
JP2014071640A (en) * 2012-09-28 2014-04-21 Saxa Inc Monitoring device, and monitoring system
JP2014146928A (en) * 2013-01-28 2014-08-14 Saxa Inc Imaging apparatus and imaging system
CN104392613A (en) * 2014-12-11 2015-03-04 朱虹斐 Traffic road condition detection system
JP2015142147A (en) * 2014-01-27 2015-08-03 サクサ株式会社 imaging system and imaging control method
CN104933868A (en) * 2015-06-17 2015-09-23 苏州大学 Real-time online traffic state detection method based on traffic monitoring video
JP2016009563A (en) * 2014-06-24 2016-01-18 西日本高速道路株式会社 Warning attention device for tunnel and warning attention system with the warning attention device
JP2017033478A (en) * 2015-08-06 2017-02-09 オムロン株式会社 Obstacle detection apparatus, obstacle detection method, and obstacle detection program
JP2017033479A (en) * 2015-08-06 2017-02-09 オムロン株式会社 Obstacle detection apparatus, obstacle detection method, and obstacle detection program
WO2019150552A1 (en) * 2018-02-02 2019-08-08 三菱電機株式会社 Falling object sensing device, vehicle-mounted system, vehicle, and falling object sensing program
JP7407056B2 (en) 2020-04-13 2023-12-28 株式会社小糸製作所 infrastructure system

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012103920A (en) * 2010-11-10 2012-05-31 Saxa Inc Passing vehicle monitoring system and vehicle monitoring camera
JP2014006697A (en) * 2012-06-25 2014-01-16 Saxa Inc Monitoring system
JP2014071640A (en) * 2012-09-28 2014-04-21 Saxa Inc Monitoring device, and monitoring system
JP2014146928A (en) * 2013-01-28 2014-08-14 Saxa Inc Imaging apparatus and imaging system
JP2015142147A (en) * 2014-01-27 2015-08-03 サクサ株式会社 imaging system and imaging control method
JP2016009563A (en) * 2014-06-24 2016-01-18 西日本高速道路株式会社 Warning attention device for tunnel and warning attention system with the warning attention device
CN106128104A (en) * 2014-12-11 2016-11-16 蒋盘君 A kind of traffic detecting system for reacting highway jam situation and method of work thereof
CN104392613A (en) * 2014-12-11 2015-03-04 朱虹斐 Traffic road condition detection system
CN104933868A (en) * 2015-06-17 2015-09-23 苏州大学 Real-time online traffic state detection method based on traffic monitoring video
JP2017033478A (en) * 2015-08-06 2017-02-09 オムロン株式会社 Obstacle detection apparatus, obstacle detection method, and obstacle detection program
JP2017033479A (en) * 2015-08-06 2017-02-09 オムロン株式会社 Obstacle detection apparatus, obstacle detection method, and obstacle detection program
WO2019150552A1 (en) * 2018-02-02 2019-08-08 三菱電機株式会社 Falling object sensing device, vehicle-mounted system, vehicle, and falling object sensing program
JPWO2019150552A1 (en) * 2018-02-02 2020-07-02 三菱電機株式会社 Falling object detection device, in-vehicle system, vehicle and falling object detection program
JP7407056B2 (en) 2020-04-13 2023-12-28 株式会社小糸製作所 infrastructure system

Also Published As

Publication number Publication date
JP5516344B2 (en) 2014-06-11

Similar Documents

Publication Publication Date Title
JP5516344B2 (en) Traffic vehicle monitoring system and vehicle monitoring camera
JP5516343B2 (en) Traffic vehicle monitoring system
JP5634222B2 (en) Traffic vehicle monitoring system and vehicle monitoring camera
US20220270376A1 (en) Deterioration diagnosis device, deterioration diagnosis system, deterioration diagnosis method, and storage medium for storing program
KR101745551B1 (en) Apparatus and method for monitoring overspeed-vehicle using CCTV image information
KR100835085B1 (en) A real time processing system and method of a traffic accident using an unmanned recording device
KR101852058B1 (en) unexpected accident detecting method using dual camera
KR20140108035A (en) System and method for managing car parking
CN102834848A (en) Method for visualizing zones of higher activity in monitoring scenes
JP5502700B2 (en) Traffic vehicle monitoring system and traffic vehicle monitoring device
CN111624991A (en) Method for driving fire-fighting robot in narrow lane
JP6920776B2 (en) Monitoring support system and monitoring support method
KR20200112631A (en) How to monitor and control autonomous vehicles
KR101210615B1 (en) Regulation system of u-turn violation vehicle
TWI529667B (en) Multi - computer vision recognition system for cross - traffic obstacle
KR101704163B1 (en) Input Output Integration Control Apparatus for Safety Management System
US10210759B2 (en) System and method for enabling an interoperable vehicle safety network using wireless communication
JP2016092693A (en) Imaging apparatus, imaging apparatus control method, and program
JP2013042386A (en) Monitoring system
JP5605178B2 (en) Traffic vehicle monitoring system and vehicle monitoring camera
KR101719799B1 (en) CCTV monitoring system
CN112272946A (en) Vehicle control device
JP7415967B2 (en) Driving support control device, driving support method, driving support program
JPWO2019131388A1 (en) Driving support device, driving support system, driving support method, and driving support program
JP2006329706A (en) Distance-measuring device and distance measurement method

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20121211

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130422

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140304

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140317

R150 Certificate of patent or registration of utility model

Ref document number: 5516344

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150