JP6694746B2 - Object detection sensor - Google Patents

Object detection sensor Download PDF

Info

Publication number
JP6694746B2
JP6694746B2 JP2016071764A JP2016071764A JP6694746B2 JP 6694746 B2 JP6694746 B2 JP 6694746B2 JP 2016071764 A JP2016071764 A JP 2016071764A JP 2016071764 A JP2016071764 A JP 2016071764A JP 6694746 B2 JP6694746 B2 JP 6694746B2
Authority
JP
Japan
Prior art keywords
vehicle
segment
detection sensor
object detection
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016071764A
Other languages
Japanese (ja)
Other versions
JP2017182622A (en
Inventor
藤井 清人
清人 藤井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2016071764A priority Critical patent/JP6694746B2/en
Publication of JP2017182622A publication Critical patent/JP2017182622A/en
Application granted granted Critical
Publication of JP6694746B2 publication Critical patent/JP6694746B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Geophysics And Detection Of Objects (AREA)
  • Burglar Alarm Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Description

本発明は、光線の投受光により警戒領域内の被測定物までの距離を検出する物体検出センサに関する。   The present invention relates to an object detection sensor that detects the distance to an object to be measured in a warning area by projecting and receiving light rays.

従来、屋外などの広域な警戒領域を監視するために、レーザ光線や可視光線、超音波、赤外線などの各種探査信号を警戒領域内に照射して、対象物からの反射回帰信号を受信することで警戒領域における物体を検出する物体検出センサが知られている。   Conventionally, in order to monitor a wide range of warning areas such as outdoors, irradiating various exploration signals such as laser beams, visible rays, ultrasonic waves, infrared rays, etc. into the warning area, and receiving a reflection return signal from the object. There is known an object detection sensor for detecting an object in a warning area.

特許文献1には、光線の投受光により警戒領域内の被測定物までの距離を検出する物体検出センサの発明が開示されている。この物体検出センサは、警戒領域の一端から他端までを測定周期おきに走査して、警戒領域における各方向の測定点までの距離を示す測距データを生成し、過去の測距データと比較して現在の測距データについて同一の被測定物により距離が変化した測定点を変化領域としてグループ化する。そして、前回と今回とで検出された物体間の距離が閾値以内であり、かつ大きさの変動が閾値以内である場合に、同一物体であるとして変化領域の対応付けを行うトラッキング処理を行う。また、この物体検出センサは、変化領域としてグループ化した測定点のうち線分として近似できる測定点から線分データを検出することができる。そして、1つの線分データごとに車両形状らしさを評価して第1の車形状度を算出し、2つの線分データの組合せごとに車両形状らしさを評価して第2の車形状度を算出し、第1の車形状度及び第2の車形状度を用いて第3の車形状度を算出し、第3の車形状度に基づいて変化領域が検出対象か否かを判定している。この発明によれば、車両が存在する可能性がある警戒領域を監視する場合であっても、精度よく検出対象を検出できるものとされている。   Patent Document 1 discloses an invention of an object detection sensor that detects a distance to an object to be measured in a caution area by projecting and receiving light rays. This object detection sensor scans from one end to the other end of the warning area at every measurement cycle to generate distance measurement data indicating the distance to the measurement point in each direction in the warning area, and compares it with past distance measurement data. Then, with respect to the current distance measurement data, the measurement points whose distance is changed by the same object to be measured are grouped as a change area. Then, when the distance between the objects detected last time and this time is within the threshold value and the variation in size is within the threshold value, the tracking processing is performed to associate the changed areas as the same object. Further, the object detection sensor can detect line segment data from the measurement points that can be approximated as a line segment among the measurement points grouped as the change area. Then, the vehicle shape likeness is evaluated for each line segment data to calculate the first vehicle shape degree, and the vehicle shape likeness is evaluated for each combination of the two line segment data to calculate the second vehicle shape degree. Then, the third vehicle shape factor is calculated using the first vehicle shape factor and the second vehicle shape factor, and it is determined whether or not the change region is the detection target based on the third vehicle shape factor. .. According to the present invention, it is possible to accurately detect a detection target even when monitoring a warning area where a vehicle may exist.

特開2015−141634号公報JP, 2005-141634, A

特許文献1に開示された物体検出センサによれば、車両に乗り降りする人物等の陰に車両の一部が遮られた場合や、探査信号がセンサに戻ってこない方向に反射する鏡面反射が車両の一部で生じた場合には、センサは、1台の車両を2つの***した変化領域として認識してしまう。この場合、前回の測定周期では1台の車両として認識していても、今回の測定周期では***により変化領域の大きさや距離の関係が前回の測定周期と大きく変化することがあるため、認識していた1台の車両としてうまくトラッキングできなくなってしまう可能性がある。   According to the object detection sensor disclosed in Patent Document 1, when a part of the vehicle is blocked behind a person or the like who gets on or off the vehicle, or specular reflection is reflected in a direction in which the search signal does not return to the sensor. In some cases, the sensor recognizes one vehicle as two divided change areas. In this case, even if the vehicle was recognized as one vehicle in the previous measurement cycle, the relationship between the size of the change area and the distance may change significantly in the current measurement cycle due to division, so it is recognized. There is a possibility that it will not be able to track well as the one vehicle that was used.

例えば、車両から人が降りた直後のような場合、人に相当する変化領域と、前回車両と認識した変化領域との間で、大きさが大きく異なることなく距離も比較的近いと、センサが人に相当する変化領域に対して前回認識した車両であると判断してしまう可能性がある。   For example, immediately after a person gets out of the vehicle, the sensor detects that the change area corresponding to the person and the change area recognized as the vehicle last time are not significantly different in size and are relatively close in distance. There is a possibility that it may be determined that the vehicle is the previously recognized vehicle for the change area corresponding to a person.

そこで、本発明は、以上説明した従来の技術における課題に鑑みてなされたものであり、特定の対象と判定された変化領域が検知されている警戒領域において、その特定の対象の一部に遮蔽や鏡面反射等が生じて複数の変化領域が出現したような場合であっても、特定の対象を同一物体として精度良くトラッキングしていくことを目的としている。   Therefore, the present invention has been made in view of the problems in the above-described conventional technique, and in a warning area in which a change area determined to be a specific target is detected, is shielded to a part of the specific target. It is intended to accurately track a specific target as the same object even when a plurality of change regions appear due to reflection or specular reflection.

請求項1に記載された物体検出センサは、
警戒領域の一端から他端までを測定周期おきに走査して、前記警戒領域における各方向の測定点までの距離を示す測距データを生成する検知部と、
前記測距データに基づいて、近接する測定点をセグメントとしてグループ化するグループ化手段と、
前記セグメントが特定のトラッキング対象であるか否かを判定する対象判定部と、
現在の測距データから得られたセグメントのうち、前回の測距データから得られた前記特定のトラッキング対象から所定距離以内に存在する大きさが最大のセグメントを、当該特定のトラッキング対象と同一物体であると判定する同一物体判定部と、
を備えることを特徴としている。
The object detection sensor according to claim 1,
A scanning unit that scans from one end to the other end of the warning area at every measurement cycle, and a detection unit that generates distance measurement data indicating the distance to the measurement point in each direction in the warning area,
Grouping means for grouping adjacent measurement points as a segment based on the distance measurement data,
A target determination unit that determines whether the segment is a specific tracking target,
Among the segments obtained from the current distance measurement data, the segment with the largest size existing within the predetermined distance from the specific tracking target obtained from the previous distance measurement data is the same object as the specific tracking target. The same object determination unit that determines that
It is characterized by having.

請求項2に記載された物体検出センサは、請求項1に記載の物体検出センサにおいて、 現在の測距データから得られたセグメントのうち、前回の測距データから得られた前記特定のトラッキング対象から所定距離以内に存在する大きさが最大のセグメント以外のセグメントを、トラッキング非判定対象と判定する。   The object detection sensor according to claim 2 is the object detection sensor according to claim 1, wherein among the segments obtained from the current ranging data, the specific tracking target obtained from the previous ranging data. A segment other than the largest segment existing within a predetermined distance from is determined as the tracking non-determination target.

請求項3に記載された物体検出センサは、請求項1または2に記載の物体検出センサにおいて、
前記特定のトラッキング対象は車両である。
The object detection sensor described in claim 3 is the object detection sensor according to claim 1 or 2, wherein
The specific tracking target is a vehicle.

請求項1に記載された物体検出センサによれば、現在得られている複数のセグメントのうち、前回得られた特定のトラッキング対象から所定距離の範囲内に存在し、かつ大きさが最大のセグメントを、当該特定のトラッキング対象と同一物体であると判定するため、トラッキング対象の物体の一部に遮蔽や鏡面反射等が生じたために複数のセグメントが出現したような場合であっても、その中の確からしい一つのセグメントを特定の対象と同一物体と判断して精度良くトラッキングしていくことが可能になる。   According to the object detection sensor described in claim 1, among the plurality of currently obtained segments, a segment that exists within a predetermined distance from the previously obtained specific tracking target and has the largest size Is determined to be the same object as the specific tracking target, even if multiple segments appear due to occlusion or specular reflection on part of the tracking target, It is possible to judge one segment with certainty that it is the same object as a specific target and track it accurately.

請求項2に記載された物体検出センサによれば、前回得られた特定のトラッキング対象から所定距離の範囲内に存在するセグメントのうち、特定のトラッキング対象と同一物体であると請求項1の発明で判定されたセグメント以外はトラッキングを行わないため、特定の対象と同一物体としてトラッキングすべきセグメント以外を、物体検出センサによる新たなトラッキングの対象とする情報処理上の無駄及びこれに起因する情報利用上の不都合が防止される。   According to the object detection sensor described in claim 2, among the segments present within a predetermined distance from the previously obtained specific tracking target, the object is the same object as the specific tracking target. Tracking is only performed for segments other than those that have been determined in step 1. Therefore, segments other than those that should be tracked as the same object as a specific target are subject to new tracking by the object detection sensor and information use resulting from this waste. The above inconvenience is prevented.

請求項3に記載された物体検出センサによれば、車両を特定のトラッキング対象として精度良くトラッキングしていくことができる。   According to the object detection sensor of the third aspect, the vehicle can be accurately tracked as a specific tracking target.

本発明の実施形態における監視システムの概要を示すイメージ図である。It is an image figure showing an outline of a surveillance system in an embodiment of the present invention. 本発明の実施形態における監視システムにおける物体検出センサのブロック構成図である。It is a block block diagram of the object detection sensor in the monitoring system in the embodiment of the present invention. 分図(a)は本発明の実施形態の監視システムにおいて、物体検出センサが停止車両を検知する場合の作用を示す模式図であり、分図(b)は停止車両から人物が降車してくる状況を物体検出センサが検知する場合の作用を示す模式図である。Part (a) of the drawing is a schematic diagram showing the action when the object detection sensor detects a stopped vehicle in the monitoring system of the embodiment of the present invention, and part (b) of the figure shows that a person gets out of the stopped vehicle. It is a schematic diagram which shows an effect | action when an object detection sensor detects a condition. 図3からの連続図であり、分図(c)は本発明の実施形態の監視システムにおいて、停止車両から降車した人物が検知部に接近してくる状況を物体検出センサが検知する場合の作用を示す模式図であり、分図(d)は停止車両から降車した人物が検知部を横切る方向に移動する状況を物体検出センサが検知する場合の作用を示す模式図である。FIG. 4 is a continuation diagram from FIG. 3, and FIG. 6C is an operation when the object detection sensor detects a situation in which the person getting off from the stopped vehicle approaches the detection unit in the monitoring system according to the embodiment of the present invention. FIG. 6D is a schematic diagram showing the operation when the object detection sensor detects a situation in which a person who gets off the stationary vehicle moves in a direction crossing the detection unit. 本発明の実施形態の監視システムにおける物体検出センサの監視制御処理を示すフローチャートである。It is a flow chart which shows supervisory control processing of an object detection sensor in a surveillance system of an embodiment of the present invention. 本発明の実施形態の監視システムにおける物体検出センサのトラッキング処理を示すフローチャートである。It is a flow chart which shows tracking processing of an object detection sensor in a surveillance system of an embodiment of the present invention. 本発明の実施形態の監視システムにおける物体検出センサの車両トラッキング処理を示すフローチャートである。It is a flow chart which shows vehicle tracking processing of an object detection sensor in a surveillance system of an embodiment of the present invention.

以下、本発明の実施形態について、図面を参照して具体的に説明する。
本実施形態では、監視区域内で侵入物体等(例えば不審車両や不審者等)の異常を検知し、異常を検知した位置へ飛行ロボットを飛行させて、監視区域の目的箇所の撮影等を行う監視システムに本発明に係る物体検出センサを用いた例として説明する。
Hereinafter, embodiments of the present invention will be specifically described with reference to the drawings.
In this embodiment, an abnormality of an intruding object or the like (for example, a suspicious vehicle or a suspicious person) is detected in the surveillance area, the flying robot is caused to fly to a position where the abnormality is detected, and an image of a target portion of the surveillance area is taken. An example in which the object detection sensor according to the present invention is used in the monitoring system will be described.

<全体の構成>
図1に示すように、本実施形態の監視システム1は、物体検出センサ2、ロボポート3、飛行ロボット4、飛行制御装置5、監視センタ6によって構築される。監視システム1では、図1に示すように、監視区域E内で発生した異常(例えば監視区域E内へ侵入してきた不審な車両Mなど)を物体検出センサ2が検知すると、異常を検知したことが物体検出センサ2から飛行制御装置5に通報される。飛行制御装置5は、物体検出センサ2から異常検知の通報があると、ロボポート3を介して飛行ロボット4に飛行指示を与える。飛行ロボット4は、飛行制御装置5からの飛行指示に従って監視区域Eへ向かって飛行し、監視区域Eの異常発生箇所の周辺に設定された目的箇所(例えば不審な車両M等の目標物を含む周辺領域)を撮影する。監視センタ6は、飛行ロボット4から飛行制御装置5を介して送信される撮影画像をモニタに表示し、監視区域Eの監視を行う。以下、監視システム1を構築する各部の構成について説明する。
<Overall structure>
As shown in FIG. 1, the surveillance system 1 of the present embodiment is constructed by an object detection sensor 2, a robot port 3, a flying robot 4, a flight control device 5, and a surveillance center 6. In the monitoring system 1, as shown in FIG. 1, when the object detection sensor 2 detects an abnormality that has occurred in the monitoring area E (for example, a suspicious vehicle M that has entered the monitoring area E), the abnormality is detected. Is notified from the object detection sensor 2 to the flight control device 5. The flight control device 5 gives a flight instruction to the flying robot 4 via the roboport 3 when the object detection sensor 2 notifies the abnormality detection. The flying robot 4 flies toward the monitoring area E in accordance with a flight instruction from the flight control device 5 and includes a target point (for example, a suspicious vehicle M or other target object) set around the abnormal point in the monitoring area E. Take a picture of the surrounding area). The monitoring center 6 displays a captured image transmitted from the flying robot 4 via the flight control device 5 on a monitor to monitor the monitoring area E. Hereinafter, the configuration of each unit that constructs the monitoring system 1 will be described.

物体検出センサ2は、詳細は後述するが、予め設定された警戒領域S内にレーザ光などの探査信号を照射しながら所定の測定周期で空間走査を行い、光路上にある物体にて反射した反射光を受光することで、領域内に存在する被測定物としての物体の位置を検出する装置である。物体検出センサ2は、警戒領域S内に出現する物体を監視し、この物体が検出対象であると判定すると自己のアドレス情報を含む検出信号を飛行制御装置5に出力する。   The object detection sensor 2, which will be described in detail later, performs spatial scanning at a predetermined measurement period while irradiating a preset warning area S with a search signal such as a laser beam, and reflects the object on the optical path. It is a device that detects the position of an object as an object to be measured existing in the area by receiving the reflected light. The object detection sensor 2 monitors an object appearing in the warning area S and outputs a detection signal including its own address information to the flight control device 5 when it determines that the object is a detection target.

ロボポート3は、飛行ロボット4の待機場所であり、飛行制御装置5からの指示を受け、飛行ロボット4の離陸や着陸を行うための設備を備える。また、ロボポート3は、飛行ロボット4が着陸するときに飛行ロボット4をポート内に収容する機構を備え、飛行ロボット4をポート内に収容したときに、飛行ロボット4に対して接触又は非接触にて給電を行う機能を有する。   The Roboport 3 is a standby place for the flying robot 4, and is provided with equipment for taking off and landing the flying robot 4 in response to an instruction from the flight control device 5. In addition, the robot port 3 includes a mechanism for accommodating the flight robot 4 in the port when the flight robot 4 lands, and makes contact or non-contact with the flight robot 4 when the flight robot 4 is accommodated in the port. It has the function of supplying power.

飛行ロボット4は、飛行制御装置5から飛行指示を受けていない通常の状態ではロボポート3に待機しており、物体検出センサ2が異常を検知して飛行制御装置5に通報すると、飛行制御装置5からの指示により、予め記憶した監視区域E内の3次元の地理情報に基づいて障害物を回避しながら目標位置(目的地)に向かって自律的に飛行する。   The flight robot 4 is on standby in the robot port 3 in a normal state where it has not received a flight instruction from the flight control device 5, and when the object detection sensor 2 detects an abnormality and notifies the flight control device 5, the flight control device 5 In accordance with the instruction from, the robot autonomously flies toward the target position (destination) while avoiding obstacles based on the three-dimensional geographical information in the monitoring area E stored in advance.

飛行制御装置5は、利用者が操作する操作部を備え、この操作部にて利用者が監視区域Eの監視を開始又は解除するための操作を行うと、この操作に応じて監視区域Eの監視建物内外の監視状態を開始又は解除に設定する。この設定があるとそれぞれ警備開始信号又は警備解除信号を物体検出センサ2に送信する。また、飛行制御装置5は、監視状態が開始された状態において物体検出センサ2の検出信号などに基づき監視区域Eの異常を確定し、監視センタ6に異常信号を出力するとともに飛行ロボット4に飛行指示を与える信号を送信する。   The flight control device 5 includes an operation unit operated by a user, and when the user performs an operation for starting or canceling the monitoring of the monitoring area E with this operation unit, the operation area of the monitoring area E is changed according to this operation. Set the monitoring status inside or outside the monitoring building to start or cancel. With this setting, a security start signal or a security release signal is transmitted to the object detection sensor 2, respectively. Further, the flight control device 5 determines the abnormality of the monitoring area E based on the detection signal of the object detection sensor 2 in the state where the monitoring state is started, outputs the abnormality signal to the monitoring center 6 and flies to the flying robot 4. Send a signal that gives instructions.

監視センタ6は、警備会社などが運営するセンタ装置を備えた施設である。センタ装置は、通常、1又は複数のコンピュータで構成されている。監視センタ6では、センタ装置により各種機器を制御し、飛行制御装置5から受信した異常信号を記録するとともに、異常の情報をディスプレイに表示し、監視員が監視対象となる複数の監視区域Eを監視している。   The monitoring center 6 is a facility equipped with a center device operated by a security company or the like. The center device is usually composed of one or more computers. In the monitoring center 6, various devices are controlled by the center device, the abnormal signal received from the flight control device 5 is recorded, and the abnormal information is displayed on the display so that the monitoring personnel can monitor a plurality of monitoring areas E to be monitored. I'm watching.

<物体検出センサ2の構成等>
次に、図2に示す機能ブロック図を参照して物体検出センサ2の構成等を説明する。
物体検出センサ2は、警戒領域Sにおける検出対象にレーザ光が照射されるように、監視建物の屋外壁面に水平または一定の俯角を設定されて設置される。本実施形態における物体検出センサ2は、人物及び車両Mを検出対象としていることから、壁面における設置高さは警戒領域Sに侵入した人物及び車両Mにレーザ光を照射できる高さに設置される。また、物体検出センサ2は、飛行制御装置5から電源供給を受けて作動する。
<Structure of Object Detection Sensor 2>
Next, the configuration and the like of the object detection sensor 2 will be described with reference to the functional block diagram shown in FIG.
The object detection sensor 2 is installed on the outdoor wall surface of the surveillance building with a horizontal or constant depression angle so that the detection target in the caution area S is irradiated with laser light. Since the object detection sensor 2 in the present embodiment targets the person and the vehicle M, the installation height on the wall surface is set to a height at which the person and the vehicle M that have entered the warning area S can be irradiated with laser light. .. Further, the object detection sensor 2 operates by receiving power supply from the flight control device 5.

物体検出センサ2は、飛行制御装置5と接続されて通信を行う通信部21と、レーザ光を照射及び受光する検知部22と、HDDやメモリなどで構成され各種設定情報やプログラムなどを記憶する記憶部23と、MPUやマイコンなどで構成され各部の制御を行う制御部24とを有している。   The object detection sensor 2 is composed of a communication unit 21 that is connected to the flight control device 5 for communication, a detection unit 22 that emits and receives laser light, an HDD, a memory, and the like, and stores various setting information and programs. It has a storage unit 23 and a control unit 24 that is configured by an MPU, a microcomputer, or the like and controls each unit.

通信部21は、飛行制御装置5と接続され、飛行制御装置5から出力される警備開始信号および警備解除信号を受信して制御部24に当該信号を出力する。また、通信部21は、制御部24にて警戒領域Sにおける検出対象の存在が判定されると、自己のアドレス情報を含む検出信号を飛行制御装置5に送信する。   The communication unit 21 is connected to the flight control device 5, receives the security start signal and the security release signal output from the flight control device 5, and outputs the signals to the control unit 24. Further, when the control unit 24 determines that the detection target exists in the warning area S, the communication unit 21 transmits a detection signal including its own address information to the flight control device 5.

検知部22は、レーザ光により警戒領域Sを走査して、レーザ光を反射した被測定物である物体上の測定点の位置を検出する。検知部22は、例えば波長890nm程度の近赤外線を発射するレーザ発振部221と、レーザ光を反射して物体検出センサ2より照射させる走査鏡222と、走査鏡222を等速に回転駆動させる走査制御部223と、受光素子を備えてレーザ発振部221の近傍に設けられる反射光検出部224と、レーザ光の照射結果として測距データを生成する測距データ生成部225とを備えている。   The detection unit 22 scans the warning area S with the laser light and detects the position of the measurement point on the object that is the object to be measured that reflects the laser light. The detection unit 22 includes, for example, a laser oscillation unit 221 that emits near-infrared rays having a wavelength of about 890 nm, a scanning mirror 222 that reflects laser light and irradiates it from the object detection sensor 2, and a scan that rotationally drives the scanning mirror 222 at a constant speed. A control unit 223, a reflected light detection unit 224 that includes a light receiving element and is provided in the vicinity of the laser oscillation unit 221, and a distance measurement data generation unit 225 that generates distance measurement data as the irradiation result of the laser light are provided.

レーザ発振部221より発射されるレーザ光は、走査鏡222と走査制御部223とにより照射方向を制御されて、少なくとも警戒領域Sの全体を走査する。この走査は、物体検出センサ2の設置角に応じて水平な平面について行うか、あるいは、俯角を以て遠距離となるほど地面に近づくような平面について行うことができる。走査は、所定の測定周期(例えば60msec)で行われ、例えば、同方向について繰り返し行ってもよく、また、往方向の走査を行った後に復方向の走査を行ってもよい。   The irradiation direction of the laser light emitted from the laser oscillation unit 221 is controlled by the scanning mirror 222 and the scanning control unit 223, and at least the entire warning area S is scanned. This scanning can be performed on a horizontal plane depending on the installation angle of the object detection sensor 2 or on a plane that is closer to the ground as the distance increases with the depression angle. The scanning is performed in a predetermined measurement cycle (for example, 60 msec), and for example, the scanning may be repeated in the same direction, or the backward scanning may be performed after the forward scanning.

測距データ生成部225は、レーザ光の照射から反射光の検出までに要する時間から算出される物体検出センサ2とレーザ光を反射した被測定物(測定点)との距離と、走査制御部223により回転駆動される走査鏡222の角度(警戒領域Sにおける方向)とにより、レーザ光を反射した物体、即ちレーザ光を反射した測定点の相対位置を算出する。相対位置は、物体検出センサ2を基準とした測定点の位置であり、具体的には物体においてレーザ光を反射した面の位置である。また、測距データ生成部225は、所定時間内に反射光が返ってこない場合には、レーザ光の照射可能な距離内に物体がないと判断して、所定の擬似データを相対位置として記録する。擬似データは所定の値でよく、例えば物体検出センサ2が監視すべき警戒領域Sの外周となる距離値や、レーザ光による有効測定距離以上の適当な値でよい。   The distance measurement data generation unit 225 includes a distance between the object detection sensor 2 calculated from the time required from the irradiation of the laser light to the detection of the reflected light and the measured object (measurement point) that reflects the laser light, and the scanning control unit. The relative position of the object that reflects the laser light, that is, the measurement point that reflects the laser light is calculated based on the angle of the scanning mirror 222 that is rotationally driven by 223 (direction in the warning area S). The relative position is a position of a measurement point with the object detection sensor 2 as a reference, specifically, a position of a surface of the object that reflects the laser light. When the reflected light does not return within the predetermined time, the distance measurement data generation unit 225 determines that there is no object within the irradiation range of the laser light and records the predetermined pseudo data as the relative position. To do. The pseudo data may be a predetermined value, for example, a distance value that is the outer circumference of the caution area S to be monitored by the object detection sensor 2 or an appropriate value that is equal to or longer than the effective measurement distance by the laser light.

測距データ生成部225により得られる測定データを本実施形態では測距データと呼ぶ。測距データは、具体的には検知部22による1回の走査で警戒領域Sを所定の角度間隔(例えば0.25°)で測定した結果である。例えば、180°の範囲について0.25°間隔で測距データを取得すると721個の距離値が得られる。これら721個の距離値のセットが一つの測距データになる。測距データは、角度(方向)と距離とを対応付けた複数の測定点データの集まりの情報(テーブル)として記憶される。
測距データ生成部225は、所定の周期間隔(例えば60msec)にて検知部22の1回の走査が終了する毎に測距データを生成して制御部24に出力する。
The measurement data obtained by the distance measurement data generation unit 225 is referred to as distance measurement data in this embodiment. Specifically, the distance measurement data is a result of measuring the warning area S at a predetermined angular interval (for example, 0.25 °) by one scan by the detection unit 22. For example, if distance measurement data is acquired at 0.25 ° intervals for a range of 180 °, 721 distance values are obtained. A set of these 721 distance values becomes one distance measurement data. The distance measurement data is stored as information (table) of a set of a plurality of measurement point data in which an angle (direction) and a distance are associated with each other.
The distance measurement data generation unit 225 generates distance measurement data and outputs it to the control unit 24 each time one scan of the detection unit 22 is completed at a predetermined cycle interval (for example, 60 msec).

記憶部23は、ROMやRAM、又はHDDにて構成され物体検出センサ2自身を特定するためのアドレス情報と各種プログラムなどを記憶しており、更に物体検出センサ2を動作させるための各種情報を記憶する。具体的に、記憶部23は、設定された警戒領域Sを示す警戒領域情報と、制御部24にて生成された基準データと、検知部22にて検出された物体のトラッキング情報とを記憶している。また、記憶部23には、検知部22から出力された過去所定周期分の測距データが記憶されている。   The storage unit 23 is composed of a ROM, a RAM, or an HDD and stores address information for specifying the object detection sensor 2 itself and various programs, and further stores various information for operating the object detection sensor 2. Remember. Specifically, the storage unit 23 stores the warning area information indicating the set warning area S, the reference data generated by the control unit 24, and the tracking information of the object detected by the detection unit 22. ing. Further, the storage unit 23 stores the distance measurement data for the past predetermined period output from the detection unit 22.

警戒領域情報は、例えば物体検出センサ2にて監視すべき範囲として警備会社などによる監視区域Eの警備プランニングに応じ設定される警戒領域Sを示す情報である。
この警戒領域情報は、物体検出センサ2の設置時や監視区域Eの警備プランニング変更時などに、設定端末や図示しない操作部などから検知部22による走査面上の範囲を指定されて入力される。そして、入力された警戒領域Sの範囲は、検知部22で走査を行う所定の角度間隔(例えば0.25°)ごとに、検知部22からの角度(方向)と距離値が対応付けられて角度(方向)と距離のテーブルとして記憶部23に記憶される。本実施形態では、図1に模式的に示すように、物体検出センサ2を中心とした略扇形状に警戒領域Sが設定されている。
なお、警戒領域情報は、これに限らず警戒領域Sの範囲を示す情報と物体検出センサ2との位置関係が識別可能に記憶されていればよく、例えば、物体検出センサ2を原点として相対的な位置関係を示す二次元座標にて設定され記憶していてもよい。
The security area information is information indicating a security area S set according to security planning of the monitoring area E by a security company or the like as a range to be monitored by the object detection sensor 2, for example.
This warning area information is input by specifying the range on the scanning surface by the detection unit 22 from the setting terminal or an operation unit (not shown) when the object detection sensor 2 is installed or when the security planning of the monitoring area E is changed. .. Then, the range of the input warning area S is associated with the angle (direction) from the detection unit 22 and the distance value at every predetermined angular interval (for example, 0.25 °) at which the detection unit 22 scans. It is stored in the storage unit 23 as a table of angles (directions) and distances. In the present embodiment, as schematically shown in FIG. 1, the warning area S is set in a substantially fan shape centered on the object detection sensor 2.
Note that the warning area information is not limited to this and may be any information as long as the positional relationship between the information indicating the range of the warning area S and the object detection sensor 2 is identifiable. It may be set and stored in two-dimensional coordinates that indicate various positional relationships.

基準データは、後述するトラッキング処理において、現在の測距データと比較して警戒領域Sに新規に出現した物体を抽出するために用いられる比較基準情報であり、検知部22による走査開始後から現在までの何れかの過去時点で取得された測距データにより生成される。基準データは、角度(方向)と距離のテーブルとして記憶されてよい。また、基準データは、何れの過去時点で生成されてもよく、また随時に取得される測距データを用いて更新されてもよい。本実施形態では、検知部22による走査が開始された後初回の走査で取得される測距データから基準データが生成され記憶される例について説明する。   The reference data is comparison reference information used for extracting an object newly appearing in the warning area S in comparison with the current distance measurement data in a tracking process described later, and is present after the start of scanning by the detection unit 22. Is generated by the distance measurement data acquired at any of the past time points. The reference data may be stored as a table of angles (directions) and distances. Further, the reference data may be generated at any past time point and may be updated by using the ranging data acquired at any time. In the present embodiment, an example will be described in which reference data is generated and stored from distance measurement data acquired in the first scanning after the scanning by the detection unit 22 is started.

トラッキング情報は、後述するトラッキング処理において、警戒領域Sに新規に出現した物体を複数周期に渡り追跡するために用いられる情報である。トラッキング情報には、現在周期における物体の位置と大きさ及び検出対象と判定された場合には当該検出対象の識別情報(「車両」又は「人物」)と、当該物体が警戒領域Sに初めて出現した位置と大きさ、現在までの各周期における位置と大きさが対応づけられて記憶されている。また、トラッキング情報は、警戒領域Sに複数の物体が存在する場合に備えて、新規に検出した物体ごとにIDを付して管理される。   The tracking information is information used for tracking an object newly appearing in the warning area S over a plurality of cycles in a tracking process described later. The tracking information includes the position and size of the object in the current cycle, and the identification information (“vehicle” or “person”) of the detection target when the object is determined to be the detection target, and the object first appears in the warning area S. The stored position and size, and the position and size in each cycle up to the present are stored in association with each other. Further, the tracking information is managed by attaching an ID to each newly detected object in preparation for the case where a plurality of objects exist in the warning area S.

制御部24は、CPU、ROM、RAM等からなるマイクロコンピュータ及びその周辺回路で構成され、上述した各部を制御する。そのために、制御部24は、このマイクロコンピュータ及びマイクロコンピュータ上で実行されるコンピュータプログラムによって実現される機能モジュールとして、検知部22の駆動を制御する駆動制御部241と、検知部22より取得された測距データから基準データを生成する基準データ生成部242と、特定の検出対象を精度良くトラッキングしていく機能を備えた監視制御部243と、を備えている。   The control unit 24 is composed of a microcomputer including a CPU, a ROM, a RAM and the like and its peripheral circuits, and controls each unit described above. Therefore, the control unit 24 is obtained from the drive control unit 241 that controls the drive of the detection unit 22 and the detection unit 22 as a functional module realized by the microcomputer and a computer program executed on the microcomputer. A reference data generation unit 242 that generates reference data from the distance measurement data, and a monitoring control unit 243 having a function of accurately tracking a specific detection target are provided.

駆動制御部241は、通信部21を介して飛行制御装置5から警備開始信号が入力されると検知部22に駆動信号を出力し、検知部22の駆動を開始させて、走査制御部223による走査鏡222の駆動およびレーザ発振部221によるレーザ光の照射などを開始させる。また、駆動制御部241は、飛行制御装置5から警備解除信号が入力されると検知部22に駆動停止信号を出力し、その時点の走査終了を以て検知部22の駆動を停止させて、走査鏡222の駆動およびレーザ光の照射などを停止させる。
このように、飛行制御装置5の警備開始信号にあわせて検知部22を駆動させることで連続稼働による駆動部品の破損を防止することが可能となる。
The drive control unit 241 outputs a drive signal to the detection unit 22 when a guard start signal is input from the flight control device 5 via the communication unit 21, causes the detection unit 22 to start driving, and causes the scan control unit 223 to operate. The driving of the scanning mirror 222 and the irradiation of laser light by the laser oscillator 221 are started. In addition, the drive control unit 241 outputs a drive stop signal to the detection unit 22 when the security release signal is input from the flight control device 5, and stops the drive of the detection unit 22 at the end of the scanning at that time, and the scanning mirror. The driving of 222 and the irradiation of laser light are stopped.
In this way, by driving the detection unit 22 in accordance with the security start signal of the flight control device 5, it is possible to prevent damage to the drive components due to continuous operation.

基準データ生成部242は、検知部22より取得される測距データを用いて基準データを生成する。上述したように、本実施形態では、検知部22による走査が開始された後初回の走査で取得される測距データから基準データが生成され記憶される例について説明する。即ち、基準データ生成部242は、駆動制御部241より駆動信号が出力され検知部22の走査が開始されると、この初回の走査で出力された測距データを基準データとして記憶部23に記憶する。測距データにおける測定点の位置として或る角度に対応する距離値が警戒領域S内でない場合、当該角度に対応する警戒領域Sの外周までの距離を基準データとして記憶する。この基準データには、当該走査による測定点までの距離が記憶されるため、この走査時点で警戒領域Sに存在する植栽や外壁などの既設物が基準データとして取り込まれることになる。
なお、これに限らず、基準データ生成部242は、検知部22による走査が開始された後、所定回数(例えば5分間の間に行われる走査)の測距データにおいて走査角度ごとに距離値の頻度を求め、最も頻度が高い距離値を当該走査角度の基準値として採用し、基準データを生成してもよい。
The reference data generation unit 242 generates reference data using the distance measurement data acquired by the detection unit 22. As described above, in the present embodiment, an example will be described in which the reference data is generated and stored from the distance measurement data acquired in the first scanning after the scanning by the detection unit 22 is started. That is, when the drive signal is output from the drive control unit 241 and the scanning of the detection unit 22 is started, the reference data generation unit 242 stores the distance measurement data output in this first scan in the storage unit 23 as reference data. To do. When the distance value corresponding to a certain angle as the position of the measurement point in the distance measurement data is not within the warning area S, the distance to the outer periphery of the warning area S corresponding to the angle is stored as reference data. Since the distance to the measurement point by the scanning is stored in this reference data, existing objects such as plants and outer walls existing in the caution area S at the time of this scanning are taken in as reference data.
Note that the reference data generation unit 242 is not limited to this, and after the scanning by the detection unit 22 is started, the reference data generation unit 242 determines the distance value for each scanning angle in the distance measurement data a predetermined number of times (for example, scanning performed for 5 minutes). The frequency may be obtained, and the distance value having the highest frequency may be adopted as the reference value of the scanning angle to generate the reference data.

監視制御部243は、現在の測距データと基準データとを比較して警戒領域Sに出現した物体を変化領域であるセグメントとして検出し、この物体の特徴量を算出する。そして、この特徴量に基づき、物体が検出対象であるか否かを判定する。本実施形態では、検出対象である車両M及び人物のうち、車両Mを特定の対象(特定のトラッキング対象)としてトラッキングすることを主たる目的の一つとして想定しており、特に車両Mについて人物の乗降があった場合等にも当該車両Mを精度良くトラッキングできるような制御手法に特徴がある。このため、車両Mと判定されなかったセグメントは人物として取り扱うものとするが、もちろん検出対象を判定するにあたってはそのような判定方法に限定するものではなく、人物を判定するにあたって異なる判定方法を用いても良い。また、車両と人物以外の検出対象として猫等の小動物・霧等の気象現象などその他を判定できるようにしても良い。   The monitoring controller 243 compares the current distance measurement data with the reference data, detects the object appearing in the warning area S as a segment that is a change area, and calculates the feature amount of this object. Then, based on this feature amount, it is determined whether or not the object is the detection target. In the present embodiment, among the vehicles M and persons to be detected, it is assumed that one of the main purposes is to track the vehicle M as a specific target (specific tracking target). The control method is characterized in that the vehicle M can be accurately tracked even when getting on and off. Therefore, the segment that is not determined as the vehicle M is treated as a person, but of course the determination method is not limited to such a determination method, and a different determination method is used when determining the person. May be. Further, small objects such as cats, meteorological phenomena such as fog, and the like may be determined as detection targets other than vehicles and people.

なお、この監視制御部243は、図2においては、便宜上、単一の機能ブロックで示されているが、以下に説明するように、本発明の課題を解決するための手段となる種々の小機能ブロックから構成されていると考えることができ、以下の説明においては、監視制御部243が有する種々の機能に対応する小機能ブロックのうち、少なくとも一部の名称をかっこ書きで示す。なお、この小機能ブロックの名称は、「課題を解決するための手段」における構成要件の名称に対応しているが、これは監視制御部243が有する機能の一部にすぎないことは言うまでもない。   Note that the monitoring control unit 243 is shown as a single functional block in FIG. 2 for the sake of convenience, but as will be described below, various small units serving as means for solving the problems of the present invention are provided. It can be considered that the functional blocks are composed of functional blocks, and in the following description, at least a part of the small functional blocks corresponding to various functions of the monitor control unit 243 are shown in parentheses. The name of the small functional block corresponds to the name of the constituent element in “means for solving the problem”, but it goes without saying that this is only a part of the function of the monitoring control unit 243. .

監視制御部243は、測距データから得られる走査角度ごとの距離値と、基準データに記憶された角度ごとの距離値との差分を対応する角度ごとに算出して、基準データよりも所定以上近距離となった測定点、つまり距離値が変化した測定点を変化点として検出する。そして、監視制御部243は、変化点のうち、同一の被測定物により距離値が変化したと考えられる近接する測定点をセグメントとしてグループ化する(グループ化手段)。   The monitoring control unit 243 calculates the difference between the distance value for each scanning angle obtained from the distance measurement data and the distance value for each angle stored in the reference data, for each corresponding angle, and is greater than the reference data by a predetermined value or more. A measurement point that is a short distance, that is, a measurement point whose distance value has changed is detected as a change point. Then, the monitoring control unit 243 groups the adjacent measurement points, which are considered to have changed the distance value due to the same object to be measured, among the change points as a segment (grouping means).

監視制御部243は、前回の測定周期で取得したセグメントについてトラッキング情報を参照し、検出対象である車両Mと判定されているか否かを確認し、車両Mであると判定されている場合には、検出した車両Mについて人物の乗降があった場合等にも当該車両Mを精度良くトラッキングできる車両トラッキングを行う。この車両トラッキングについては、後に、模式図である図3及び図4を参照して原理を説明し、さらに図5〜図7のフローチャートを参照して動作を説明する。車両Mではないと判定されている場合には人物をトラッキングするための通常トラッキングを行うものとする。   The monitoring control unit 243 refers to the tracking information regarding the segment acquired in the previous measurement cycle, confirms whether or not it is determined as the vehicle M that is the detection target, and when it is determined that the vehicle is the vehicle M, The vehicle tracking is performed so that the vehicle M can be accurately tracked even when a person gets on or off the detected vehicle M. The principle of this vehicle tracking will be described later with reference to the schematic diagrams of FIGS. 3 and 4, and further with reference to the flowcharts of FIGS. 5 to 7. If it is determined that the vehicle is not the vehicle M, normal tracking for tracking a person is performed.

監視制御部243は、通常トラッキングにおいて、前回の測定周期で車両Mでないと判定されているセグメントについて、トラッキング情報を参照し、今回周期の検出結果(今回周期でグループ化したセグメント)との対応付けを行う。具体的には、両周期で検出された物体間の距離と大きさなどにより行われる。即ち、両周期で検出された物体間の距離が閾値以内で大きさの変動が閾値以内である場合に、セグメントの対応付けが行われる。
また、監視制御部243は、車両トラッキング及び通常トラッキングにおいて、前回と今回の測定周期でのセグメントの対応付けが行われた場合、トラッキング情報に、その対応付けがなされた前回の測定周期のセグメントのIDについて、現在周期で検出されたセグメントの位置と大きさが、現在までの各周期における位置と大きさと対応付けて記憶される。
In the normal tracking, the monitoring control unit 243 refers to the tracking information for the segment determined to be not the vehicle M in the previous measurement cycle, and associates it with the detection result of this cycle (segments grouped in this cycle). I do. Specifically, it is performed based on the distance and size between the objects detected in both cycles. That is, when the distance between the objects detected in both cycles is within the threshold value and the variation in the size is within the threshold value, the segment association is performed.
In addition, in the vehicle tracking and the normal tracking, the monitoring control unit 243, when the segment in the previous measurement cycle and the segment in the current measurement cycle are associated with each other, the tracking information includes the segment of the previous measurement cycle in which the association is performed. For the ID, the position and size of the segment detected in the current cycle are stored in association with the position and size in each cycle up to the present.

なお、検出対象が車両Mであるか否かの判定は、例えば次のように行うことができる。すなわち、警戒領域Sにおいて検出したセグメントを構成する測定点のうち、線分として近似できる測定点から線分データを検出する。そして、1つの線分データごとに、車体の平面を示す車両M形状らしさを評価する特徴量として、第1の車形状度を算出する。また、角度がある2つの線分データの組合せごとに、車両Mの角を示す車両M形状らしさを評価する特徴量として、第2の車形状度を算出する。そして、これら2つの車形状度(特徴量)から当該セグメントが検出対象である車両Mであるか否かを判定する(対象判定部)。
監視制御部243は、車両Mと判定したセグメントについて、そのセグメントのIDに対応付けて車両の識別情報を付加する。なお、車両Mでないと判定したセグメントについてはそのセグメントのIDに対応付けて人物の識別情報を付加する。
The determination as to whether or not the detection target is the vehicle M can be performed, for example, as follows. That is, the line segment data is detected from the measurement points that can be approximated as a line segment among the measurement points forming the segment detected in the warning area S. Then, for each line segment data, a first vehicle shape factor is calculated as a feature amount for evaluating the likelihood of the vehicle M shape indicating the plane of the vehicle body. Further, for each combination of two line segment data having an angle, a second vehicle shape factor is calculated as a feature amount for evaluating the likelihood of the vehicle M shape indicating the angle of the vehicle M. Then, it is determined from these two vehicle shape degrees (feature amounts) whether or not the segment is the vehicle M that is the detection target (target determination unit).
The monitoring control unit 243 adds the vehicle identification information to the segment determined to be the vehicle M in association with the segment ID. In addition, with respect to the segment determined not to be the vehicle M, the identification information of the person is added in association with the ID of the segment.

<車両トラッキングの原理等について>
次に、図3及び図4の模式図を用いて、前述した車両トラッキングについて更に詳細に説明する。
図3(a)は、本実施形態の監視システム1において、物体検出センサ2が停止車両Mを検知した状況を示しており、同図(b)は、当該停止車両Mから乗車していた人物が降車してきた状況を示している。
<Principles of vehicle tracking>
Next, the vehicle tracking described above will be described in more detail with reference to the schematic diagrams of FIGS. 3 and 4.
FIG. 3A shows a situation in which the object detection sensor 2 detects the stopped vehicle M in the monitoring system 1 of the present embodiment, and FIG. 3B shows a person riding from the stopped vehicle M. Shows the situation where the passenger has been getting off.

本実施形態の車両トラッキングは、今回の周期で検出したセグメントを、前回の周期で検出して車両Mと判定したセグメントに対応付けるトラッキング処理を行う手順として、第1の判定手法で行う候補抽出処理1(同一物体判定部)と、第2の判定手法で行う候補抽出処理2(第1及び第2の走査角度判定部及び遮蔽推定部)とを有しており、候補抽出処理1で抽出した候補と、候補抽出処理2で抽出した候補を比較して今回の車両Mを判定するようになっている(同一物体判定部)。なお、候補抽出処理1と候補抽出処理2は警戒領域Sを走査する測定周期に合わせて連続して繰り返し行っている。以下詳細に説明する。   In the vehicle tracking of the present embodiment, the candidate extraction processing 1 performed by the first determination method is a procedure for performing the tracking processing in which the segment detected in the current cycle is associated with the segment detected in the previous cycle and determined as the vehicle M. (Same object determination unit) and candidate extraction processing 2 (first and second scanning angle determination unit and occlusion estimation unit) performed by the second determination method, and candidates extracted by the candidate extraction processing 1 Then, the candidates extracted in the candidate extraction process 2 are compared to determine the vehicle M this time (the same object determination unit). It should be noted that the candidate extraction processing 1 and the candidate extraction processing 2 are continuously and repeatedly performed according to the measurement cycle of scanning the warning area S. The details will be described below.

図3(a)に示すように、測定周期Tn 以前において警戒領域Sで1本の直線状のセグメントG0が検出され、物体検出センサ2が車両M判定処理を行った結果、当該セグメントは警戒領域Sに進入した車両Mであると判定されたものとする。なお、この車両Mは停止しており、物体検出センサ2によっては検出できないが、人物が乗車しているものとする。 As shown in FIG. 3A, one straight line segment G0 is detected in the caution area S before the measurement cycle T n , and the object detection sensor 2 performs the vehicle M determination process, and as a result, the segment is cautioned. It is assumed that the vehicle M has entered the area S. The vehicle M is stopped and cannot be detected by the object detection sensor 2, but it is assumed that a person is in the vehicle.

図3(b)に示すように、測定周期Tn+1 において、警戒領域Sに停止している前記車両Mから人物が降車したとする。この測定周期において、物体検出センサ2は、警戒領域S内に3つのセグメントを検出する。降車した人物に相当する中央の比較的小さいセグメントG3と、このセグメントG3の両側に現れる、1台の車両Mに相当する長さの異なる2本の直線状のセグメントG1,G2である。物体検出センサ2は、現在の測定周期Tn+1 の測距データから得られたこれら3つのセグメントG1,G2,G3のうち、前回(測定周期Tn )の特定の対象(車両M)である一点鎖線で示すセグメントGXから所定距離D1の一点鎖線で示す範囲A内に存在し、かつ大きさが最大のセグメントを、前回(測定周期Tn )検出されて車両Mと判定されたセグメントと同一物体であると判定する(同一物体判定部による候補抽出処理1)。図3(b)に示す例では、右側の直線状のセグメントG2が、候補抽出処理1による候補となり、これが前回の車両MとされたセグメントGXと関連付けられる。なお、所定距離D1は、車両Mの移動時の速度も考慮して、上述した人物をトラッキングするための通常トラッキングにおける距離の閾値より大きな値として実験的に定められる(例えば1m等)。また、前回の特定の対象であるセグメントを示す一点鎖線は、今回のセグメントを示す実線とずらして図で示しているが、これは図を分かりやすく示すための便宜上のものであって、実際は停止している車両Mであることからほとんど一致しているものである(図4も同じ)。 As shown in FIG. 3B, it is assumed that a person gets off from the vehicle M stopped in the warning area S in the measurement cycle T n + 1 . In this measurement cycle, the object detection sensor 2 detects three segments in the warning area S. A relatively small central segment G3 corresponding to the person getting off and two linear segments G1 and G2 corresponding to one vehicle M and having different lengths, which appear on both sides of this segment G3. The object detection sensor 2 is a specific target (vehicle M) of the previous time (measurement period T n ) among these three segments G1, G2, G3 obtained from the distance measurement data of the current measurement period T n + 1. A segment existing in the range A indicated by the alternate long and short dash line D1 from the certain segment GX indicated by the alternate long and short dash line and having the largest size is the segment previously detected (measurement period T n ) and determined as the vehicle M. It is determined that they are the same object (candidate extraction processing 1 by the same object determination unit). In the example shown in FIG. 3B, the right-side linear segment G2 becomes a candidate in the candidate extraction processing 1, and this is associated with the segment GX that was the vehicle M of the previous time. Note that the predetermined distance D1 is experimentally determined as a value larger than the threshold value of the distance in the above-described normal tracking for tracking a person, in consideration of the speed of the vehicle M when moving. Also, the alternate long and short dash line showing the segment that is the specific target of the previous time is shown in the figure shifted from the solid line showing the current segment, but this is for convenience of showing the figure in an easy-to-understand manner Since the vehicle M is running, they are almost the same (the same applies to FIG. 4).

そして、前回(測定周期Tn )の特定の対象(車両M)であるセグメントGXから所定距離D1の範囲A内に存在していても、大きさが最大のセグメントG2以外のセグメントG1,G3は、トラッキング非判定対象とし、トラッキング情報にその旨を記憶する(同一物体判定部)。このトラッキング非判定対象が記録されたセグメントG1,G3については、今回の測定周期Tn+1 ではセグメントとして認識し、物体が存在するものとして扱うが、次回の測定周期Tn+2 ではトラッキング処理を行わない。 The segments G1 and G3 other than the segment G2 having the largest size are present even if they exist within the range A of the predetermined distance D1 from the segment GX which is the specific target (vehicle M) of the previous time (measurement period T n ). , Tracking non-judgment target is stored in the tracking information (same object judgment unit). The segments G1 and G3 in which the tracking non-judgment target is recorded are recognized as a segment in the current measurement cycle T n + 1 and treated as an object, but the tracking processing is performed in the next measurement cycle T n + 2. Do not do.

このような候補抽出処理1を行う物体検出センサ2によれば、特定の対象の車両Mの一部が乗降者によって遮蔽されたり、車両Mの一部(例えばドアノブ等)に鏡面反射が生じたりしたため、1つのセグメントG0しかなかった警戒領域Sに複数のセグメントG1,G2,G3が出現した場合であっても、その中の一つのセグメントG2を前周期で車両Mと判定されたセグメントG0と同一物体と判定して精度良くトラッキングしていくことが可能になる。また、人物であるセグメントG3を前周期で車両Mと判定されたセグメントG0と同一物体と判定してしまうことを防止できる。   According to the object detection sensor 2 that performs such a candidate extraction process 1, a part of the vehicle M of a specific target is shielded by an occupant, or a part of the vehicle M (for example, a doorknob) is specularly reflected. Therefore, even when a plurality of segments G1, G2, and G3 appear in the warning area S where there is only one segment G0, one of the segments G2 is the segment G0 determined as the vehicle M in the previous cycle. It is possible to determine that they are the same object and track them accurately. Further, it is possible to prevent the segment G3, which is a person, from being determined to be the same object as the segment G0 determined to be the vehicle M in the previous cycle.

また、現周期で得られたセグメントG1,G2,G3の中の一つのみ(セグメントG2)を前周期で車両Mと判定されたセグメントG0と同一物体と判定し、これ以外のセグメントG1,G3はトラッキング非判定対象とするため、セグメントG0が***してできた、トラッキングする必要にない他のセグメントをトラッキング処理の対象とするような情報処理上の無駄及びこれに起因する情報利用上の不都合を防止できる。   Further, only one of the segments G1, G2, G3 obtained in the current cycle (segment G2) is determined to be the same object as the segment G0 determined to be the vehicle M in the previous cycle, and the other segments G1, G3 Is a tracking non-judgment target, the information processing waste and the inconvenience in information use resulting from the tracking processing of other segments that do not need to be tracked and are formed by the segment G0 being divided. Can be prevented.

図4は、警戒領域Sにおける車両Mの検出状態を図3からの一定時間経過した後の連続図として示すものであり、図4(c)は、本実施形態の監視システム1において、図3(b)において停止車両Mから降車した人物が物体検出センサ2に接近してきた状況を示しており、図4(d)は、当該人物が物体検出センサ2を横切る状況を示している。   FIG. 4 shows a detection state of the vehicle M in the warning area S as a continuous diagram after a predetermined time has elapsed from FIG. 3, and FIG. 4C shows the monitoring system 1 of the present embodiment in FIG. In FIG. 4B, a person who gets off the stopped vehicle M approaches the object detection sensor 2, and FIG. 4D shows a situation in which the person crosses the object detection sensor 2.

図4(c)に示すように、測定周期Tn+a において、測定周期Tn+1 (図3(b))で車両Mから降車した人物が物体検出センサ2に接近すると、物体検出センサ2からは人物が大きく見えるようになるため、物体検出センサ2が検出する2本の直線状のセグメントG1,G2の長さは、測定周期Tn+1 で検出された長さから徐々に小さく変化する。また左側の直線状のセグメントG1は、前回(測定周期Tn+a-1 )の特定の対象であるセグメントGXから所定距離D1の範囲A内にはなく、他の車両と判定されるべき候補となっている。このような状態において、物体検出センサ2は前述した候補抽出処理1を行う。現在の測定周期Tn+a の測距データから得られたこれらセグメントG1〜G3のうち、前回(測定周期Tn+a-1 )の車両Mと判定された一点鎖線で示すセグメントGXから所定距離D1の範囲A内に存在し、かつ大きさが最大のセグメントは、右側の直線状のセグメントG2であり、これが前回測定周期Tn+a-1 において車両Mと判定されたセグメントGXと同一物体であると判定され、候補抽出処理1による候補となる (同一物体判定部)。 As shown in FIG. 4C, in the measurement cycle T n + a , when a person who gets off the vehicle M in the measurement cycle T n + 1 (FIG. 3B) approaches the object detection sensor 2, Since the person looks larger from 2, the lengths of the two linear segments G1 and G2 detected by the object detection sensor 2 are gradually smaller than the length detected in the measurement cycle T n + 1. Change. Further, the linear segment G1 on the left side is not within the range A of the predetermined distance D1 from the segment GX which is the specific target of the previous time (measurement period T n + a-1 ) and is a candidate to be determined as another vehicle. Has become. In such a state, the object detection sensor 2 performs the above candidate extraction process 1. Of these segments G1 to G3 obtained from the distance measurement data of the current measurement cycle T n + a , a predetermined segment is selected from the segment GX indicated by the one-dot chain line that was determined to be the vehicle M of the previous time (measurement cycle T n + a-1 ). The segment having the largest size and existing within the range A of the distance D1 is the right-side linear segment G2, which is the same as the segment GX determined as the vehicle M in the previous measurement cycle T n + a-1 . It is determined to be an object and becomes a candidate by the candidate extraction processing 1 (same object determination unit).

図4(c)に示す状況において、物体検出センサ2は前述した候補抽出処理2を行う。物体検出センサ2は、互いに所定距離D2以上離れている任意の2つのセグメントを警戒領域Sの一端から順次選択し、選択した2つのセグメントの各端部への走査角度の差が第1の閾値以下であるか否かを判定する (第1の走査角度判定部)。図4(c)に示す例では、図の左側から任意の2つのセグメントを順次選択した例を示しており、直線状のセグメントG1と物体検出センサ2に近いセグメントG3との角度差が判定され、第1の閾値以下である場合には、物体検出センサ2に近いセグメントG3が左側の直線状のセグメントG1を遮蔽していると推定し(遮蔽推定部)、次の判断に進む。
次の判断では、前記2つのセグメントG1,G3のうち物体検出センサ2に近い位置にあるセグメントG3の他方の端部(図中右側の端部)と、前回の測距データから特定の対象である車両Mと判定された一点鎖線で示すセグメントGXの端部との走査角度の差が、第2の閾値以下であるか否かを判定する (第2の走査角度判定部)。これが第2の閾値以下である場合には、物体検出センサ2に近いセグメントG3が車両Mの手前にあって車両Mを遮っているために、車両Mの一部が左側の直線状のセグメントG1として現れていると見なし、左側の直線状のセグメントG1を候補抽出処理2による候補とする (遮蔽推定部)。なお、このように、2つのセグメントにおいて一方が他方を隠すような位置関係を遮蔽関係と称する。また、端部とはセグメントを構成する測定点のうち最も走査角度が小さい又は大きい測定点を意味する。そして、所定距離D2は、遮蔽関係を推定する上で明らかに異なる物体によるセグメントと考えられる距離であって実験的に定められる値である(例えば50cm等)。さらに、第1の閾値と第2の閾値は、セグメントの端部がほぼ一致していることを判断するための閾値で、例えば1°から2°の間の値とすることができる。
In the situation shown in FIG. 4C, the object detection sensor 2 performs the above candidate extraction processing 2. The object detection sensor 2 sequentially selects arbitrary two segments separated from each other by a predetermined distance D2 or more from one end of the warning area S, and the difference in scanning angle to each end of the selected two segments is a first threshold value. It is determined whether or not the following (first scanning angle determination unit). The example shown in FIG. 4C shows an example in which two arbitrary segments are sequentially selected from the left side of the figure, and the angular difference between the linear segment G1 and the segment G3 close to the object detection sensor 2 is determined. If it is less than or equal to the first threshold value, it is estimated that the segment G3 close to the object detection sensor 2 shields the left linear segment G1 (shielding estimation unit), and the process proceeds to the next determination.
In the next determination, the other end (the end on the right side in the figure) of the segment G3 that is closer to the object detection sensor 2 of the two segments G1 and G3 and the specific target from the previous distance measurement data are selected. It is determined whether the difference in scanning angle between the vehicle M and the end of the segment GX indicated by the alternate long and short dash line is equal to or less than a second threshold (second scanning angle determination unit). If this is less than or equal to the second threshold value, the segment G3 close to the object detection sensor 2 is in front of the vehicle M and blocks the vehicle M, so that part of the vehicle M is a straight segment G1 on the left side. And the straight line segment G1 on the left side is regarded as a candidate by the candidate extraction processing 2 (shielding estimation unit). A positional relationship in which one of the two segments hides the other is called a shielding relationship. Further, the end portion means a measurement point having the smallest or largest scanning angle among the measurement points constituting the segment. Then, the predetermined distance D2 is a distance that is considered to be a segment of an apparently different object in estimating the shielding relationship and is a value that is experimentally determined (for example, 50 cm). Further, the first threshold value and the second threshold value are threshold values for determining that the ends of the segments are substantially coincident, and can be set to a value between 1 ° and 2 °, for example.

物体検出センサ2は、候補抽出処理1による候補と候補抽出処理2による候補を比較し、セグメントの大きさが最大のものを今回の車両Mと判定する。従って、図4(c)に示すような状況では、候補抽出処理1による候補(セグメントG2)の方が長いので、これが前回の車両Mと関係付けられて今回の車両Mと判定される(同一物体判定部)。   The object detection sensor 2 compares the candidate obtained by the candidate extraction processing 1 with the candidate obtained by the candidate extraction processing 2, and determines that the vehicle having the largest segment size is the vehicle M of this time. Therefore, in the situation as shown in FIG. 4C, the candidate (segment G2) by the candidate extraction process 1 is longer, and this is associated with the previous vehicle M and is determined to be the current vehicle M (identical. Object determination unit).

図4(d)に示すように、測定周期Tn+a+1 において、人物が物体検出センサ2を横切るように移動すると、物体検出センサ2が検出する2本の直線状のセグメントG1,G2の長さが変化する。この例では、人物が左から右に移動していくので、左の直線状のセグメントG1が長くなっていき、右の直線状のセグメントG2が短くなっていく。このような状態において、物体検出センサ2は前述した候補抽出処理1を行う。現在の測定周期Tn+a+1 の測距データから得られたこれらセグメントG1〜G3のうち、前回(測定周期Tn+a )の車両Mと判定された一点鎖線で示すセグメントGXから所定距離D1の範囲A内に存在し、かつ大きさが最大のセグメントは、右側の直線状のセグメントG2であり、これが、前回測定周期Tn+a に検出されて車両Mとされた一点鎖線で示すセグメントGXと同一物体であると判定され、候補抽出処理1による候補となる (同一物体判定部)。 As shown in FIG. 4D, when a person moves across the object detection sensor 2 in the measurement cycle T n + a + 1 , two linear segments G1 and G2 detected by the object detection sensor 2 are detected. Changes in length. In this example, since the person moves from left to right, the left linear segment G1 becomes longer and the right linear segment G2 becomes shorter. In such a state, the object detection sensor 2 performs the above candidate extraction process 1. Of these segments G1 to G3 obtained from the distance measurement data of the current measurement cycle T n + a + 1 , a predetermined segment is selected from the segment GX indicated by the one-dot chain line that was determined to be the vehicle M of the previous time (measurement cycle T n + a ). The segment having the largest size and existing within the range A of the distance D1 is the right-side linear segment G2, which is the one-dot chain line detected as the vehicle M in the previous measurement cycle T n + a. It is determined that the object is the same as the segment GX shown, and it becomes a candidate in the candidate extraction processing 1 (the same object determination unit).

図4(d)に示す状況において、物体検出センサ2は前述した候補抽出処理2を行う。物体検出センサ2は、互いに所定距離D2以上離れている任意の2つのセグメントを警戒領域Sの一端から順次選択し、選択した2つのセグメントの各端部への走査角度の差が第1の閾値以下であるか否かを判定する(第1の走査角度判定部)。図4(d)に示す例では、左側の直線状のセグメントG1と物体検出センサ2に近いセグメントG3との角度差が判定され、第1の閾値以下である場合には、物体検出センサ2に近いセグメントG3が左側の直線状のセグメントG1を遮蔽していると推定し(遮蔽推定部)、次の判断に進む。
次の判断では、選択した2つのセグメントG1,G3のうち物体検出センサ2により近い位置にあるセグメントG3の他方の端部(図中右側の端部)と、前回の測距データから特定の対象である車両Mと判定された一点鎖線で示したセグメントGXの端部との走査角度の差が、第2の閾値以下であるか否かを判定する (第2の走査角度判定部)。これが第2の閾値以下である場合には、物体検出センサ2に近いセグメントG3が車両Mの手前にあって車両Mを遮っているために、前回特定した車両Mの一部がセグメントG1として現れていると見なし、左側の直線状のセグメントG1を候補抽出処理2による候補とする (遮蔽推定部)。
In the situation shown in FIG. 4D, the object detection sensor 2 performs the above candidate extraction processing 2. The object detection sensor 2 sequentially selects arbitrary two segments separated from each other by a predetermined distance D2 or more from one end of the warning area S, and the difference in scanning angle to each end of the selected two segments is a first threshold value. It is determined whether or not the following (first scanning angle determination unit). In the example shown in FIG. 4D, the angular difference between the left linear segment G1 and the segment G3 close to the object detection sensor 2 is determined. It is estimated that the near segment G3 shields the left linear segment G1 (shielding estimation unit), and the process proceeds to the next determination.
In the next determination, the other end (the end on the right side in the figure) of the segment G3 that is closer to the object detection sensor 2 of the two selected segments G1 and G3 and the specific target from the previous distance measurement data. It is determined whether or not the difference in scanning angle between the vehicle M and the end of the segment GX indicated by the one-dot chain line is less than or equal to the second threshold value (second scanning angle determination unit). If this is less than or equal to the second threshold value, the segment G3 close to the object detection sensor 2 is in front of the vehicle M and blocks the vehicle M, so that a part of the vehicle M specified last time appears as the segment G1. And the straight line segment G1 on the left side is regarded as a candidate by the candidate extraction processing 2 (shielding estimation unit).

物体検出センサ2は、候補抽出処理1による候補と候補抽出処理2による候補を比較し、セグメントの大きさが最大のものを今回の車両Mと判定する。図4(d)に示す状況では、候補抽出処理2による候補(セグメントG1)の方が長いので、これが前回の車両Mと関係付けられて今回の車両Mと判定される (同一物体判定部)。右側の直線状のセグメントG2が徐々に小さくなり、逆に左側の直線状のセグメントG1が徐々に大きくなってきた図4(d)に示すような状況において、候補抽出処理2による左側の候補(セグメントG1)を前回の車両Mと対応付けて今回の車両Mとするという的確な判定を行うことができる。本実施形態によれば、車両Mと判定されていた単一のセグメントGXが複数に分かれた場合であっても、当該車両MのIDと対応付けられる新たなセグメントは、可及的に前の車両Mと判定されたセグメントGXに近い大きさであると考える方が合理的であるため、上述したように、同一車両Mの候補として異なる基準で複数のセグメントが得られた場合には、最大のものを採用した方が情報処理においても無理がなく、より良好な結果が得られる。   The object detection sensor 2 compares the candidate obtained by the candidate extraction processing 1 with the candidate obtained by the candidate extraction processing 2, and determines that the vehicle having the largest segment size is the vehicle M of this time. In the situation shown in FIG. 4D, the candidate (segment G1) by the candidate extraction process 2 is longer, so this is related to the previous vehicle M and is determined to be the current vehicle M (same object determination unit). .. In the situation as shown in FIG. 4D, in which the right straight segment G2 gradually becomes smaller and the left straight segment G1 gradually becomes larger, the left candidate ( It is possible to make an accurate determination that the segment G1) is associated with the previous vehicle M and is set as the current vehicle M. According to the present embodiment, even when the single segment GX that has been determined to be the vehicle M is divided into a plurality of segments, the new segment associated with the ID of the vehicle M is as long as possible. Since it is rational to consider that the size is close to the segment GX determined as the vehicle M, as described above, when a plurality of segments are obtained as candidates for the same vehicle M by different criteria, the maximum It is possible to obtain better results by adopting the one described above without any difficulty in information processing.

このような候補抽出処理2を行う物体検出センサ2によれば、トラッキング対象の車両Mの一部が乗降者によって遮蔽されたため、1つのセグメントG0しかなかった警戒領域Sに複数のセグメントG1,G2,G3が出現して車両Mに相当するセグメントがG1,G2がある程度以上離れた場合であっても、セグメント間の遮蔽関係を精度良く検出し、その中の一つのセグメントG2を前周期で車両Mと判定されたセグメントGXと同一物体と判定して精度良くトラッキングしていくことが可能になる。   According to the object detection sensor 2 that performs the candidate extraction process 2 as described above, a part of the vehicle M to be tracked is shielded by an occupant, so that the plurality of segments G1 and G2 are included in the warning area S that has only one segment G0. , G3 appearing and the segments corresponding to the vehicle M are separated from each other by G1 and G2 to some extent, the shielding relationship between the segments is accurately detected, and one segment G2 among them is detected in the previous cycle. It is possible to determine that the object is the same as the segment GX that is determined to be M and to perform tracking with high accuracy.

なお、本実施形態の物体検出センサ2では、セグメント間における遮蔽関係の検出において、今周期で検出されたセグメント同士の角度差を比較する基準である第1の閾値と、前周期で車両Mと判定されたセグメントと今周期で検出されたセグメントとの角度差を比較する基準である第2の閾値とが同じである例として説明したが、今周期で検出されたセグメント同士の角度差を比較する基準である第1の閾値よりも、前周期で車両Mと判定されたセグメントと今周期で検出されたセグメントとの角度差を比較する基準である第2の閾値の方が大きく設定されてもよい。車両Mと特定されたセグメントGXが存在する警戒領域Sにおいて、後の周期で複数のセグメントG1〜G3が検知されたような場合には、同一周期内にあるセグメント同士の端部の角度差よりも、相対的な移動が生じることも予想される異なる周期間でのセグメント同士の端部の角度差の方が大きいと考えられる。従って、第1の閾値と第2の閾値を上述したような大小関係にしたことによって、複数周期にわたって検知された複数のセグメント間の遮蔽関係をより的確に検出し、車両トラッキングも的確に行うことができる。具体的には、図4に示したような事例において、後の周期で検出された物体検出センサ2に近いセグメントG3が奥側のセグメントG1を隠しており、この奥側のセグメントG1が、前周期で車両Mと特定されたセグメントGXと同一の物体であるとの的確な判定を得やすいという効果が得られる。   In addition, in the object detection sensor 2 of the present embodiment, in the detection of the shielding relationship between the segments, the first threshold that is a reference for comparing the angular difference between the segments detected in the current cycle, and the vehicle M in the previous cycle. The second threshold, which is the reference for comparing the angular difference between the determined segment and the segment detected in the current cycle, is explained as an example, but the angular difference between the segments detected in the current cycle is compared. The second threshold, which is the reference for comparing the angular difference between the segment determined as the vehicle M in the previous cycle and the segment detected in the current cycle, is set to be larger than the first threshold that is the reference. Good. When a plurality of segments G1 to G3 are detected in a later cycle in the warning area S in which the segment GX specified as the vehicle M exists, the angle difference between the end portions of the segments in the same cycle is used. However, it is considered that the angular difference between the ends of the segments between the different cycles in which relative movement is expected to occur is larger. Therefore, by setting the first threshold value and the second threshold value in the magnitude relation as described above, it is possible to more accurately detect the shielding relation between the plurality of segments detected over a plurality of cycles and to perform the vehicle tracking appropriately. You can Specifically, in the case as shown in FIG. 4, the segment G3 close to the object detection sensor 2 detected in the subsequent cycle hides the back-side segment G1, and the back-side segment G1 moves forward. The effect that it is easy to obtain an accurate determination that the vehicle M is the same object as the specified segment GX in the cycle is obtained.

また、本実施形態の物体検出センサ2によれば、前述したように、候補抽出処理2において、第1の閾値と第2の閾値を用いた判定により、今回検知されたセグメントG1〜G3のうち、遠方に位置するセグメントG1が、前回において車両Mと特定したセグメントGXと同一である判定している。この同一判定をより確かなものとするため、さらに別の手法による判定を加えても良い。例えば、前記同一物体判定部が、図4(d)において、前記遠方に位置するセグメントG1の各測定点と、前回の測距データから前回特定の対象(すなわち車両M)であると判定したセグメントGXの測定点とが、実質的に一直線上にあると見なせる場合には、これらが同一物体であると判定するようにしてもよい。このような判定を前記候補抽出処理2に加えて適用するものとすれば、前記同一物体判定部によるセグメントの同一判定の精度が向上する。   Further, according to the object detection sensor 2 of the present embodiment, as described above, in the candidate extraction process 2, the segment G1 to G3 detected this time is determined by the determination using the first threshold value and the second threshold value. , The segment G1 located at a distance is determined to be the same as the segment GX that was previously identified as the vehicle M. In order to make this same determination more certain, determination by another method may be added. For example, in FIG. 4D, the same object determination unit determines that each measurement point of the distant segment G1 and the previous distance measurement data are the previously specified target (that is, the vehicle M). If it can be considered that the measurement points of GX are substantially on a straight line, it may be determined that they are the same object. If such a determination is applied in addition to the candidate extraction process 2, the accuracy of the same-object determination by the same-object determination unit is improved.

また、本実施形態の物体検出センサ2によれば、前述したように、第2の走査角度判定部による判定において、物体検出センサ2により近いセグメントG3の他方の端部(図中右側の端部)と、前回の測距データから特定の対象である車両Mと判定したセグメントGXの端部との走査角度の差を調べて遮蔽関係を推定していたが、遮蔽関係を推定するために別の手法をとることも考えられる。すなわち、互いに所定距離D2以上離れている任意の3つのセグメントを警戒領域Sの一端から順次選択し、選択した3つのセグメントの各端部への走査角度の差が第1の閾値以下であれば遮蔽関係にあると判定してもよい。そして、この判定があった場合に、前回の車両Mと判定したセグメントGXから所定距離D3(>所定距離D1)の範囲内にあるセグメントを今回の車両Mの候補としてもよい。   Further, according to the object detection sensor 2 of the present embodiment, as described above, in the determination by the second scanning angle determination unit, the other end of the segment G3 closer to the object detection sensor 2 (the end on the right side in the drawing). ) And the scanning angle difference between the end of the segment GX that is determined to be the vehicle M that is the specific target from the previous distance measurement data, and the shielding relationship is estimated, but it is different in order to estimate the shielding relationship. It is also possible to take the method of. That is, arbitrary three segments that are separated from each other by a predetermined distance D2 or more are sequentially selected from one end of the warning area S, and if the difference in scanning angle to each end of the selected three segments is equal to or less than the first threshold value. It may be determined that there is a shielding relationship. If this determination is made, a segment within a predetermined distance D3 (> predetermined distance D1) from the segment GX that was determined to be the previous vehicle M may be a candidate for the current vehicle M.

<動作の説明>
以上のように構成された監視システム1について、図面を参照してその動作を説明する。ここでは、主として物体検出センサ2に関する動作について説明する。図5は、物体検出センサ2の監視制御処理を示すフローチャートであり、図6は、物体検出センサ2の監視制御処理におけるトラッキング処理を示すフローチャートであり、図7は、物体検出センサ2のトラッキング処理における車両トラッキング処理を示すフローチャートである。
<Description of operation>
The operation of the monitoring system 1 configured as above will be described with reference to the drawings. Here, the operation of the object detection sensor 2 will be mainly described. 5 is a flowchart showing the monitoring control processing of the object detection sensor 2, FIG. 6 is a flowchart showing tracking processing in the monitoring control processing of the object detection sensor 2, and FIG. 7 is a tracking processing of the object detection sensor 2. 5 is a flowchart showing a vehicle tracking process in FIG.

まず物体検出センサ2の基本的な動作について図5を参照して説明する。
駆動制御部241は、電源がONとなり所定の初期設定がなされると動作を開始し、飛行制御装置5から警備開始信号を受信するまで待ち受けを行う。警備開始信号を受信すると(ステップST1−Yes)、検知部22に駆動信号を出力し、検知部22の駆動を開始させる(ステップST2)。駆動信号の入力を受け検知部22が警戒領域Sの走査を開始して測距データが出力されると(ステップST3−Yes)、基準データ生成部242は、この初回の走査による測距データに基づき基準データを生成して記憶部23に記憶する(ステップST4)。
First, the basic operation of the object detection sensor 2 will be described with reference to FIG.
The drive control unit 241 starts operation when the power is turned on and a predetermined initial setting is performed, and waits until a security start signal is received from the flight control device 5. When the security start signal is received (step ST1-Yes), a drive signal is output to the detection unit 22 to start driving the detection unit 22 (step ST2). When the detection unit 22 starts scanning the warning area S upon receipt of the drive signal and distance measurement data is output (step ST3-Yes), the reference data generation unit 242 converts the distance measurement data obtained by the first scan into the distance measurement data. Based on this, the reference data is generated and stored in the storage unit 23 (step ST4).

そして、基準データを生成した後に測距データが取得されると(ステップST5−Yes)、監視制御部243によりトラッキング処理が行われる(ステップST6)。トラッキング処理については後述する。そして、トラッキング処理が終了すると、通信部21より、自己のアドレス信号を含む検出信号が飛行制御装置5に送信される(ステップST7)。なお、この検出信号は、物体検出センサ2が現在の測定周期で認識したセグメントのID、セグメントの位置信号、車両M又は人物の別を示すセグメントの識別情報を含む。   Then, when the distance measurement data is acquired after the reference data is generated (step ST5-Yes), the tracking control process is performed by the monitoring controller 243 (step ST6). The tracking process will be described later. When the tracking process is completed, the communication unit 21 transmits a detection signal including its own address signal to the flight control device 5 (step ST7). The detection signal includes the ID of the segment recognized by the object detection sensor 2 in the current measurement cycle, the position signal of the segment, and the identification information of the segment indicating the vehicle M or the person.

物体検出センサ2は、飛行制御装置5から警備解除信号を受信していなければ(ステップST8−No)、かかるステップST5からST8の処理を繰り返し警戒領域Sの走査を行って監視を行う。他方、飛行制御装置5から警備解除信号を受信すると(ステップST8−Yes)、駆動制御部241が検知部22に駆動停止信号を出力して検知部22の駆動を停止させ(ステップST9)、記憶部23のトラッキング情報をリセットし(ステップST10)、一連の処理を終了する。なお、ステップST3及びST5において、走査周期(例えば60msec)を所定以上越えても測距データが取得されなければ、機器の異常として処理を終了してよい。   If the object detection sensor 2 does not receive the security release signal from the flight control device 5 (step ST8-No), the processes of steps ST5 to ST8 are repeated to scan the warning area S and perform monitoring. On the other hand, when the security release signal is received from the flight control device 5 (step ST8-Yes), the drive control unit 241 outputs a drive stop signal to the detection unit 22 to stop the drive of the detection unit 22 (step ST9), and the storage The tracking information of the unit 23 is reset (step ST10), and a series of processing is ended. In steps ST3 and ST5, if the distance measurement data is not obtained even after the scanning period (for example, 60 msec) exceeds the predetermined period, the process may be terminated as an abnormality of the device.

次に、図5のステップST6におけるトラッキング処理について図6を参照して説明する。
図6において、監視制御部243は、現在周期にて取得された測距データと基準データを読み出し(ステップST31)、角度成分(方向)ごとに、現在の測距データで検出された距離値と基準データに記憶された距離値との差分計算を行う(ステップST32)。
Next, the tracking process in step ST6 of FIG. 5 will be described with reference to FIG.
In FIG. 6, the monitoring control unit 243 reads out the distance measurement data and the reference data acquired in the current cycle (step ST31), and detects the distance value detected in the current distance measurement data for each angle component (direction). A difference with the distance value stored in the reference data is calculated (step ST32).

そして、監視制御部243は、現在の測距データと基準データとの差分結果から、現在の測距データが基準データよりも所定距離以上近くなっている変化点が存在するかを調べる(ステップST33)。監視制御部243は、変化点があれば(ステップST33−Yes)、その連続区間を調べ、連続する変化点で距離が近いものをグループ化してセグメントとして検出する(ステップST34)。ここでは、検知部22が走査する際の角度間隔が検出対象(人や車両M)と比較して十分に密であるので、連続していない変化点(孤立点)や、セグメントの大きさが検出対象(人物や車両M)の一部と判定できる所定サイズ(例えば15cm)に満たない物体をノイズとして除去してよい。   Then, the monitoring control unit 243 checks from the difference result between the current distance measurement data and the reference data whether there is a change point where the current distance measurement data is closer than the reference data by a predetermined distance or more (step ST33). ). If there is a change point (step ST33-Yes), the monitoring controller 243 examines the continuous section and groups consecutive change points having a short distance and detects them as a segment (step ST34). Here, since the angular interval when the detection unit 22 scans is sufficiently close as compared with the detection target (person or vehicle M), the change points that are not continuous (isolated points) and the size of the segment are An object smaller than a predetermined size (for example, 15 cm) that can be determined as a part of the detection target (person or vehicle M) may be removed as noise.

監視制御部243は、以下に説明するように、前回の周期で検出されているセグメントについて今回の周期でグループ化したセグメントと同一のものがあるか否かについて判定し、同一である場合には両者の関係付けを行う同一物体判定処理を行う。   As described below, the monitoring control unit 243 determines whether or not the segment detected in the previous cycle is the same as the segment grouped in the current cycle, and if they are the same, The same object determination process that correlates the two is performed.

監視制御部243は、前回の周期で検出されたセグメントを順次選択し(ステップST35)、各セグメントごとに、そのトラッキング情報を参照して当該セグメントに対して車両Mの識別情報が付与されているか否かを判定する(ステップST36)。当該セグメントが車両Mの識別情報であれば(ステップST36−Yes)、車両トラッキングを行う(ステップST38)。車両トラッキングについては後述する。当該セグメントが車両Mでなければ(ステップST36−No)、通常トラッキングを行う(ステップST37)。通常トラッキングについては前述した通りである。   The monitoring control unit 243 sequentially selects the segments detected in the previous cycle (step ST35), refers to the tracking information for each segment, and is the identification information of the vehicle M given to the segment? It is determined whether or not (step ST36). If the segment is the identification information of the vehicle M (step ST36-Yes), vehicle tracking is performed (step ST38). Vehicle tracking will be described later. If the segment is not the vehicle M (step ST36-No), normal tracking is performed (step ST37). The normal tracking is as described above.

監視制御部243は、前回の周期で検出されたセグメントで同一物体判定処理が未了であるものがあれば(ステップST39−No)、ステップST35に戻って上記処理を繰り返し、前回の周期で検出された全てのセグメントについて同一物体判定処理が完了すれば(ステップST39−Yes)、ステップST40の特徴量算出処理に進む。   If there is a segment detected in the previous cycle for which the same object determination processing has not been completed (step ST39-No), the monitoring controller 243 returns to step ST35 and repeats the above processing, and detects in the previous cycle. When the same object determination process is completed for all the performed segments (step ST39-Yes), the process proceeds to the feature amount calculation process of step ST40.

監視制御部243は、今回グループ化した全てのセグメントについて、車両らしさを示す特徴量を算出し(ステップST40)、この特徴量に基づき、今回の周期で検出されたセグメントについて車両Mであるか否かの判定を行い、トラッキング情報における当該セグメントの識別情報に判定に応じた情報を上書き記憶し(ステップST41)、一連の処理を終了する。   The monitoring control unit 243 calculates a feature amount indicating vehicle-likeness for all the segments grouped this time (step ST40), and based on the feature amount, determines whether the segment detected in the current cycle is the vehicle M or not. It is determined whether or not the identification information of the segment in the tracking information is overwritten with the information according to the determination (step ST41), and the series of processes is ended.

なお、車両判定を行うためにステップ40で算出する前記特徴量としては、前述した車両の表面を示す第1の車形状度と、車両の角を示す第2の車形状度といった1次特徴量を使用できる他、移動量などの2次特徴量も用いることができる。この2次特徴量はトラッキング情報から得られる量である。また、ステップ41における車両判定では、前記特徴量から得られる車度(車両らしさを表す指標)が所定の閾値以上であることと、また移動量を用いる場合はさらに移動量が所定以上あることによって判定が可能であり、また前記2条件のうちいずれかが満たされない場合であっても、セグメントのサイズが所定の基準値以上であれば車両と判定することとしてもよい。   In addition, as the feature amount calculated in step 40 for making the vehicle determination, the primary feature amount such as the first vehicle shape factor indicating the surface of the vehicle and the second vehicle shape factor indicating the corner of the vehicle described above. Can be used, and a secondary feature amount such as a movement amount can also be used. This secondary feature amount is an amount obtained from tracking information. Further, in the vehicle determination in step 41, the vehicle degree (index indicating the vehicle-likeness) obtained from the characteristic amount is equal to or greater than a predetermined threshold value, and when the movement amount is used, the movement amount is further equal to or more than the predetermined value. Even if the determination is possible, and if any of the above two conditions is not satisfied, it may be determined that the vehicle is a vehicle if the segment size is equal to or larger than a predetermined reference value.

なお、上記通常トラッキング及び車両トラッキングにおいて、今回グループ化したセグメントのうち、前回周期にグループ化したセグメントと関係付けができなければ、現在周期のそのセグメントは新規に出現したセグメントとして新たなID情報を付与されてトラッキング情報に記憶することとなる。また、トラッキング情報に前回周期に存在したとして記憶されたセグメントであって、今回周期において関係付けがされなかったセグメントについては、このセグメントを生じさせた物体は警戒領域S外に移動したと判断して消去する。なお、当該セグメントが一時的な測定誤差や環境要因などによってたまたま関連付けができなかった場合を考慮して、そのセグメントのトラッキング情報を所定時間保持する(所定時間トラッキング情報を同じ情報で更新する)ようにしてもよい。   In addition, in the above-described normal tracking and vehicle tracking, if the segment grouped this time cannot be associated with the segment grouped in the previous cycle, that segment in the current cycle is newly segmented with new ID information. It is added and stored in the tracking information. Further, regarding the segment stored in the tracking information as existing in the previous cycle and not related in this cycle, it is determined that the object causing this segment has moved to the outside of the alert area S. To erase. Note that the tracking information of the segment is retained for a predetermined period of time (the tracking information is updated with the same information for a predetermined period of time) in consideration of the case where the segment cannot be associated due to a temporary measurement error or an environmental factor. You can

次に、図6のステップST38における車両トラッキング処理について、原理図である図3及び図4を適宜参照しつつ、図7に示す手順に従って説明する。
図7に示す車両トラッキング処理の手順は、ステップST51からステップST53までの前記候補抽出処理1と、ステップST54からステップST58までの前記候補抽出処理2とによって概ね構成され、先に説明した第1の走査角度判定部、第2の走査角度判定部、遮蔽推定部、同一物体判定部等の構成を備えた監視制御部243が以下のような手順で行う。
Next, the vehicle tracking process in step ST38 of FIG. 6 will be described in accordance with the procedure shown in FIG. 7 while appropriately referring to FIGS. 3 and 4 which are principle diagrams.
The procedure of the vehicle tracking process shown in FIG. 7 is roughly configured by the candidate extraction process 1 from step ST51 to step ST53 and the candidate extraction process 2 from step ST54 to step ST58, and the first described above. The monitoring control unit 243 having the configurations of the scanning angle determination unit, the second scanning angle determination unit, the occlusion estimation unit, the same object determination unit performs the following procedure.

図3(b)及び図7を参照して前記候補抽出処理1を説明する。
監視制御部243は、選択した前回の周期で車両Mと判定されたセグメントGXから距離D1以内の範囲AにあるセグメントG1〜G3を抽出する(ステップST51)。次に、当該範囲A内にあるセグメントG1〜G3のうち、最大のセグメントG2を、前記候補抽出処理1による今回の車両候補と特定する(ステップST52)。そして、車両候補としたセグメントG2以外のセグメントG1,G3をトラッキング非判定対象とする(ステップST53)
The candidate extraction process 1 will be described with reference to FIGS.
The monitoring controller 243 extracts the segments G1 to G3 within the range A within the distance D1 from the segment GX determined to be the vehicle M in the selected previous cycle (step ST51). Next, of the segments G1 to G3 within the range A, the largest segment G2 is specified as the vehicle candidate of this time by the candidate extraction processing 1 (step ST52). Then, the segments G1 and G3 other than the segment G2 which is the vehicle candidate are set as tracking non-determination targets (step ST53).

図4(d)及び図7を参照して前記候補抽出処理2を説明する。
監視制御部243は、警戒領域S内の走査範囲の一端から、所定距離D2以上離れている2つのセグメントを順次選択する(ステップST54)。次に、選択した2つのセグメントG1,G3の各端部への走査角度の差が第1の閾値以下である場合には(ステップST54−Yes)、選択した2つのセグメントG1,G3のうち物体検出センサ2に近い位置にあるセグメントG3の他方の端部と、前回車両Mと判定されたセグメントGXの端部との走査角度の差が、第2の閾値以下である場合には(ステップST56−Yes)、今回検出された奥側のセグメントG1を、前記候補抽出処理2による今回の車両候補と特定する(ステップST57)。なお、候補抽出処理1のステップST53でトラッキング非判定対象になったセグメントについては、候補抽出処理2のステップST57における今回の車両候補対象とはしない。
The candidate extraction process 2 will be described with reference to FIGS.
The monitoring controller 243 sequentially selects two segments that are separated by a predetermined distance D2 or more from one end of the scanning range within the warning area S (step ST54). Next, when the difference in scanning angle to each end of the selected two segments G1 and G3 is less than or equal to the first threshold value (step ST54-Yes), the object of the selected two segments G1 and G3 is selected. When the difference in scanning angle between the other end of the segment G3 located near the detection sensor 2 and the end of the segment GX which was determined to be the vehicle M last time is equal to or smaller than the second threshold value (step ST56). -Yes), the rear-side segment G1 detected this time is specified as the current vehicle candidate by the candidate extraction processing 2 (step ST57). The segment that is the tracking non-determination target in step ST53 of the candidate extraction process 1 is not set as the vehicle candidate target of this time in step ST57 of the candidate extraction process 2.

監視制御部243は、ステップST58にて今回の車両候補と特定した場合、選択した2つのセグメントG1,G3の各端部への走査角度の差が第1の閾値以下でない場合(ステップST54−No)と、物体検出センサ2に近い位置にあるセグメントG3の他方の端部と、前回車両Mと判定されたセグメントGXの端部との走査角度の差が、第2の閾値以下でない場合(ステップST56−No)には、走査範囲の他端まで処理が終了するまでステップST54からステップST57の手順を繰り返す(ステップST58−No)。   When the monitoring control unit 243 identifies the current vehicle candidate in step ST58, when the difference in scanning angle to each end of the selected two segments G1 and G3 is not equal to or less than the first threshold value (step ST54-No). ), And the difference in scanning angle between the other end of the segment G3 located near the object detection sensor 2 and the end of the segment GX that was determined to be the vehicle M last time is not less than or equal to the second threshold (step). In ST56-No), the procedure from step ST54 to step ST57 is repeated until the process is completed up to the other end of the scanning range (step ST58-No).

監視制御部243は、候補抽出処理1による候補と候補抽出処理2による候補を比較し、大きさが最大のものを今回の車両Mと判定してST35にて選択したセグメントのトラッキング情報との関係付けを行う(ステップST59)。そして、その他の今回の車両候補をトラッキング非判定対象としてトラッキング情報にその旨を記憶し(ステップST60)、一連の処理を終了する。   The monitoring control unit 243 compares the candidate by the candidate extraction processing 1 and the candidate by the candidate extraction processing 2, determines that the vehicle with the largest size is the current vehicle M, and the relationship with the tracking information of the segment selected in ST35. Attaching is performed (step ST59). Then, other vehicle candidates of this time are set as tracking non-determination targets and stored to that effect in the tracking information (step ST60), and a series of processing ends.

以上説明した実施形態では、候補抽出処理1と候補抽出処理2で今回の車両候補をそれぞれ抽出し、これらを比較して最大のものを今回の車両候補としていたので、極めて高精度に車両トラッキングを行うことができたが、候補抽出処理1のみを行っても一定の効果を上げることはできる。すなわち、車両等の特定の対象としてセグメントG0が検知されている警戒領域Sにおいて、車両Mの乗降者や車体の一部分の鏡面反射等によって複数のセグメントG1〜G3が現れても、そのうちの何れかが前記車両M等の特定物体と同一物体であるものとし、後のセグメントに関係付けて精度良くトラッキングすることができる。   In the embodiment described above, the vehicle candidates of this time are extracted by the candidate extraction processing 1 and the candidate extraction processing 2, respectively, and the largest one is selected as the vehicle candidate of this time. Therefore, the vehicle tracking can be performed with extremely high accuracy. Although it has been possible to perform the above, a certain effect can be obtained by performing only the candidate extraction processing 1. That is, in the warning area S where the segment G0 is detected as a specific target such as a vehicle, even if a plurality of segments G1 to G3 appear due to specular reflection of an occupant of the vehicle M or a part of the vehicle body, any one of them appears. Is the same object as the specific object such as the vehicle M, and can be accurately tracked by being related to the subsequent segment.

上述の実施形態では、本発明に係る物体検出センサ2を飛行ロボット4の運用に用いる例を説明した。飛行ロボット4の出動条件として、物体検出センサ2が新たな車両Mを認識した場合には車両Mのナンバー撮影のために飛行ロボット4の出動が定められている場合、同一の車両Mについて遮りや鏡面反射等によって複数のセグメントが生じたとしても、同一の車両Mに相当するセグメントを精度よくトラッキングできる。このため、トラッキングがうまくいかずに、人物に相当するセグメントを車両Mと誤認識してこの人物の位置に飛行ロボット4がナンバー撮影に出動したり、***によって生じたセグメントについて新たな物体が出現したと誤認識して飛行ロボット4が同一の車両Mに対して再度出動して撮影を行うという無駄が生じてしまったりすることを防止できる。   In the above embodiment, an example in which the object detection sensor 2 according to the present invention is used for operating the flying robot 4 has been described. As a dispatch condition of the flying robot 4, when the object detection sensor 2 recognizes a new vehicle M, when the dispatch of the flying robot 4 is set to capture the number of the vehicle M, the same vehicle M is blocked. Even if a plurality of segments occur due to specular reflection or the like, the segment corresponding to the same vehicle M can be accurately tracked. Therefore, the tracking does not go well, the segment corresponding to the person is erroneously recognized as the vehicle M, and the flying robot 4 is dispatched to take a number at the position of this person, or a new object appears in the segment caused by the division. It is possible to prevent the waste of the flying robot 4 being dispatched again to the same vehicle M to perform photographing by erroneously recognizing that it has been done.

なお、図6及び図7に示した動作フローの同一物体判定処理について、前回の測定周期における車両Mセグメントを選択し(ステップST35、ステップST36−Yes)、この前回の車両Mセグメントを基準として算出した距離D1の範囲A内における現在の測定周期のセグメントと抽出し(ステップST51)、この中で大きさ最大のセグメントを今回の車両M候補と特定していたが(ステップST52)、これに限るものではない。例えば、その他の方法として、まず、現在のセグメントを選択し、この現在のセグメントを基準として算出した距離D1の範囲内に前回の車両Mセグメントが存在するか否かを判定する。そして、前回の同一IDの車両Mセグメントについてこの判定がなされた現在のセグメントが複数存在する場合に、その中で最大の現在セグメントをそのIDの車両Mセグメントと同一物体であると判定することも請求項に記載された範囲内である。   In the same object determination process of the operation flows shown in FIGS. 6 and 7, the vehicle M segment in the previous measurement cycle is selected (step ST35, step ST36-Yes), and the previous vehicle M segment is used as a reference for calculation. The segment of the current measurement cycle within the range A of the distance D1 was extracted (step ST51), and the segment with the largest size was identified as the vehicle M candidate of this time (step ST52), but this is not the only option. Not a thing. For example, as another method, first, the current segment is selected, and it is determined whether or not the previous vehicle M segment exists within the range of the distance D1 calculated based on the current segment. Then, when there are a plurality of current segments for which this determination has been made for the vehicle M segment with the same ID last time, it is possible to determine that the largest current segment among them is the same object as the vehicle M segment with that ID. It is within the range described in the claims.

なお、本発明の実施の形態では、車両Mを特定の対象とし、この車両Mが人物により遮られる等しても、車両Mを精度良くトラッキングできる例を示したが、これに限らず、特定の対象をその他の物体としてもよい。例えば、特定の対象を人物とし、歩道を歩行する人物をトラッキングする場合に、交通標識等の障害物の背後を歩行者が通行することで、歩行者が障害物に遮られる場合等でも本発明を適用することができる。   In addition, in the embodiment of the present invention, the example in which the vehicle M is specified as a specific target and the vehicle M can be accurately tracked even if the vehicle M is blocked by a person or the like has been shown. However, the present invention is not limited to this. The target of may be another object. For example, when tracking a person walking on a sidewalk with a specific object as a person, the present invention can be applied even when the pedestrian is obstructed by an obstacle because the pedestrian passes behind an obstacle such as a traffic sign. Can be applied.

また、所定距離D1を設定するにあたり、以下の点を考慮することが好ましい。所定距離D1を制限なく大きい値に設定した場合には、例えば、物体検出センサ2と車両Mの間を大型車両が横切るなどして車両Mが大型車両に遮られたとき、所定距離D1以内に大型車両が存在すると、大型車両に相当するセグメントの方が車両Mに相当するセグメントよりも大きくなり、車両MのIDが大型車両に引き継がれてしまうことがある。そのため、所定距離D1の設定においては、このような大型車両を排除できるような距離に制限することが好ましい。また、所定距離D1を極端に小さい値に設定した場合には、例えば、車両が人物により遮蔽されたり鏡面反射が生じたりすることで、車両に相当するセグメントが複数のセグメントに***し、それらのセグメントがある程度離れていると、所定距離D1に含まれなくなってしまうことがある。そのため、所定距離D1の設定においては、特定の対象に相当する複数の***セグメントがある程度離れていても、それを含むような距離にすることが好ましい。   Further, in setting the predetermined distance D1, it is preferable to consider the following points. When the predetermined distance D1 is set to a large value without limitation, for example, when the large vehicle crosses between the object detection sensor 2 and the vehicle M and the vehicle M is blocked by the large vehicle, within a predetermined distance D1. When a large vehicle exists, the segment corresponding to the large vehicle becomes larger than the segment corresponding to the vehicle M, and the ID of the vehicle M may be inherited by the large vehicle. Therefore, when setting the predetermined distance D1, it is preferable to limit the distance to such a large vehicle. Further, when the predetermined distance D1 is set to an extremely small value, for example, the vehicle is shielded by a person or specular reflection occurs, so that the segment corresponding to the vehicle is divided into a plurality of segments, If the segments are separated to some extent, they may not be included in the predetermined distance D1. Therefore, in setting the predetermined distance D1, it is preferable to set the distance to include a plurality of split segments corresponding to a specific target even if they are separated to some extent.

以上、本発明の実施の形態を例示により説明したが、本発明の範囲はこれらに限定されるものではなく、請求項に記載された範囲内において目的に応じて変更・変形することが可能である。   Although the embodiments of the present invention have been described above by way of example, the scope of the present invention is not limited to these and can be modified or modified according to the purpose within the scope of the claims. is there.

1監視システム
2物体検出センサ
21通信部
22検知部
221レーザ発振部
222走査鏡
223走査制御部
224反射光検出部
225測距データ生成部
23記憶部
24制御部
241駆動制御部
242基準データ生成部
243監視制御部
3ロボポート
4飛行ロボット
5飛行制御装置
6監視センタ
E監視区域
S警戒領域
M車両
DESCRIPTION OF REFERENCE NUMERALS 1 monitoring system 2 object detection sensor 21 communication unit 22 detection unit 221 laser oscillation unit 222 scanning mirror 223 scanning control unit 224 reflected light detection unit 225 distance measurement data generation unit 23 storage unit 24 control unit 241 drive control unit 242 reference data generation unit 243 Monitoring and Control Unit 3 Roboport 4 Flying Robot 5 Flight Control Device 6 Monitoring Center E Monitoring Area S Warning Area M Vehicle

Claims (3)

警戒領域の一端から他端までを測定周期おきに走査して、前記警戒領域における各方向の測定点までの距離を示す測距データを生成する検知部と、
前記測距データに基づいて、近接する測定点をセグメントとしてグループ化するグループ化手段と、
前記セグメントが特定のトラッキング対象であるか否かを判定する対象判定部と、
現在の測距データから得られたセグメントのうち、前回の測距データから得られた前記特定のトラッキング対象から所定距離以内に存在する大きさが最大のセグメントを、当該特定のトラッキング対象と同一物体であると判定する同一物体判定部と、
を備えることを特徴とした物体検出センサ。
A scanning unit that scans from one end to the other end of the warning area at every measurement cycle, and a detection unit that generates distance measurement data indicating the distance to the measurement point in each direction in the warning area,
Grouping means for grouping adjacent measurement points as a segment based on the distance measurement data,
A target determination unit that determines whether the segment is a specific tracking target,
Among the segments obtained from the current distance measurement data, the segment with the largest size existing within the predetermined distance from the specific tracking target obtained from the previous distance measurement data is the same object as the specific tracking target. The same object determination unit that determines that
An object detection sensor comprising:
前記同一物体判定部は、
前回の測距データから得られた前記特定のトラッキング対象から所定距離以内に存在するセグメントのうち、大きさが最大のセグメント以外のセグメントを、トラッキング非判定対象と判定する請求項1に記載の物体検出センサ。
The same object determination unit,
The object according to claim 1, wherein among the segments existing within a predetermined distance from the specific tracking target obtained from the previous distance measurement data, a segment other than the largest segment is determined as a tracking non-determination target. Detection sensor.
前記特定のトラッキング対象は車両である請求項1または2に記載の物体検出センサ。   The object detection sensor according to claim 1, wherein the specific tracking target is a vehicle.
JP2016071764A 2016-03-31 2016-03-31 Object detection sensor Active JP6694746B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016071764A JP6694746B2 (en) 2016-03-31 2016-03-31 Object detection sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016071764A JP6694746B2 (en) 2016-03-31 2016-03-31 Object detection sensor

Publications (2)

Publication Number Publication Date
JP2017182622A JP2017182622A (en) 2017-10-05
JP6694746B2 true JP6694746B2 (en) 2020-05-20

Family

ID=60007089

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016071764A Active JP6694746B2 (en) 2016-03-31 2016-03-31 Object detection sensor

Country Status (1)

Country Link
JP (1) JP6694746B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021043838A (en) * 2019-09-13 2021-03-18 パイオニア株式会社 Information processing device, control method, program and storage medium
JP2023034314A (en) * 2021-08-30 2023-03-13 京セラ株式会社 Electronic apparatus, method for controlling electronic apparatus, and program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3510767B2 (en) * 1997-05-29 2004-03-29 オムロン株式会社 Distance measuring device
JP5900722B2 (en) * 2011-05-18 2016-04-06 北陽電機株式会社 Scanning distance measuring device signal processing device, signal processing method, and scanning distance measuring device
JP5930178B2 (en) * 2012-03-02 2016-06-08 株式会社Ihi Vehicle detection method and vehicle detection device
JP5838901B2 (en) * 2012-04-25 2016-01-06 トヨタ自動車株式会社 Object identification device and object identification method
JP6212400B2 (en) * 2014-01-29 2017-10-11 セコム株式会社 Object detection sensor and program

Also Published As

Publication number Publication date
JP2017182622A (en) 2017-10-05

Similar Documents

Publication Publication Date Title
US11257223B2 (en) Systems and methods for user detection, identification, and localization within a defined space
JP5076070B2 (en) Object detection device, object detection method, and object detection program
US20120081542A1 (en) Obstacle detecting system and method
JP4907732B1 (en) Monitoring sensor
CN110031002B (en) Method and system for detecting obstacle and sensor subsystem thereof
JP2009093428A (en) Laser area sensor
US20160040979A1 (en) Apparatus and method for monitoring moving objects in sensing area
JP5027273B2 (en) Object detection sensor and security system
JP6694746B2 (en) Object detection sensor
JP5539096B2 (en) Monitoring sensor
JP6212400B2 (en) Object detection sensor and program
JP5027270B2 (en) Object detection sensor
JP6660228B2 (en) Object detection sensor
JP2015141634A (en) object detection sensor and program
JP2008009927A (en) Mobile robot
JP2005157765A (en) Pedestrian detector
JP2012251900A (en) Leftover object detecting method and device
JP5431230B2 (en) Object detection sensor and security system
JP5497514B2 (en) Object detection sensor and security system
JP5449066B2 (en) Object detection sensor
JP7204356B2 (en) monitoring device
JP6984737B2 (en) Distance measuring sensor, control device, control method and program
KR101944348B1 (en) Method of recognizing object by microwave frequency analysis and closed-circuit television image analysis
JP6726043B2 (en) Object detection sensor and monitoring system
KR20150095440A (en) Distance detecting apparatus and method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190328

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200324

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200420

R150 Certificate of patent or registration of utility model

Ref document number: 6694746

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250