JP6756448B2 - Monitoring device - Google Patents

Monitoring device Download PDF

Info

Publication number
JP6756448B2
JP6756448B2 JP2016249375A JP2016249375A JP6756448B2 JP 6756448 B2 JP6756448 B2 JP 6756448B2 JP 2016249375 A JP2016249375 A JP 2016249375A JP 2016249375 A JP2016249375 A JP 2016249375A JP 6756448 B2 JP6756448 B2 JP 6756448B2
Authority
JP
Japan
Prior art keywords
floor
distance
data
grid
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016249375A
Other languages
Japanese (ja)
Other versions
JP2018105638A (en
Inventor
恭佑 磯野
恭佑 磯野
健一 新房
健一 新房
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2016249375A priority Critical patent/JP6756448B2/en
Publication of JP2018105638A publication Critical patent/JP2018105638A/en
Application granted granted Critical
Publication of JP6756448B2 publication Critical patent/JP6756448B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Burglar Alarm Systems (AREA)
  • Alarm Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Description

この発明は、監視領域に存在する対象物を認識する監視装置に関するものである。 The present invention relates to a monitoring device that recognizes an object existing in a monitoring area.

従来より、カメラ画像を用いて対象物を検知および認識する技術が存在する。カメラ画像は2次元データであることから、当該カメラ画像から得られる情報も2次元座標、輝度、および色などに限定される。従来技術の多くは輝度背景差分方式を用いて、監視領域内の変化領域を抽出して対象物を認識している。
しかし、このような多くの従来技術では、対象物と背景とに輝度差が存在しない場合には、対象物を精度よく認識できないという問題があった。また、カメラ画像から得られる2次元データでは対象物の距離に関する情報は得られないため、例えば、3次元座標上をZ軸方向(カメラに向かって直進する方向)に対象物が移動した場合、当該対象物が静止していると認識され、発報対象とされないという問題があった。
そこで、例えば、特許文献1に開示された監視装置では、3次元レーザスキャナの測定結果から、監視領域までの距離情報を取得し、現距離データと比較距離データとの差分値を算出して、当該差分値から変化領域を抽出し、抽出した変化領域に基づき発報対象であるか否かの認識処理を行うようにしている。
Conventionally, there has been a technique for detecting and recognizing an object using a camera image. Since the camera image is two-dimensional data, the information obtained from the camera image is also limited to the two-dimensional coordinates, brightness, color, and the like. Most of the prior arts use the brightness background subtraction method to extract a change area in the monitoring area and recognize the object.
However, in many such conventional techniques, there is a problem that the object cannot be recognized accurately when there is no difference in brightness between the object and the background. In addition, since information on the distance of the object cannot be obtained from the two-dimensional data obtained from the camera image, for example, when the object moves in the Z-axis direction (direction straight toward the camera) on the three-dimensional coordinates, There was a problem that the object was recognized as stationary and was not subject to notification.
Therefore, for example, in the monitoring device disclosed in Patent Document 1, distance information to the monitoring area is acquired from the measurement result of the three-dimensional laser scanner, and the difference value between the current distance data and the comparison distance data is calculated. A change area is extracted from the difference value, and based on the extracted change area, recognition processing of whether or not it is a notification target is performed.

国際公開第2016/002776号International Publication No. 2016/002776

上述した特許文献1に記載された技術により、輝度差が存在しない場合でも距離差があれば対象物を認識し、対象物が3次元座標上をZ軸方向に移動する場合でも当該対象物の移動を認識して、発報対象であるか否かの認識処理を行うことが可能となる。
一方、3次元レーザスキャナによる距離測定技術においては、床に照射したレーザ光は入射角が浅くなり正反射が起こる場合がある。このため、3次元レーザスキャナから床までの位置によっては、反射したレーザ光が3次元レーザスキャナに戻ってきたり戻ってこなかったりという点滅現象が不規則に繰り返されることがある。
上述した特許文献に記載された技術では、このような点滅現象が起こり得ることが考慮されていないため、実際には存在しない対象物を存在するものとして認識してしまう可能性があるという課題があった。
According to the technique described in Patent Document 1 described above, even if there is no difference in brightness, the object is recognized if there is a difference in distance, and even if the object moves in the three-dimensional coordinates in the Z-axis direction, the object is recognized. It is possible to recognize the movement and perform a recognition process of whether or not it is a notification target.
On the other hand, in the distance measurement technique using a three-dimensional laser scanner, the laser beam irradiating the floor may have a shallow incident angle and specular reflection may occur. Therefore, depending on the position from the 3D laser scanner to the floor, the blinking phenomenon that the reflected laser light returns to or does not return to the 3D laser scanner may be repeated irregularly.
Since the technique described in the above-mentioned patent document does not consider that such a blinking phenomenon can occur, there is a problem that an object that does not actually exist may be recognized as existing. there were.

この発明は、上記のような課題を解決するためになされたもので、3次元レーザスキャナから床までの距離を固定とすることで、存在しないはずの対象物を対象物であると誤認識しないようにすることができる監視装置を提供することを目的とする。 The present invention has been made to solve the above problems, and by fixing the distance from the three-dimensional laser scanner to the floor, an object that should not exist is not mistakenly recognized as an object. It is an object of the present invention to provide a monitoring device capable of such as.

この発明に係る監視装置は、監視領域を測定した3次元レーザスキャナの測定結果から、監視領域に存在する物体までの距離データを取得し、現距離データとする現データ演算部と、測定結果から過去の距離データを取得し、比較距離データに変換する比較データ演算部と、現距離データおよび比較距離データについて、3次元レーザスキャナから床までの距離が定義された床距離情報に基づき、距離データの補正を行う補正部と、補正部が距離データの補正を行った補正後現距離データと補正後比較距離データとの差分値を算出し、当該差分値が閾値以上である領域を変化領域として抽出する変化領域抽出部とを備えたものである。 The monitoring device according to the present invention acquires distance data to an object existing in the monitoring area from the measurement result of the three-dimensional laser scanner that measures the monitoring area, and uses the current data calculation unit as the current distance data, and the measurement result. Distance data based on the comparison data calculation unit that acquires past distance data and converts it into comparison distance data, and the floor distance information that defines the distance from the three-dimensional laser scanner to the floor for the current distance data and comparison distance data. The difference value between the correction unit that corrects the above and the corrected current distance data that the correction unit corrected the distance data and the corrected comparison distance data is calculated, and the area where the difference value is equal to or greater than the threshold value is set as the change area. It is provided with a change area extraction unit for extraction.

この発明によれば、3次元レーザスキャナから床までの距離を固定とすることで、存在しないはずの対象物を対象物であると誤認識しないようにすることができる。 According to the present invention, by fixing the distance from the three-dimensional laser scanner to the floor, it is possible to prevent an object that should not exist from being mistakenly recognized as an object.

実施の形態1に係る監視装置の構成を示すブロック図である。It is a block diagram which shows the structure of the monitoring apparatus which concerns on Embodiment 1. FIG. 3次元レーザスキャナの構成を示す図である。It is a figure which shows the structure of the 3D laser scanner. 3次元レーザスキャナの分散機構を示す説明図である。It is explanatory drawing which shows the dispersion mechanism of a 3D laser scanner. 実施の形態1において、床関連情報記憶部に記憶されている床関連情報の内容の一例を説明する図である。FIG. 5 is a diagram illustrating an example of the contents of floor-related information stored in the floor-related information storage unit in the first embodiment. 実施の形態1に係る監視装置の動作を示すフローチャートである。It is a flowchart which shows the operation of the monitoring apparatus which concerns on Embodiment 1. FIG. 実施の形態1において、床補正部による図5のステップST505の動作の詳細を説明するフローチャートである。FIG. 5 is a flowchart illustrating details of the operation of step ST505 of FIG. 5 by the floor correction unit in the first embodiment. 実施の形態1において、3次元レーザスキャナの視野を仮想的な3D空間に組み上げた立体モデルの一例を示す図である。FIG. 5 is a diagram showing an example of a three-dimensional model in which the field of view of a three-dimensional laser scanner is assembled in a virtual 3D space in the first embodiment. 実施の形態1において、3次元レーザスキャナの視野にある床、対象物である対象A,対象Bが、8×4×4個のグリッドの中でどのように見えているかを示したモデルの一例であり、図8Aは、3次元レーザスキャナと対象A,対象Bを横から見た位置関係を示すモデルであり、図8Bは、図上、左側が、8×4×4個のグリッドが密着したモデル、図上、右側が、図上左側に示す、8×4×4個のグリッドが密着したモデルを、横に4つにスライスして全グリッドが見えるようにしたモデルであり、図8Cは、3次元レーザスキャナの視野を仮想的なイメージに組み上げたイメージモデルである。In the first embodiment, an example of a model showing how the floor in the field of view of the three-dimensional laser scanner, the objects A, and the objects B look in the grid of 8 × 4 × 4. 8A is a model showing the positional relationship between the three-dimensional laser scanner and the target A and the target B as viewed from the side. In FIG. 8B, 8 × 4 × 4 grids are in close contact with each other on the left side of the figure. The model shown on the left side of the figure, which is shown on the left side of the figure, is a model in which 8 × 4 × 4 grids are closely attached and sliced horizontally into four so that the entire grid can be seen. Is an image model in which the field of view of a three-dimensional laser scanner is assembled into a virtual image. 実施の形態1において、監視領域に対象物が存在しない状態で、3次元レーザスキャナの視野にある床が、8×4×4個のグリッドの中でどのように見えているかを示したモデルの一例である。In the first embodiment, a model showing how the floor in the field of view of the 3D laser scanner looks like in an 8 × 4 × 4 grid in the absence of an object in the monitoring area. This is an example. 図9のモデルで示す監視領域の状態から、当該監視領域に対象物である対象Aおよび対象Bが侵入してきた場合に、3次元レーザスキャナの視野にある床、対象A、および対象Bが、8×4×4個のグリッドの中でどのように見えているかを示したモデルの一例である。From the state of the monitoring area shown in the model of FIG. 9, when the target objects A and B intrude into the monitoring area, the floor, the target A, and the target B in the field of view of the three-dimensional laser scanner become This is an example of a model showing what it looks like in an 8x4x4 grid. 実施の形態1に係る監視装置の認識処理部による判定処理を示すフローチャートである。It is a flowchart which shows the determination process by the recognition processing part of the monitoring apparatus which concerns on Embodiment 1. FIG. 図12A,図12Bは、この発明の実施の形態1に係る監視装置のハードウェア構成の一例を示す図である。12A and 12B are diagrams showing an example of the hardware configuration of the monitoring device according to the first embodiment of the present invention. この実施の形態2に係る監視装置の構成を示すブロック図である。It is a block diagram which shows the structure of the monitoring apparatus which concerns on this Embodiment 2. 実施の形態2において、仮想床設定部が「仮想床」を設定する概念を説明するための図であって、図14Aは、3次元レーザスキャナと、対象Aおよび対象Bを横から見た位置関係を示し、3次元レーザスキャナの視野内において、床はフラットではなく、凸部と凹部を有している状態をあらわすモデルであり、図14Bは、図14Aの状態から、床の高さを補正した状態をあらわすモデルである。In the second embodiment, the figure for explaining the concept that the virtual floor setting unit sets the “virtual floor”, FIG. 14A shows the three-dimensional laser scanner and the positions of the target A and the target B as viewed from the side. It is a model showing the relationship that the floor is not flat but has convex parts and concave parts in the field of view of the three-dimensional laser scanner. FIG. 14B shows the height of the floor from the state of FIG. 14A. This is a model that represents the corrected state.

以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
図1は、実施の形態1に係る監視装置100の構成を示すブロック図である。
監視装置100は、3次元レーザスキャナ10、現データ演算部20、現データ蓄積部21、比較データ演算部30、比較データ蓄積部31、変化領域抽出部40、認識処理部50、報知処理部60、床補正部70、および、床関連情報記憶部80で構成されている。床補正部70は、距離取得部701、および、補正部702を備える。
なお、図1において、監視装置100外に3次元レーザスキャナ10のスキャン範囲を示す背景200、当該背景200の前に立つ対象物201、監視装置100の上位にある装置であり、ブザー等の発報処理を行うPC300を記載している。なお、ここでは、監視装置100の上位にある装置は、一例としてPC300としているが、監視装置100の上位にある装置は、これに限らず、例えば、音声出力装置等、監視装置100における報知処理に基づき、発報処理を行うことができるものであればよい。監視装置100における報知処理の詳細は後述する。
また、この実施の形態1では、図1に示すように、監視装置100が床関連情報記憶部80を備えるものとしたが、これに限らず、床関連情報記憶部80は監視装置100の外部に備えるものとしてもよい。床関連情報記憶部80は、少なくとも監視装置100の床補正部70が当該床関連情報記憶部80を参照可能な場所に備えられるようになっていればよい。
Hereinafter, in order to explain the present invention in more detail, a mode for carrying out the present invention will be described with reference to the accompanying drawings.
Embodiment 1.
FIG. 1 is a block diagram showing a configuration of a monitoring device 100 according to a first embodiment.
The monitoring device 100 includes a three-dimensional laser scanner 10, a current data calculation unit 20, a current data storage unit 21, a comparison data calculation unit 30, a comparison data storage unit 31, a change area extraction unit 40, a recognition processing unit 50, and a notification processing unit 60. , A floor correction unit 70, and a floor-related information storage unit 80. The floor correction unit 70 includes a distance acquisition unit 701 and a correction unit 702.
In FIG. 1, a background 200 showing the scanning range of the three-dimensional laser scanner 10 outside the monitoring device 100, an object 201 standing in front of the background 200, and a device above the monitoring device 100, which emits a buzzer or the like. A PC 300 that performs information processing is described. Here, the device above the monitoring device 100 is PC300 as an example, but the device above the monitoring device 100 is not limited to this, and the notification processing in the monitoring device 100 such as a voice output device is not limited to this. Anything that can perform the alarm processing based on is sufficient. Details of the notification process in the monitoring device 100 will be described later.
Further, in the first embodiment, as shown in FIG. 1, the monitoring device 100 includes the floor-related information storage unit 80, but the present invention is not limited to this, and the floor-related information storage unit 80 is outside the monitoring device 100. It may be prepared for. The floor-related information storage unit 80 may be provided at least in a place where the floor correction unit 70 of the monitoring device 100 can refer to the floor-related information storage unit 80.

3次元レーザスキャナ10は、スキャン範囲に存在する対象物201等の3次元情報を取得して、当該対象物201等までの距離等を計測する。
ここで、図2は、3次元レーザスキャナ10の構成を示す図である。図2に示すように、3次元レーザスキャナ10は、レーザ発光ユニット11、回転ミラーを用いた分散機構13およびレーザ受光ユニット16を内蔵し、背景200で示した範囲をスキャンして距離データおよび強度データを取得する。レーザ発光ユニット11は、レーザ光パルス12を照射する。
分散機構13は、レーザ発光ユニット11から発光されたレーザ光パルス12を広角範囲に分散させる機構である。図2の例では、回転ミラーを用いた分散機構13を示している。当該回転ミラーを用いた分散機構13の詳細については後述する。分散機構13により分散された分散レーザ光パルス14は、背景200あるいは対象物(図2においては不図示)に照射および反射されレーザ反射光15を形成する。図2の例では、分散レーザ光パルス14が背景200のX方向およびY方向へ順次分散照射される様子を示している。具体的には、背景200のX方向に6ポイント、背景200のY方向に2ポイント、合計12ポイントに分散照射されている。
なお、図2では、回転ミラーを用いた分散機構13としたが、その他の分散機構を適用してもよい。例えば、モータレスでミラーをスキャンするスキャンレス光学系としてもよい。
The three-dimensional laser scanner 10 acquires three-dimensional information of an object 201 or the like existing in the scanning range, and measures the distance or the like to the object 201 or the like.
Here, FIG. 2 is a diagram showing the configuration of the three-dimensional laser scanner 10. As shown in FIG. 2, the three-dimensional laser scanner 10 incorporates a laser emitting unit 11, a dispersion mechanism 13 using a rotating mirror, and a laser receiving unit 16, and scans the range shown in the background 200 to obtain distance data and intensity. Get the data. The laser light emitting unit 11 irradiates the laser light pulse 12.
The dispersion mechanism 13 is a mechanism for dispersing the laser light pulse 12 emitted from the laser light emitting unit 11 in a wide angle range. In the example of FIG. 2, a dispersion mechanism 13 using a rotating mirror is shown. Details of the dispersion mechanism 13 using the rotating mirror will be described later. The dispersed laser light pulse 14 dispersed by the dispersion mechanism 13 is irradiated and reflected on the background 200 or an object (not shown in FIG. 2) to form the laser reflected light 15. In the example of FIG. 2, the dispersed laser beam pulse 14 is sequentially dispersed and irradiated in the X direction and the Y direction of the background 200. Specifically, 6 points in the X direction of the background 200 and 2 points in the Y direction of the background 200, a total of 12 points are dispersed and irradiated.
In FIG. 2, the dispersion mechanism 13 using the rotating mirror is used, but other dispersion mechanisms may be applied. For example, it may be a scanless optical system that scans a mirror without a motor.

レーザ受光ユニット16は、反射対象で反射されたレーザ反射光15を受光し、発光から受光までの時間差に基づいて、反射対象までの距離を算出し、距離データとする。図2の例では、背景200のX方向に6ポイント、背景200のY方向に2ポイント、合計12ポイントに分散された照射位置全てに対して、個別に距離を算出し、距離データとする。さらに、レーザ受光ユニット16は、分散された照射位置全てに対して、照射した光量と受光した光量の比率に基づいて反射対象の各ポイントにおける反射率を算出し、強度データとする。レーザ受光ユニット16で算出された距離データおよび強度データは、図1で示した現データ演算部20および比較データ演算部30に出力される。
レーザ受光ユニット16で算出された、照射位置全てに関しての距離データおよび強度データを、点群データ17という。
レーザ受光ユニット16による点群データ17の現データ演算部20および比較データ演算部30への出力は、フレーム単位に行われる。レーザ受光ユニット16は、背景200全体を1回スキャンして得られた点群データ17、すなわち、図2の例でいうと、背景200のX方向に6ポイント、Y方向に2ポイントの合計12ポイントに対して1回のスキャンで得られた点群データ17を、1フレーム分の点群データ17として現データ演算部20および比較データ演算部30へ出力する。
The laser light receiving unit 16 receives the laser reflected light 15 reflected by the reflection target, calculates the distance to the reflection target based on the time difference from the light emission to the light reception, and obtains the distance data. In the example of FIG. 2, the distances are individually calculated for all the irradiation positions dispersed in a total of 12 points, 6 points in the X direction of the background 200 and 2 points in the Y direction of the background 200, and used as distance data. Further, the laser light receiving unit 16 calculates the reflectance at each point to be reflected based on the ratio of the irradiated light amount and the received light amount with respect to all the dispersed irradiation positions, and obtains the intensity data. The distance data and intensity data calculated by the laser light receiving unit 16 are output to the current data calculation unit 20 and the comparison data calculation unit 30 shown in FIG.
The distance data and intensity data for all the irradiation positions calculated by the laser light receiving unit 16 are referred to as point cloud data 17.
The output of the point cloud data 17 by the laser light receiving unit 16 to the current data calculation unit 20 and the comparison data calculation unit 30 is performed in frame units. The laser light receiving unit 16 scans the entire background 200 once to obtain point cloud data 17, that is, in the example of FIG. 2, a total of 12 points of 6 points in the X direction and 2 points in the Y direction of the background 200. The point cloud data 17 obtained by one scan for a point is output to the current data calculation unit 20 and the comparison data calculation unit 30 as the point cloud data 17 for one frame.

次に、回転ミラーを用いた分散機構13の詳細について、図3を参照しながら説明を行う。分散機構13は、第1の回転ミラー13a、第1のモータ13b、第2の回転ミラー13cおよび第2のモータ13dで構成されている。第1の回転ミラー13aは、入射されたレーザ光パルス12のパルス周波数と同期して動作し、レーザ光パルス12を第1の回転ミラー13aの面に対して水平方向に分散する。水平方向に分散された水平分散レーザ光パルス13eは、常に同一の角度で分散される。第1のモータ13bは、第1の回転ミラー13aを駆動させる駆動源である。第2の回転ミラー13cは、入射されたレーザ光パルス12のパルス周波数と同期して動作し、水平分散レーザ光パルス13eをさらに垂直方向に分散する。垂直方向に分散された垂直分散レーザ光パルス13fは、常に同一の角度で分散される。第2のモータ13dは、第2の回転ミラー13cを駆動させる駆動源である。 Next, the details of the dispersion mechanism 13 using the rotating mirror will be described with reference to FIG. The dispersion mechanism 13 includes a first rotary mirror 13a, a first motor 13b, a second rotary mirror 13c, and a second motor 13d. The first rotating mirror 13a operates in synchronization with the pulse frequency of the incident laser light pulse 12, and disperses the laser light pulse 12 in the horizontal direction with respect to the surface of the first rotating mirror 13a. The horizontally dispersed laser beam 13e dispersed in the horizontal direction is always dispersed at the same angle. The first motor 13b is a drive source for driving the first rotary mirror 13a. The second rotating mirror 13c operates in synchronization with the pulse frequency of the incident laser beam pulse 12, and further disperses the horizontally dispersed laser beam pulse 13e in the vertical direction. The vertically dispersed laser beam 13f dispersed in the vertical direction is always dispersed at the same angle. The second motor 13d is a drive source for driving the second rotary mirror 13c.

以上の動作により、3次元レーザスキャナ10は、以下に示すX,Y,Zの3次元情報を得る。
X;水平方向座標
Y;垂直方向座標
Z;距離データ
図2の例では、水平方向座標Xは6ポイント、垂直方向座標Yは2ポイントとなる。また、距離データZは、Z軸方向の奥行き情報であり、以下、Z軸情報という。
3次元情報には、Z軸情報が含まれているため、対象物が3次元座標上のZ軸方向へ移動した場合、すなわち、3次元レーザスキャナ10に向かって直進した場合においても、Z軸方向の移動量を用いて差分を得ることができる。
By the above operation, the three-dimensional laser scanner 10 obtains the following three-dimensional information of X, Y, and Z.
X; Horizontal coordinates Y; Vertical coordinates Z; Distance data In the example of FIG. 2, the horizontal coordinates X are 6 points and the vertical coordinates Y are 2 points. Further, the distance data Z is depth information in the Z-axis direction, and is hereinafter referred to as Z-axis information.
Since the three-dimensional information includes Z-axis information, the Z-axis even when the object moves in the Z-axis direction on the three-dimensional coordinates, that is, when the object goes straight toward the three-dimensional laser scanner 10. The difference can be obtained by using the amount of movement in the direction.

現データ演算部20は、3次元レーザスキャナ10から出力される点群データ17中の距離データを取得し、監視領域、すなわち、3次元レーザスキャナ10の測定範囲における現時点の距離データを示す現データとして現データ蓄積部21に蓄積させる。ここでは、現データ演算部20は、入力された距離データを、グリッドを示す情報と紐付けて、現データ蓄積部21に蓄積させる。なお、グリッドとは、レーザ照射1ポイントの測定点を示す仮想的な3D空間における一領域である。グリッドの詳細については後述する。 The current data calculation unit 20 acquires the distance data in the point cloud data 17 output from the 3D laser scanner 10, and shows the current distance data in the monitoring area, that is, the measurement range of the 3D laser scanner 10. Is stored in the current data storage unit 21. Here, the current data calculation unit 20 associates the input distance data with the information indicating the grid and stores it in the current data storage unit 21. The grid is an area in a virtual 3D space indicating a measurement point of one point of laser irradiation. The details of the grid will be described later.

比較データ演算部30は、3次元レーザスキャナ10から出力される点群データ17中の距離データを取得し、比較データに変換して比較データ蓄積部31に蓄積させる。比較データへの変換処理は、例えば、取得した距離データから遡って過去50フレーム分の距離データから平均距離データを得て比較データとする、あるいは入力された距離データの直前のフレームの距離データを得て比較データとする等によって行えばよい。なお、比較データ演算部30は、3次元レーザスキャナ10から取得した距離データをデータ蓄積部(図示省略)に蓄積させておき、当該蓄積させておいた距離データに基づき、過去に遡った距離データを取得するようにすればよい。比較データ演算部30は、比較データとしての距離データを、各グリッドを示す情報と紐付けて、比較データ蓄積部31に蓄積させる。
なお、この実施の形態1において、現データを現距離データ、比較データを比較距離データともいうものとする。
The comparison data calculation unit 30 acquires the distance data in the point cloud data 17 output from the three-dimensional laser scanner 10, converts it into comparison data, and stores it in the comparison data storage unit 31. In the conversion process to the comparison data, for example, the average distance data is obtained from the distance data for the past 50 frames from the acquired distance data and used as the comparison data, or the distance data of the frame immediately before the input distance data is used. It may be obtained and used as comparative data. The comparison data calculation unit 30 stores the distance data acquired from the three-dimensional laser scanner 10 in the data storage unit (not shown), and based on the stored distance data, the distance data goes back to the past. Should be obtained. The comparison data calculation unit 30 stores the distance data as the comparison data in the comparison data storage unit 31 in association with the information indicating each grid.
In the first embodiment, the current data is also referred to as the current distance data, and the comparison data is also referred to as the comparison distance data.

床補正部70は、床関連情報記憶部80に記憶された床関連情報に基づき、現データ蓄積部21に蓄積された現データと、比較データ蓄積部31に蓄積された比較データの各点に対応する各グリッドのうち、床に相当するグリッドについて、必要に応じて、距離データの補正を行う。
床補正部70は、距離取得部701、および、補正部702を備える。
The floor correction unit 70 stores the current data stored in the current data storage unit 21 and the comparison data stored in the comparison data storage unit 31 based on the floor-related information stored in the floor-related information storage unit 80. Of the corresponding grids, the distance data is corrected as necessary for the grid corresponding to the floor.
The floor correction unit 70 includes a distance acquisition unit 701 and a correction unit 702.

距離取得部701は、床関連情報記憶部80を参照し、床関連情報記憶部80に記憶されている床関連情報に基づき、現データ蓄積部21に蓄積された現データと、比較データ蓄積部31に蓄積された比較データの、各点に対応する各グリッドに対応する床距離情報を取得する。具体的には、距離取得部701は、現データの各点および比較データの各点に、それぞれ対応する各グリッドと、床関連情報記憶部80に記憶されている床関連情報のグリッド情報とのつき合せを行い、対応する床距離情報を特定し、当該床距離情報を取得する。 The distance acquisition unit 701 refers to the floor-related information storage unit 80, and based on the floor-related information stored in the floor-related information storage unit 80, the current data stored in the current data storage unit 21 and the comparison data storage unit 80. The floor distance information corresponding to each grid corresponding to each point of the comparison data accumulated in 31 is acquired. Specifically, the distance acquisition unit 701 includes each grid corresponding to each point of the current data and each point of the comparison data, and grid information of the floor-related information stored in the floor-related information storage unit 80. Make a match, identify the corresponding floor distance information, and acquire the floor distance information.

ここで、図4は、実施の形態1において、床関連情報記憶部80に記憶されている床関連情報の内容の一例を説明する図である。
床関連情報とは、グリッドを特定する情報(以下「グリッド情報」という)と、3次元レーザスキャナ10から当該各グリッドに含まれる床の部分までの距離を示す情報(以下「床距離情報」という)から構成される情報である。床関連情報記憶部80には、例えば、図4に示すように、グリッド情報と床距離情報とが紐付けられて、テーブル形式で床関連情報が記憶される。
グリッド情報は、X方向グリッドおよびY方向グリッドからなる。X方向グリッドは、X軸方向に順に数えた場合に当該グリッドが何番目かを示す情報である。Y方向グリッドは、Y軸方向に順に数えた場合に当該グリッドが何番目かを示す情報である。床距離情報は、例えば、m(メートル)等の距離の単位で示される情報である。
Here, FIG. 4 is a diagram illustrating an example of the contents of the floor-related information stored in the floor-related information storage unit 80 in the first embodiment.
The floor-related information is information that identifies the grid (hereinafter referred to as "grid information") and information indicating the distance from the three-dimensional laser scanner 10 to the floor portion included in each grid (hereinafter referred to as "floor distance information"). ) Is the information. In the floor-related information storage unit 80, for example, as shown in FIG. 4, the grid information and the floor distance information are associated with each other, and the floor-related information is stored in a table format.
The grid information consists of an X-direction grid and a Y-direction grid. The X-direction grid is information indicating the number of the grid when counted in order in the X-axis direction. The Y-direction grid is information indicating the number of the grid when counted in order in the Y-axis direction. The floor distance information is information indicated in units of distance such as m (meter).

例えば、図4に示す床関連情報では、X方向グリッドが1、かつ、Y方向グリッドが1のグリッドについて、当該グリッドに含まれる床の部分は、3次元レーザスキャナ10からの距離が0mであることが定義され、X方向グリッドが1、かつ、Y方向グリッドが2のグリッドについて、当該グリッドに含まれる床の部分は、3次元レーザスキャナ10からの距離が20mであることが定義されている。また、例えば、X方向グリッドが1、かつ、Y方向グリッドが3のグリッドについて、当該グリッドに含まれる床の部分は、3次元レーザスキャナ10からの距離が40mであることが定義されている。
また、X方向グリッドが1、かつ、Y方向グリッドが4のグリッドについては、床を含んでいないため、床距離情報は「なし」と定義されている。すなわち、X方向グリッドが1、かつ、Y方向グリッドが4のグリッドについては、いずれのグリッドも「床以外」を含んでいるグリッドということになる。
床距離情報が「なし」と定義される場合、具体的には、当該床距離情報には、例えば、「無限遠」等、床距離情報が取り得る最大値が設定される。
For example, in the floor-related information shown in FIG. 4, for a grid having an X-direction grid of 1 and a Y-direction grid of 1, the floor portion included in the grid has a distance of 0 m from the three-dimensional laser scanner 10. Is defined, and for a grid with an X-direction grid of 1 and a Y-direction grid of 2, the floor portion included in the grid is defined to have a distance of 20 m from the three-dimensional laser scanner 10. .. Further, for example, for a grid having an X-direction grid of 1 and a Y-direction grid of 3, the floor portion included in the grid is defined to have a distance of 40 m from the three-dimensional laser scanner 10.
Further, the floor distance information is defined as "none" for the grid in which the X-direction grid is 1 and the Y-direction grid is 4, because the floor is not included. That is, for a grid in which the X-direction grid is 1 and the Y-direction grid is 4, all grids include "other than the floor".
When the floor distance information is defined as "none", specifically, the floor distance information is set to the maximum value that the floor distance information can take, such as "infinity".

また、図4では、グリッド情報に関して、Z方向グリッドの情報は省略するようにしている。「床」に関する情報は、X−Y平面に対して定義され、Z方向グリッドについては一定の値で固定値となるからである。
なお、図4に示す床関連情報の内容は一例に過ぎない。床関連情報は、図4に示す以外の情報を含むようにしてもよく、少なくとも図4に示す内容を含むものであればよい。また、床関連情報は、図4に示すような、テーブル形式のデータでなくてもよい。
Further, in FIG. 4, regarding the grid information, the information of the Z direction grid is omitted. This is because the information about the "floor" is defined for the XY plane and is a fixed value for the Z direction grid.
The content of the floor-related information shown in FIG. 4 is only an example. The floor-related information may include information other than that shown in FIG. 4, and may include at least the contents shown in FIG. Further, the floor-related information does not have to be data in a table format as shown in FIG.

床関連情報は、例えば、オペレータ等が、入力装置(図示省略)から入力する等して、予め、床関連情報記憶部80に記憶させている。
具体的な入力方法としては、例えば、オペレータ等が、X方向グリッドまたはY方向グリッドごとに、床距離情報を入力する方法があげられる。入力装置がオペレータ等からの入力を受け付けると、監視装置100の記憶制御部(図示省略)が、受け付けた入力内容を床関連情報として、床関連情報記憶部80に記憶させる。
The floor-related information is stored in the floor-related information storage unit 80 in advance by, for example, being input by an operator or the like from an input device (not shown).
As a specific input method, for example, an operator or the like may input floor distance information for each of the X-direction grid or the Y-direction grid. When the input device receives an input from an operator or the like, the storage control unit (not shown) of the monitoring device 100 stores the received input content as floor-related information in the floor-related information storage unit 80.

また、例えば、オペレータ等は、X方向グリッドにおいて床距離情報の差がないと仮定できる場合は、X方向グリッドのうちのあるグリッドを代表グリッドとし、当該代表グリッドに対するY方向グリッドごとの床距離情報のみを入力するようにしてもよい。具体的には、例えば、オペレータ等は、X方向グリッドが1かつY方向グリッドが1、X方向グリッドが1かつY方向グリッドが2、X方向グリッドが1かつY方向グリッドが3、および、X方向グリッドが1かつY方向グリッドが4、の4点の床距離情報を入力する。そして、例えば、記憶制御部が、当該4点の床関連情報を受け付け、X方向グリッド1以外のX方向グリッドに紐付けられるY方向グリッドの床距離情報について、それぞれ、X方向グリッド1に紐付けられるのと同じY方向グリッドの床距離情報をコピーして床関連情報を作成し、床関連情報記憶部80に記憶させるようにしてもよい。 Further, for example, when it can be assumed that there is no difference in the floor distance information in the X direction grid, the operator or the like uses a certain grid in the X direction grid as the representative grid, and the floor distance information for each Y direction grid with respect to the representative grid. You may enter only. Specifically, for example, the operator has 1 X-direction grid and 1 Y-direction grid, 1 X-direction grid and 2 Y-direction grids, 1 X-direction grid and 3 Y-direction grids, and X. Input the floor distance information of four points where the direction grid is 1 and the Y direction grid is 4. Then, for example, the memory control unit receives the floor-related information of the four points, and the floor distance information of the Y-direction grid associated with the X-direction grid other than the X-direction grid 1 is associated with the X-direction grid 1, respectively. The floor distance information of the same Y-direction grid may be copied to create floor-related information, which may be stored in the floor-related information storage unit 80.

距離取得部701は、例えば、現データ蓄積部21に蓄積された現データについて、(X方向グリッド,Y方向グリッド,Z方向グリッド)=(1,2,1)のグリッドの床距離情報を取得する場合、床関連情報の、X方向グリッドが1、かつ、Y方向グリッドが2のグリッドを検索し、床距離情報として、20mを取得する。
距離取得部701は、取得した床距離情報を、現データまたは比較データの各点に対応する各グリッドに付与して、補正部702に出力する。
For example, the distance acquisition unit 701 acquires the floor distance information of the grid (X-direction grid, Y-direction grid, Z-direction grid) = (1, 2, 1) for the current data stored in the current data storage unit 21. In this case, the grid of the floor-related information with the X-direction grid of 1 and the Y-direction grid of 2 is searched, and 20 m is acquired as the floor distance information.
The distance acquisition unit 701 adds the acquired floor distance information to each grid corresponding to each point of the current data or the comparison data, and outputs the acquired floor distance information to the correction unit 702.

補正部702は、距離取得部701から取得した床距離情報に基づき、現データ蓄積部21に蓄積された現データおよび比較データ蓄積部31に蓄積された比較データの、各点に対する各グリッドのうち、「床」に相当するグリッドについて、必要に応じて、距離データの補正を行う。
具体的には、補正部702は、現データおよび比較データの、各点に対する各グリッドについて、距離データに基づく距離と、床距離情報に基づく距離とを比較し、現データまたは比較データの、各点に対応する各グリッドにおける距離データに基づく距離が、床距離情報に基づく距離より大きければ、該当のグリッドの距離データを、床距離情報に基づく距離に置き換える。
補正部702は、該当のグリッドの距離データを床距離情報で置き換えた後の現データと比較データを、補正後現データまたは補正後比較データとし、変化領域抽出部40に出力する。
The correction unit 702 is out of each grid for each point of the current data stored in the current data storage unit 21 and the comparison data stored in the comparison data storage unit 31 based on the floor distance information acquired from the distance acquisition unit 701. , For the grid corresponding to the "floor", the distance data is corrected as necessary.
Specifically, the correction unit 702 compares the distance based on the distance data and the distance based on the floor distance information for each grid of the current data and the comparison data for each point, and each of the current data or the comparison data. If the distance based on the distance data in each grid corresponding to the points is larger than the distance based on the floor distance information, the distance data of the corresponding grid is replaced with the distance based on the floor distance information.
The correction unit 702 uses the current data and the comparison data after replacing the distance data of the corresponding grid with the floor distance information as the corrected current data or the corrected comparison data, and outputs the corrected area extraction unit 40.

なお、補正部702は、床距離情報で置き換えていないグリッドの距離データについては、そのままの内容とする。したがって、全てのグリッドがいずれも距離データの置き換えが必要ではなかった現データまたは比較データは、そのまま、補正後現データまたは補正後比較データとして変化領域抽出部40に出力される。 Note that the correction unit 702 keeps the contents of the grid distance data that is not replaced by the floor distance information as it is. Therefore, the current data or the comparison data for which the distance data does not need to be replaced in all the grids is output as it is to the change area extraction unit 40 as the corrected current data or the corrected comparison data.

また、ここでは、補正部702は、現データまたは比較データの、各点に対応する各グリッドにおける距離データに基づく距離が、床距離情報に基づく距離より大きければ、該当するグリッドの距離データを、床距離情報に基づく距離に置き換えるものとしたが、補正の方法はこれに限らない。例えば、補正部702は、現データまたは比較データの各点に対する各グリッドにおける距離データに基づく距離が、床距離情報に基づく距離より大きければ、該当するグリッドの距離データを、「無限遠」に置き換えるようにしてもよい。 Further, here, if the distance of the current data or the comparison data based on the distance data in each grid corresponding to each point is larger than the distance based on the floor distance information, the correction unit 702 displays the distance data of the corresponding grid. The distance is replaced with the distance based on the floor distance information, but the correction method is not limited to this. For example, if the distance based on the distance data in each grid with respect to each point of the current data or the comparison data is larger than the distance based on the floor distance information, the correction unit 702 replaces the distance data of the corresponding grid with "infinity". You may do so.

床距離情報に置き換える場合は、置き換えた後の距離データである補正後現データまたは補正後比較データが、連続性を持った値となるため、違和感がないデータとすることができる。
一方、「無限遠」に置き換える場合は、各グリッドの現データまたは比較データにおいて、置き換える値が全て同じ値となるので、処理負荷を軽減することができる。
When the data is replaced with the floor distance information, the corrected current data or the corrected comparison data, which is the distance data after the replacement, has a continuous value, so that the data does not have a sense of discomfort.
On the other hand, when replacing with "infinity", the processing load can be reduced because all the replacement values are the same in the current data or the comparison data of each grid.

床関連情報記憶部80は、各グリッドのグリッド情報と、当該グリッド情報に紐付けられた床距離情報とを記憶する(例えば、図4参照)。 The floor-related information storage unit 80 stores the grid information of each grid and the floor distance information associated with the grid information (see, for example, FIG. 4).

変化領域抽出部40は、床補正部70の補正部702から補正後現データおよび補正後比較データを取得し、補正後現データと補正後比較データとを画素単位で比較して差分値を算出し、算出した差分値が予め設定した閾値以上である画素領域を変化領域として抽出する。一般的に、一定の閾値を設定し、差分値が設定した閾値以上であるか否かで2値化した2値化データに変換して取り扱う。なお、補正後現データおよび補正後比較データは、距離データで構成されているため、変化領域抽出部40が算出する差分値は、「距離の差」を示している。例えば、補正後現データに背景200および対象物201が含まれ、補正後比較データに背景200のみが含まれている場合、得られる差分値は「補正後の背景と対象物との間の距離」を示している。 The change area extraction unit 40 acquires the corrected current data and the corrected comparison data from the correction unit 702 of the floor correction unit 70, compares the corrected current data and the corrected comparison data on a pixel-by-pixel basis, and calculates a difference value. Then, the pixel region in which the calculated difference value is equal to or larger than the preset threshold value is extracted as the change region. Generally, a fixed threshold value is set, and the data is converted into binarized data that is binarized depending on whether or not the difference value is equal to or greater than the set threshold value. Since the corrected current data and the corrected comparison data are composed of distance data, the difference value calculated by the change area extraction unit 40 indicates a “distance difference”. For example, when the corrected current data includes the background 200 and the object 201, and the corrected comparison data includes only the background 200, the obtained difference value is "the distance between the corrected background and the object". Is shown.

認識処理部50は、変化領域抽出部40が抽出した変化領域より「面積」、「縦横寸法」、「速度」等の特徴量を抽出し、抽出した特徴量が、予め定めた照合条件を満たしているか否かに基づいて、変化領域が報知対象であるか否かの認識処理を行う。認識処理部50は、変化領域が報知対象であると認識した場合、報知指示情報を報知処理部60に出力する。
報知処理部60は、認識処理部50から出力された報知指示情報に基づいて報知処理を行う。報知処理としては、上位にあるPC300などの装置に特定の信号を送信する処理、あるいは装置にブザーを鳴らさせるなどの処理などが挙げられる。
The recognition processing unit 50 extracts feature quantities such as "area", "vertical and horizontal dimensions", and "speed" from the change region extracted by the change region extraction unit 40, and the extracted feature quantities satisfy predetermined collation conditions. Based on whether or not the change area is the notification target, the recognition process is performed. When the recognition processing unit 50 recognizes that the change area is the notification target, the recognition processing unit 50 outputs the notification instruction information to the notification processing unit 60.
The notification processing unit 60 performs notification processing based on the notification instruction information output from the recognition processing unit 50. Examples of the notification process include a process of transmitting a specific signal to a device such as a higher-level PC 300, a process of causing the device to sound a buzzer, and the like.

なお、この実施の形態1では、図1に示すように、3次元レーザスキャナ10は監視装置100に備えられるものとしたが、これに限らず、3次元レーザスキャナ10は監視装置100の外部に備えられ、監視装置100は、ネットワーク等を介して、3次元レーザスキャナ10から点群データ17を取得するようにしてもよい。 In the first embodiment, as shown in FIG. 1, the three-dimensional laser scanner 10 is provided in the monitoring device 100, but the present invention is not limited to this, and the three-dimensional laser scanner 10 is outside the monitoring device 100. The monitoring device 100 may be provided to acquire point group data 17 from the three-dimensional laser scanner 10 via a network or the like.

次に、実施の形態1に係る監視装置100の動作について説明する。
図5は、実施の形態1に係る監視装置100の動作を示すフローチャートである。
なお、ここでは、説明の簡潔化のため、3次元レーザスキャナ10の解像度が8×4画素である場合を例に説明を行う。
まず、3次元レーザスキャナ10は背景200、すなわち、監視領域の範囲をスキャンし(ステップST501)、点群データ17、すなわち、距離データおよび強度データを取得する(ステップST502)。具体的には、背景200の範囲を3次元レーザスキャナ10の解像度である8×4に分割してスキャンする。距離データは一般にデジタルデータであり、ここでは8×4画素の1画素あたり8ビットの多値データとする。
3次元レーザスキャナ10は、取得した点群データを、現データ演算部20および比較データ演算部30に出力する。
現データ演算部20は、ステップST502で取得された8×4画素の点群データ17中の距離データを現データとして現データ蓄積部21に蓄積させる(ステップST503)。
比較データ演算部30は、過去にステップT502で取得されて不図示のデータ蓄積部に蓄積された8×4画素の点群データ17中の距離データを比較データに変換し、比較データ蓄積部31に蓄積させる(ステップST504)。
Next, the operation of the monitoring device 100 according to the first embodiment will be described.
FIG. 5 is a flowchart showing the operation of the monitoring device 100 according to the first embodiment.
Here, for the sake of brevity, the case where the resolution of the three-dimensional laser scanner 10 is 8 × 4 pixels will be described as an example.
First, the three-dimensional laser scanner 10 scans the background 200, that is, the range of the monitoring area (step ST501), and acquires the point cloud data 17, that is, the distance data and the intensity data (step ST502). Specifically, the range of the background 200 is divided into 8 × 4, which is the resolution of the three-dimensional laser scanner 10, and scanned. The distance data is generally digital data, and here, it is multi-valued data of 8 bits per pixel of 8 × 4 pixels.
The three-dimensional laser scanner 10 outputs the acquired point cloud data to the current data calculation unit 20 and the comparison data calculation unit 30.
The current data calculation unit 20 stores the distance data in the point cloud data 17 of 8 × 4 pixels acquired in step ST502 as the current data in the current data storage unit 21 (step ST503).
The comparison data calculation unit 30 converts the distance data in the point cloud data 17 of 8 × 4 pixels acquired in step T502 in the past and stored in the data storage unit (not shown) into comparison data, and the comparison data storage unit 31 (Step ST504).

床補正部70は、床関連情報記憶部80に記憶された床関連情報に基づき、現データ蓄積部21に蓄積された現データと、比較データ蓄積部31に蓄積された比較データの各点に対応する各グリッドのうち、床に相当するグリッドについて、必要に応じて、距離データの補正を行う(ステップST505)。 The floor correction unit 70 stores the current data stored in the current data storage unit 21 and the comparison data stored in the comparison data storage unit 31 based on the floor-related information stored in the floor-related information storage unit 80. Of the corresponding grids, the distance data is corrected as necessary for the grid corresponding to the floor (step ST505).

ここで、図6は、実施の形態1において、床補正部70による図5のステップST505の動作の詳細を説明するフローチャートである。
床補正部70の距離取得部701は、床関連情報記憶部80を参照し、床関連情報記憶部80に記憶されている床関連情報に基づき、現データ蓄積部21に蓄積された現データと、比較データ蓄積部31に蓄積された比較データの、各点に対応する各グリッドに対応する床距離情報を取得する(ステップST601)。
距離取得部701は、取得した床距離情報を、現データまたは比較データの各点に対する各グリッドに付与して、補正部702に出力する。
Here, FIG. 6 is a flowchart illustrating the details of the operation of step ST505 of FIG. 5 by the floor correction unit 70 in the first embodiment.
The distance acquisition unit 701 of the floor correction unit 70 refers to the floor-related information storage unit 80, and based on the floor-related information stored in the floor-related information storage unit 80, the current data stored in the current data storage unit 21 and the current data. , The floor distance information corresponding to each grid corresponding to each point of the comparison data accumulated in the comparison data storage unit 31 is acquired (step ST601).
The distance acquisition unit 701 adds the acquired floor distance information to each grid for each point of the current data or the comparison data, and outputs the acquired floor distance information to the correction unit 702.

補正部702は、現データ蓄積部21に蓄積された現データおよび比較データ蓄積部31に蓄積された比較データの、各点に対応する各グリッドについて、距離データに基づく距離と、床距離情報に基づく距離とを比較し、現データまたは比較データの、各点に対する各グリッドにおける距離データに基づく距離が、床距離情報に基づく距離より大きいかどうかを判定する(ステップST602)。 The correction unit 702 uses the distance based on the distance data and the floor distance information for each grid corresponding to each point of the current data stored in the current data storage unit 21 and the comparison data stored in the comparison data storage unit 31. It is compared with the base distance and it is determined whether the distance of the current data or the comparison data based on the distance data in each grid for each point is larger than the distance based on the floor distance information (step ST602).

ステップST602において、現データまたは比較データの、各点に対応する各グリッドにおける距離データに基づく距離が、床距離情報に基づく距離より大きい場合(ステップST602の“YES”の場合)、補正部702は、該当のグリッドの距離データを補正する(ステップST603)。具体的には、補正部702は、距離データに基づく距離が、床距離情報に基づく距離より大きいと判定したグリッドの距離データを、床距離情報に置き換える。 In step ST602, when the distance of the current data or the comparison data based on the distance data in each grid corresponding to each point is larger than the distance based on the floor distance information (when “YES” in step ST602), the correction unit 702 , Correct the distance data of the corresponding grid (step ST603). Specifically, the correction unit 702 replaces the distance data of the grid determined that the distance based on the distance data is larger than the distance based on the floor distance information with the floor distance information.

通常は、現データまたは比較データの、各点に対応する各グリッドにおける距離データが3次元レーザスキャナ10から当該グリッドに含まれる床までの距離より大きい値を示すことはあり得ない。しかし、稀に、例えば、3次元レーザスキャナ10が床に照射した分散レーザ光パルス14の入射角が浅くなる事象が発生することがある。これにより、正反射が起き、反射したレーザ反射光15が正しく3次元レーザスキャナ10に戻らず、正しい距離データが得られないことが起こり得る。このような現象が不規則に繰り返される点滅現象によって、後述する変化領域抽出部40による処理において、差分を抽出してしまう可能性がある。すなわち、「床」が「床」と認識されず、床以外の対象物201であると認識される可能性がある。 Normally, the distance data of the current data or the comparison data in each grid corresponding to each point cannot show a value larger than the distance from the 3D laser scanner 10 to the floor included in the grid. However, in rare cases, for example, an event may occur in which the incident angle of the dispersed laser light pulse 14 irradiated by the three-dimensional laser scanner 10 on the floor becomes shallow. As a result, specular reflection may occur, the reflected laser reflected light 15 may not return to the three-dimensional laser scanner 10 correctly, and correct distance data may not be obtained. Due to the blinking phenomenon in which such a phenomenon is repeated irregularly, there is a possibility that the difference will be extracted in the processing by the change area extraction unit 40 described later. That is, the "floor" may not be recognized as the "floor" but may be recognized as an object 201 other than the floor.

そこで、補正部702は、存在しない対象物201を誤認識しないよう、距離データがあり得ない距離を示す場合に、例えば、点滅現象が発生したものとし、予め定義された「床」を示す距離となるよう補正する。 Therefore, when the correction unit 702 indicates a distance at which the distance data cannot exist so as not to erroneously recognize the nonexistent object 201, for example, it is assumed that a blinking phenomenon has occurred, and the distance indicating a predefined "floor" is indicated. Correct so that

ステップST602において、現データまたは比較データの、各点に対応する各グリッドにおける距離データに基づく距離が、床距離情報に基づく距離より大きくない場合、すなわち、現データまたは比較データの、各点に対応する各グリッドにおける距離データに基づく距離が、床距離情報に基づく距離以下である場合(ステップST602の“NO”の場合)、ステップST603はスキップする。 In step ST602, when the distance of the current data or the comparison data based on the distance data in each grid corresponding to each point is not larger than the distance based on the floor distance information, that is, it corresponds to each point of the current data or the comparison data. If the distance based on the distance data in each grid is equal to or less than the distance based on the floor distance information (“NO” in step ST602), step ST603 is skipped.

ステップST602で判定対象となるグリッドについて、当該グリッドにおける距離データに基づく距離が床距離情報に基づく距離と等しい場合は、正常に「床」が検知されているものであるので、距離データの補正は必要ない。
また、ステップST602で判定対象となるグリッドについて、当該グリッドにおける距離データに基づく距離が床距離情報に基づく距離未満の場合、監視領域に進入してきた対象物201が検知されたものと考えられる。この場合、当該判定対象となるグリッドにおける距離データは、「床」に相当するグリッドにおける距離データではないので、距離データの補正は必要ない。
For the grid to be determined in step ST602, if the distance based on the distance data in the grid is equal to the distance based on the floor distance information, the "floor" is normally detected, so the distance data is corrected. unnecessary.
Further, regarding the grid to be determined in step ST602, when the distance based on the distance data in the grid is less than the distance based on the floor distance information, it is considered that the object 201 entering the monitoring area is detected. In this case, since the distance data in the grid to be determined is not the distance data in the grid corresponding to the “floor”, it is not necessary to correct the distance data.

なお、上述のとおり、「床」に相当しないグリッドについては、床距離情報は「なし」と定義され、例えば、「無限遠」等、床距離情報が取り得る最大値が設定されて、床関連情報記憶部80に記憶されている。
また、監視領域に侵入してきた対象物201の、3次元レーザスキャナ10からの距離は、必ず3次元レーザスキャナ10から床までの距離よりも小さくなる。
従って、ステップST602において、監視領域に侵入してきた対象物201に相当するグリッドについて、当該グリッドにおける距離データに基づく距離が床距離情報に基づく距離以上になることはなく、ステップST603の処理はスキップされるので、当該グリッドにおける距離データが補正されることはない。
As described above, for a grid that does not correspond to "floor", the floor distance information is defined as "none", and the maximum value that the floor distance information can take, such as "infinity", is set and is related to the floor. It is stored in the information storage unit 80.
Further, the distance of the object 201 that has entered the monitoring area from the three-dimensional laser scanner 10 is always smaller than the distance from the three-dimensional laser scanner 10 to the floor.
Therefore, in step ST602, with respect to the grid corresponding to the object 201 that has invaded the monitoring area, the distance based on the distance data in the grid does not exceed the distance based on the floor distance information, and the processing in step ST603 is skipped. Therefore, the distance data in the grid is not corrected.

ここで、図7は、実施の形態1において、3次元レーザスキャナ10の視野を仮想的な3D空間に組み上げた立体モデルの一例を示す図である。
図7において、1つのキューブが、レーザ照射1ポイントの測定点を示すものとして、空間のサイズを8×4×4個のキューブとする。1つのキューブがレーザ照射1ポイントの測定点を示し、当該測定点をここではグリッドという。
Here, FIG. 7 is a diagram showing an example of a three-dimensional model in which the field of view of the three-dimensional laser scanner 10 is assembled in a virtual 3D space in the first embodiment.
In FIG. 7, one cube indicates a measurement point of one point of laser irradiation, and the size of the space is 8 × 4 × 4. One cube indicates a measurement point of one point of laser irradiation, and the measurement point is referred to as a grid here.

図8は、実施の形態1において、3次元レーザスキャナ10の視野にある床803、対象物201である対象A801および対象B802が、8×4×4個のグリッドの中でどのように見えているかを示したモデルの一例である。
図8Aは、3次元レーザスキャナ10と対象A801および対象B802を横から見た位置関係を示すモデルである。また、図8Bは、図上、左側が、8×4×4個のグリッドが密着したモデル、図上、右側が、図上左側に示す、8×4×4個のグリッドが密着したモデルを、横に4つにスライスして全グリッドが見えるようにしたモデルである。また、図8Cは、3次元レーザスキャナ10の視野を仮想的なイメージに組み上げたイメージモデルである。
FIG. 8 shows how the floor 803 in the field of view of the three-dimensional laser scanner 10 and the objects A801 and B802, which are the objects 201, appear in the 8 × 4 × 4 grid in the first embodiment. This is an example of a model showing that.
FIG. 8A is a model showing the positional relationship between the three-dimensional laser scanner 10 and the target A801 and the target B802 as viewed from the side. Further, FIG. 8B shows a model in which 8 × 4 × 4 grids are in close contact with each other on the left side of the figure, and a model in which 8 × 4 × 4 grids are in close contact with each other on the right side of the figure. , It is a model that slices horizontally into four so that the entire grid can be seen. Further, FIG. 8C is an image model in which the field of view of the three-dimensional laser scanner 10 is assembled into a virtual image.

図8Cに示すように、床803は、3次元レーザスキャナ10の俯角により、奥に行けば行くほど高い位置に見える。また、対象A801および対象B802は、同じ大きさであるにもかかわらず、奥にある対象802は、小さく測定される。 As shown in FIG. 8C, the floor 803 appears to be higher as it goes deeper due to the depression angle of the three-dimensional laser scanner 10. Further, although the target A801 and the target B802 have the same size, the target 802 in the back is measured smaller.

図8A〜図8Bにおいて、床803,対象A801、および、対象B802に相当するグリッド以外のグリッドは、3次元レーザスキャナ10において距離が得られなかったグリッドである。この実施の形態1において、3次元レーザスキャナ10において距離が得られなかったグリッドをブランクグリッド804ともいうものとする。 In FIGS. 8A to 8B, the grids other than the grids corresponding to the floor 803, the target A801, and the target B802 are grids for which a distance could not be obtained by the three-dimensional laser scanner 10. In the first embodiment, the grid for which the distance cannot be obtained by the three-dimensional laser scanner 10 is also referred to as a blank grid 804.

図7,8に示したように、3次元レーザスキャナ10の視野には、床803のように「床」に相当する対象物と、対象A801および対象B802のように「床以外」に相当する対象物201が存在する。しかしながら、3次元レーザスキャナ10から得られる情報だけでは、点群データ17の各点に対応するグリッドが「床」に相当するのか、「床以外」に相当するのかを区別できない。すなわち、3次元レーザスキャナ10から出力される点群データ17には、「床」に相当するのか、「床以外」に相当するのかの情報は含まれていない。 As shown in FIGS. 7 and 8, the field of view of the three-dimensional laser scanner 10 corresponds to an object corresponding to the “floor” such as the floor 803 and an object “other than the floor” such as the target A801 and the target B802. There is an object 201. However, it is not possible to distinguish whether the grid corresponding to each point of the point cloud data 17 corresponds to the "floor" or "other than the floor" only by the information obtained from the three-dimensional laser scanner 10. That is, the point cloud data 17 output from the three-dimensional laser scanner 10 does not include information on whether it corresponds to the “floor” or “other than the floor”.

一方、上述したように、稀に、例えば、3次元レーザスキャナ10が床に照射した分散レーザ光パルス14の入射角が浅くなる事象が発生することがあり、これにより、正反射が起き、反射したレーザ反射光15が正しく3次元レーザスキャナ10に戻らず、正しい距離データが得られないことが起こり得る。具体的には、現データまたは比較データの、各点に対応する各グリッドにおける距離データが、3次元レーザスキャナ10から当該グリッドに含まれる床までの距離より大きい値を示してしまうことがあり得る。
このような点滅現象が発生した場合、「床」と認識されず、床以外の対象物201であると認識される可能性があるので、当該誤認識を防ぐため、「床」に相当するにもかかわらず正しく距離データが得られなかったグリッドの距離データについて、正しい距離データに補正しておく必要がある。
そこで、この実施の形態1では、予め、床距離情報を定義し、床関連情報記憶部80に、グリッド情報と紐付けられた床関連情報として記憶させておき、床距離情報に基づいて、3次元レーザスキャナ10からの距離データに基づく距離が、床距離情報に基づく距離よりも大きい場合、すなわち、点滅現象等により正しい距離データが得られなかった、「床」に相当するグリッドである場合、当該グリッドの距離データを床距離情報に置き換えて、正しい距離データへと補正する。
On the other hand, as described above, in rare cases, for example, an event may occur in which the incident angle of the dispersed laser light pulse 14 irradiated by the three-dimensional laser scanner 10 on the floor becomes shallow, which causes specular reflection and reflection. It is possible that the reflected laser light 15 does not return to the three-dimensional laser scanner 10 correctly and the correct distance data cannot be obtained. Specifically, the distance data of the current data or the comparison data in each grid corresponding to each point may show a value larger than the distance from the 3D laser scanner 10 to the floor included in the grid. ..
When such a blinking phenomenon occurs, it is not recognized as a "floor" and may be recognized as an object 201 other than the floor. Therefore, in order to prevent the false recognition, it corresponds to the "floor". Despite this, it is necessary to correct the distance data of the grid for which the correct distance data could not be obtained to the correct distance data.
Therefore, in the first embodiment, the floor distance information is defined in advance, stored in the floor-related information storage unit 80 as the floor-related information associated with the grid information, and based on the floor distance information, 3 When the distance based on the distance data from the dimensional laser scanner 10 is larger than the distance based on the floor distance information, that is, when the grid corresponds to the "floor" where the correct distance data could not be obtained due to the blinking phenomenon or the like. The distance data of the grid is replaced with the floor distance information and corrected to the correct distance data.

図9は、実施の形態1において、監視領域に対象物201が存在しない状態で、3次元レーザスキャナ10の視野にある床803が、8×4×4個のグリッドの中でどのように見えているかを示したモデルの一例である。
図上、左側は、8×4×4個のグリッドが密着したモデル、図上、右側は、図上左側に示す、8×4×4個のグリッドが密着したモデルを、横に4つにスライスして全グリッドが見えるようにしたモデルである。
また、図10は、図9のモデルで示す監視領域の状態から、当該監視領域に対象物201である対象A801および対象B802が侵入してきた場合に、3次元レーザスキャナ10の視野にある床803、対象A801、および、対象B802が、8×4×4個のグリッドの中でどのように見えているかを示したモデルの一例である。
FIG. 9 shows how the floor 803 in the field of view of the 3D laser scanner 10 looks like in an 8 × 4 × 4 grid in the first embodiment in the absence of the object 201 in the monitoring area. This is an example of a model showing whether or not it is used.
On the left side of the figure, the model with 8x4x4 grids in close contact, and on the right side of the figure, the model with 8x4x4 grids in close contact, shown on the left side of the figure, are divided into four horizontally. This model is sliced so that the entire grid can be seen.
Further, FIG. 10 shows the floor 803 in the field of view of the three-dimensional laser scanner 10 when the objects A801 and B802, which are the objects 201, invade the monitoring area from the state of the monitoring area shown in the model of FIG. , A801, and B802 are examples of a model showing how the objects A801 and B802 look in an 8x4x4 grid.

なお、図9および図10において、グリッド803’で示す、(X方向グリッド,Y方向グリッド,Z方向グリッド)=(1,2,1)のグリッドは、補正部702が補正を行い、距離データを、床関連情報の床距離情報で置き換えたグリッドであるとする。 In addition, in FIGS. 9 and 10, the grid of (X direction grid, Y direction grid, Z direction grid) = (1, 2, 1) shown by grid 803'is corrected by the correction unit 702, and the distance data is obtained. Is a grid replaced with the floor distance information of the floor-related information.

対象A801および対象B802が侵入してきた場合、当該対象A801および対象B802は、3次元レーザスキャナ10から見て、床803より遠方に見えることはない。仮に、当該対象A801および対象B802が、3次元レーザスキャナ10から見て、床803より遠方に見えたとすると、当該対象A801および対象B802は、床803に埋まっているという、現実ではあり得ない状態となる。
すなわち、3次元レーザスキャナ10から対象A801までの距離、および、3次元レーザスキャナ10から対象B802までの距離は、必ず、3次元レーザスキャナ10から床までの距離よりも小さくなる。
When the target A801 and the target B802 invade, the target A801 and the target B802 are not seen farther than the floor 803 when viewed from the three-dimensional laser scanner 10. If the target A801 and the target B802 are seen farther than the floor 803 when viewed from the three-dimensional laser scanner 10, the target A801 and the target B802 are buried in the floor 803, which is an unrealistic state. It becomes.
That is, the distance from the three-dimensional laser scanner 10 to the target A801 and the distance from the three-dimensional laser scanner 10 to the target B802 are always smaller than the distance from the three-dimensional laser scanner 10 to the floor.

したがって、補正部702が、上述のように、距離データが示す距離が床距離情報に基づく距離よりも大きい場合に距離データを床距離情報に置き換えたとしても、対象物201までの距離を示す距離データが置き換えられることで対象物201を見失うことなく、3次元レーザスキャナ10から対象物201までの距離を正確に取得することができる。
また、例えば、上述したような点滅現象が発生した場合も、補正部702が距離データを床距離情報に置き換えて、床の距離を予め「床」と定義されている距離に固定することで、床に相当するはずのグリッドを、対象物201が存在するグリッドであるかのように誤認識することがなくなる。
Therefore, as described above, even if the correction unit 702 replaces the distance data with the floor distance information when the distance indicated by the distance data is larger than the distance based on the floor distance information, the distance indicating the distance to the object 201 is indicated. By replacing the data, the distance from the three-dimensional laser scanner 10 to the object 201 can be accurately acquired without losing sight of the object 201.
Further, for example, even when the blinking phenomenon as described above occurs, the correction unit 702 replaces the distance data with the floor distance information and fixes the floor distance to the distance defined in advance as “floor”. The grid that should correspond to the floor will not be mistakenly recognized as if the object 201 exists.

図6のフローチャートに戻る。
補正部702は、必要に応じて該当するグリッドの距離データを床距離情報で置き換えた後の現データおよび比較データを、それぞれ、補正後現データおよび補正後比較データとし、変化領域抽出部40に出力する(ステップST604)。
Return to the flowchart of FIG.
The correction unit 702 uses the current data and the comparison data after replacing the distance data of the corresponding grid with the floor distance information as necessary as the corrected current data and the corrected comparison data, respectively, in the change area extraction unit 40. Output (step ST604).

以上のように、床補正部70は、現データ蓄積部21に蓄積された現データと、比較データ蓄積部31に蓄積された比較データのうち、床に相当するグリッドの現データまたは比較データに対して、必要に応じて、補正を行う。
そして、床補正部70は、補正を行った後のグリッドに基づく補正後の現データを補正後現データ、補正を行った後のグリッドに基づく補正後の比較データを補正後比較データとして、それぞれ、変化領域抽出部40に出力する。
なお、床補正部70は、上述したような処理を、例えば、現データ蓄積部21に蓄積された最新の現データに基づくグリッドと、比較データ蓄積部31に蓄積された最新の比較データに基づくグリッドを対象に行うようにする。
As described above, the floor correction unit 70 uses the current data stored in the current data storage unit 21 and the comparison data stored in the comparison data storage unit 31 as the current data or the comparison data of the grid corresponding to the floor. On the other hand, correction is performed as necessary.
Then, the floor correction unit 70 uses the corrected current data based on the corrected grid as the corrected current data and the corrected comparison data based on the corrected grid as the corrected comparison data. , Is output to the change area extraction unit 40.
The floor correction unit 70 performs the above-described processing based on, for example, a grid based on the latest current data stored in the current data storage unit 21 and the latest comparison data stored in the comparison data storage unit 31. Try to target the grid.

図5のフローチャートに戻る。
変化領域抽出部40は、床補正部70から出力された補正後現データと、補正後比較データとを取得し、補正後現データと補正後比較データとを画素単位で比較して差分値を算出する(ステップST506)。当該ステップST506の処理では、補正後現データおよび補正後比較データは、距離データで構成されているため、変化領域抽出部40が算出する差分値は「距離の差」を示している。例えば、補正後現データに背景200および対象物201が含まれ、補正後比較データに背景200のみが含まれている場合、得られる差分値は「比較データの背景と現データの対象物との間の距離」を示している。
Return to the flowchart of FIG.
The change area extraction unit 40 acquires the corrected current data output from the floor correction unit 70 and the corrected comparison data, compares the corrected current data and the corrected comparison data on a pixel-by-pixel basis, and obtains a difference value. Calculate (step ST506). In the process of step ST506, since the corrected current data and the corrected comparison data are composed of distance data, the difference value calculated by the change area extraction unit 40 indicates a “distance difference”. For example, when the corrected current data includes the background 200 and the object 201, and the corrected comparison data includes only the background 200, the obtained difference value is "the background of the comparison data and the object of the current data. The distance between them is shown.

ステップST506で得られた差分値は、1画素あたり8ビットの多値データであり、変化領域抽出部40は得られた差分値が予め設定した閾値以上であるか否か判定を行う(ステップST507)。差分値が閾値以上である場合(ステップST507の“YES”の場合)、当該画素領域を変化領域として抽出する(ステップST508)。変化領域抽出部40は、抽出した変化領域の情報を、認識処理部50に出力する。
一方、差分値が閾値未満である場合(ステップST507の“NO”の場合)、当該画素領域は変化領域でないと判断し(ステップST509)、ステップST510の処理に進む。その後、変化領域抽出部40は、8×4画素全てについて処理を行ったか否か判定を行う(ステップST510)。8×4画素全てについて処理を行っていない場合(ステップST510の“NO”の場合)、ステップST506の処理に戻り、上述した処理を繰り返す。
The difference value obtained in step ST506 is multi-valued data of 8 bits per pixel, and the change area extraction unit 40 determines whether or not the obtained difference value is equal to or greater than a preset threshold value (step ST507). ). When the difference value is equal to or greater than the threshold value (when “YES” in step ST507), the pixel region is extracted as a change region (step ST508). The change area extraction unit 40 outputs the extracted information of the change area to the recognition processing unit 50.
On the other hand, when the difference value is less than the threshold value (when “NO” in step ST507), it is determined that the pixel region is not a change region (step ST509), and the process proceeds to step ST510. After that, the change area extraction unit 40 determines whether or not all the 8 × 4 pixels have been processed (step ST510). If all 8 × 4 pixels have not been processed (“NO” in step ST510), the process returns to step ST506 and the above processing is repeated.

一方、8×4画素全てについて処理を行った場合(ステップST510の“YES”の場合)、認識処理部50は、ステップST508で抽出された変化領域が照合条件を満たすか否か判定を行う(ステップST511)。照合条件を満たす場合(ステップST511の“YES”の場合)、認識処理部50は、変化領域が報知対象であると認識する(ステップST512)。認識処理部50は、変化領域が報知対象であると認識した場合、報知指示情報を報知処理部60に出力する。
一方、照合条件を満たさない場合(ステップST511の“NO”の場合)、変化領域が報知対象でないと判断し(ステップST513)、ステップST501の処理に戻る。
On the other hand, when processing is performed on all 8 × 4 pixels (when “YES” in step ST510), the recognition processing unit 50 determines whether or not the change region extracted in step ST508 satisfies the collation condition (when the processing is performed (when “YES” in step ST510). Step ST511). When the collation condition is satisfied (“YES” in step ST511), the recognition processing unit 50 recognizes that the change area is the notification target (step ST512). When the recognition processing unit 50 recognizes that the change area is the notification target, the recognition processing unit 50 outputs the notification instruction information to the notification processing unit 60.
On the other hand, if the collation condition is not satisfied (“NO” in step ST511), it is determined that the change area is not the notification target (step ST513), and the process returns to step ST501.

ここで、ステップST511における認識処理部50による判定処理を詳細に説明する。
図11は、実施の形態1に係る監視装置100の認識処理部50による判定処理を示すフローチャートである。
認識処理部50は、変化領域が監視範囲内に存在するか否か判定を行う(ステップST1101)。なお、ここで、監視範囲とは、監視領域、すなわち、3次元レーザスキャナ10の測定範囲内の範囲であって、例えば、監視の必要上、対象物201を検知した場合に報知が求められる範囲のことをいい、当該監視範囲は予め設定されているものとする。
変化領域が監視範囲内に存在する場合(ステップST1101の“YES”の場合)、認識処理部50は、さらに、変化領域が所定の面積を有しているか否か判定を行う(ステップST1102)。ここでいう変化領域とは、図5のステップST508で変化領域として抽出された画素のうち、互いに隣接あるいは近接する複数の画素の集合からなる領域のことをいう。
変化領域が所定の面積を有している場合(ステップST1102の“YES”の場合)、認識処理部50は、さらに、変化領域が所定の縦横寸法を有しているか否か判定を行う(ステップST1103)。所定の縦横寸法を有している場合(ステップST1103の“YES”の場合)、認識処理部50は、さらに、変化領域が所定の移動速度を有しているか否か判定を行う(ステップST1104)。所定の移動速度を有している場合(ステップST1104の“YES”の場合)、図5のステップST512に進み、変化領域が報知対象であると認識される。
Here, the determination process by the recognition processing unit 50 in step ST511 will be described in detail.
FIG. 11 is a flowchart showing a determination process by the recognition processing unit 50 of the monitoring device 100 according to the first embodiment.
The recognition processing unit 50 determines whether or not the change region exists within the monitoring range (step ST1101). Here, the monitoring range is a monitoring area, that is, a range within the measurement range of the three-dimensional laser scanner 10, and for example, a range for which notification is required when the object 201 is detected due to the need for monitoring. It is assumed that the monitoring range is set in advance.
When the change area exists within the monitoring range (when “YES” in step ST1101), the recognition processing unit 50 further determines whether or not the change area has a predetermined area (step ST1102). The change region referred to here refers to a region consisting of a set of a plurality of pixels adjacent to or close to each other among the pixels extracted as the change region in step ST508 of FIG.
When the change area has a predetermined area (when “YES” in step ST1102), the recognition processing unit 50 further determines whether or not the change area has a predetermined vertical and horizontal dimensions (step). ST1103). When it has a predetermined vertical and horizontal dimensions (when “YES” in step ST1103), the recognition processing unit 50 further determines whether or not the change region has a predetermined moving speed (step ST1104). .. When the moving speed has a predetermined speed (when “YES” in step ST1104), the process proceeds to step ST512 in FIG. 5, and the change region is recognized as the notification target.

一方、変化領域が監視範囲内に存在しない場合(ステップST1101の“NO”の場合)、あるいは、変化領域が所定の面積を有していない場合(ステップST1102の“NO”の場合)、あるいは、変化領域が所定の縦横寸法を有していない場合(ステップST1103の“NO”の場合)、あるいは、変化領域が所定の移動速度を有してない場合(ステップST1104の“NO”の場合)は、図5のステップST513に進み、報知対象でないと判断される。 On the other hand, when the change area does not exist within the monitoring range (when “NO” in step ST1101), or when the change area does not have a predetermined area (when “NO” in step ST1102), or When the changing area does not have a predetermined vertical and horizontal dimension (when "NO" in step ST1103), or when the changing area does not have a predetermined moving speed (when "NO" in step ST1104). , Step ST513 of FIG. 5, and it is determined that the notification target is not applicable.

図5のフローチャートに戻る。
報知処理部60は、ステップST512において認識処理部50から出力された報知指示情報に基づき、認識された報知対象について報知処理を行い(ステップST514)、ステップST501の処理に戻る。
Return to the flowchart of FIG.
The notification processing unit 60 performs notification processing on the recognized notification target based on the notification instruction information output from the recognition processing unit 50 in step ST512 (step ST514), and returns to the processing of step ST501.

図12A,図12Bは、この発明の実施の形態1に係る監視装置100のハードウェア構成の一例を示す図である。
この発明の実施の形態1において、現データ演算部20と、比較データ演算部30と、変化領域抽出部40と、認識処理部50と、報知処理部60と、床補正部70の各機能は、処理回路1201により実現される。すなわち、監視装置100は、3次元レーザスキャナ10から取得した点群データに基づき、報知対象となる変化を検出した場合に報知処理を行うための処理回路1201を備える。
処理回路1201は、図12Aに示すように専用のハードウェアであっても、図12Bに示すようにメモリ1205に格納されるプログラムを実行するCPU(Central Processing Unit)1206であってもよい。
12A and 12B are diagrams showing an example of the hardware configuration of the monitoring device 100 according to the first embodiment of the present invention.
In the first embodiment of the present invention, the functions of the current data calculation unit 20, the comparison data calculation unit 30, the change area extraction unit 40, the recognition processing unit 50, the notification processing unit 60, and the floor correction unit 70 are , Realized by the processing circuit 1201. That is, the monitoring device 100 includes a processing circuit 1201 for performing notification processing when a change to be notified is detected based on the point cloud data acquired from the three-dimensional laser scanner 10.
The processing circuit 1201 may be dedicated hardware as shown in FIG. 12A, or may be a CPU (Central Processing Unit) 1206 that executes a program stored in the memory 1205 as shown in FIG. 12B.

処理回路1201が専用のハードウェアである場合、処理回路1201は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field−Programmable Gate Array)、またはこれらを組み合わせたものが該当する。 When the processing circuit 1201 is dedicated hardware, the processing circuit 1201 may be, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC (Application Specific Integrated Circuit), or an FPGA (Field-Programmable). Gate Array), or a combination of these.

処理回路1201がCPU1206の場合、現データ演算部20と、比較データ演算部30と、変化領域抽出部40と、認識処理部50と、報知処理部60と、床補正部70の各機能は、ソフトウェア、ファームウェア、または、ソフトウェアとファームウェアとの組み合わせにより実現される。すなわち、現データ演算部20と、比較データ演算部30と、変化領域抽出部40と、認識処理部50と、報知処理部60と、床補正部70は、HDD(Hard Disk Drive)1202、メモリ1205等に記憶されたプログラムを実行するCPU1206、または、システムLSI(Large−Scale Integration)等の処理回路により実現される。また、HDD1202、または、メモリ1205等に記憶されたプログラムは、現データ演算部20と、比較データ演算部30と、変化領域抽出部40と、認識処理部50と、報知処理部60と、床補正部70の手順や方法をコンピュータに実行させるものであるとも言える。ここで、メモリ1205とは、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read−Only Memory)等の、不揮発性もしくは揮発性の半導体メモリ、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、または、DVD(Digital Versatile Disc)等が該当する。 When the processing circuit 1201 is the CPU 1206, the functions of the current data calculation unit 20, the comparison data calculation unit 30, the change area extraction unit 40, the recognition processing unit 50, the notification processing unit 60, and the floor correction unit 70 are It is realized by software, firmware, or a combination of software and firmware. That is, the current data calculation unit 20, the comparison data calculation unit 30, the change area extraction unit 40, the recognition processing unit 50, the notification processing unit 60, and the floor correction unit 70 are HDD (Hard Disk Drive) 1202 and memory. It is realized by a CPU 1206 that executes a program stored in 1205 or the like, or a processing circuit such as a system LSI (Large-Scale Integration). The programs stored in the HDD 1202, the memory 1205, or the like include the current data calculation unit 20, the comparison data calculation unit 30, the change area extraction unit 40, the recognition processing unit 50, the notification processing unit 60, and the floor. It can also be said that the procedure and method of the correction unit 70 are executed by the computer. Here, the memory 1205 is, for example, a RAM (Random Access Memory), a ROM (Read Only Memory), a flash memory, an EPROM (Erasable Programmable Read Online Memory), an EEPROM (Electrically Memory), or an EEPROM (Electrically Memory). A sexual or volatile semiconductor memory, a magnetic disk, a flexible disk, an optical disk, a compact disk, a mini disk, a DVD (Digital Versaille Disc), or the like is applicable.

なお、現データ演算部20と、比較データ演算部30と、変化領域抽出部40と、認識処理部50と、報知処理部60と、床補正部70の各機能について、一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現するようにしてもよい。例えば、現データ演算部20と、比較データ演算部30については専用のハードウェアとしての処理回路1201でその機能を実現し、変化領域抽出部40と、認識処理部50と、報知処理部60と、床補正部70については処理回路がメモリ1205に格納されたプログラムを読み出して実行することによってその機能を実現することが可能である。
現データ蓄積部21と比較データ蓄積部31と床関連情報記憶部80は、例えば、HDD1202を使用する。なお、これは一例にすぎず、現データ蓄積部21と比較データ蓄積部31と床関連情報記憶部80は、DVD、または、メモリ1205等によって構成されるものであってもよい。
また、監視装置100は、3次元レーザスキャナ10、および、上位にあるPC300等の装置との通信を行う入力インタフェース装置1203、出力インタフェース装置1204を有する。
Note that some of the functions of the current data calculation unit 20, the comparison data calculation unit 30, the change area extraction unit 40, the recognition processing unit 50, the notification processing unit 60, and the floor correction unit 70 are dedicated hardware. It may be realized by hardware and partly by software or firmware. For example, the current data calculation unit 20 and the comparison data calculation unit 30 are realized by the processing circuit 1201 as dedicated hardware, and the change area extraction unit 40, the recognition processing unit 50, and the notification processing unit 60 The function of the floor correction unit 70 can be realized by the processing circuit reading and executing the program stored in the memory 1205.
The current data storage unit 21, the comparison data storage unit 31, and the floor-related information storage unit 80 use, for example, HDD 1202. Note that this is only an example, and the current data storage unit 21, the comparison data storage unit 31, and the floor-related information storage unit 80 may be configured by a DVD, a memory 1205, or the like.
Further, the monitoring device 100 includes a three-dimensional laser scanner 10, an input interface device 1203 that communicates with a device such as a PC 300 on the upper level, and an output interface device 1204.

以上のように、この実施の形態1によれば、監視領域を測定した3次元レーザスキャナ10の測定結果から、監視領域に存在する物体までの距離データを取得し、現距離データとする現データ演算部20と、測定結果から過去の距離データを取得し、比較距離データに変換する比較データ演算部30と、現距離データおよび比較距離データについて、3次元レーザスキャナ10から床までの距離が定義された床距離情報に基づき、距離データの補正を行う補正部702と、補正部702が距離データの補正を行った補正後現距離データと補正後比較距離データとの差分値を算出し、当該差分値が閾値以上である領域を変化領域として抽出する変化領域抽出部40とを備えるように構成したので、3次元レーザスキャナから床までの距離を固定とすることで、存在しないはずの対象物201を誤認識することなく、監視領域内に存在する対象物の認識精度を向上させることができる。 As described above, according to the first embodiment, the current data obtained by acquiring the distance data to the object existing in the monitoring area from the measurement result of the three-dimensional laser scanner 10 measuring the monitoring area and using it as the current distance data. The distance from the 3D laser scanner 10 to the floor is defined for the calculation unit 20, the comparison data calculation unit 30 that acquires the past distance data from the measurement result and converts it into the comparison distance data, and the current distance data and the comparison distance data. Based on the floor distance information, the correction unit 702 that corrects the distance data, the corrected current distance data that the correction unit 702 corrected the distance data, and the corrected comparative distance data are calculated, and the difference value is calculated. Since it is configured to include a change area extraction unit 40 that extracts a region whose difference value is equal to or greater than the threshold value as a change region, by fixing the distance from the 3D laser scanner to the floor, an object that should not exist It is possible to improve the recognition accuracy of an object existing in the monitoring area without erroneously recognizing 201.

また、補正部702は、現距離データおよび比較距離データについて、距離データに基づく距離が床距離情報に基づく距離よりも大きければ、距離データを補正するようにしたので、3次元レーザスキャナ10が床に照射したレーザ光に関して正反射が起き、レーザ反射光15が戻ったり戻らなかったりするという点滅現象が繰り返された場合においても、当該点滅現象を対象物201と誤認識することを防ぐことができる。 Further, since the correction unit 702 corrects the distance data for the current distance data and the comparison distance data when the distance based on the distance data is larger than the distance based on the floor distance information, the three-dimensional laser scanner 10 is used for the floor. Even when a specular reflection occurs with respect to the laser light radiated to the data and the blinking phenomenon that the laser reflected light 15 returns or does not return is repeated, it is possible to prevent the blinking phenomenon from being mistakenly recognized as the object 201. ..

実施の形態2.
実施の形態1では、オペレータが、予め、3次元レーザスキャナ10の視野をスキャンして得られた点群データ17の各点に対応する各グリッドについて、「床」に相当する場合の、3次元レーザスキャナ10から当該「床」までの床距離情報を設定しておき、床補正部70は、当該各グリッドに対して設定された床距離情報をもとに、必要に応じて、「床」に相当するグリッドの距離データを補正するようにしていた。
この実施の形態2では、オペレータ等は、予め、「床」の高さを補正するための歪み補正情報をさらに設定しておくようにし、床補正部70は、当該歪み補正情報をもとに、仮想床を設定する実施の形態について説明する。
Embodiment 2.
In the first embodiment, when the operator corresponds to the “floor” for each grid corresponding to each point of the point group data 17 obtained by scanning the field of view of the three-dimensional laser scanner 10 in advance, three-dimensional. The floor distance information from the laser scanner 10 to the "floor" is set, and the floor correction unit 70 sets the "floor" as necessary based on the floor distance information set for each grid. The distance data of the grid corresponding to was corrected.
In the second embodiment, the operator or the like further sets the distortion correction information for correcting the height of the "floor" in advance, and the floor correction unit 70 is based on the distortion correction information. , An embodiment of setting a virtual floor will be described.

図13は、この実施の形態2に係る監視装置100aの構成を示すブロック図である。
図13において、実施の形態1で図1を用いて説明した、監視装置100と同様の構成については、同じ符号を付して重複した説明を省略する。
この実施の形態2に係る監視装置100aは、実施の形態1に係る監視装置100とは、歪み補正情報記憶部90をさらに備える点と、床補正部70aが仮想床設定部703をさらに備える点が異なる。
歪み補正情報記憶部90は、「床」の高さを補正するための歪み補正情報を記憶する。
歪み補正情報は、例えば、監視領域にフラットではない床が存在する場合に、予め、オペレータ等が設定しておくようにする。
FIG. 13 is a block diagram showing a configuration of the monitoring device 100a according to the second embodiment.
In FIG. 13, the same components as those of the monitoring device 100 described with reference to FIG. 1 in the first embodiment are designated by the same reference numerals and duplicated description will be omitted.
The monitoring device 100a according to the second embodiment further includes a distortion correction information storage unit 90 and a floor correction unit 70a further includes a virtual floor setting unit 703, respectively, as compared with the monitoring device 100 according to the first embodiment. Is different.
The distortion correction information storage unit 90 stores distortion correction information for correcting the height of the “floor”.
The distortion correction information is set in advance by an operator or the like when, for example, a floor that is not flat exists in the monitoring area.

なお、この実施の形態2では、図13に示すように、監視装置100aが歪み補正情報記憶部90を備えるものとしたが、これに限らず、歪み補正情報記憶部90は監視装置100aの外部に備えるものとしてもよい。歪み補正情報記憶部90は、少なくとも監視装置100aの床補正部70aが、当該歪み補正情報記憶部90を参照可能な場所に備えられるようになっていればよい。 In the second embodiment, as shown in FIG. 13, the monitoring device 100a is provided with the distortion correction information storage unit 90, but the present invention is not limited to this, and the distortion correction information storage unit 90 is outside the monitoring device 100a. It may be prepared for. The strain correction information storage unit 90 may be provided so that at least the floor correction unit 70a of the monitoring device 100a is provided in a place where the strain correction information storage unit 90 can be referred to.

床補正部70aの仮想床設定部703は、歪み補正情報記憶部90に記憶された歪み補正情報に基づき、床の高さを補正した「仮想床」を設定する。
具体的には、仮想床設定部703は、床関連情報記憶部80に「床」として記憶されたグリッドのY軸方向上方に存在するグリッドのうち、歪み補正情報で示された高さの範囲内のグリッドを仮想床として設定するとともに、3次元レーザスキャナ10からの距離を算出して設定する。あるいは、仮想床設定部703は、床関連情報記憶部80に「床」として記憶されたグリッドのY軸方向下方に存在するグリッドのうち、歪み補正情報で示された高さの範囲内のグリッドを仮想床として設定するとともに、3次元レーザスキャナ10からの距離を算出して設定する。これにより、仮想床設定部703は、実際の床を、嵩上げ、あるいは、嵩下げし、「仮想床」として設定する。
なお、仮想床設定部703は、嵩上げ、あるいは、嵩下げして「仮想床」としたグリッドにおける3次元レーザスキャナ10からの距離を、床関連情報記憶部80に記憶されている床距離情報と、歪み補正情報と、3次元レーザスキャナ10から見た「床」の俯角とに基づき算出するようにすればよい。3次元レーザスキャナ10から見た「床」の俯角は、予めわかっているものとする。
仮想床設定部703は、算出した3次元レーザスキャナ10から「仮想床」までの距離を、「仮想床」としたグリッドの床距離情報として、床関連情報記憶部80に記憶されている床関連情報の床距離情報に設定する。
The virtual floor setting unit 703 of the floor correction unit 70a sets a “virtual floor” in which the height of the floor is corrected based on the strain correction information stored in the strain correction information storage unit 90.
Specifically, the virtual floor setting unit 703 has a height range indicated by distortion correction information among the grids existing above the Y-axis direction of the grid stored as the “floor” in the floor-related information storage unit 80. The grid inside is set as a virtual floor, and the distance from the three-dimensional laser scanner 10 is calculated and set. Alternatively, the virtual floor setting unit 703 is a grid within the height range indicated by the strain correction information among the grids existing below the Y-axis direction of the grid stored as the “floor” in the floor-related information storage unit 80. Is set as a virtual floor, and the distance from the three-dimensional laser scanner 10 is calculated and set. As a result, the virtual floor setting unit 703 raises or lowers the actual floor and sets it as a "virtual floor".
The virtual floor setting unit 703 sets the distance from the three-dimensional laser scanner 10 in the grid raised or lowered to form a "virtual floor" with the floor distance information stored in the floor-related information storage unit 80. , The calculation may be made based on the distortion correction information and the depression angle of the "floor" seen from the three-dimensional laser scanner 10. It is assumed that the depression angle of the "floor" seen from the three-dimensional laser scanner 10 is known in advance.
The virtual floor setting unit 703 uses the calculated distance from the three-dimensional laser scanner 10 to the “virtual floor” as the “virtual floor” as the floor distance information of the grid, which is stored in the floor-related information storage unit 80. Set to the floor distance information of the information.

この実施の形態3に係る監視装置100aのハードウェア構成は、実施の形態1において図12Aおよび図12Bを用いて説明した構成と同様であるため、重複した説明を省略する。
なお、歪み補正情報記憶部90は、例えば、HDD1202を使用する。これは一例にすぎず、歪み補正情報記憶部90は、DVD、または、メモリ1205等によって構成されるものであってもよい。
Since the hardware configuration of the monitoring device 100a according to the third embodiment is the same as the configuration described with reference to FIGS. 12A and 12B in the first embodiment, duplicate description will be omitted.
The distortion correction information storage unit 90 uses, for example, HDD 1202. This is only an example, and the distortion correction information storage unit 90 may be composed of a DVD, a memory 1205, or the like.

また、この実施の形態2に係る監視装置100aの動作については、床補正部70aの具体的な動作が、実施の形態1における床補正部70の具体的な動作(図5のステップST505)と異なるのみであるので、実施の形態1と同様の動作については重複した説明を省略する。
この実施の形態2に係る監視装置100aではまず、仮想床設定部703が、歪み補正情報記憶部90に記憶された歪み補正情報に基づき、床の高さを補正した「仮想床」を設定する。
その後、実施の形態1で図6を用いて説明した動作を行う。
なお、仮想床設定部703によって、床関連情報記憶部80に記憶されている床距離情報には、ユーザが予め設定した、3次元レーザスキャナ10から各グリッドに含まれる床の部分までの距離を示す情報と、仮想床設定部703が算出した、3次元レーザスキャナ10から各グリッドに含まれる仮想床までの距離を示す情報とが設定されている。
Regarding the operation of the monitoring device 100a according to the second embodiment, the specific operation of the floor correction unit 70a is the same as the specific operation of the floor correction unit 70 in the first embodiment (step ST505 in FIG. 5). Since they are different only, a duplicate description will be omitted for the same operation as in the first embodiment.
In the monitoring device 100a according to the second embodiment, first, the virtual floor setting unit 703 sets a “virtual floor” whose floor height is corrected based on the strain correction information stored in the strain correction information storage unit 90. ..
After that, the operation described with reference to FIG. 6 in the first embodiment is performed.
The floor distance information stored in the floor-related information storage unit 80 by the virtual floor setting unit 703 includes the distance from the three-dimensional laser scanner 10 preset by the user to the floor portion included in each grid. The information to be shown and the information indicating the distance from the three-dimensional laser scanner 10 calculated by the virtual floor setting unit 703 to the virtual floor included in each grid are set.

ここで、図14は、実施の形態2において、仮想床設定部703が「仮想床」を設定する概念を説明するための図である。
図14Aは、3次元レーザスキャナ10と、対象A801および対象B802を横から見た位置関係を示し、3次元レーザスキャナ10の視野内において、床803はフラットではなく、凸部8031と凹部8032を有している状態をあらわすモデルである。また、図14Bは、図14Aの状態から、床803の高さを補正した状態をあらわすモデルである。
なお、図14Aおよび図14Bにおいて、床803を高さ0mとした場合、凸部8031は高さ0.2mの床803の出っ張りであり、凹部8032は高さ−0.1mの床803の窪みであるものとする。
Here, FIG. 14 is a diagram for explaining the concept that the virtual floor setting unit 703 sets the “virtual floor” in the second embodiment.
FIG. 14A shows the positional relationship between the three-dimensional laser scanner 10 and the target A801 and the target B802 as viewed from the side. In the field of view of the three-dimensional laser scanner 10, the floor 803 is not flat, and the convex portion 8031 and the concave portion 8032 are formed. It is a model that represents the state of having. Further, FIG. 14B is a model showing a state in which the height of the floor 803 is corrected from the state of FIG. 14A.
In FIGS. 14A and 14B, when the floor 803 has a height of 0 m, the convex portion 8031 is a protrusion of the floor 803 having a height of 0.2 m, and the recess 8032 is a recess of the floor 803 having a height of −0.1 m. Suppose that

この実施の形態2では、歪み補正情報記憶部90には、予めオペレータ等が設定した歪み補正情報が記憶されている。ここでは、例えば、歪み補正情報として、±0.3mが記憶されているものとする。
当該歪み補正情報を設定することで、当該歪み補正情報の分だけ床803の高さを補正して「仮想床」とすることができる。具体的には、ここでは、床803と平行に当該床803から高さ0.3mまで嵩上げした床803aと、床803と平行に当該床803から高さ−0.3mまで嵩下げした床803bとを指定し、床803aから床803bまでを「仮想床」とすることができる。すなわち、床803から±0.3mの高さの空間を「仮想床」とすることができる。
In the second embodiment, the distortion correction information storage unit 90 stores distortion correction information set in advance by an operator or the like. Here, for example, it is assumed that ± 0.3 m is stored as distortion correction information.
By setting the strain correction information, the height of the floor 803 can be corrected by the amount of the strain correction information to obtain a "virtual floor". Specifically, here, the floor 803a is raised from the floor 803 to a height of 0.3 m in parallel with the floor 803, and the floor 803b is raised from the floor 803 to a height of −0.3 m in parallel with the floor 803. And can be specified, and floors 803a to 803b can be designated as "virtual floors". That is, a space having a height of ± 0.3 m from the floor 803 can be regarded as a “virtual floor”.

図14Aのように、床803の補正前、すなわち、「仮想床」を設定する前の状態では、凸部8031および凹部8032があり、当該凸部8031および凹部8032においては、3次元レーザスキャナ10から床803までの距離と同じ距離を得られず、当該凸部8031および凹部8032を、対象A801、対象B802、あるいは、その他の対象物201と認識してしまう場合がある。 As shown in FIG. 14A, before the correction of the floor 803, that is, before setting the “virtual floor”, there are a convex portion 8031 and a concave portion 8032, and in the convex portion 8031 and the concave portion 8032, the three-dimensional laser scanner 10 The same distance as the distance from the floor to the floor 803 cannot be obtained, and the convex portion 8031 and the concave portion 8032 may be recognized as the target A801, the target B802, or other object 201.

これに対し、図14Bのように、床803aから床803bまでを「仮想床」とすることで、床803を、凸部8031および凹部8032を有しないフラットな床とみなすことができる。
これにより、例えば、凸部8031または凹部8032の位置で、床803を対象物201と認識してしまうことなく、真の対象物201のみが認識可能となる。
On the other hand, as shown in FIG. 14B, by setting the floors 803a to 803b as "virtual floors", the floor 803 can be regarded as a flat floor having no convex portion 8031 and concave portion 8032.
As a result, for example, at the position of the convex portion 8031 or the concave portion 8032, only the true object 201 can be recognized without recognizing the floor 803 as the object 201.

なお、上述した例では、歪み補正情報は、±0.3mとしたが、これに限らず、歪み補正情報は、オペレータ等が適宜設定可能とする。
例えば、オペレータ等は、歪み補正情報として、+0.3mと設定するようにしてもよい。
この場合、図14Bの床803aから床803まで、すなわち、床803から+0.3mの高さの空間が「仮想床」となる。
In the above example, the distortion correction information is ± 0.3 m, but the distortion correction information is not limited to this, and the distortion correction information can be appropriately set by the operator or the like.
For example, the operator or the like may set + 0.3 m as the distortion correction information.
In this case, the space from the floor 803a to the floor 803 in FIG. 14B, that is, the space at a height of +0.3 m from the floor 803 is the "virtual floor".

また、例えば、オペレータ等は、歪み補正情報として、−0.3mと設定するようにしてもよい。
この場合、図14Bの床803から床803bまで、すなわち、床803から−0.3の高さの空間が「仮想床」となる。
Further, for example, the operator or the like may set the distortion correction information to −0.3 m.
In this case, the space from floor 803 to floor 803b in FIG. 14B, that is, the space at a height of -0.3 from floor 803 is the "virtual floor".

以上の考え方に基づき、仮想床設定部703は、予めオペレータ等により設定され、歪み補正情報記憶部90に記憶されている歪み補正情報に基づき、「仮想床」を設定する。具体的には、オペレータ等は、予め、3次元レーザスキャナ10の視野をスキャンして得られる点群データ17の各点に対応する各グリッドのうち、「床」に相当するグリッドから、当該グリッドにおける床を嵩上げ、または、嵩下げする高さを設定する。オペレータ等は、床を嵩上げ、または、嵩下げする高さは、床の凹凸具合に応じて、床がフラットな面とみなせる所望の高さとなるよう、適宜設定するようにすればよい。 Based on the above concept, the virtual floor setting unit 703 sets the "virtual floor" based on the distortion correction information set in advance by the operator or the like and stored in the distortion correction information storage unit 90. Specifically, the operator or the like selects the grid corresponding to the “floor” among the grids corresponding to the points of the point cloud data 17 obtained by scanning the field of view of the three-dimensional laser scanner 10 in advance. Set the height to raise or lower the floor in. The operator or the like may appropriately set the height for raising or lowering the floor so that the floor has a desired height that can be regarded as a flat surface according to the degree of unevenness of the floor.

以上のように、この実施の形態2によれば、床の高さを補正するための歪み補正情報に基づき、床の高さを補正した仮想床を設定するとともに、3次元レーザスキャナ10から当該仮想床までの距離を算出し、床距離情報として定義する仮想床設定部703をさらに備え、補正部702は、現距離データおよび比較距離データについて、仮想床設定部703が定義した床距離情報に基づき、距離データを補正するようにしたので、存在しないはずの対象物201を誤認識してしまうことがなくなることに加え、床の凹凸によって床を対象物201と誤認識してしまうことがなくなる。その結果、床がフラットではない場合も、床を対象物201と誤認識することなく、存在しないはずの対象物201を誤認識することなく、監視領域内に存在する対象物の認識精度をさらに向上させることができる。 As described above, according to the second embodiment, the virtual floor whose floor height is corrected is set based on the strain correction information for correcting the floor height, and the three-dimensional laser scanner 10 is used to perform the operation. A virtual floor setting unit 703 that calculates the distance to the virtual floor and defines it as floor distance information is further provided, and the correction unit 702 uses the floor distance information defined by the virtual floor setting unit 703 for the current distance data and the comparison distance data. Based on this, the distance data is corrected so that the object 201, which should not exist, is not erroneously recognized, and the floor is not erroneously recognized as the object 201 due to the unevenness of the floor. .. As a result, even when the floor is not flat, the recognition accuracy of the object existing in the monitoring area is further improved without erroneously recognizing the floor as the object 201 and erroneously recognizing the object 201 that should not exist. Can be improved.

なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。 In the present invention, within the scope of the invention, it is possible to freely combine each embodiment, modify any component of each embodiment, or omit any component in each embodiment. ..

10 3次元レーザスキャナ、11 レーザ発光ユニット、12 レーザ光パルス、13 分散機構、14 分散レーザ光パルス、15 レーザ反射光、16 レーザ受光ユニット、17 点群データ、20 現データ演算部、21 現データ蓄積部、30 比較データ演算部、31 比較データ蓄積部、40 変化領域抽出部、50 認識処理部、60 報知処理部、70,70a 床補正部、80 床関連情報記憶部、90 歪み補正情報記憶部、100,100a 監視装置、200 背景、201 対象物、701 距離取得部、702 補正部、703 仮想床設定部、801 対象A、802 対象B、803,803a,803b 床、804 ブランクグリッド、1201 処理回路、1202 HDD、1203 入力インタフェース装置、1204 出力インタフェース装置、1205 メモリ、1206 CPU、8031 凸部、8032 凹部。 10 3D laser scanner, 11 laser light emitting unit, 12 laser light pulse, 13 dispersion mechanism, 14 dispersed laser light pulse, 15 laser reflected light, 16 laser light receiving unit, 17 point group data, 20 current data calculation unit, 21 current data Storage unit, 30 Comparison data calculation unit, 31 Comparison data storage unit, 40 Change area extraction unit, 50 Recognition processing unit, 60 Notification processing unit, 70, 70a Floor correction unit, 80 Floor-related information storage unit, 90 Distortion correction information storage Unit, 100, 100a monitoring device, 200 background, 201 object, 701 distance acquisition unit, 702 correction unit, 703 virtual floor setting unit, 801 target A, 802 target B, 803, 803a, 803b floor, 804 blank grid, 1201 Processing circuit, 1202 HDD, 1203 input interface device, 1204 output interface device, 1205 memory, 1206 CPU, 8031 convex part, 8032 concave part.

Claims (5)

監視領域を測定した3次元レーザスキャナの測定結果から、前記監視領域に存在する物体までの距離データを取得し、現距離データとする現データ演算部と、
前記測定結果から過去の前記距離データを取得し、比較距離データに変換する比較データ演算部と、
前記現距離データおよび前記比較距離データについて、前記3次元レーザスキャナから床までの距離が定義された床距離情報に基づき、前記距離データの補正を行う補正部と、
前記補正部が前記距離データの補正を行った補正後現距離データと補正後比較距離データとの差分値を算出し、当該差分値が閾値以上である領域を変化領域として抽出する変化領域抽出部
とを備えた監視装置。
From the measurement result of the 3D laser scanner that measured the monitoring area, the current data calculation unit that acquires the distance data to the object existing in the monitoring area and converts it into the current distance data.
A comparison data calculation unit that acquires the past distance data from the measurement result and converts it into comparison distance data.
With respect to the current distance data and the comparative distance data, a correction unit that corrects the distance data based on the floor distance information in which the distance from the three-dimensional laser scanner to the floor is defined, and a correction unit.
The change area extraction unit that calculates the difference value between the corrected current distance data obtained by correcting the distance data and the corrected comparative distance data, and extracts the area where the difference value is equal to or greater than the threshold value as the change area. Monitoring device with and.
前記補正部は、
前記現距離データおよび前記比較距離データについて、前記距離データに基づく距離が前記床距離情報に基づく距離よりも大きければ、前記距離データを補正する
ことを特徴とする請求項1記載の監視装置。
The correction unit
The monitoring device according to claim 1, wherein if the distance based on the distance data is larger than the distance based on the floor distance information, the distance data is corrected for the current distance data and the comparative distance data.
前記補正部は、
前記距離データを前記床距離情報に置き換える
ことを特徴とする請求項1または請求項2記載の監視装置。
The correction unit
The monitoring device according to claim 1 or 2, wherein the distance data is replaced with the floor distance information.
前記補正部は、
前記距離データを無限遠に置き換える
ことを特徴とする請求項1または請求項2記載の監視装置。
The correction unit
The monitoring device according to claim 1 or 2, wherein the distance data is replaced with infinity.
前記床の高さを補正するための歪み補正情報に基づき、前記床の高さを補正した仮想床を設定するとともに、前記3次元レーザスキャナから当該仮想床までの距離を算出し、前記床距離情報として定義する仮想床設定部をさらに備え、
前記補正部は、
前記現距離データおよび前記比較距離データについて、前記仮想床設定部が定義した床距離情報に基づき、前記距離データを補正する
ことを特徴とする請求項1から請求項4のうちのいずれか1項記載の監視装置。
Based on the strain correction information for correcting the height of the floor, the virtual floor with the corrected floor height is set, and the distance from the three-dimensional laser scanner to the virtual floor is calculated to obtain the floor distance. It also has a virtual floor setting unit that is defined as information.
The correction unit
One of claims 1 to 4, wherein the distance data is corrected based on the floor distance information defined by the virtual floor setting unit with respect to the current distance data and the comparative distance data. The monitoring device described.
JP2016249375A 2016-12-22 2016-12-22 Monitoring device Active JP6756448B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016249375A JP6756448B2 (en) 2016-12-22 2016-12-22 Monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016249375A JP6756448B2 (en) 2016-12-22 2016-12-22 Monitoring device

Publications (2)

Publication Number Publication Date
JP2018105638A JP2018105638A (en) 2018-07-05
JP6756448B2 true JP6756448B2 (en) 2020-09-16

Family

ID=62786994

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016249375A Active JP6756448B2 (en) 2016-12-22 2016-12-22 Monitoring device

Country Status (1)

Country Link
JP (1) JP6756448B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021050987A (en) * 2019-09-25 2021-04-01 ソニーセミコンダクタソリューションズ株式会社 Distance measuring device and electronic apparatus

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002157697A (en) * 2000-11-21 2002-05-31 Mazda Motor Corp Controller for vehicle
JP3941790B2 (en) * 2004-04-08 2007-07-04 石川島播磨重工業株式会社 Moving object detection apparatus and method
JP2010127835A (en) * 2008-11-28 2010-06-10 Toyota Motor Corp Radar system
JP2012120647A (en) * 2010-12-07 2012-06-28 Alpha Co Posture detection system
JP2012247400A (en) * 2011-05-31 2012-12-13 Toyota Motor Corp Autonomous mobile system, method of controlling the same, and program
US8825260B1 (en) * 2013-07-23 2014-09-02 Google Inc. Object and ground segmentation from a sparse one-dimensional range data
JP2015042952A (en) * 2013-08-26 2015-03-05 シャープ株式会社 Obstacle detection device and electric vehicle
JP6309099B2 (en) * 2014-07-03 2018-04-11 三菱電機株式会社 Monitoring device

Also Published As

Publication number Publication date
JP2018105638A (en) 2018-07-05

Similar Documents

Publication Publication Date Title
US10203402B2 (en) Method of error correction for 3D imaging device
US9117281B2 (en) Surface segmentation from RGB and depth images
US6970600B2 (en) Apparatus and method for image processing of hand-written characters using coded structured light and time series frame capture
JP6781432B2 (en) Radio wave propagation simulation model creation method, creation system, creation device and creation program
CN109753960A (en) The underwater unnatural object detection method of isolated forest based on fractal theory
US7477775B2 (en) Microscope system
US9547785B2 (en) Barcode scanner and operational method of the same
JP6756448B2 (en) Monitoring device
JP5686012B2 (en) Surface defect inspection apparatus and method
JP2019046295A (en) Monitoring device
JP2016139306A (en) Axle detection device and axle detection method
JP3869554B2 (en) Inspection data creation method and apparatus, and component mounting board visual inspection apparatus using the same
JP2000193438A (en) Method and device for measuring 3-dimension form, and storage medium where 3-dimension form measuring program is stored
JP7054989B2 (en) Monitoring device
JP6599031B2 (en) Monitoring device
JP2019007744A (en) Object sensing device, program, and object sensing system
JP2021189143A (en) Three-dimensional measuring machine and data processing device
CN112055803B (en) Image analysis device, shape measurement device, image analysis method, measurement condition determination method, shape measurement method, and program
JP4129896B2 (en) Optical three-dimensional measuring apparatus and optical three-dimensional measuring method
JP6758152B2 (en) Surveillance image processing device and monitoring device
CN113673284B (en) Depth camera snapshot method, system, equipment and medium
US20230401738A1 (en) Image processing device, non-transitory computer-readable storage medium, and image processing method
US20240118400A1 (en) Abnormality detection device, abnormality detection method, and program
US20230281854A1 (en) Measurement system
KR102284196B1 (en) Indoor map generation method and apparatus using lidar data

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190624

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200609

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200728

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200825

R150 Certificate of patent or registration of utility model

Ref document number: 6756448

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250