JP2011035663A - Monitoring device and monitoring method - Google Patents

Monitoring device and monitoring method Download PDF

Info

Publication number
JP2011035663A
JP2011035663A JP2009179893A JP2009179893A JP2011035663A JP 2011035663 A JP2011035663 A JP 2011035663A JP 2009179893 A JP2009179893 A JP 2009179893A JP 2009179893 A JP2009179893 A JP 2009179893A JP 2011035663 A JP2011035663 A JP 2011035663A
Authority
JP
Japan
Prior art keywords
detection
likelihood
monitoring
area
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009179893A
Other languages
Japanese (ja)
Inventor
Maiko Shikatani
真依子 鹿谷
Masahiro Daiho
雅博 大穂
Yuichiro Takemoto
勇一郎 竹本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2009179893A priority Critical patent/JP2011035663A/en
Publication of JP2011035663A publication Critical patent/JP2011035663A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a monitoring device by which high monitoring accuracy can be obtained with less burden. <P>SOLUTION: The monitoring device 100 uses a sensor 110 which detects a moving object with a predetermined area as an object and monitors the moving object, and includes: a detection likelihood estimated value management part 150 which stores the estimated value of detection likelihood of the sensor 110 to be used for monitoring; an object likelihood calculation part 170 which calculates object likelihood showing likelihood that the moving object is present in the predetermined area from the detection result of the sensor 110; a non-detection area update determination part 180 which determines whether or not update of the estimated value of the detection likelihood that the detection likelihood estimated value management part 150 stores is necessary on the basis of comparison between the estimated value of the detection likelihood that the detection likelihood estimated value management part 150 stores and the object likelihood that the object likelihood calculation part 170 calculates; and a notification part 190 which notifies a determination result by the non-detection area update determination part 180. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、所定の領域を対象として移動オブジェクトを監視する監視装置および監視方法に関する。   The present invention relates to a monitoring apparatus and a monitoring method for monitoring a moving object for a predetermined area.

従来、工場やオフィス等において、人物や物体の位置を含む移動体の動きを監視することが行われている。監視結果は、例えば、人物の動線や作業効率の解析に用いられ、作業環境の改善に役立てられる。   Conventionally, in a factory, an office, or the like, the movement of a moving body including the position of a person or an object is monitored. The monitoring result is used for, for example, analysis of a person's flow line and work efficiency, and is used to improve the work environment.

人物等の、監視の対象であって移動するオブジェクト(以下「移動オブジェクト」という)検出には、各種のセンサが用いられる。このセンサは、例えば、カメラ撮影画像と、画像中の移動オブジェクトの位置を算出するための付随情報とを出力するカメラである。また、他のセンサとしては、移動オブジェクトに取り付けられた、もしくは移動オブジェクトが所持する無線タグからの電波を検出することによって移動オブジェクトの位置を検出するセンサである。   Various sensors are used for detecting a moving object (hereinafter referred to as “moving object”) such as a person who is a monitoring target. This sensor is, for example, a camera that outputs a camera-captured image and accompanying information for calculating the position of a moving object in the image. Another sensor is a sensor that detects the position of the moving object by detecting radio waves from a wireless tag attached to the moving object or possessed by the moving object.

センサは、機材や机等の物体の陰となる領域に移動オブジェクトが存在している場合、これを検出することができない、あるいは検出が不安定となる。以下、センサによる移動オブジェクト検出の障害となる物体を、「障害物」という。また、障害物に起因してセンサが移動オブジェクトの位置を検出することができない領域、あるいは不安定となる領域を、ここでは「不検知領域」という。   When a moving object is present in an area behind the object such as equipment or a desk, the sensor cannot detect this or the detection becomes unstable. Hereinafter, an object that is an obstacle to detection of a moving object by a sensor is referred to as an “obstacle”. In addition, a region where the sensor cannot detect the position of the moving object due to an obstacle or a region where the position is unstable is referred to as a “non-detection region”.

監視装置が現在の不検知領域を管理していれば、例えば、センサによる移動オブジェクトの検出が不可能なはずの位置に移動オブジェクトが存在すると推定することを防ぐことが可能になり、高い監視精度を確保できる。   If the monitoring device manages the current non-detection area, for example, it is possible to prevent a moving object from being estimated at a position where a moving object should not be detected by a sensor, and high monitoring accuracy can be achieved. Can be secured.

ところが、工場やオフィスでは、製造ラインの変更や人員配置の変化に応じて、機材や机などの位置を変更することが度々行われるのが一般的であり、不検知領域も変化する。   However, in a factory or office, it is common to frequently change the position of equipment, desks, etc. in accordance with changes in production lines and personnel arrangements, and the non-detection area also changes.

そこで、例えば特許文献1に記載された技術を用いて、レイアウトの変更を認識することが考えられる。   Thus, for example, it is conceivable to recognize a change in layout using the technique described in Patent Document 1.

図1は、特許文献1に開示されたレイアウト構成管理システムの構成を示すブロック図である。   FIG. 1 is a block diagram showing the configuration of the layout configuration management system disclosed in Patent Document 1. As shown in FIG.

図1において、システム10は、カメラ11、画像伝送装置12、画像監視PC(personal computer)13、画像蓄積DB(database)14、ルータ15、レイアウト構成変更受付サーバ21、構成管理サーバ22、構成管理DB23、ルータ24等を有する。   In FIG. 1, a system 10 includes a camera 11, an image transmission device 12, an image monitoring PC (personal computer) 13, an image storage DB (database) 14, a router 15, a layout configuration change receiving server 21, a configuration management server 22, and a configuration management. It has DB23, router 24 grade | etc.,.

ライトタグ32は、独特な点滅を周期的に行う小型のライトを有しており、点滅の周期の違い等によって、他のライトタグ32と識別可能となっている。カメラ11は、ライトタグ32が取り付けられた管理対象機器(障害物)31を撮像し、映像信号を画像伝送装置12へ送信する。画像伝送装置12は、デジタル化した映像データを画像監視PC13へ送信する。画像監視PC13は、入力された映像データからライトタグ32の位置を判定する。このように、システム10は、ライトタグ32の位置を、障害物の位置として検出することができる。   The light tag 32 has a small light that periodically performs unique blinking, and can be distinguished from other light tags 32 by a difference in blinking period or the like. The camera 11 images the management target device (obstacle) 31 to which the light tag 32 is attached and transmits a video signal to the image transmission device 12. The image transmission device 12 transmits the digitized video data to the image monitoring PC 13. The image monitoring PC 13 determines the position of the light tag 32 from the input video data. Thus, the system 10 can detect the position of the light tag 32 as the position of the obstacle.

更に、画像監視PC13は、検出された管理対象機器31の位置と、画像蓄積DB14に記録された過去のレイアウト構成図とを比較することにより、管理対象機器31の移動があったことを検出する。画像監視PC13は、このようなレイアウト構成変更を見出すと、レイアウト構成変更通知を、ルータ15、公衆網/インターネット4を介して、サービスセンタ装置へ送信する。   Furthermore, the image monitoring PC 13 detects that the management target device 31 has moved by comparing the detected position of the management target device 31 with the past layout configuration diagram recorded in the image storage DB 14. . When the image monitoring PC 13 finds such a layout configuration change, it transmits a layout configuration change notification to the service center apparatus via the router 15 and the public network / Internet 4.

このような技術を用いることにより、各障害物の位置から、レイアウトが変更されたことが認識可能となる。   By using such a technique, it is possible to recognize that the layout has been changed from the position of each obstacle.

特開2006−332734号公報JP 2006-332734 A

しかしながら、特許文献1記載のシステムは、障害物となり得る物体の全てにライトタグが必要であり、かつ、全てのライトタグとライトタグの検出のための画像処理方式との対応を常に取らなければならない。したがって、特許文献1記載のシステムは、以下のような課題を有する。まず、障害物の多くがライトタグ付きのものではない場合には、ライトタグを後付けするのに多大な労力とコストが掛かる。一方、障害物の多くがライトタグ付きのものである場合には、タグの種類変更やバージョンアップの可能性を鑑みると、汎用性に欠け、設備コストが掛かる。すなわち、いずれの場合も、高い監視精度を得るためには多大な負担が掛かる。   However, the system described in Patent Document 1 requires light tags for all objects that can be obstacles, and all the light tags and image processing methods for detecting the light tags must always be taken. Don't be. Therefore, the system described in Patent Document 1 has the following problems. First, when many obstacles are not attached with a light tag, it takes a lot of labor and cost to retrofit the light tag. On the other hand, when many of the obstacles are equipped with a light tag, considering the possibility of tag type change or version upgrade, generality is lacking and equipment costs are increased. That is, in either case, a great burden is required to obtain high monitoring accuracy.

本発明の目的は、より少ない負担で高い監視精度を得ることができる監視装置および監視方法を提供することである。   An object of the present invention is to provide a monitoring device and a monitoring method capable of obtaining high monitoring accuracy with less burden.

本発明の監視装置は、所定の領域を対象として移動オブジェクトの検出を行うセンサを用いて、前記移動オブジェクトを監視する監視装置であって、前記監視に用いられる、前記センサの検出尤度の推定値を記憶する推定値管理部と、前記センサの検出結果から、前記所定の領域に前記移動オブジェクトが存在することの確からしさを示すオブジェクト尤度を算出する尤度算出部と、前記推定値管理部が記憶する前記検出尤度の推定値と、前記尤度算出部が算出する前記オブジェクト尤度との比較に基づいて、前記推定値管理部が記憶する前記検出尤度の推定値の更新が必要であるか否かを判定する更新判定部と、前記更新判定部による判定結果を通知する通知部とを有する。   The monitoring device of the present invention is a monitoring device that monitors a moving object using a sensor that detects a moving object in a predetermined region, and estimates the detection likelihood of the sensor used for the monitoring. An estimated value management unit that stores a value, a likelihood calculating unit that calculates an object likelihood indicating the probability that the moving object exists in the predetermined area, from the detection result of the sensor, and the estimated value management The estimated value of the detection likelihood stored by the estimated value management unit is updated based on a comparison between the estimated value of the detection likelihood stored by the unit and the object likelihood calculated by the likelihood calculating unit. An update determination unit that determines whether or not it is necessary, and a notification unit that notifies a determination result by the update determination unit.

本発明の監視方法は、所定の領域を対象として移動オブジェクトの検出を行うセンサを用いて、前記移動オブジェクトを監視する監視方法であって、前記センサの検出結果から、前記所定の領域に前記移動オブジェクトが存在することの確からしさを示すオブジェクト尤度を算出するステップと、前記監視に用いられる、予め記憶された前記センサの検出尤度の推定値と、算出された前記オブジェクト尤度との比較に基づいて、記憶された前記検出尤度の推定値の更新が必要であるか否かを判定するステップと、前記検出尤度の推定値の更新が必要であるか否かの判定結果を通知するステップとを有する。   The monitoring method of the present invention is a monitoring method for monitoring the moving object using a sensor that detects a moving object for a predetermined area, and the movement to the predetermined area is performed based on a detection result of the sensor. A step of calculating an object likelihood indicating the probability that an object exists, a comparison between the pre-stored estimated detection likelihood of the sensor used for the monitoring and the calculated object likelihood A step of determining whether or not the stored estimated value of the detection likelihood needs to be updated, and a determination result indicating whether or not the estimated value of the detection likelihood needs to be updated A step of performing.

本発明によれば、より少ない負担で高い監視精度を得ることができる。   According to the present invention, high monitoring accuracy can be obtained with less burden.

従来のレイアウト構成管理システムの構成を示すブロック図Block diagram showing the configuration of a conventional layout configuration management system 本発明の一実施の形態に係る監視装置が使用される環境の概要を示す図The figure which shows the outline | summary of the environment where the monitoring apparatus which concerns on one embodiment of this invention is used. 本実施の形態における不検知領域の判定の様子の一例を示す図The figure which shows an example of the mode of determination of the non-detection area | region in this Embodiment. 本実施の形態に係る監視装置の構成の一例を示すブロック図The block diagram which shows an example of a structure of the monitoring apparatus which concerns on this Embodiment 本実施の形態に係る監視装置の全体動作の一例を示すフローチャートThe flowchart which shows an example of the whole operation | movement of the monitoring apparatus which concerns on this Embodiment. 本実施の形態における不検知領域判定処理の一例を示すフローチャートA flowchart showing an example of the non-detection area determination process in the present embodiment 本実施の形態における不検知領域判定部による判定結果の一例を示す図The figure which shows an example of the determination result by the non-detection area | region determination part in this Embodiment 本実施の形態における分割領域情報の記述例を示す図The figure which shows the example of description of the division area information in this Embodiment 本実施の形態における不検知領域番号情報の記述例を示す図The figure which shows the example of description of the non-detection area | region number information in this Embodiment 本実施の形態における検出尤度推定処理の一例を示すフローチャートFlow chart showing an example of detection likelihood estimation processing in the present embodiment 本実施の形態における検出尤度推定部による設定結果の一例を示す図The figure which shows an example of the setting result by the detection likelihood estimation part in this Embodiment 本実施の形態における検出尤度推定値情報の記述例を示す図The figure which shows the example of description of the detection likelihood estimated value information in this Embodiment 本実施の形態における出力画面の一例を示す図The figure which shows an example of the output screen in this Embodiment 本実施の形態における出力画面の他の例を示す図The figure which shows the other example of the output screen in this Embodiment 本実施の形態における監視処理の一例を示すフローチャートFlow chart showing an example of monitoring processing in the present embodiment 本実施の形態におけるオブジェクト尤度情報の一例を示す図The figure which shows an example of the object likelihood information in this Embodiment 本実施の形態における更新判定処理の一例を示すフローチャートA flowchart showing an example of update determination processing in the present embodiment 本実施の形態におけるオブジェクト尤度と検出尤度推定値との差の一例を示す図The figure which shows an example of the difference of the object likelihood and detection likelihood estimated value in this Embodiment. 本実施の形態におけるオブジェクト尤度と検出尤度推定値との差の他の例を示す図The figure which shows the other example of the difference of the object likelihood and detection likelihood estimated value in this Embodiment. 本実施の形態における通知画面の一例を示す図The figure which shows an example of the notification screen in this Embodiment 本実施の形態における通知画面の他の例を示す図The figure which shows the other example of the notification screen in this Embodiment.

以下、本発明の一実施の形態について、図面を参照して詳細に説明する。   Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.

図2は、本発明の一実施の形態に係る監視装置が使用される環境の概要を示す図である。ここでは、監視装置が、工場において製品の製造を行う作業者の位置を監視する用途で使用される場合を一例として説明する。   FIG. 2 is a diagram showing an outline of an environment in which the monitoring apparatus according to the embodiment of the present invention is used. Here, a case where the monitoring device is used for the purpose of monitoring the position of an operator who manufactures a product in a factory will be described as an example.

図2において、監視装置100は、ステレオカメラを有するセンサ110と、パーソナルコンピュータ等の情報処理装置121とから成る。センサ110は、その監視領域(撮影範囲)110aを工場200内に向けて、配置されており、画像データと撮影対象の三次元位置を取得するための情報とを得ることが可能である。工場200内には、機材や机等の管理対象機器が、障害物210として存在する。センサ110は、監視領域を撮影する。そして、情報処理装置121は、センサ110で撮影された画像データと三次元位置を取得するための情報とから成るセンシング情報を解析し、作業者220の存在する位置を推定する。作業者220の存在する位置は、例えば、工場200の床面に沿って設定されたXY座標系の座標値を用いて表される。   In FIG. 2, the monitoring apparatus 100 includes a sensor 110 having a stereo camera and an information processing apparatus 121 such as a personal computer. The sensor 110 is arranged with its monitoring area (shooting range) 110a facing the factory 200, and can obtain image data and information for acquiring a three-dimensional position of the shooting target. In the factory 200, management target devices such as equipment and desks exist as obstacles 210. The sensor 110 images the monitoring area. Then, the information processing apparatus 121 analyzes sensing information including image data captured by the sensor 110 and information for acquiring a three-dimensional position, and estimates a position where the worker 220 exists. The position where the worker 220 exists is represented using the coordinate value of the XY coordinate system set along the floor surface of the factory 200, for example.

この際、監視装置100が、不検知領域210aの位置を示す情報(以下「不検知領域情報」という)を予め記憶していれば、不検知領域210aでは検出の精度が低いことを考慮した判定結果を生成することが可能となる。   At this time, if the monitoring apparatus 100 stores in advance information indicating the position of the non-detection area 210a (hereinafter referred to as “non-detection area information”), the determination is made in consideration of the low detection accuracy in the non-detection area 210a. A result can be generated.

ところが、工場200のレイアウト変更等により障害物210の種類や位置が変化した場合には、実際の不検知領域210aは、記憶されていた不検知領域情報に対応しなくなり、監視装置100の監視精度が確保できなくなる。このような場合は、不検知領域の再設定が必要となる。   However, when the type or position of the obstacle 210 changes due to a layout change of the factory 200 or the like, the actual non-detection area 210a does not correspond to the stored non-detection area information, and the monitoring accuracy of the monitoring apparatus 100 Cannot be secured. In such a case, it is necessary to reset the non-detection area.

図3は、不検知領域の判定の一例を示す図である。   FIG. 3 is a diagram illustrating an example of determination of a non-detection region.

図3に示すように、まず、ユーザは、監視領域110aを分割した分割領域の代表点である計測ポイントそれぞれに、認識対象物となるマーカ300を置く。ここで、マーカ300は、予め定められた格子状の図形パターンとする。そして、図2に示す監視装置100は、撮像した画像データに対してマーカ300の図形パターンを抽出する画像認識処理を行い、マーカ300の認識レベルを算出する。そして、監視装置100は、認識レベルが閾値未満のマーカ300が置かれた計測ポイントを代表点とする分割領域を不検知領域であると判定し、不検知領域情報を生成・更新する。この結果、図3に示すように、認識できない、あるいは認識レベルの低いマーカ300aが置かれた分割領域が、不検知領域として記憶される。ユーザは、不検知領域情報の更新が終了した後に、マーカ300を撤去する。   As shown in FIG. 3, first, the user places a marker 300 that is a recognition target object at each measurement point that is a representative point of the divided area obtained by dividing the monitoring area 110a. Here, the marker 300 is a predetermined grid-like graphic pattern. 2 performs image recognition processing for extracting the graphic pattern of the marker 300 on the captured image data, and calculates the recognition level of the marker 300. Then, the monitoring apparatus 100 determines that the divided area having the measurement point where the marker 300 whose recognition level is less than the threshold is placed as a representative point is a non-detection area, and generates / updates non-detection area information. As a result, as shown in FIG. 3, the divided area where the marker 300a that cannot be recognized or has a low recognition level is placed is stored as a non-detection area. The user removes the marker 300 after the update of the non-detection area information is completed.

すなわち、不検知領域の判定には、マーカ300を各計測ポイントに配置して撤去するという作業が必要となる。また、監視装置100の監視精度を維持するためには、不検知領域の判定および不検知領域情報の更新を行う必要がある。具体的には、少なくとも、監視装置100の作業者220に対する検出の精度に影響を及ぼす変化(以下、単に「状況変化」という)がある毎に、更新を行うことが求められる。   In other words, the determination of the non-detection area requires an operation of disposing the marker 300 at each measurement point and removing it. In order to maintain the monitoring accuracy of the monitoring apparatus 100, it is necessary to determine the non-detection area and update the non-detection area information. Specifically, it is required to update at least whenever there is a change (hereinafter simply referred to as “situation change”) that affects the detection accuracy of the monitoring apparatus 100 for the worker 220.

ユーザの負担を軽減するには、状況変化があったときにのみ、不検知領域の判定および不検知領域情報の更新を行うことが望ましい。しかしながら、例えば、障害物210の状態が変化したからといって、必ずしも不検知領域が大きく変化するとは限らない。したがって、ユーザが、状況変化が生じたといえるかどうかの判断を正しく行うことは困難である。   In order to reduce the burden on the user, it is desirable to determine the non-detection area and update the non-detection area information only when the situation changes. However, for example, just because the state of the obstacle 210 changes, the non-detection area does not necessarily change greatly. Therefore, it is difficult for the user to correctly determine whether or not a situation change has occurred.

そこで、本実施の形態に係る監視装置100は、状況変化が生じたか否かを逐次判定し、判定結果をユーザに通知する。これにより、ユーザは、不検知領域の判定および不検知領域情報の更新を行うべきタイミングを知ることができる。したがって、少ないユーザ負担で、高い監視精度を得ることができる。   Therefore, monitoring apparatus 100 according to the present embodiment sequentially determines whether or not a situation change has occurred, and notifies the user of the determination result. As a result, the user can know the timing for determining the non-detection area and updating the non-detection area information. Therefore, high monitoring accuracy can be obtained with a small user burden.

図4は、監視装置100の構成の一例を示すブロック図である。   FIG. 4 is a block diagram illustrating an example of the configuration of the monitoring apparatus 100.

図4において、監視装置100は、センサ110、不検知領域判定部120、不検知領域管理部130、検出尤度推定部140、検出尤度推定値管理部150、出力部160、オブジェクト尤度算出部170、不検知領域更新判定部180、および通知部190を有する。   4, the monitoring device 100 includes a sensor 110, a non-detection region determination unit 120, a non-detection region management unit 130, a detection likelihood estimation unit 140, a detection likelihood estimation value management unit 150, an output unit 160, and an object likelihood calculation. Unit 170, non-detection region update determination unit 180, and notification unit 190.

センサ110は、監視領域110aを撮影し、画像データを含むセンシング情報を、不検知領域判定部120およびオブジェクト尤度算出部170へ出力する。   The sensor 110 captures the monitoring area 110 a and outputs sensing information including image data to the non-detection area determination unit 120 and the object likelihood calculation unit 170.

不検知領域判定部120は、センサ110から入力された画像データに対して画像認識処理を行い、不検知領域を判定する。具体的には、不検知領域判定部120は、監視領域110aを分割した分割領域の代表点である計測ポイントそれぞれに置かれたマーカ300の認識レベルに基づいて、各分割領域が不検知領域か否かを判定する。そして、不検知領域判定部120は、判定結果を、不検知領域管理部130へ出力する。   The non-detection area determination unit 120 performs image recognition processing on the image data input from the sensor 110 and determines a non-detection area. Specifically, the non-detection area determination unit 120 determines whether each divided area is a non-detection area based on the recognition level of the marker 300 placed at each measurement point that is a representative point of the divided area obtained by dividing the monitoring area 110a. Determine whether or not. Then, the non-detection area determination unit 120 outputs the determination result to the non-detection area management unit 130.

不検知領域管理部130は、不検知領域判定部120から入力された判定結果に基づき、不検知領域情報を生成・管理する。不検知領域情報は、分割領域毎に、領域番号、分割領域の基準位置の座標値、および不検知領域であるか否かを示す不検知ID(identifier)を対応付けた情報である。なお、不検知領域管理部130は、キーボード等の入力装置(図示せず)を介して、ユーザから、既存の不検知領域情報に対する編集や、新規の不検知領域情報の手入力を受け付けても良い。   The non-detection area management unit 130 generates and manages non-detection area information based on the determination result input from the non-detection area determination unit 120. The non-detection area information is information in which, for each divided area, an area number, a coordinate value of a reference position of the divided area, and a non-detection ID (identifier) indicating whether or not the non-detection area is associated. Note that the non-detection area management unit 130 may accept editing of the existing non-detection area information or manual input of new non-detection area information from the user via an input device (not shown) such as a keyboard. good.

検出尤度推定部140は、不検知領域管理部130において管理されている不検知領域情報に基づいて、分割領域毎の検出尤度を推定する。そして、検出尤度推定部140は、推定した検出尤度を、分割領域毎の検出尤度推定値(後述するオブジェクト尤度算出部の作業者の画像の認識レベルの推定値)として、領域番号と対応付けて、検出尤度推定値管理部150へ出力する。   The detection likelihood estimation unit 140 estimates the detection likelihood for each divided region based on the non-detection region information managed by the non-detection region management unit 130. Then, the detection likelihood estimation unit 140 uses the estimated detection likelihood as a detection likelihood estimation value for each divided region (an estimation value of the recognition level of the worker's image of the object likelihood calculation unit described later) as a region number. And output to the detection likelihood estimated value management unit 150.

検出尤度は、分割領域毎に算出される、状況変化の判定の基準となる値である。具体的には、当該分割領域内に作業者が存在すると推定された場合に算出されるであろう作業者の画像の認識レベルの推定値であり、分割領域が検知可能領域である場合には高く、分割領域が不検知領域である場合には低くなる傾向がある。   The detection likelihood is a value that is calculated for each divided region and serves as a criterion for determining a situation change. Specifically, it is an estimated value of the recognition level of the worker's image that will be calculated when it is estimated that the worker exists in the divided area, and when the divided area is a detectable area It tends to be high when the divided area is a non-detection area.

検出尤度推定値管理部150は、検出尤度推定部140によって入力された検出尤度推定値に基づき、検出尤度推定値情報を生成・管理する。検出尤度推定値情報は、分割領域毎に、領域番号と、検出尤度推定値とを対応付けた情報である。   The detection likelihood estimation value management unit 150 generates and manages detection likelihood estimation value information based on the detection likelihood estimation value input by the detection likelihood estimation unit 140. The detection likelihood estimated value information is information in which a region number is associated with a detection likelihood estimated value for each divided region.

出力部160は、不検知領域管理部130が管理する不検知領域情報の内容や、検出尤度推定値管理部150が管理する検出尤度推定値情報の内容を、液晶ディスプレイ等の表示部(図示せず)を用いて出力する。   The output unit 160 displays the contents of the non-detection region information managed by the non-detection region management unit 130 and the detection likelihood estimation value information managed by the detection likelihood estimation value management unit 150 as a display unit (such as a liquid crystal display). (Not shown).

オブジェクト尤度算出部170は、本来の監視用の処理である作業者位置情報生成処理と、オブジェクト尤度算出処理とを行う。作業者位置情報生成処理は、不検知領域管理部130において管理されている不検知領域情報と、センサ110から入力されるセンシング情報とに基づいて、監視領域110a内を移動する作業者220の位置を推定し、作業者位置情報を生成する処理である。作業者位置情報は、作業者の位置と、作業者の画像の認識レベルとから成る。   The object likelihood calculation unit 170 performs an operator position information generation process and an object likelihood calculation process, which are original monitoring processes. The worker position information generation process is based on the non-detection area information managed by the non-detection area management unit 130 and the sensing information input from the sensor 110, and the position of the worker 220 moving in the monitoring area 110a. Is a process for generating worker position information. The worker position information includes the worker position and the recognition level of the worker image.

作業者位置情報は、例えば「(500,200),89%」のようなデータとなる。「(500,200)」は、作業者の監視領域内の位置を示す。「89%」は、「(500,200)」という位置における作業者の画像の認識レベルを示し、例えば、0〜100%の値をとり得る。   The worker position information is data such as “(500, 200), 89%”, for example. “(500, 200)” indicates a position in the monitoring area of the worker. “89%” indicates the recognition level of the worker's image at the position “(500, 200)”, and can take a value of 0 to 100%, for example.

オブジェクト尤度算出処理は、状況変化の可能性があると判断されたときに、対応する分割領域毎に、上述の認識レベルの平均値を算出する処理である。ここで、状況変化の可能性がある場合とは、検出された位置が不検知領域に存在し、かつ認識レベルの高い作業者位置情報が生成された場合、つまり不検知領域内に作業者が存在する可能性が高いと推定された場合である。また、状況変化の可能性がある場合とは、検出された位置が検知可能領域に存在し、かつ認識レベルの低い作業者位置情報が生成された場合である。   The object likelihood calculation process is a process of calculating the above average value of the recognition levels for each corresponding divided region when it is determined that there is a possibility of a situation change. Here, there is a possibility of a situation change when the detected position exists in the non-detection area and the worker position information with a high recognition level is generated, that is, the worker is in the non-detection area. This is a case where it is estimated that there is a high probability of being present. Further, the case where there is a possibility of a situation change is a case where the detected position exists in the detectable region and worker position information with a low recognition level is generated.

オブジェクト尤度算出部170は、作業者220の位置を示す作業者位置情報を、通知部190へ出力する。また、オブジェクト尤度算出部170は、各分割領域の領域番号と算出した作業者の画像の認識レベルの平均値とを対応付けたオブジェクト尤度情報を、不検知領域更新判定部180へ出力する。認識レベルの平均値は、例えば、同一の分割領域で検出された作業者の画像全ての認識レベルの合計値を、その検出個数で除した値である。   The object likelihood calculation unit 170 outputs worker position information indicating the position of the worker 220 to the notification unit 190. Further, the object likelihood calculating unit 170 outputs object likelihood information in which the region number of each divided region is associated with the calculated average value of the recognition level of the worker image to the non-detection region update determining unit 180. . The average value of the recognition levels is, for example, a value obtained by dividing the total value of the recognition levels of all the images of the workers detected in the same divided area by the number of detections.

オブジェクト尤度は、抽出された各画像の認識レベルに対応した値である。したがって、オブジェクト尤度は、分割領域が検知可能領域である場合には高く、分割領域が不検知領域である場合には低くなる傾向がある。   The object likelihood is a value corresponding to the recognition level of each extracted image. Therefore, the object likelihood tends to be high when the divided area is a detectable area and low when the divided area is a non-detectable area.

不検知領域更新判定部180は、検出尤度推定値管理部150が管理する検出尤度推定値と、オブジェクト尤度算出部170から入力されたオブジェクト尤度情報を各分割領域毎に比較することにより、状況変化があったか否かを判定する。すなわち、不検知領域更新判定部180は、不検知領域情報の更新が必要か否かを判定する。そして、不検知領域更新判定部180は、不検知領域情報の更新が必要であると判定したときに、その旨を示す更新通知情報を、通知部190へ出力する。   The non-detection region update determination unit 180 compares the detection likelihood estimated value managed by the detection likelihood estimated value management unit 150 with the object likelihood information input from the object likelihood calculation unit 170 for each divided region. From this, it is determined whether or not there has been a change in the situation. That is, the non-detection area update determination unit 180 determines whether or not the non-detection area information needs to be updated. When the non-detection region update determination unit 180 determines that the non-detection region information needs to be updated, it outputs update notification information indicating that to the notification unit 190.

状況変化が無い場合には、各分割領域のオブジェクト尤度の変化は小さく、分割領域毎のオブジェクト尤度と検出尤度推定値との差も小さい。しかし、状況変化があった場合には、オブジェクト尤度の変化は大きくなり、オブジェクト尤度と検出尤度推定値との差も大きくなる。また、より大きな状況変化があるほど、オブジェクト尤度と検出尤度推定値との差はより大きくなる。そこで、不検知領域更新判定部180は、上述の数値範囲が揃えられた状態において、オブジェクト尤度と検出尤度推定値との差の大小に基づいて、状況変化の有無、つまり不検知領域情報の更新が必要か否かを判定する。   When there is no change in the situation, the change in the object likelihood of each divided region is small, and the difference between the object likelihood and the detection likelihood estimated value for each divided region is also small. However, when there is a change in the situation, the change in the object likelihood increases, and the difference between the object likelihood and the detected likelihood estimate also increases. Also, the greater the change in the situation, the greater the difference between the object likelihood and the detection likelihood estimate. Therefore, the non-detection region update determination unit 180 determines whether or not there is a situation change based on the difference between the object likelihood and the detection likelihood estimation value, that is, the non-detection region information in the state where the above numerical ranges are aligned. It is determined whether or not updating is necessary.

通知部190は、更新通知情報の通知の他に、オブジェクト尤度算出部170から入力される作業者位置情報の内容を、上述の表示部を用いて出力する。また、通知部190は、不検知領域更新判定部180から更新通知情報が入力されたとき、不検知領域情報の内容を表示部により出力する。   In addition to the notification of the update notification information, the notification unit 190 outputs the contents of the worker position information input from the object likelihood calculation unit 170 using the display unit described above. Further, when the update notification information is input from the non-detection region update determination unit 180, the notification unit 190 outputs the content of the non-detection region information on the display unit.

なお、監視装置100は、図示しないが、例えば、CPU(central processing unit)、制御プログラムを格納したROM(read only memory)、RAM(random access memory)等の作業用メモリを有する。この場合、監視装置100は、CPUにおける制御プログラムの実行によって、上述した各部の機能を実現する。   Although not shown, the monitoring apparatus 100 includes a working memory such as a CPU (central processing unit), a ROM (read only memory) storing a control program, and a RAM (random access memory). In this case, the monitoring device 100 realizes the functions of the above-described units by executing a control program in the CPU.

このような構成を有する監視装置100は、作業者位置情報生成処理を実行することにより、作業者220の位置を、リアルタイムで監視して画像表示することができる。また、監視装置100は、作業者位置情報生成処理において推定される作業者220の位置に対するオブジェクト尤度を用いて、監視領域の状況変化の有無を判定する。これにより、本実施の形態の監視装置100は、不検知領域情報の更新が必要である旨をユーザに通知することができる。   The monitoring device 100 having such a configuration can monitor the position of the worker 220 in real time and display an image by executing the worker position information generation process. Moreover, the monitoring apparatus 100 determines the presence or absence of the situation change of the monitoring area | region using the object likelihood with respect to the position of the worker 220 estimated in the worker position information generation process. Thereby, the monitoring apparatus 100 of this Embodiment can notify a user that the non-detection area | region information needs to be updated.

次に、監視装置100の動作について説明する。   Next, the operation of the monitoring device 100 will be described.

図5は、監視装置100の全体動作の一例を示すフローチャートである。   FIG. 5 is a flowchart illustrating an example of the overall operation of the monitoring apparatus 100.

図5に示すように、監視装置100は、不検知領域判定処理(S1000)、検出尤度推定処理(S2000)、および監視処理(S3000)を、この順序で実行する。不検知領域判定処理は、不検知領域情報を得るための処理である。検出尤度推定処理は、分割領域毎の検出尤度推定値を得るための処理である。監視処理は、作業者220の監視および不検知領域情報の更新の通知を行うための処理である。   As shown in FIG. 5, the monitoring device 100 executes a non-detection area determination process (S1000), a detection likelihood estimation process (S2000), and a monitoring process (S3000) in this order. The non-detection area determination process is a process for obtaining non-detection area information. The detection likelihood estimation process is a process for obtaining a detection likelihood estimation value for each divided region. The monitoring process is a process for monitoring the worker 220 and notifying the update of the non-detection area information.

図6は、不検知領域判定処理の一例を示すフローチャートである。   FIG. 6 is a flowchart illustrating an example of the non-detection area determination process.

まず、ステップS1100において、センサ110は、監視領域110aを撮影し、画像データを不検知領域判定部120へ出力する。このとき、監視領域110aの各分割領域の代表点である計測ポイントにはそれぞれ、マーカ300が置かれた状態となっている(図3参照)。センサ110は、全ての計測ポイントにマーカ300が置かれた状態で、1回で全てのマーカ300の撮影を行っても良いし、マーカ300を移動させながら複数回に分けて撮影を行っても良い。   First, in step S1100, the sensor 110 captures the monitoring area 110a and outputs the image data to the non-detection area determination unit 120. At this time, the marker 300 is placed at each measurement point which is a representative point of each divided area of the monitoring area 110a (see FIG. 3). The sensor 110 may shoot all the markers 300 at a time in a state where the markers 300 are placed at all the measurement points, or may shoot several times while moving the markers 300. good.

そして、ステップS1200において、不検知領域判定部120は、分割領域を1つ選択する。各分割領域の位置および領域番号は、予め不検知領域判定部120に設定されている。   In step S1200, the non-detection area determination unit 120 selects one divided area. The position and area number of each divided area are set in the non-detection area determination unit 120 in advance.

そして、ステップS1300において、不検知領域判定部120は、画像データのうち選択中の分割領域に対応する部分に対して、マーカ300の図形パターンを抽出する画像認識処理を行い、マーカ300の認識レベルを算出する。画像認識処理は、例えば、画像特徴量の抽出と、予め用意された格子点の画像の画像特徴量とのパターンマッチングとにより行われる。   In step S1300, the non-detection region determination unit 120 performs image recognition processing for extracting the graphic pattern of the marker 300 on the portion corresponding to the selected divided region in the image data, and recognizes the recognition level of the marker 300. Is calculated. The image recognition process is performed, for example, by extracting an image feature amount and pattern matching with an image feature amount of an image of grid points prepared in advance.

そして、ステップS1400において、不検知領域判定部120は、例えば、検出された格子点の数が予め定められた第1の閾値を超えているか否かを判定する。不検知領域判定部120は、格子点の数が第1の閾値を超えている場合には(S1400:YES)、ステップS1500へ進み、格子点の数が第1の閾値以下の場合には(S1400:NO)、ステップS1600へ進む。   In step S1400, the non-detection area determination unit 120 determines whether, for example, the number of detected grid points exceeds a predetermined first threshold value. If the number of grid points exceeds the first threshold (S1400: YES), the non-detection area determination unit 120 proceeds to step S1500, and if the number of grid points is equal to or less than the first threshold ( (S1400: NO), the process proceeds to step S1600.

ステップS1500において、不検知領域判定部120は、選択中の分割領域を検知可能領域と判定し、判定結果を不検知領域管理部130へ出力して、ステップS1700へ進む。   In step S1500, the non-detection area determination unit 120 determines that the selected divided area is a detectable area, outputs the determination result to the non-detection area management unit 130, and proceeds to step S1700.

また、ステップS1600において、不検知領域判定部120は、選択中の分割領域を不検知領域と判定し、判定結果を不検知領域管理部130へ出力して、ステップS1700へ進む。   In step S1600, the non-detection area determination unit 120 determines that the selected divided area is a non-detection area, outputs the determination result to the non-detection area management unit 130, and proceeds to step S1700.

ステップS1700において、不検知領域判定部120は、全ての分割領域について不検知領域の判定を完了したか否かを判断する。不検知領域判定部120は、未処理の分割領域が残っている場合には(S1700:NO)、ステップS1200へ戻り、未処理の分割領域を1つ選択して処理を繰り返す。不検知領域判定部120は、全ての分割領域について処理を完了した場合には(S1700:YES)、ステップS1800へ進む。   In step S1700, the non-detection area determination unit 120 determines whether or not the determination of the non-detection area has been completed for all the divided areas. If an unprocessed divided area remains (S1700: NO), the non-detection area determination unit 120 returns to step S1200, selects one unprocessed divided area, and repeats the process. If the non-detection area determination unit 120 completes the process for all the divided areas (S1700: YES), the process proceeds to step S1800.

図7は、不検知領域判定部120による判定結果の一例を示す図である。   FIG. 7 is a diagram illustrating an example of a determination result by the non-detection region determination unit 120.

図7に示すように、不検知領域判定部120は、例えば、監視領域110aをX軸およびY軸に沿って3×3マトリクス状に分割した9個の分割領域のそれぞれを、領域番号によって識別する。   As illustrated in FIG. 7, the non-detection area determination unit 120 identifies, for example, each of the nine divided areas obtained by dividing the monitoring area 110a in a 3 × 3 matrix along the X axis and the Y axis by the area number. To do.

例えば、領域番号6、8の分割領域に置かれたマーカ300が、充分な認識レベルで検出されなかった(つまり、認識された格子点の数が第1の閾値以下であった)とする。この場合、不検知領域判定部120は、領域番号6、8の分割領域を、不検知領域と判定し、その他の分割領域を、検知可能領域と判定する。   For example, it is assumed that the marker 300 placed in the divided regions of the region numbers 6 and 8 is not detected with a sufficient recognition level (that is, the number of recognized lattice points is equal to or less than the first threshold value). In this case, the non-detection area determination unit 120 determines that the divided areas having the area numbers 6 and 8 are non-detection areas, and determines the other division areas as detectable areas.

図6のステップS1800において、不検知領域管理部130は、不検知領域判定部120から入力された判定結果に基づいて、不検知領域情報を生成し、生成した不検知領域情報を登録する。登録された不検知領域情報は、不検知領域管理部130によって、他の装置部から読み出し可能な状態で管理される。不検知領域情報は、例えば、各分割領域の位置情報をリスト化した分割領域情報と、不検知領域の領域番号をリスト化した不検知領域番号情報とから成る。   In step S1800 in FIG. 6, the non-detection area management unit 130 generates non-detection area information based on the determination result input from the non-detection area determination unit 120, and registers the generated non-detection area information. The registered non-detection area information is managed by the non-detection area management unit 130 in a state in which it can be read from other apparatus units. The non-detection area information includes, for example, division area information that lists position information of each division area and non-detection area number information that lists area numbers of non-detection areas.

図8は、分割領域情報の記述例を示す図である。   FIG. 8 is a diagram illustrating a description example of divided region information.

図8に示すように、分割領域情報410は、領域番号411に対応付けて、X軸座標値412およびY軸座標値413を記述する。X軸座標値412およびY軸座標値413は、分割領域の基準位置の座標値である。   As illustrated in FIG. 8, the divided region information 410 describes an X-axis coordinate value 412 and a Y-axis coordinate value 413 in association with the region number 411. The X-axis coordinate value 412 and the Y-axis coordinate value 413 are coordinate values of the reference position of the divided area.

図9は、不検知領域番号情報の記述例を示す図である。   FIG. 9 is a diagram illustrating a description example of non-detection area number information.

図9に示すように、不検知領域番号情報420は、不検知ID421に対応付けて、領域番号422を記述する。   As illustrated in FIG. 9, the non-detection area number information 420 describes the area number 422 in association with the non-detection ID 421.

ここで、分割領域の大きさは所定の固定値であり、分割領域の基準位置は分割領域の中心位置であるものとする。この場合、分割領域情報410および不検知領域番号情報420を参照することにより、監視領域110aの任意の位置が、どの分割領域に属するか、および不検知領域に属するか否かを、容易に判断することができる。   Here, the size of the divided area is a predetermined fixed value, and the reference position of the divided area is the center position of the divided area. In this case, by referring to the divided region information 410 and the non-detected region number information 420, it is easily determined which divided region the arbitrary position of the monitoring region 110a belongs and whether or not it belongs to the non-detected region. can do.

このような不検知領域判定処理により、監視装置100は、監視領域110aの不検知領域情報を得ることができる。   By such a non-detection area determination process, the monitoring apparatus 100 can obtain non-detection area information of the monitoring area 110a.

図10は、検出尤度推定処理の一例を示すフローチャートである。   FIG. 10 is a flowchart illustrating an example of the detection likelihood estimation process.

まず、ステップS2100において、検出尤度推定部140は、分割領域を1つ選択する。この選択は、例えば、不検知領域管理部130に登録された不検知領域情報のうち、分割領域情報(図8参照)に記述された領域番号を選択することにより行われる。   First, in step S2100, the detection likelihood estimating unit 140 selects one divided region. This selection is performed, for example, by selecting an area number described in the divided area information (see FIG. 8) from the undetected area information registered in the undetected area management unit 130.

そして、ステップS2200において、検出尤度推定部140は、選択中の分割領域が不検知領域であるか否かを判断する。この判断は、例えば、不検知領域管理部130に登録された不検知領域情報のうち、不検知領域番号情報(図9参照)に、選択中の領域番号が記述されているか否かを判断することにより行われる。検出尤度推定部140は、選択中の分割領域が不検知領域である場合には(S2200:YES)、ステップS2300へ進み、選択中の分割領域が検知可能領域である場合には(S2200:NO)、ステップS2400へ進む。   In step S2200, detection likelihood estimating section 140 determines whether or not the selected divided region is a non-detection region. This determination is made, for example, by determining whether or not the area number being selected is described in the non-detection area number information (see FIG. 9) among the non-detection area information registered in the non-detection area management unit 130. Is done. If the selected divided area is a non-detection area (S2200: YES), the detection likelihood estimating unit 140 proceeds to step S2300, and if the selected divided area is a detectable area (S2200: NO), the process proceeds to step S2400.

ステップS2300において、検出尤度推定部140は、選択中の分割領域の検出尤度推定値を「0」に設定し、ステップS2500へ進む。   In step S2300, detection likelihood estimation section 140 sets the detection likelihood estimation value of the selected divided region to “0”, and proceeds to step S2500.

一方、ステップS2400において、検出尤度推定部140は、選択中の分割領域が、不検知領域と隣接するか否かを判断する。検出尤度推定部140は、選択中の分割領域が不検知領域と隣接する場合には(S2400:YES)、ステップS2700へ進み、選択中の分割領域が不検知領域と隣接しない場合には(S2400:NO)、ステップS2800へ進む。   On the other hand, in step S2400, detection likelihood estimating section 140 determines whether or not the selected divided region is adjacent to the non-detected region. When the selected divided region is adjacent to the non-detected region (S2400: YES), the detection likelihood estimating unit 140 proceeds to step S2700, and when the selected divided region is not adjacent to the non-detected region ( (S2400: NO), the process proceeds to step S2800.

ステップS2700において、検出尤度推定部140は、選択中の分割領域の検出尤度推定値を「50」に設定し、ステップS2500へ進む。   In step S2700, detection likelihood estimation section 140 sets the detection likelihood estimation value of the selected divided region to “50”, and proceeds to step S2500.

また、ステップS2800において、検出尤度推定部140は、選択中の分割領域の検出尤度推定値を「100」に設定し、ステップS2500へ進む。   In step S2800, detection likelihood estimation section 140 sets the detection likelihood estimation value of the selected divided region to “100”, and proceeds to step S2500.

そして、ステップS2500において、検出尤度推定部140は、全ての分割領域について検出尤度推定値の設定を完了したか否かを判断する。検出尤度推定部140は、未処理の分割領域が残っている場合には(S2500:NO)、ステップS2100へ戻り、未処理の分割領域を1つ選択して処理を繰り返す。検出尤度推定部140は、全ての分割領域について処理を完了した場合には(S2500:YES)、ステップS2600へ進む。   In step S2500, detection likelihood estimation section 140 determines whether or not the detection likelihood estimation values have been set for all the divided regions. When the unprocessed divided area remains (S2500: NO), the detection likelihood estimating unit 140 returns to step S2100, selects one unprocessed divided area, and repeats the process. When the detection likelihood estimation unit 140 completes the process for all the divided regions (S2500: YES), the detection likelihood estimation unit 140 proceeds to step S2600.

図11は、検出尤度推定部140による設定結果の一例を示す図である。   FIG. 11 is a diagram illustrating an example of a setting result obtained by the detection likelihood estimating unit 140.

ここでは、図7〜図9で説明した例の不検知領域情報430が、不検知領域管理部130に管理されているものとする。この場合、図11に示すように、設定される検出尤度推定値情報440は、不検知領域(領域番号6、8)を「0」とし、検知可能領域のうち不検知領域から遠い領域(領域番号1、2、4)を「100」とする内容となる。また、設定される検出尤度推定値440は、残りの領域(領域3、5、7、9)を「50」とする内容となる。   Here, it is assumed that the non-detection area information 430 in the example described with reference to FIGS. 7 to 9 is managed by the non-detection area management unit 130. In this case, as shown in FIG. 11, the detection likelihood estimation value information 440 to be set sets the non-detection area (area numbers 6 and 8) to “0”, and is an area far from the non-detection area among the detectable areas ( The area number 1, 2, 4) is “100”. Further, the detection likelihood estimation value 440 to be set has a content in which the remaining areas (areas 3, 5, 7, and 9) are set to “50”.

ある分割領域の大部分を陰とする大きな障害物の端部は、通常、隣接する他の分割領域に掛かり、隣接する分割領域を部分的に陰にする。このような部分的に陰となる分割領域では、作業者220の認識レベルに低い値と高い値とが混在することになり、作業者220の認識レベルの平均値は中間値となる。したがって、検出尤度推定部140は、不検知領域(大部分が陰となる分割領域)に隣接する分割領域(部分的に陰となる分割領域)を中間値「50」とする。これにより、検出尤度推定部140は、作業者220の認識レベルにより近い値を、検出尤度推定値として得ることができる。   The end of a large obstacle that is shaded mostly by a certain divided region usually covers another neighboring divided region, and the neighboring divided region is partially shaded. In such a partially shaded divided area, a low value and a high value are mixed in the recognition level of the worker 220, and the average value of the recognition level of the worker 220 is an intermediate value. Therefore, the detection likelihood estimating unit 140 sets the divided area (partially shaded divided area) adjacent to the non-detected area (partially shaded divided area) as the intermediate value “50”. Thereby, the detection likelihood estimation part 140 can obtain the value close | similar to the operator 220's recognition level as a detection likelihood estimated value.

以上のように、検出尤度推定部140は、選択中の分割領域の不検知領域との領域間距離に応じて、検出尤度推定値を設定する。なお、検出尤度推定部140は、選択中の分割領域の不検知領域との領域間距離に応じて、更に細分化された検出尤度推定値を設定してもよい。領域間距離は、例えば、分割領域の計測ポイントと不検知領域の計測ポイントとの間の距離である。この場合、領域間距離と検出尤度推定値との関係は、例えば、正比例関数、二次関数、量子化関数で定義される関係を採用することができる。   As described above, the detection likelihood estimation unit 140 sets the detection likelihood estimation value according to the inter-region distance between the selected divided region and the non-detection region. Note that the detection likelihood estimation unit 140 may set a further subdivided detection likelihood estimation value according to the inter-region distance between the selected divided region and the non-detection region. The inter-region distance is, for example, a distance between a measurement point in the divided area and a measurement point in the non-detection area. In this case, for example, a relationship defined by a direct proportional function, a quadratic function, or a quantization function can be adopted as the relationship between the inter-region distance and the detection likelihood estimation value.

図10のステップS2600において、検出尤度推定部140は、各分割領域の設定結果を検出尤度推定値管理部150へ出力する。検出尤度推定値管理部150は、入力された設定結果に基づいて、検出尤度推定値情報を生成し、生成した検出尤度推定値情報を登録する。登録された検出尤度推定値情報は、検出尤度推定値管理部150によって、他の装置部から読み出し可能な状態で管理される。   In step S <b> 2600 of FIG. 10, the detection likelihood estimation unit 140 outputs the setting result of each divided region to the detection likelihood estimation value management unit 150. The detection likelihood estimated value management unit 150 generates detection likelihood estimated value information based on the input setting result, and registers the generated detection likelihood estimated value information. The registered detection likelihood estimated value information is managed by the detection likelihood estimated value management unit 150 in a state where it can be read from other device units.

図12は、検出尤度推定値情報の記述例を示す図である。   FIG. 12 is a diagram illustrating a description example of the detection likelihood estimation value information.

図12に示すように、検出尤度推定値情報440は、領域番号441に対応付けて、検出尤度推定値442を記述する。   As illustrated in FIG. 12, the detection likelihood estimated value information 440 describes a detection likelihood estimated value 442 in association with the region number 441.

なお、出力部160は、例えば、ユーザからの指示入力をトリガとして、監視領域110aの撮影画像に、各分割領域が不検知領域であるか否かを示す画像を、対応する分割領域の位置で重畳して表示部に表示する。または、出力部160は、監視領域110aの撮影画像を、検出尤度推定値が低い分割領域ほど見え難くした状態で、表示部に表示する。これらの場合には、出力部160は、センサ110から出力される画像データを入力するか、予め監視領域110aの撮影画像を記憶しておく必要がある。   Note that the output unit 160 uses, for example, an instruction input from the user as a trigger, and displays an image indicating whether or not each divided region is a non-detected region in the captured image of the monitoring region 110a at the position of the corresponding divided region. Superimpose and display on the display. Or the output part 160 displays the picked-up image of the monitoring area | region 110a on a display part in the state which made it difficult to see the division area with a low detection likelihood estimated value. In these cases, the output unit 160 needs to input image data output from the sensor 110 or store a captured image of the monitoring area 110a in advance.

図13および図14は、表示部で表示される出力画面の例を示す図である。   13 and 14 are diagrams illustrating examples of output screens displayed on the display unit.

図13に示すように、出力画面450は、例えば、撮影画像に、分割領域の境界線を重畳して表示する。また、出力画面450は、不検知領域に対応する領域の撮影画像を半透明に遮蔽して見え難くする。これにより、監視装置100は、ユーザに対して、映し出された監視領域110aの不検知領域を、作業者220が存在し得る領域として通知することができる。   As illustrated in FIG. 13, the output screen 450 displays, for example, the boundary line of the divided region superimposed on the captured image. In addition, the output screen 450 makes the captured image of the area corresponding to the non-detection area opaque to make it difficult to see. As a result, the monitoring apparatus 100 can notify the user of the undetected area of the monitoring area 110a displayed as an area where the worker 220 can exist.

また、図14に示すように、出力画面460は、例えば、各分割領域の検出尤度推定値を数値や色で示しても良い。これにより、監視装置100は、ユーザに対して、監視領域110aの各所の検出尤度推定値の詳細を通知することができる。   Further, as illustrated in FIG. 14, the output screen 460 may, for example, indicate the detection likelihood estimation value of each divided region with a numerical value or a color. Thereby, the monitoring apparatus 100 can notify the detail of the detection likelihood estimated value of each place of the monitoring area | region 110a with respect to a user.

このような検出尤度推定処理により、監視装置100は、監視領域110aの検出尤度推定値情報を得ることができる。   By such detection likelihood estimation processing, the monitoring apparatus 100 can obtain detection likelihood estimation value information of the monitoring region 110a.

図15は、監視処理の一例を示すフローチャートである。   FIG. 15 is a flowchart illustrating an example of the monitoring process.

まず、ステップS3100において、オブジェクト尤度算出部170は、フラグ(flg)に初期値として、「false」を設定する。このフラグは、状況変化の可能性があることを検出するために用いられるフラグである。   First, in step S3100, the object likelihood calculating unit 170 sets “false” as an initial value in the flag (flg). This flag is a flag used to detect the possibility of a situation change.

そして、ステップS3200において、センサ110は、監視領域110aを撮影し、画像データをオブジェクト尤度算出部170へ出力する。このとき、監視領域110aの検知可能領域に作業者220が存在すれば、その姿が撮影画像に映し出される。   In step S3200, the sensor 110 captures the monitoring area 110a and outputs the image data to the object likelihood calculating unit 170. At this time, if the worker 220 exists in the detectable area of the monitoring area 110a, the appearance is displayed on the captured image.

そして、ステップS3300において、オブジェクト尤度算出部170は、撮影画像のうち選択中の分割領域に対応する部分に対して、作業者220の画像を検出する画像認識処理を行う。   In step S3300, the object likelihood calculating unit 170 performs image recognition processing for detecting an image of the worker 220 on a portion corresponding to the selected divided region in the captured image.

そして、ステップS3400において、オブジェクト尤度算出部170は、作業員220の画像が検出されたか否かを判断する。オブジェクト尤度算出部170は、作業員220の画像が検出された場合には(S3400:YES)、ステップS3500へ進み、作業員220の画像が検出されない場合には(S3400:NO)、後述のステップS4100へ進む。   In step S3400, the object likelihood calculating unit 170 determines whether an image of the worker 220 is detected. When the image of the worker 220 is detected (S3400: YES), the object likelihood calculating unit 170 proceeds to step S3500. When the image of the worker 220 is not detected (S3400: NO), the object likelihood calculating unit 170 will be described later. Proceed to step S4100.

そして、ステップS3500において、オブジェクト尤度算出部170は、検出された作業者220の画像を1つ選択し、画像の認識レベルを算出する。   In step S3500, the object likelihood calculating unit 170 selects one image of the detected worker 220 and calculates the recognition level of the image.

ここでは、オブジェクト尤度算出部170は、検出尤度推定値が取り得る数値範囲と同一の数値範囲において、認識レベルを算出するものとする。より具体的には、オブジェクト尤度算出部170は、例えば、作業者220の画像が全く認識されなかった場合、認識されたものの不鮮明の場合、あるいは画像の大きさが小さい場合には、認識レベルを「0」とする。また、オブジェクト尤度算出部170は、例えば、作業者220の全身の鮮明な画像が認識されたときや、画像の大きさが大きいとき、認識レベルを「100」とする。また、オブジェクト尤度算出部170は、作業者220の画像の認識の度合いに応じて、認識レベルを決定する。例えば、オブジェクト尤度算出部170は、作業者220の画像が認識されたものの、その画像が全身ではないときには、全身の何割が認識されたかに応じて、認識レベルを決定する。オブジェクト尤度算出部170は、例えば、パターンマッチングの対象となる複数の身体部品のうち認識された部品の割合に応じて、認識レベルと決定する。また、例えば、オブジェクト尤度算出部170は、作業者220の画像が認識されたものの、その画像が不鮮明であるときには、どの程度不鮮明であるかに応じて、認識レベルを決定する。オブジェクト尤度算出部170は、例えば、パターンマッチングの際に算出される相関係数の大小に応じて、認識レベルを決定する。   Here, it is assumed that the object likelihood calculation unit 170 calculates the recognition level in the same numerical value range as the detection likelihood estimated value can take. More specifically, the object likelihood calculating unit 170 determines the recognition level when, for example, the image of the worker 220 is not recognized at all, when the recognized image is unclear, or when the image size is small. Is “0”. The object likelihood calculating unit 170 sets the recognition level to “100” when, for example, a clear image of the whole body of the worker 220 is recognized or the size of the image is large. Further, the object likelihood calculating unit 170 determines a recognition level according to the degree of image recognition of the worker 220. For example, when the image of the worker 220 is recognized but the image is not the whole body, the object likelihood calculating unit 170 determines the recognition level according to what percentage of the whole body is recognized. For example, the object likelihood calculating unit 170 determines the recognition level in accordance with the proportion of recognized parts among the plurality of body parts to be subjected to pattern matching. Further, for example, when the image of the worker 220 is recognized but the image is unclear, the object likelihood calculating unit 170 determines the recognition level according to how unclear. The object likelihood calculating unit 170 determines the recognition level according to the magnitude of the correlation coefficient calculated at the time of pattern matching, for example.

そして、ステップS3600において、オブジェクト尤度算出部170は、選択中の分割領域が不検知領域であるか否かを判断する。この判断は、例えば、不検知領域管理部130に登録された不検知領域情報のうち、不検知領域番号情報(図9参照)に、選択中の領域番号が記述されているか否かを判断することにより行われる。オブジェクト尤度算出部170は、選択中の分割領域が不検知領域ではない場合(検知可能領域である場合)には(S3600:NO)、ステップS3700へ進む。   In step S3600, object likelihood calculating section 170 determines whether or not the selected divided area is a non-detection area. This determination is made, for example, by determining whether or not the area number being selected is described in the non-detection area number information (see FIG. 9) among the non-detection area information registered in the non-detection area management unit 130. Is done. If the selected divided region is not a non-detectable region (if it is a detectable region) (S3600: NO), the object likelihood calculating unit 170 proceeds to step S3700.

ステップS3700において、オブジェクト尤度算出部170は、算出された認識レベルが予め定められた第2の閾値を超えているか否かを判断する。オブジェクト尤度算出部170は、認識レベルが第2の閾値を超えている場合には(S3700:YES)、ステップS3800へ進む。   In step S3700, the object likelihood calculating unit 170 determines whether the calculated recognition level exceeds a predetermined second threshold value. If the recognition level exceeds the second threshold (S3700: YES), the object likelihood calculating unit 170 proceeds to step S3800.

ステップS3800において、オブジェクト尤度算出部170は、認識された作業者220の作業者位置情報を生成し、生成した作業者位置情報を、通知部190へ出力し、ステップS4000へ進む。この結果、作業者220の位置が、表示部における画像表示によってユーザに通知される。例えば、通知部190は、監視領域110aの撮影画像に、作業者220の位置を示すアイコンを、作業者位置情報が示す位置で重畳して表示する。この場合には、通知部190は、センサ110から出力される画像データを入力するか、予め監視領域110aの撮影画像を記憶しておく必要がある。   In step S3800, the object likelihood calculation unit 170 generates worker position information of the recognized worker 220, outputs the generated worker position information to the notification unit 190, and proceeds to step S4000. As a result, the position of the worker 220 is notified to the user by displaying an image on the display unit. For example, the notification unit 190 superimposes and displays an icon indicating the position of the worker 220 on the captured image of the monitoring area 110a at the position indicated by the worker position information. In this case, the notification unit 190 needs to input image data output from the sensor 110 or store a captured image of the monitoring area 110a in advance.

また、オブジェクト尤度算出部170は、選択中の分割領域が不検知領域である場合(S3600:YES)には、ステップS3750へ進む。   Also, the object likelihood calculating unit 170 proceeds to step S3750 when the selected divided region is a non-detected region (S3600: YES).

ステップS3750において、オブジェクト尤度算出部170は、オブジェクト尤度算出部170は、算出された認識レベルが予め定められた第3の閾値を超えているか否かを判断する。オブジェクト尤度算出部170は、認識レベルが第3の閾値以下である場合には(S3750:YES)、そのままステップS3800へ進む。   In step S3750, the object likelihood calculating unit 170 determines whether or not the calculated likelihood level exceeds a predetermined third threshold. If the recognition level is equal to or lower than the third threshold (S3750: YES), the object likelihood calculating unit 170 proceeds to step S3800 as it is.

一方、オブジェクト尤度算出部170は、選択中の分割領域が検知可能領域であるにもかかわらず認識レベルが第2の閾値以下である場合には(S3700:NO)、ステップS3900へ進む。また、オブジェクト尤度算出部170は、選択中の分割領域が不検知領域であるにもかかわらず認識レベルが第3の閾値を超えている場合も(S3750:NO)、ステップS3900へ進む。   On the other hand, if the selected divided area is a detectable area, the object likelihood calculating unit 170 proceeds to step S3900 when the recognition level is equal to or lower than the second threshold (S3700: NO). Also, the object likelihood calculation unit 170 proceeds to step S3900 even when the recognition level exceeds the third threshold value even though the selected divided region is a non-detection region (S3750: NO).

ステップ3900において、オブジェクト尤度算出部170は、フラグ(flg)に「true」に設定して、ステップS3800へ進む。すなわち、登録された不検知領域情報において、次の場合には、フラグが「true」となる。フラグが「true」となるのは、不検知領域であるにもかかわらず作業者220が高い認識レベルで検出された場合、または、検知可能領域であるにもかかわらず作業者220が低い認識レベルで検出された場合である。なお、第2の閾値および第3の閾値は、経験または実験から求められる、所定の監視精度を確保するのに適切な値である。   In step 3900, the object likelihood calculating unit 170 sets “true” in the flag (flg), and the process proceeds to step S3800. That is, in the registered non-detection area information, the flag is “true” in the following cases. The flag is set to “true” when the worker 220 is detected at a high recognition level even though it is a non-detection region, or the worker 220 has a low recognition level even though it is a detectable region. Is detected in Note that the second threshold value and the third threshold value are values that are obtained from experience or experiment and are appropriate for ensuring predetermined monitoring accuracy.

そしてステップS4000において、オブジェクト尤度算出部170は、全ての作業員220の画像について認識レベルの判定を完了したか否かを判断する。オブジェクト尤度算出部170は、未処理の作業員220の画像が残っている場合には(S4000:NO)、ステップS3500へ戻り、未処理の作業員220の画像を1つ選択して処理を繰り返す。オブジェクト尤度算出部170は、全ての作業員220の画像について処理を完了した場合には(S4000:YES)、ステップS4100へ進む。   In step S4000, the object likelihood calculating unit 170 determines whether or not the recognition level determination has been completed for all the images of the workers 220. When the image of the unprocessed worker 220 remains (S4000: NO), the object likelihood calculating unit 170 returns to step S3500, selects one image of the unprocessed worker 220, and performs processing. repeat. When the object likelihood calculation unit 170 completes the processing for all the images of the workers 220 (S4000: YES), the process proceeds to step S4100.

ステップS4100において、オブジェクト尤度算出部170は、フラグ(flg)が「true」となっているか否かを判断する。すなわち、オブジェクト尤度算出部170は、不検知領域となっているにもかかわらず作業者220が高い認識レベルで検出されたか、および検知可能領域となっているにもかかわらず作業者220が低い認識レベルで検出されたかを判断する。オブジェクト尤度算出部170は、フラグが初期値「false」のままとなっている場合には(S4100:NO)、ステップS4200へ進む。一方、オブジェクト尤度算出部170は、フラグが「true」となっている場合には(S4100:YES)、ステップS4300へ進む。   In step S4100, the object likelihood calculating unit 170 determines whether or not the flag (flg) is “true”. That is, the object likelihood calculation unit 170 indicates that the worker 220 is detected at a high recognition level even though it is a non-detection region, and the worker 220 is low even though it is a detectable region. It is determined whether it is detected at the recognition level. If the flag remains the initial value “false” (S4100: NO), the object likelihood calculating unit 170 proceeds to step S4200. On the other hand, when the flag is “true” (S4100: YES), the object likelihood calculating unit 170 proceeds to step S4300.

ステップS4300において、オブジェクト尤度算出部170は、分轄領域毎の認識レベルの蓄積を開始する。   In step S4300, object likelihood calculating section 170 starts accumulating recognition levels for each demarcation area.

そして、ステップS4400において、オブジェクト尤度算出部170は、認識レベルの蓄積を開始してから、予め定めた一定時間が経過したか否かを判断する。オブジェクト尤度算出部170は、一定時間が経過していない場合には(S4400:NO)、ステップS4200へ進み、一定時間が経過した場合には(S4400:YES)、ステップS4500へ進む。   In step S4400, object likelihood calculation section 170 determines whether or not a predetermined time has elapsed since the start of accumulation of recognition levels. If the fixed time has not elapsed (S4400: NO), the object likelihood calculating unit 170 proceeds to step S4200, and if the fixed time has elapsed (S4400: YES), the object likelihood calculating unit 170 proceeds to step S4500.

ステップS4500において、オブジェクト尤度算出部170は、分轄領域毎に、蓄積された認識レベルの平均値を、オブジェクト尤度として算出し、オブジェクト尤度情報を不検知領域更新判定部180へ出力する。   In step S4500, object likelihood calculation section 170 calculates the average value of the accumulated recognition levels for each demarcation area as the object likelihood, and outputs the object likelihood information to non-detection area update determination section 180.

図16は、オブジェクト尤度情報の一例を示す図である。   FIG. 16 is a diagram illustrating an example of object likelihood information.

図16に示すように、オブジェクト尤度情報470は、分轄領域毎のオブジェクト尤度を含む。上述のように部分的に陰となる分割領域では、時刻毎に作業者220の認識レベルにばらつきが出る。また、できるだけ多くの分轄領域について作業者220が存在するときの認識レベルが取得されることが望ましい。したがって、本実施の形態では、一定時間に得られた認識レベルの平均値を採用することにより、センサ110の実際の認識レベルをより正確に示す指標として、オブジェクト尤度を得ることができる。   As shown in FIG. 16, the object likelihood information 470 includes the object likelihood for each demarcation area. As described above, in the partially shaded divided area, the recognition level of the worker 220 varies from time to time. In addition, it is desirable to obtain the recognition level when the worker 220 exists for as many demarcated areas as possible. Therefore, in this embodiment, the object likelihood can be obtained as an index indicating the actual recognition level of the sensor 110 more accurately by adopting the average value of the recognition levels obtained in a certain time.

そして、ステップS4600において、不検知領域更新判定部180は、更新判定処理を実行する。更新判定処理は、不検知領域情報の更新が必要か否かを判定する処理である。   In step S4600, the non-detection region update determination unit 180 executes update determination processing. The update determination process is a process for determining whether or not the non-detection area information needs to be updated.

そして、ステップS4700において、オブジェクト尤度算出部170は、フラグ(flg)を初期状態の「false」に戻し、ステップS4200へ進む。   In step S4700, the object likelihood calculating unit 170 returns the flag (flg) to “false” in the initial state, and proceeds to step S4200.

ステップS4200において、オブジェクト尤度算出部170は、監視処理を継続するか否かを判断する。例えば、オブジェクト尤度算出部170は、ユーザ操作により監視処理の終了が指示された場合には監視処理を終了すると判断し、その他の場合には監視処理を継続すると判断する。オブジェクト尤度算出部170は、監視処理を継続すると判断した場合には(S4200:YES)、ステップS3200へ戻り、監視処理を終了すると判断した場合には(S4200:NO)、一連の処理を終了する。   In step S4200, the object likelihood calculating unit 170 determines whether or not to continue the monitoring process. For example, the object likelihood calculating unit 170 determines that the monitoring process is to be ended when the end of the monitoring process is instructed by a user operation, and determines to continue the monitoring process in other cases. When it is determined that the monitoring process is continued (S4200: YES), the object likelihood calculation unit 170 returns to step S3200, and when it is determined that the monitoring process is ended (S4200: NO), the series of processes is ended. To do.

このような監視処理により、監視装置100は、状況変化があった可能性があると判断したとき、分轄領域毎のオブジェクト尤度を算出し、算出したオブジェクト尤度に基づいて、更新判定処理を行うことができる。   When the monitoring device 100 determines that there is a possibility that the situation has changed by such monitoring processing, the monitoring device 100 calculates the object likelihood for each demarcation area, and performs the update determination processing based on the calculated object likelihood. It can be carried out.

なお、更新判定処理を開始する条件は、上述の例に限定されない。監視装置100は、例えば、定期的に、または認識レベルの値が一定個数蓄積される毎に、認識レベルの蓄積およびオブジェクト尤度の算出を行った上で更新判定処理を行っても良い。   The condition for starting the update determination process is not limited to the above example. For example, the monitoring apparatus 100 may perform update determination processing after accumulating recognition levels and calculating object likelihoods, for example, periodically or whenever a certain number of recognition level values are accumulated.

図17は、更新判定処理の一例を示すフローチャートである。   FIG. 17 is a flowchart illustrating an example of the update determination process.

まず、ステップS4610において、不検知領域更新判定部180は、分轄領域を1つ選択する。この選択は、例えば、オブジェクト尤度情報に含まれる領域番号の中から1つの領域番号を選択することによって行われる。なお、不検知領域更新判定部180は、オブジェクト尤度算出部170からのオブジェクト尤度が「0」の分割領域を選択対象から除外しても良い。このような分割領域は、作業者220が存在しなかったのか、それとも不検知領域であるために作業者220が存在していても検出できなかったのかが不明だからである。   First, in step S4610, the non-detection area update determination unit 180 selects one division area. This selection is performed, for example, by selecting one area number from the area numbers included in the object likelihood information. Note that the non-detection region update determination unit 180 may exclude a divided region whose object likelihood from the object likelihood calculation unit 170 is “0” from the selection target. This is because it is unclear whether such a divided area has not been detected even if the worker 220 does not exist or is not detected because the worker 220 exists.

そして、ステップS4620において、不検知領域更新判定部180は、選択中の分轄領域のオブジェクト尤度と、選択中の分割領域の検出尤度推定値との差が、予め定められた第4の閾値を超えるか否かを判断する。不検知領域更新判定部180は、オブジェクト尤度と検出尤度推定値との差が第4の閾値を超えている場合には(S4620:YES)、ステップS4630へ進む。一方、不検知領域更新判定部180は、オブジェクト尤度と検出尤度推定値との差が第4の閾値以下である場合には(S4620:NO)、後述のステップS4640へ進む。   In step S4620, the non-detection area update determination unit 180 determines whether the difference between the object likelihood of the selected demarcation area and the detection likelihood estimate value of the selected divided area is a predetermined fourth threshold value. It is judged whether or not. When the difference between the object likelihood and the detection likelihood estimated value exceeds the fourth threshold (S4620: YES), the non-detection region update determination unit 180 proceeds to step S4630. On the other hand, when the difference between the object likelihood and the detected likelihood estimated value is equal to or smaller than the fourth threshold (S4620: NO), the non-detection region update determination unit 180 proceeds to step S4640 described later.

ステップS4630において、不検知領域更新判定部180は、初期値を「0」とする内部カウンタのカウント値を1つ増加させ、ステップS4640へ進む。   In step S4630, the non-detection area update determination unit 180 increments the count value of the internal counter that sets the initial value to “0” by one, and proceeds to step S4640.

そして、ステップS4640において、不検知領域更新判定部180は、全ての分割領域について、オブジェクト尤度と検出尤度推定値との差と第4の閾値との比較を完了したか否かを判断する。不検知領域更新判定部180は、未処理の分割領域が残っている場合には(S4630:NO)、ステップS4610へ戻り、未処理の分割領域を1つ選択して処理を繰り返す。不検知領域更新判定部180は、全ての分割領域について処理を完了した場合には(S4630:YES)、ステップS4650へ進む。   In step S4640, the non-detection region update determination unit 180 determines whether or not the comparison between the difference between the object likelihood and the detection likelihood estimated value and the fourth threshold is completed for all the divided regions. . If an unprocessed divided area remains (S4630: NO), the undetected area update determination unit 180 returns to step S4610, selects one unprocessed divided area, and repeats the process. If the non-detection area update determination unit 180 completes the process for all the divided areas (S4630: YES), the process proceeds to step S4650.

すなわち、オブジェクト尤度との検出尤度推定値との差が大きい分轄領域が多ければ多いほど、カウント値は大きくなる。   That is, the count value increases as the number of divisional areas with a large difference between the object likelihood and the detected likelihood estimation value increases.

図18は、状況変化が無い場合の、オブジェクト尤度と検出尤度推定値との差の一例を示す図である。また、図19は、状況変化があった場合の、オブジェクト尤度と検出尤度推定値との差の一例を示す図である。   FIG. 18 is a diagram illustrating an example of the difference between the object likelihood and the detected likelihood estimated value when there is no change in the situation. FIG. 19 is a diagram illustrating an example of the difference between the object likelihood and the detected likelihood estimated value when there is a change in the situation.

図18に示すように、状況変化が無い場合、オブジェクト尤度情報470における各分割領域のオブジェクト尤度は、検出尤度推定値情報440で示される当該分割領域の検出尤度推定値との差が少ない。したがって、各分割領域の演算結果480の値は小さい。ここでは、図17のステップ4620の第4の閾値を「20」とする。この場合、オブジェクト尤度と検出尤度推定値との差が第4の閾値を超える分割領域は1個であり、カウント値は「1」となる。   As shown in FIG. 18, when there is no change in the situation, the object likelihood of each divided region in the object likelihood information 470 is different from the detection likelihood estimated value of the divided region indicated by the detected likelihood estimated value information 440. Less is. Therefore, the value of the calculation result 480 of each divided area is small. Here, the fourth threshold value in step 4620 of FIG. In this case, there is one divided region where the difference between the object likelihood and the detected likelihood estimated value exceeds the fourth threshold value, and the count value is “1”.

一方、図19に示すように、状況変化があった場合、各分割領域のオブジェクト尤度情報470の値は、検出尤度推定値情報440で示される当該分割領域の検出尤度推定値との差が大きい。したがって、各分割領域の演算結果480の値は大きい。ここで、第4の閾値を「20」とした場合、差が第4の閾値を超える分割領域は6個であり、カウント値は「6」となる。   On the other hand, as shown in FIG. 19, when there is a change in the situation, the value of the object likelihood information 470 of each divided region is the same as the detection likelihood estimated value of the divided region indicated by the detection likelihood estimated value information 440. The difference is big. Therefore, the value of the calculation result 480 of each divided area is large. Here, when the fourth threshold value is “20”, the number of divided areas whose difference exceeds the fourth threshold value is 6, and the count value is “6”.

図17のステップS4650において、不検知領域更新判定部180は、カウント値が予め定められた第5の閾値を超えているか否かを判断する。不検知領域更新判定部180は、カウント値が第5の閾値以下である場合には(S4650:NO)、ステップS4660へ進み、カウント値が第5の閾値を超えている場合には(S4650:YES)、ステップS4670へ進む。   In step S4650 of FIG. 17, the non-detection area update determination unit 180 determines whether or not the count value exceeds a predetermined fifth threshold value. When the count value is equal to or smaller than the fifth threshold value (S4650: NO), the non-detection area update determination unit 180 proceeds to step S4660, and when the count value exceeds the fifth threshold value (S4650: YES), the process proceeds to step S4670.

ステップS4660において、不検知領域更新判定部180は、状況変化なしと判定し、不検知領域情報の更新が必要ではないことを示す更新通知情報を、通知部190へ出力する。不検知領域更新判定部180は、通知部190へ所定の信号を出力しないことをもって、かかる更新通知情報の出力としても良い。   In step S4660, the non-detection area update determination unit 180 determines that there is no situation change, and outputs update notification information indicating that it is not necessary to update the non-detection area information to the notification unit 190. The non-detection area update determination unit 180 may output the update notification information by not outputting a predetermined signal to the notification unit 190.

一方、ステップS4670において、不検知領域更新判定部180は、状況変化ありと判定し、不検知領域情報の更新が必要であることを示す更新通知情報を、通知部190へ出力する。不検知領域更新判定部180は、通知部190へ所定の信号を出力することをもって、かかる更新通知情報の出力としても良い。通知部190に更新通知情報が入力された結果、不検知領域情報の内容が、表示部から出力される。   On the other hand, in step S4670, the non-detection area update determination unit 180 determines that there is a situation change, and outputs update notification information indicating that the non-detection area information needs to be updated to the notification unit 190. The non-detection area update determination unit 180 may output the update notification information by outputting a predetermined signal to the notification unit 190. As a result of the update notification information being input to the notification unit 190, the content of the non-detection area information is output from the display unit.

監視装置100は、ステップ4650の第5の閾値を「2」とした場合、図18に示す例では、カウント値が第5の閾値以下であるため、状況変化なしと判定し、図19に示す例では、カウント値が第5の閾値を超えるため、状況変化ありと判定して通知を行う。   When the fifth threshold value in step 4650 is “2”, the monitoring apparatus 100 determines that there is no situation change in the example illustrated in FIG. 18 because the count value is equal to or smaller than the fifth threshold value, and is illustrated in FIG. In the example, since the count value exceeds the fifth threshold, it is determined that there is a change in the situation and notification is made.

このような更新判定処理により、監視装置100は、オブジェクト尤度と検出尤度推定値との差に基づいて、監視領域110aに状況変化があったか否かを判定し、判定結果をユーザに通知することができる。   Through such an update determination process, the monitoring apparatus 100 determines whether or not the monitoring region 110a has changed based on the difference between the object likelihood and the detection likelihood estimated value, and notifies the user of the determination result. be able to.

なお、状況変化があったか否かの判定基準は、上述の例に限定されない。   Note that the criterion for determining whether or not there has been a change in situation is not limited to the above example.

例えば、ステップS4620の第4の閾値は、比較の対象となるオブジェクト尤度または検出尤度推定値の大きさに応じた可変値としても良い。具体的には、例えば、不検知領域更新判定部180は、オブジェクト尤度が中間的な値である場合には、より高い値を第4の閾値として採用する。これにより、センシング情報のノイズによる判定への影響を抑えることが可能となる。   For example, the fourth threshold value in step S4620 may be a variable value corresponding to the size of the object likelihood or the detection likelihood estimated value to be compared. Specifically, for example, when the object likelihood is an intermediate value, the non-detection region update determination unit 180 employs a higher value as the fourth threshold value. Thereby, it becomes possible to suppress the influence on the determination by the noise of sensing information.

また、例えば、不検知領域更新判定部180は、オブジェクト尤度と検出尤度推定値との差の絶対値の監視領域全体での合計値に基づいて、状況変化があったか否かを判定しても良い。これにより、局所的に大きなオブジェクト尤度の変化があったような場合にも、的確な判定を行うことが可能となる。   Further, for example, the non-detection region update determination unit 180 determines whether or not there is a change in the situation based on the total value of the absolute value of the difference between the object likelihood and the detection likelihood estimated value in the entire monitoring region. Also good. Thereby, even when there is a large change in the object likelihood locally, it is possible to make an accurate determination.

また、例えば、不検知領域更新判定部180は、監視領域内のオブジェクト尤度または検出尤度推定値の分布を考慮して、状況変化があったか否かの判定を行っても良い。具体的には、例えば、不検知領域更新判定部180は、監視領域上でのオブジェクト尤度の変化が大きい場所と、監視領域上での検出尤度推定値の変化が大きい場所とが、一致しているか否かに基づいて、上記判定を行う。   Further, for example, the non-detection region update determination unit 180 may determine whether or not the situation has changed in consideration of the distribution of the object likelihood or the detection likelihood estimated value in the monitoring region. Specifically, for example, the non-detection region update determination unit 180 determines whether a place where the change in the object likelihood on the monitoring region is large and a place where the change in the detection likelihood estimation value on the monitoring region is large. The above determination is made on the basis of whether or not it has done so.

図20および図21は、表示部における通知画面の例を示す図である。   20 and 21 are diagrams illustrating an example of a notification screen on the display unit.

図20に示すように、通知画面490は、例えば、不検知領域情報の更新が必要であるとき、予め定められた図形を、表示部に表示される出力画面450(図13参照)に重畳して表示する形態を取る。   As shown in FIG. 20, the notification screen 490 superimposes a predetermined graphic on the output screen 450 (see FIG. 13) displayed on the display unit when, for example, the non-detection area information needs to be updated. Take a form to display.

また、図21に示すように、通知画面490は、例えば、図形ではなく、不検知領域の設定を促すテキスト文のメッセージを表示しても良い。   In addition, as illustrated in FIG. 21, the notification screen 490 may display, for example, a text message that prompts the user to set a non-detection area instead of a graphic.

以上説明したように、本実施の形態によれば、監視装置100は、分割領域毎に、不検知領域であるか否かに対応する検出尤度推定値と、作業者の画像の実際の認識レベルに対応するオブジェクト尤度との差を算出する。そして、監視装置100は、算出した差に基づいて、検出尤度に影響を及ぼす変化があったか否かを判定し、判定結果をユーザに通知する。これにより、ユーザは、不検知領域情報の更新が必要となったときにこれを知ることが可能となり、むやみに不検知領域の判定を実施することなく、監視装置に記憶された不検知領域を正しい情報に保つことができる。すなわち、より少ない負担で高い監視精度を得ることができる。   As described above, according to the present embodiment, the monitoring device 100 detects the detection likelihood estimated value corresponding to whether or not each of the divided areas is a non-detection area and the actual recognition of the worker's image. The difference from the object likelihood corresponding to the level is calculated. Then, the monitoring apparatus 100 determines whether there is a change that affects the detection likelihood based on the calculated difference, and notifies the user of the determination result. As a result, the user can know when the undetected area information needs to be updated, and the undetected area stored in the monitoring device can be stored without undue determination of the undetected area. You can keep the correct information. That is, high monitoring accuracy can be obtained with less burden.

また、本実施の形態に係る監視装置は、本来の監視用の処理において算出される情報を活用して上記判定を行うので、既存の監視装置に対する軽微な変更により実現することができる。   In addition, the monitoring apparatus according to the present embodiment makes the above determination using information calculated in the original monitoring process, and thus can be realized by a slight change to the existing monitoring apparatus.

なお、作業者の検出には、タグリーダ等、他の各種センサを用いることができる。タグリーダの場合には、作業者に取り付けられるタグと同種のタグを、不検知領域を判定するための試験オブジェクトとして用意する。また、この場合、不検知領域判定部およびオブジェクト尤度算出部が判定する認識レベルは、例えば、電解強度に対応した値となる。   For detection of the worker, various other sensors such as a tag reader can be used. In the case of a tag reader, a tag of the same type as a tag attached to an operator is prepared as a test object for determining a non-detection area. In this case, the recognition level determined by the non-detection region determination unit and the object likelihood calculation unit is, for example, a value corresponding to the electrolytic strength.

また、複数のセンサを用いて監視を行う場合には、個別に不検知領域の更新判定処理を行うことが望ましい。センサ毎に不検知領域が異なる場合があるからである。   In addition, when monitoring is performed using a plurality of sensors, it is desirable to individually perform update detection processing for non-detection areas. This is because the non-detection area may be different for each sensor.

また、本発明は、工場の作業者の他、オフィスの事務員、学校の児童、市街地の車両等、移動オブジェクトを監視する各種の監視装置および監視方法に適用することができる。   The present invention can be applied to various monitoring devices and monitoring methods for monitoring moving objects such as office workers, school children, and urban vehicles, as well as factory workers.

本発明に係る監視装置および監視方法は、より少ない負担で高い監視精度を得ることができる監視装置および監視方法として有用である。すなわち、監視領域の不検知領域の更新を効率よく行うことが出来る効果があるため、工場、オフィスなどの人物の位置特定技術に特に有用である。   The monitoring device and the monitoring method according to the present invention are useful as a monitoring device and a monitoring method capable of obtaining high monitoring accuracy with a smaller load. In other words, since there is an effect that the non-detection area of the monitoring area can be efficiently updated, it is particularly useful for a technique for specifying the position of a person such as a factory or an office.

100 監視装置
110 センサ
110a 監視領域
120 不検知領域判定部
121 情報処理装置
130 不検知領域管理部
140 検出尤度推定部
150 検出尤度推定値管理部
160 出力部
170 オブジェクト尤度算出部
180 不検知領域更新判定部
190 通知部
200 工場
200a 検知可能領域
210 障害物
220 作業者
210a 不検知領域
300 マーカ
DESCRIPTION OF SYMBOLS 100 Monitoring apparatus 110 Sensor 110a Monitoring area 120 Non-detection area determination part 121 Information processing apparatus 130 Non-detection area management part 140 Detection likelihood estimation part 150 Detection likelihood estimation value management part 160 Output part 170 Object likelihood calculation part 180 Non-detection Area update determination unit 190 Notification unit 200 Factory 200a Detectable area 210 Obstacle 220 Worker 210a Non-detection area 300 Marker

Claims (7)

所定の領域を対象として移動オブジェクトの検出を行うセンサを用いて、前記移動オブジェクトを監視する監視装置であって、
前記監視に用いられる、前記センサの検出尤度の推定値を記憶する推定値管理部と、
前記センサの検出結果から、前記所定の領域に前記移動オブジェクトが存在することの確からしさを示すオブジェクト尤度を算出する尤度算出部と、
前記推定値管理部が記憶する前記検出尤度の推定値と、前記尤度算出部が算出する前記オブジェクト尤度との比較に基づいて、前記推定値管理部が記憶する前記検出尤度の推定値の更新が必要であるか否かを判定する更新判定部と、
前記更新判定部による判定結果を通知する通知部と、
を有する監視装置。
A monitoring device that monitors the moving object using a sensor that detects the moving object for a predetermined area,
An estimated value management unit for storing an estimated value of the detection likelihood of the sensor used for the monitoring;
A likelihood calculating unit that calculates an object likelihood indicating the probability that the moving object exists in the predetermined region from the detection result of the sensor;
Based on the comparison between the estimated value of the detection likelihood stored by the estimated value management unit and the object likelihood calculated by the likelihood calculating unit, the estimation of the detection likelihood stored by the estimated value management unit An update determination unit that determines whether or not an update of a value is necessary;
A notification unit for notifying the determination result by the update determination unit;
Having a monitoring device.
前記推定値管理部は、
前記所定の領域を分割した分割領域毎に前記検出尤度の推定値を記憶し、
前記尤度算出部は、
前記分割領域毎に前記オブジェクト尤度を算出し、
前記更新判定部は、
前記分割領域毎の前記オブジェクト尤度と前記検出尤度の推定値との差に基づいて前記判定を行う、
請求項1記載の監視装置。
The estimated value management unit
Storing the estimated value of the detection likelihood for each divided region obtained by dividing the predetermined region;
The likelihood calculating unit
Calculating the object likelihood for each of the divided regions;
The update determination unit
Making the determination based on the difference between the object likelihood for each of the divided regions and the estimated value of the detection likelihood;
The monitoring device according to claim 1.
前記更新判定部は、
複数の前記分割領域における前記オブジェクト尤度の平均値と、複数の前記分割領域における前記検出尤度の推定値の平均値との差に基づいて、前記判定を行う、
請求項2記載の監視装置。
The update determination unit
The determination is performed based on a difference between an average value of the object likelihoods in the plurality of divided regions and an average value of the estimation values of the detection likelihoods in the plurality of divided regions.
The monitoring device according to claim 2.
前記更新判定部は、
複数の前記分割領域における前記オブジェクト尤度の合計値と、複数の前記分割領域における前記検出尤度の推定値の合計値との差に基づいて、前記判定を行う、
請求項2記載の監視装置。
The update determination unit
The determination is performed based on a difference between a total value of the object likelihoods in the plurality of divided regions and a total value of the estimated values of the detection likelihoods in the plurality of divided regions.
The monitoring device according to claim 2.
前記分割領域のそれぞれに試験オブジェクトを配置したときの、前記センサの前記試験オブジェクトに対する認識レベルから、前記センサの検出尤度の推定値を求める検出尤度推定部、を更に有する、
請求項2記載の監視装置。
A detection likelihood estimation unit for obtaining an estimation value of the detection likelihood of the sensor from the recognition level of the sensor with respect to the test object when the test object is arranged in each of the divided regions;
The monitoring device according to claim 2.
前記検出尤度推定部は、
前記認識レベルが最も高い前記分割領域に対して最も高い前記検出尤度の推定値を設定し、前記認識レベルが最も低い前記分割領域に対して最も低い前記検出尤度の推定値を設定し、かつ、他の前記分割領域に対して前記所定の領域全体において平滑化された前記検出尤度の推定値を設定する、
請求項5記載の監視装置。
The detection likelihood estimation unit includes:
Setting the highest estimate of the detection likelihood for the divided region with the highest recognition level, and setting the lowest estimate of the detection likelihood for the divided region with the lowest recognition level; And setting the estimated value of the detection likelihood smoothed in the entire predetermined region with respect to the other divided regions,
The monitoring device according to claim 5.
所定の領域を対象として移動オブジェクトの検出を行うセンサを用いて、前記移動オブジェクトを監視する監視方法であって、
前記センサの検出結果から、前記所定の領域に前記移動オブジェクトが存在することの確からしさを示すオブジェクト尤度を算出するステップと、
前記監視に用いられる、予め記憶された前記センサの検出尤度の推定値と、算出された前記オブジェクト尤度との比較に基づいて、記憶された前記検出尤度の推定値の更新が必要であるか否かを判定するステップと、
前記検出尤度の推定値の更新が必要であるか否かの判定結果を通知するステップと、
を有する監視方法。
A monitoring method for monitoring a moving object using a sensor that detects a moving object for a predetermined area,
Calculating an object likelihood indicating the probability that the moving object exists in the predetermined area from the detection result of the sensor;
Based on the comparison between the pre-stored estimated detection likelihood of the sensor used for the monitoring and the calculated object likelihood, it is necessary to update the stored estimated detection likelihood. Determining whether there is,
Notifying the determination result whether or not the update of the estimated value of the detection likelihood is necessary;
Monitoring method.
JP2009179893A 2009-07-31 2009-07-31 Monitoring device and monitoring method Pending JP2011035663A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009179893A JP2011035663A (en) 2009-07-31 2009-07-31 Monitoring device and monitoring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009179893A JP2011035663A (en) 2009-07-31 2009-07-31 Monitoring device and monitoring method

Publications (1)

Publication Number Publication Date
JP2011035663A true JP2011035663A (en) 2011-02-17

Family

ID=43764295

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009179893A Pending JP2011035663A (en) 2009-07-31 2009-07-31 Monitoring device and monitoring method

Country Status (1)

Country Link
JP (1) JP2011035663A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015179984A (en) * 2014-03-19 2015-10-08 株式会社東芝 Image processing apparatus, and method and program therefor
WO2015182752A1 (en) * 2014-05-30 2015-12-03 株式会社日立国際電気 Wireless communication device and wireless communication system
JP2018535496A (en) * 2016-04-14 2018-11-29 平安科技(深▲せん▼)有限公司 Video recording method, server, system, and storage medium
WO2022168616A1 (en) * 2021-02-05 2022-08-11 株式会社アマダ Device determination system, device determination method, and device determination program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015179984A (en) * 2014-03-19 2015-10-08 株式会社東芝 Image processing apparatus, and method and program therefor
WO2015182752A1 (en) * 2014-05-30 2015-12-03 株式会社日立国際電気 Wireless communication device and wireless communication system
US9973947B2 (en) 2014-05-30 2018-05-15 Hitachi Kokusai Electric, Inc. Wireless communication device and wireless communication system that performs wireless communication with a counterpart device using a directional antenna
JP2018535496A (en) * 2016-04-14 2018-11-29 平安科技(深▲せん▼)有限公司 Video recording method, server, system, and storage medium
WO2022168616A1 (en) * 2021-02-05 2022-08-11 株式会社アマダ Device determination system, device determination method, and device determination program

Similar Documents

Publication Publication Date Title
JP6156665B1 (en) Facility activity analysis apparatus, facility activity analysis system, and facility activity analysis method
CN110097776B (en) Parking space detection method, monitoring camera and monitoring terminal
US9852345B2 (en) Activity map creating device, activity map creating system, and activity map creating method
US10740906B2 (en) Unattended object monitoring device, unattended object monitoring system equipped with same, and unattended object monitoring method
EP3434626A1 (en) Projection instruction device, parcel sorting system, and projection instruction method
EP2450832A1 (en) Image processing apparatus and image processing method
US20090021580A1 (en) Camera calibration device and camera calibration method
CN106463032A (en) Intrusion detection with directional sensing
US20140161312A1 (en) Setting apparatus, image processing apparatus, control method of setting apparatus, and storage medium
US9761012B2 (en) Object tracking device, object tracking method, and computer-readable medium
CN108737793A (en) Use camera network moving object tracking
JP2013074461A5 (en)
JP6610640B2 (en) Position recognition method and system, and abnormality determination method and system
US9367742B2 (en) Apparatus and method for monitoring object from captured image
CN108875531B (en) Face detection method, device and system and computer storage medium
EP3434622A1 (en) Instruction projecting device, package sorting system and instruction projecting method
JP2015038743A5 (en)
US9547905B2 (en) Monitoring system with a position-dependent protected area, method for monitoring a monitoring area and computer program
JP2011035663A (en) Monitoring device and monitoring method
EP3434621A1 (en) Instruction projecting device, package sorting system and instruction projecting method
JP2008225704A (en) Work evaluation device, work evaluation method and control program
JP2009159448A (en) Object detecting apparatus, and object detecting method
JP5385845B2 (en) Content attention level calculation device, content attention level calculation method, and content attention level calculation program
CN112699189A (en) Position information updating method and device and computer system
JP2006221379A (en) Action recognition system