JP2017085507A - Control device, control method, and program - Google Patents

Control device, control method, and program Download PDF

Info

Publication number
JP2017085507A
JP2017085507A JP2015214935A JP2015214935A JP2017085507A JP 2017085507 A JP2017085507 A JP 2017085507A JP 2015214935 A JP2015214935 A JP 2015214935A JP 2015214935 A JP2015214935 A JP 2015214935A JP 2017085507 A JP2017085507 A JP 2017085507A
Authority
JP
Japan
Prior art keywords
person
control unit
notification
moving image
persons
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015214935A
Other languages
Japanese (ja)
Inventor
岩本 和成
Kazunari Iwamoto
和成 岩本
吉孝 長尾
Yoshitaka Nagao
吉孝 長尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015214935A priority Critical patent/JP2017085507A/en
Priority to US15/334,990 priority patent/US10372989B2/en
Publication of JP2017085507A publication Critical patent/JP2017085507A/en
Priority to US16/447,349 priority patent/US10970551B2/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To inform a user when a person in an image is alone.SOLUTION: Persons are detected from a moving image. Based on at least one of the positions of the detected persons, the orientations of the faces of the persons, and the distances between persons, the persons are related. In accordance with a duration of a moving image including a person who cannot be associated with the other person, a notification device is caused to execute notification processing.SELECTED DRAWING: Figure 3

Description

本発明は、動画像から人物を検出し、通知装置に通知処理を実行させる制御装置、制御方法及びプログラムに関する。   The present invention relates to a control device, a control method, and a program that detect a person from a moving image and cause a notification device to execute notification processing.

従来、画像から人物を検出する方法が知られている。特許文献1では画像から遮蔽された人物を検出する方法が開示されている。   Conventionally, a method for detecting a person from an image is known. Patent Document 1 discloses a method for detecting a person who is shielded from an image.

特開2014−199506号公報JP 2014-199506 A

上述の特許文献1に開示された技術では、画像中の人物の位置を知らせることが可能である。例えば、前記技術では、画像中に存在する人物を丸で囲み、ユーザーに人物の位置を提示することができる。しかし、前記技術に基づいて人物の位置を示すのみでは、ユーザーは、検出された人物が集団から孤立して単独で作業を行っているか、それとも他の人物と近い位置で共同作業を行っているかを一目で判断できない課題があった。例えば、漏えいを防止すべきデータを扱っている現場では、単独で作業をすることを禁止するルールを課していることがあり、作業監視員が撮像装置を介して作業者らを監視し、集団から孤立して単独で作業を行っている単独作業者に対して注意を促したい場合がある。しかし、撮像画像を見るのみでは、作業監視員は撮像画像中の作業者らそれぞれが、単独で作業を行っているのか、それとも複数で作業を行っているのか、を一目で判断できない。また、作業監視員が常に作業者を監視し続けることは負担も大きい。
本発明は、画像中の人物が単独であった場合、ユーザーに通知することを目的とする。
With the technique disclosed in Patent Document 1 described above, the position of a person in an image can be notified. For example, in the technique, a person existing in an image can be circled and the position of the person can be presented to the user. However, based only on the position of the person based on the above technology, is the user working alone with the detected person isolated from the group or collaborating at a position close to other persons? There was a problem that could not be determined at a glance. For example, at sites that handle data that should be prevented from leaking, rules that prohibit working alone may be imposed, and work supervisors monitor workers via the imaging device, There is a case where it is desired to call attention to a single worker who is working independently from a group. However, only by looking at the captured image, the work supervisor cannot determine at a glance whether each of the workers in the captured image is working alone or multiple. In addition, it is a heavy burden for the work supervisor to constantly monitor the worker.
An object of the present invention is to notify a user when a person in an image is alone.

そこで、本発明の制御装置は、動画像から人物を検出する検出手段と、前記検出手段によって検出される人物の位置、人物の顔の向き、及び人物間の距離、の内の少なくとも何れかに基づいて、人物同士を関連付ける関連付け手段と、前記関連付け手段によって他の人物と関連付けられない人物が含まれる動画像の期間に応じて、通知装置に通知処理を実行させる通知制御手段と、を有することを特徴とする。   In view of this, the control device of the present invention provides at least one of detection means for detecting a person from a moving image and the position of the person detected by the detection means, the direction of the face of the person, and the distance between the persons. An association means for associating persons with each other, and a notification control means for causing the notification apparatus to perform a notification process in accordance with a moving image period including a person who is not associated with another person by the association means. It is characterized by.

本発明によれば、画像中の人物が単独であった場合、ユーザーに通知することができる。   According to the present invention, when a person in an image is alone, the user can be notified.

システムのシステム構成及びハードウェア構成の一例を示す図である。It is a figure which shows an example of the system configuration | structure of a system, and a hardware configuration. 撮像装置及びクライアント装置の機能構成等の一例を示す図である。It is a figure which shows an example of a function structure etc. of an imaging device and a client apparatus. 通知制御の処理の一例を示すフローチャートである。It is a flowchart which shows an example of a process of notification control. 撮像画像の一例を示す図である。It is a figure which shows an example of a captured image. 人物検出を行った結果を示す画像の一例を示す図である。It is a figure which shows an example of the image which shows the result of having performed person detection. 水平面画像の一例を示す図である。It is a figure which shows an example of a horizontal surface image. 単独作業者かどうかの判定の処理を説明するための図である。It is a figure for demonstrating the process of determination whether it is a single worker.

以下、本発明の実施形態について図面に基づいて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<実施形態1>
本実施形態では、作業者に対して二人以上で作業を行うことが義務付けられている漏えいを防止すべきデータを扱う現場において、各作業者の中に単独作業者(他の人物と関連付けられない人物)が存在した場合、作業監視員にその旨を通知する処理について説明する。このような状況は、本実施形態を用いることができる状況の一例であり、人物が単独であるか、複数であるかを判断したい種々の状況で用いることができる。例えば、本発明は、通行人や入場者等が単独であるかグループであるかを判断して、マーケティングや、社会問題の解決等に利用する状況にも用いることができる。
本実施形態におけるシステムのシステム構成及びハードウェア構成の一例を図1に示す。図1において、撮像装置110は、撮像を行う。クライアント装置120は、撮像装置110の駆動、撮像装置110で撮像された撮像画像の表示を行う。入力装置130は、マウスやキーボード等から構成され、クライアント装置120へのユーザー入力を行う。表示装置140は、ディスプレイ等から構成され、クライアント装置120が出力した画像の表示を行う。図1ではクライアント装置120と表示装置140とを各々独立した装置として示したが、クライアント装置120と表示装置140とを一体化して構成してもよい。また、入力装置130と表示装置140とを一体化して構成してもよいし、クライアント装置120と入力装置130と表示装置140とを一体化して構成してもよい。ネットワーク150は撮像装置110とクライアント装置120とを接続する。ネットワーク150は、例えばローカルネットワーク等の通信規格を満たす複数のルータ、スイッチ、ケーブル等から構成される。本実施形態においては撮像装置、クライアント間の通信を行うことができるものであればその通信規格、規模、構成を問わない。例えば、ネットワーク150は、インターネットや有線LAN(Local Area Network)、無線LAN(Wireless LAN)、WAN(Wide Area Network)等により構成されてもよい。また、クライアント装置120に接続される撮像装置の数は1台に限られず、複数台であってもよい。
<Embodiment 1>
In the present embodiment, each worker is associated with a single worker (associated with another person) at the site where data that should be prevented from being leaked is required to be performed by two or more workers. A process for notifying the work supervisor when there is a person who does not exist will be described. Such a situation is an example of a situation in which the present embodiment can be used, and can be used in various situations where it is desired to determine whether a person is alone or plural. For example, the present invention can be used in situations where it is used for marketing, solving social problems, etc., by determining whether passersby, visitors, etc. are alone or in groups.
An example of the system configuration and hardware configuration of the system according to the present embodiment is shown in FIG. In FIG. 1, the imaging device 110 performs imaging. The client device 120 drives the imaging device 110 and displays a captured image captured by the imaging device 110. The input device 130 includes a mouse, a keyboard, and the like, and performs user input to the client device 120. The display device 140 includes a display and the like, and displays an image output from the client device 120. In FIG. 1, the client device 120 and the display device 140 are shown as independent devices, but the client device 120 and the display device 140 may be integrated. Further, the input device 130 and the display device 140 may be configured integrally, or the client device 120, the input device 130, and the display device 140 may be integrated. A network 150 connects the imaging device 110 and the client device 120. The network 150 includes a plurality of routers, switches, cables, and the like that satisfy a communication standard such as a local network. In the present embodiment, any communication standard, scale, and configuration may be used as long as communication between the imaging apparatus and the client can be performed. For example, the network 150 may be configured by the Internet, a wired LAN (Local Area Network), a wireless LAN (Wireless LAN), a WAN (Wide Area Network), or the like. Further, the number of imaging devices connected to the client device 120 is not limited to one, and may be a plurality.

撮像装置110のハードウェア構成について説明する。撮像装置110は、ハードウェア構成として、撮像部11と、CPU12と、メモリ13と、通信I/F14と、を含む。撮像部11は、撮像素子と撮像素子上に被写体の工学系とを有し、CPU12の制御に基づき光学系の光軸と撮像素子との交点を撮像中心として撮像素子上に撮像を行う。撮像素子は、CMOS(ComplementaryMetal−Oxide Semiconductor)又はCCD(Charged Coupled Device)等の撮像素子である。CPU12は、撮像装置110の全体を制御する。メモリ13は、プログラムや撮像部11で撮像された画像、CPU12が処理を実行する際に利用するデータ等を記憶する。通信I/F14は、CPU12の制御に基づきネットワーク150を介したクライアント装置120との通信を制御する。CPU12がメモリ13に記憶されたプログラムに基づき処理を実行することにより、撮像装置110の機能等が実現される。なお、CPU以外の他のプロセッサーを用いてもよい。
クライアント装置120のハードウェア構成について説明する。クライアント装置120は、ハードウェア構成として、メモリ21と、CPU22と、通信I/F23と、入力I/F24と、表示I/F25と、を含む。CPU22は、クライアント装置120の全体を制御する。メモリ21は、プログラムや撮像装置110から送信された撮像画像、CPU22が処理を実行する際に利用するデータ等を記憶する。通信I/F23は、CPU22の制御に基づきネットワーク150を介した撮像装置110との通信を制御する。入力I/F24は、クライアント装置120と入力装置130とを接続し、入力装置130からの情報の入力を制御する。表示I/F25は、クライアント装置120と表示装置140とを接続し、表示装置140への情報の出力を制御する。CPU22がメモリ21に記憶されたプログラムに基づき処理を実行することにより、クライアント装置120の機能及び後述する図3のフローチャートの処理等が実現される。但し、クライアント装置120のハードウェア構成は、図1に示されるものに限定されない。例えば、クライアント装置120は、通知装置の一例であるスピーカー等の音声出力装置を有していてもよい。クライアント装置120が音声出力装置をハードウェア構成として有する場合、通知処理の一例は、警告等の音声の出力処理である。
A hardware configuration of the imaging apparatus 110 will be described. The imaging device 110 includes an imaging unit 11, a CPU 12, a memory 13, and a communication I / F 14 as a hardware configuration. The imaging unit 11 has an imaging device and an engineering system of a subject on the imaging device, and performs imaging on the imaging device with an intersection of the optical axis of the optical system and the imaging device as an imaging center based on control of the CPU 12. The image pickup device is an image pickup device such as a CMOS (Complementary Metal-Oxide Semiconductor) or a CCD (Charged Coupled Device). The CPU 12 controls the entire imaging device 110. The memory 13 stores a program, an image captured by the imaging unit 11, data used when the CPU 12 executes processing, and the like. The communication I / F 14 controls communication with the client device 120 via the network 150 based on the control of the CPU 12. When the CPU 12 executes processing based on a program stored in the memory 13, the functions of the imaging device 110 are realized. A processor other than the CPU may be used.
A hardware configuration of the client device 120 will be described. The client device 120 includes a memory 21, a CPU 22, a communication I / F 23, an input I / F 24, and a display I / F 25 as hardware configurations. The CPU 22 controls the entire client device 120. The memory 21 stores programs, captured images transmitted from the imaging device 110, data used when the CPU 22 executes processing, and the like. The communication I / F 23 controls communication with the imaging device 110 via the network 150 based on the control of the CPU 22. The input I / F 24 connects the client device 120 and the input device 130, and controls the input of information from the input device 130. The display I / F 25 connects the client device 120 and the display device 140 and controls output of information to the display device 140. When the CPU 22 executes processing based on the program stored in the memory 21, the function of the client device 120, the processing of the flowchart of FIG. However, the hardware configuration of the client device 120 is not limited to that shown in FIG. For example, the client device 120 may include an audio output device such as a speaker, which is an example of a notification device. When the client apparatus 120 has an audio output device as a hardware configuration, an example of the notification process is an audio output process such as a warning.

図2は、撮像装置110及びクライアント装置120の機能構成の一例を示す図である。撮像装置110は、機能構成として、制御部111と、信号処理部112と、駆動制御部113と、通信制御部114と、を含む。制御部111は、撮像装置110を制御する。信号処理部112は、撮像部11によって撮像された画像信号の処理を行う。例えば、信号処理部112は、撮像部11によって撮像された画像の符号化を行う。信号処理部112は、符号化方式として、例えば、JPEG(Joint Photographic Experts Group)を用いることができる。又は、信号処理部112は、符号化方式として、H.264/MPEG−4 AVC(以下H.264)を用いることができる。又は、信号処理部112は、符号化方式として、HEVC(High Efficiency Video Coding符号化方式)を用いることができる。但し符号化方式はこれらに限らない。また、信号処理部112は、複数の符号化方式の中から符号化方式を選択して符号化を行うようにしてもよい。
駆動制御部113は、撮像部11の撮像方向、及び画角を変更させる制御を行う。本実施形態では、撮像部11は、パン方向、チルト方向に撮像方向を変更でき、撮像画角を変更することができる場合について説明するが、これに限らない。撮像装置110は、パン方向、チルト方向に撮像方向を変更する機能を有さなくてもよいし、画角を変更する機能を有さなくてもよい。通信制御部114は、信号処理部112で処理が行われた撮像画像をクライアント装置120に送信する。更に通信制御部114は、クライアント装置120から撮像装置110に対する制御命令を受信する。
クライアント装置120は、機能構成として、制御部121と、通信制御部123と、情報取得部124と、表示制御部125と、を含む。制御部121は、クライアント装置120を制御する。通信制御部123は、撮像画像をクライアント装置120から受信する。情報取得部124は、入力装置130によるユーザー入力を受け付け、入力装置130より入力情報を取得する。表示制御部125は、映像を表示装置140へ出力し、後述する表示処理を表示装置140に実行させる。表示装置140は、通知装置の一例である。また、表示処理は、通知処理の一例である。
FIG. 2 is a diagram illustrating an example of a functional configuration of the imaging device 110 and the client device 120. The imaging device 110 includes a control unit 111, a signal processing unit 112, a drive control unit 113, and a communication control unit 114 as functional configurations. The control unit 111 controls the imaging device 110. The signal processing unit 112 processes the image signal captured by the imaging unit 11. For example, the signal processing unit 112 encodes an image captured by the imaging unit 11. The signal processing unit 112 can use, for example, JPEG (Joint Photographic Experts Group) as an encoding method. Alternatively, the signal processing unit 112 uses H.264 as an encoding method. H.264 / MPEG-4 AVC (hereinafter H.264) can be used. Alternatively, the signal processing unit 112 can use HEVC (High Efficiency Video Coding encoding method) as an encoding method. However, the encoding method is not limited to these. In addition, the signal processing unit 112 may perform encoding by selecting an encoding method from among a plurality of encoding methods.
The drive control unit 113 performs control to change the imaging direction and the angle of view of the imaging unit 11. In the present embodiment, the imaging unit 11 will be described with respect to a case where the imaging direction can be changed in the pan direction and the tilt direction, and the imaging angle of view can be changed, but this is not a limitation. The imaging device 110 may not have the function of changing the imaging direction in the pan direction and the tilt direction, and may not have the function of changing the angle of view. The communication control unit 114 transmits the captured image processed by the signal processing unit 112 to the client device 120. Further, the communication control unit 114 receives a control command for the imaging device 110 from the client device 120.
The client device 120 includes a control unit 121, a communication control unit 123, an information acquisition unit 124, and a display control unit 125 as functional configurations. The control unit 121 controls the client device 120. The communication control unit 123 receives the captured image from the client device 120. The information acquisition unit 124 receives user input from the input device 130 and acquires input information from the input device 130. The display control unit 125 outputs the video to the display device 140 and causes the display device 140 to execute display processing described later. The display device 140 is an example of a notification device. The display process is an example of a notification process.

次に、本実施形態における通知制御の処理の流れを、図3を用いて説明する。図3は、クライアント装置120における通知制御の処理の一例を示すフローチャートである。クライアント装置120は、撮像装置110から繰り返し、撮像画像、即ち動画像、を取得し、取得した撮像画像中の単独作業者が存在した場合、ユーザーである作業監視員に通知する。
制御部121は、撮像装置110から撮像画像を取得する(S200)。図4は、クライアント装置120が撮像装置110から取得した撮像画像300の一例を示す図である。図4において作業者301、302及び作業者303、304は二人一組で作業を行っている共同作業者(他の人物と関連付けられる人物)を表す。一方、作業者305は一人で作業を行っている単独作業者を表す。また、作業台306は撮像装置110から遠い位置に存在する作業台を表わす。作業台307は撮像装置110に近い位置に存在する作業台を表す。
このとき、クライアント装置120が取得する撮像画像は、作業者ができるだけ重ならないように撮像装置110の撮像部11の位置や取り付け角度、画角を予め調整しておくことが好ましい。本実施形態ではクライアント装置120は、撮像装置110から取得した撮像画像に対し処理を行う。これによって、リアルタイムのライブ映像に対して処理を行うことができる。しかしながらこれに限らない。例えば、クライアント装置120は、撮像装置110内に保存されている動画を取得し、各フレームに対し処理を行ってもよいし、クライアント装置120内に保存されている動画の各フレームに対して処理を行ってもよい。又はクライアント装置120は、録画サーバ等にアクセスし、録画サーバ内に保存されている動画の各フレームに対して処理を行ってもよい。また本実施形態では、共同作業者を二人一組としたが、これに限らない。クライアント装置120は、三人以上を共同作業者としてもよい。
Next, the flow of notification control processing in this embodiment will be described with reference to FIG. FIG. 3 is a flowchart illustrating an example of notification control processing in the client device 120. The client device 120 repeatedly obtains a captured image, that is, a moving image from the imaging device 110, and notifies a work supervisor who is a user when a single worker exists in the acquired captured image.
The control unit 121 acquires a captured image from the imaging device 110 (S200). FIG. 4 is a diagram illustrating an example of a captured image 300 acquired by the client device 120 from the imaging device 110. In FIG. 4, workers 301 and 302 and workers 303 and 304 represent collaborators (persons associated with other persons) who are working in pairs. On the other hand, the worker 305 represents a single worker who is working alone. A work table 306 represents a work table located at a position far from the imaging device 110. A work table 307 represents a work table present at a position close to the imaging device 110.
At this time, it is preferable that the position, the mounting angle, and the angle of view of the image capturing unit 11 of the image capturing apparatus 110 are adjusted in advance so that the operator does not overlap as much as possible. In the present embodiment, the client device 120 performs processing on the captured image acquired from the imaging device 110. As a result, processing can be performed on real-time live video. However, it is not limited to this. For example, the client device 120 may acquire a moving image stored in the imaging device 110 and perform processing on each frame, or process each frame of the moving image stored in the client device 120. May be performed. Alternatively, the client device 120 may access a recording server or the like and perform processing on each frame of a moving image stored in the recording server. Moreover, in this embodiment, although the joint worker was made into one set, it is not restricted to this. Three or more client devices 120 may be collaborators.

次に、制御部121は、S200で取得した撮像画像300に対し、人物検出処理を行う(S201)。制御部121は、人物検出処理を行うため、本実施形態ではまず、撮像画像300に対し、様々なサイズでスケーリングを行う。スケーリングを行うことで、様々なサイズの人物を検出することができる。次に、制御部121は、各スケールの撮像画像に対し、特定のサイズの検出窓を用いてラスタースキャンする。このとき、制御部121は、予め学習データを用いて人物の特徴量を計算しておき、スキャン時に検出窓内で計算された特徴量と、前述の学習データに基づく特徴量との誤差が閾値よりも小さい場合に人物であると判断する。人物検出処理はこのようなパターンマッチング処理等の種々の方法を用いることができる。
図5は、撮像画像300に対して人物検出を行った結果を示す画像400の一例を示す図である。図5の(A)において楕円401〜405はそれぞれ、作業者301〜305を検出した位置を表す。また、矢印406〜408は各人物の顔の向き表現するための、矢印の末尾側を基点、頭部側を無限に伸ばすとする半直線である。また、上記のように、人物の特徴量を使用する検出方法の他、図5の(B)のように、作業者のルールとして、予め定められた制服、ビブス(ベスト状の衣服)、帽子の内の少なくとも何れかを着用することを決める等するようにしてもよい。即ち、作業者として検出すべき人物が身につけた物の特徴量を予めルールを設定ファイルとしてクライアント装置120のメモリ21等に記憶しておくようにしてもよい。このようにすれば、制御部121は、設定ファイルのルール及び撮像画像の処理対象の人物が身につけた物の色・形状等の特徴量に基づいて、ルールに合致した特徴量の制服等を身につけた作業者を検出することもできる。
Next, the control unit 121 performs person detection processing on the captured image 300 acquired in S200 (S201). In order to perform the person detection process, the control unit 121 first scales the captured image 300 with various sizes. By performing scaling, it is possible to detect persons of various sizes. Next, the control unit 121 performs a raster scan on the captured image of each scale using a detection window of a specific size. At this time, the control unit 121 calculates the feature amount of the person using the learning data in advance, and an error between the feature amount calculated in the detection window at the time of scanning and the feature amount based on the learning data described above is a threshold value. If it is smaller than that, it is determined to be a person. Various methods such as such a pattern matching process can be used for the person detection process.
FIG. 5 is a diagram illustrating an example of an image 400 showing a result of performing person detection on the captured image 300. In FIG. 5A, ellipses 401 to 405 represent positions where the workers 301 to 305 are detected, respectively. Further, arrows 406 to 408 are half lines for expressing the face direction of each person, with the end side of the arrow extending from the base point and the head side extending infinitely. Further, as described above, in addition to the detection method that uses the feature amount of the person, as shown in FIG. 5B, as a rule of the operator, uniforms, bibs (vest-like clothes), hats that are determined in advance. You may make it decide to wear at least one of these. That is, the feature amount of a thing worn by a person to be detected as an operator may be stored in advance in the memory 21 or the like of the client device 120 as a rule setting file. In this way, the control unit 121 determines the uniform of the feature amount that matches the rule based on the rule of the setting file and the feature amount such as the color and shape of the object worn by the person to be processed of the captured image. It is also possible to detect a worker who has been worn.

次に、制御部121は、S101で検出した人物の位置を、撮像画像の撮影範囲を真上から平画面投影した水平面画像上の座標へ変換する(S202)。本実施形態では、撮像画像上の各点が、水平面画像上のどの点と対応付くか、予め決定されているものとする。例えば、ユーザーは、表示装置140等に表示された撮像画像上の四点と、水平面画像上の四点とを、入力装置130等を操作して指定する。制御部121は、ユーザーによって入力された撮像画像上の四点と、水平面画像上の四点と、以下に示す式(1)、(2)等に基づき予めホモグラフィ行列Hを計算しておく。

Figure 2017085507
Figure 2017085507
ここで、式(2)中のpx1、px2、...、px4、py4、及びqx1、qx2、...、qx4、qy4は、ユーザーによって指定された撮像画像上の四点のx、y座標、及び水平面画像上の四点のx、y座標をそれぞれ表す。
次に制御部121は、撮像画像上のx座標px、Y座標pyとホモグラフィ行列Hとに対し、以下の式(3)を適用することにより、px、pyに対応する水平面画像上のX座標qxと、Y座標qyとを計算することができる。
Figure 2017085507
Next, the control unit 121 converts the position of the person detected in S101 into coordinates on a horizontal plane image obtained by projecting the shooting range of the captured image from directly above to a flat screen (S202). In the present embodiment, it is assumed that it is determined in advance which point on the captured image corresponds to which point on the horizontal plane image. For example, the user designates four points on the captured image displayed on the display device 140 or the like and four points on the horizontal plane image by operating the input device 130 or the like. The control unit 121 calculates the homography matrix H in advance based on the four points on the captured image input by the user, the four points on the horizontal plane image, and the following equations (1) and (2). .
Figure 2017085507
Figure 2017085507
Here, px1, px2,. . . , Px4, py4, and qx1, qx2,. . . , Qx4, and qy4 represent the x and y coordinates of the four points on the captured image designated by the user and the x and y coordinates of the four points on the horizontal plane image, respectively.
Next, the control unit 121 applies the following expression (3) to the x coordinate px, Y coordinate py and the homography matrix H on the captured image, so that X on the horizontal plane image corresponding to px, py A coordinate qx and a Y coordinate qy can be calculated.
Figure 2017085507

図6は、作業現場の水平面画像500の一例を示す図である。図6において座標501〜505はそれぞれ人物検出位置である楕円401〜405の代表点を水平面画像上の座標へ変換した結果を表す。本実施形態では、代表点は一例として人物検出位置の中心とした。代表点は人物の頭に対応する領域の中心としてもよい。また、領域506、507はそれぞれ、作業台306、307を水平面画像上で表現した場合の領域を表す。本実施形態では、水平面画像としてCAD等で作成された作業現場の見取り図を使用したものとするが、この限りではない。例えば、撮像画像を変形させた画像を用いてもよいし、手書きの画像でもよい。また、画像がなくてもよく、プログラム内部で前述の座標の情報を持つだけでもよい。つまり、水平面画像500は生成しなくてもよく、水平面画像500上の座標位置の算出だけを行ってもよい。また、水平面画像500に近い構図(俯瞰等)で撮像すれば、必ずしもS203の処理を行わなくてもよい。この場合は撮像した画像上の距離を用いて単独作業者か共同作業者かを判断できる。また、水平面画像500の生成方法はその他の種々の方法を用いてもよい。   FIG. 6 is a diagram illustrating an example of a horizontal plane image 500 at a work site. In FIG. 6, coordinates 501 to 505 represent results obtained by converting representative points of ellipses 401 to 405, which are person detection positions, into coordinates on a horizontal plane image. In this embodiment, the representative point is the center of the person detection position as an example. The representative point may be the center of the region corresponding to the person's head. Areas 506 and 507 represent areas when the work tables 306 and 307 are expressed on a horizontal plane image, respectively. In the present embodiment, it is assumed that a floor plan of a work site created by CAD or the like is used as a horizontal plane image, but this is not restrictive. For example, an image obtained by deforming a captured image may be used, or a handwritten image may be used. Further, there may be no image, and only the above-described coordinate information may be held inside the program. That is, the horizontal plane image 500 may not be generated, and only the coordinate position on the horizontal plane image 500 may be calculated. Further, if the image is taken with a composition (such as a bird's eye view) close to the horizontal plane image 500, the process of S203 is not necessarily performed. In this case, it is possible to determine whether the worker is a single worker or a collaborator using the distance on the captured image. Various other methods may be used as a method for generating the horizontal plane image 500.

次に、制御部121は、検出された人物のリストを更新する(S203)。繰り返し処理の最初であれば、制御部121は、検出された人物の全てをリスト化する。このとき、制御部121は、リスト内の各ノードには人物が検出された撮像画像上の代表点の座標と、水平面画像上の代表点の座標と、を格納する。繰り返し処理の二回目以降であれば、制御部121は、検出された全ての人物に対して以下の処理を行う。
(処理1).制御部121は、リスト内の各ノードに保存されている人物の撮像画像上の座標と、自身の撮像画像上の座標と、の距離を計算し、閾値以下であれば対象のノードを自身のデータで置き換える。このとき、制御部121は、今までノード内に保存された座標の履歴を保存する。
(処理2).制御部121は、(処理1)内の条件を満たすノードが無ければリストの末尾に自身のデータを追加する。また、制御部121は、検出された全ての人物に対し上記の処理を終えた後は以下の処理を行う。
(処理3).制御部121は、更新されなかったノードを削除する。
Next, the control unit 121 updates the list of detected persons (S203). If it is the first of the repetition processing, the control part 121 will list all the detected persons. At this time, the control unit 121 stores, in each node in the list, the coordinates of the representative point on the captured image where the person is detected and the coordinates of the representative point on the horizontal plane image. If it is after the second iteration, the control unit 121 performs the following process for all detected persons.
(Process 1). The control unit 121 calculates the distance between the coordinates on the captured image of the person stored in each node in the list and the coordinates on the captured image of the person. Replace with data. At this time, the control unit 121 stores a history of coordinates stored in the node so far.
(Process 2). If there is no node that satisfies the condition in (Process 1), the control unit 121 adds its own data to the end of the list. In addition, the control unit 121 performs the following processing after completing the above processing for all detected persons.
(Process 3). The control unit 121 deletes the node that has not been updated.

次に制御部121は、撮像画像内に単独作業者が存在するか否かを判断する(S204〜S206)。処理の流れは以下の通りである。
(処理1).制御部121は、リストの先頭を処理対象とする(S204)。
(処理2).制御部121は、処理対象の人物が単独作業者かどうかを判断する(S205)。本実施形態では、制御部121は、単独作業者かどうか判断するため、処理対象の人物に対して以下の項目を確認する。
(項目1).制御部121は、処理対象の人物の水平面画像上の座標を中心として、半径R以内に検出された人物が存在するかを判断する。
この半径Rは本実施形態が適用される状況に応じて適宜設定すればよい。例えば、室内での作業を監視する場合、半径Rは2mに相当する距離とすることができる。但しこのとき、制御部121は、処理対象の人物のノードに保存されている座標履歴を参照し、処理対象の人物が移動中であると判断した場合、移動中ではないと判断したときよりも、閾値であるRの値を大きくする。またこのとき、制御部121は、共同作業者同士が水平面画像上のx軸方向に並んで作業を行うのであれば、半径Rの円をy軸方向に縮めた楕円を用いてもよい。同様に、制御部121は、共同作業者同士が水平面画像上のy軸方向に並んで作業を行うのであれば、半径Rの円をx軸方向に縮めた楕円を用いてもよい。制御部121は、(項目1)の条件に当てはまった人物を単独作業者の候補とし、以下の(項目2)及び(項目3)を確認する。
(項目2).制御部121は、(項目1)を満たす人物が存在した場合、顔の向きを表す半直線は、処理対象の人物の顔の向きを表す半直線と交わるかを判断する。
但しこのとき、制御部121は、顔の向きを検知できていなければ、(項目2)を後述する単独作業者か、又は共同作業者かどうかの判断に含めない。
(項目3).制御部121は、(項目1)を満たす人物が存在した場合、その人物は非検知領域外に存在するかを判断する。
本実施形態では、制御部121は、入力装置130等を操作してユーザーによって指定された領域を作業者が存在しえない非検知領域に設定するものとする。これにより、例えばガラス張りの壁の向こう側を移動する非作業者、及び机の上に置かれたポスター等に映る人物を共同作業者と誤検知することを抑制することができる。非検知領域の設定は、ユーザーによる入力装置130等を介した入力に限られない。制御部121は、撮像画像上に配置されたマーカーで囲まれた領域を非検知領域として自動で設定してもよい。マーカーを用いて検出する方法としては、例えば、非検知領域の四隅に設置された二次元のマーカーを、撮像画像をラスタースキャンすることで予めクライアント装置120に登録してある前述の二次元のマーカーの情報とパターンマッチングする方法がある。
制御部121は、上記(項目1)〜(項目3)の全てを満たす場合は共同作業者であると判断し、(処理3−1)へ進む。つまり、制御部121は、上記(項目1)〜(項目3)の全てを満たす作業者同士を関連付けて、共同独作業者であると判定する。このように、制御部121は関連付け部としての機能を有している。また、制御部121は、少なくとも一つを満たさない場合、処理対象の人物は単独作業者であると判断し、(処理3−2)へ進む。
Next, the control unit 121 determines whether there is a single worker in the captured image (S204 to S206). The flow of processing is as follows.
(Process 1). The control unit 121 sets the top of the list as a processing target (S204).
(Process 2). The control unit 121 determines whether the person to be processed is a single worker (S205). In the present embodiment, the control unit 121 checks the following items with respect to the person to be processed in order to determine whether or not the worker is a single worker.
(Item 1). The control unit 121 determines whether there is a person detected within the radius R around the coordinates on the horizontal plane image of the person to be processed.
The radius R may be set as appropriate according to the situation to which this embodiment is applied. For example, when monitoring an indoor work, the radius R can be a distance corresponding to 2 m. However, at this time, the control unit 121 refers to the coordinate history stored in the node of the person to be processed and determines that the person to be processed is moving than when it is determined that the person is not moving. The value of R, which is a threshold value, is increased. At this time, if the collaborators work together in the x-axis direction on the horizontal plane image, the control unit 121 may use an ellipse in which a circle with a radius R is contracted in the y-axis direction. Similarly, if the collaborators work together in the y-axis direction on the horizontal plane image, the control unit 121 may use an ellipse obtained by reducing a circle with a radius R in the x-axis direction. The control unit 121 sets a person who satisfies the condition of (item 1) as a candidate for a single worker, and confirms the following (item 2) and (item 3).
(Item 2). When there is a person satisfying (Item 1), the control unit 121 determines whether the half line representing the face direction intersects with the half line representing the face direction of the person to be processed.
However, at this time, if the direction of the face cannot be detected, the control unit 121 does not include (Item 2) in the determination as to whether it is a single worker or a collaborator as described below.
(Item 3). When there is a person who satisfies (Item 1), the control unit 121 determines whether the person exists outside the non-detection area.
In the present embodiment, the control unit 121 operates the input device 130 or the like to set an area designated by the user as a non-detection area where no worker can exist. Thereby, for example, it is possible to suppress erroneous detection of a non-worker moving beyond the glass wall and a person appearing on a poster or the like placed on a desk as a collaborator. The setting of the non-detection area is not limited to input by the user via the input device 130 or the like. The control unit 121 may automatically set an area surrounded by markers arranged on the captured image as a non-detection area. As a method of detecting using a marker, for example, the above-described two-dimensional marker registered in advance in the client device 120 by raster-scanning a captured image of a two-dimensional marker installed at the four corners of the non-detection region There is a method of pattern matching with the information.
If all of the above (Item 1) to (Item 3) are satisfied, the control unit 121 determines that the worker is a collaborator, and proceeds to (Process 3-1). That is, the control unit 121 determines that the workers satisfying all of the above (Item 1) to (Item 3) are associated with each other and are joint independent workers. As described above, the control unit 121 has a function as an association unit. Further, when at least one of them is not satisfied, the control unit 121 determines that the person to be processed is a single worker, and proceeds to (Process 3-2).

ここで、単独作業者か、共同作業者かを判断する処理は、上述した処理に限られない。例えば、制御部121は、撮像画像から検出された人物の位置、人物の顔の向き、及び人物間の距離、の内の少なくとも何れかに基づいて、人物同士を関連付けて共同作業者であると判定するようにしてもよい。例えば制御部121は、撮像画像の所定のオブジェクト、例えば作業台等、から所定の範囲の位置にいる人物同士を関連付けるようにしてもよいし、人物の顔の向き(又は目線)を推定し、顔の向き(又は目線)が交差する人物同士を関連付けるようにしてもよい。また、例えば制御部121は、人物間の距離が所定の距離以内の人物同士を関連付けるようにしてもよい。そして、制御部121は、他の人物と関連付けられる人物同士を共同作業者、他の人物と関連付けられない人物を単独作業者と判断するようにしてもよい。また、制御部121は、更に、人物の制服、又はビブス(ベスト状の衣服)、又は帽子の色、又は形状に基づき、人物同士を関連付けるようにしてもよい。例えば、制御部121は、人物間の距離が所定の距離以内の人物の内、制服の形状が同じ人物同士を関連付け、人物間の距離が所定の距離以内の人物であっても、制服の形状が異なる人物同士は関連付けないようにしてもよい。   Here, the process of determining whether the worker is a single worker or a collaborator is not limited to the above-described process. For example, the control unit 121 associates persons based on at least one of the position of the person detected from the captured image, the face direction of the person, and the distance between the persons, and is a collaborator. You may make it determine. For example, the control unit 121 may associate the persons in a predetermined range from a predetermined object of the captured image, such as a work table, or estimate the orientation (or line of sight) of the person, You may make it link | relate the persons who face direction (or eyes | visual_axis) cross | intersect. Further, for example, the control unit 121 may associate persons whose distance between persons is within a predetermined distance. Then, the control unit 121 may determine that persons associated with other persons are collaborators and persons who are not associated with other persons are independent workers. Further, the control unit 121 may further associate the persons based on the person's uniform, bibs (vest-like clothes), or the color or shape of the hat. For example, the control unit 121 associates persons having the same uniform shape among persons whose distance between persons is within a predetermined distance, and even if the distance between persons is within a predetermined distance, the shape of the uniform Different persons may not be associated with each other.

上記(項目1)〜(項目3)における判定について図7を用いて説明する。図7において、座標601〜605は人物検出位置である楕円401〜405の中心を水平面画像上の座標へ変換した結果を表す。また、領域606、607はユーザーによって指定された非検知領域を表す。また、楕円600は以下の式(4)を満たすx、yから成る楕円を表す。

Figure 2017085507
式(4)中のqx、qyはそれぞれ、処理対象の人物の、水平面画像上でのx座標、及びy座標を表す。図7では、qx、qyはそれぞれ座標602のx座標、及びy座標を表す。式(4)中のa、bは楕円の変換パラメータである。例えば、a=1、b=1とすると、楕円は半径R、中心(qx、qy)の円となる。また、a=1、b=1/2とすると、x軸方向の長さがR、y軸方向の長さがR/2となる楕円となる。本実施形態では共同作業者同士が水平面画像上のx軸方向に並んで作業を行うため、a>bとなる値を用いることとする。 The determination in the above (Item 1) to (Item 3) will be described with reference to FIG. In FIG. 7, coordinates 601 to 605 represent the results of converting the centers of ellipses 401 to 405 that are person detection positions into coordinates on a horizontal plane image. Areas 606 and 607 represent non-detection areas designated by the user. An ellipse 600 represents an ellipse composed of x and y that satisfies the following expression (4).
Figure 2017085507
In Expression (4), qx and qy respectively represent the x coordinate and y coordinate on the horizontal plane image of the person to be processed. In FIG. 7, qx and qy represent the x coordinate and the y coordinate of the coordinate 602, respectively. In Equation (4), a and b are ellipse conversion parameters. For example, if a = 1 and b = 1, the ellipse is a circle with a radius R and a center (qx, qy). When a = 1 and b = 1/2, an ellipse having a length in the x-axis direction of R and a length in the y-axis direction of R / 2 is obtained. In the present embodiment, since collaborators work in the x-axis direction on the horizontal plane image, a value satisfying a> b is used.

例えば、制御部121は、リストの走査の最中、人物検出位置である楕円402の人物を処理対象としたとする。このとき、制御部121は、人物検出位置である楕円402に対応する水平面画像上の座標602に関して、上記(項目1)〜(項目3)の判定を行う。
まず(項目1)では、制御部121は、楕円600の内部に検出された人物が存在するか否かを判定する。図7で表す状況においては、人物検出位置の楕円401に対応した水平面画像上の座標601が楕円内に含まれているため、制御部121は、要件を満たすと判断する。
次に(項目2)では、制御部121は、人物検出位置である楕円402の顔の向きを表す半直線407と、(項目1)の条件を満たした人物の人物検出位置である楕円401の顔の向きを表す矢印406と、が交差するかどうかを判定する。本実施形態の例で説明する状況下では、矢印406、及び407は、交差するため、制御部121は、要件を満たすと判断する。
次に(項目3)では、制御部121は、(項目1)の条件を満たした人物の人物検出位置である楕円401に対応した水平面画像上の座標601が、非検知領域である領域606、607に含まれていないかを判定する。本実施形態の例で説明する状況下では、座標601が、非検知領域である領域606、607に含まれていないため、制御部121は、要件を満たすと判断する。以上、(項目1)〜(項目3)の全ての要件を満たしていたため、制御部121は、人物検出位置である楕円402の人物を共同作業者であると判断する。
また、本実施形態では、制御部121は、(項目1)の条件に当てはまる人物を単独作業者の候補とした。しかしながらこの限りでは無く、制御部121は、領域の指定に基づく判断を行ってもよい。例えば、制御部121は、ユーザー入力に基づき、撮像画像又は水平面画像上に、各作業者のペアが存在するであろう領域を複数設定する。このとき、制御部121は、(項目1)の条件を、注目する人物と同じ検知領域に人物が存在するか、としてもよい。
For example, it is assumed that the control unit 121 sets the person of the ellipse 402 that is the person detection position as the processing target during the list scanning. At this time, the control unit 121 performs the determination of (Item 1) to (Item 3) with respect to the coordinates 602 on the horizontal plane image corresponding to the ellipse 402 which is the person detection position.
First, in (item 1), the control unit 121 determines whether or not a detected person exists inside the ellipse 600. In the situation illustrated in FIG. 7, since the coordinates 601 on the horizontal plane image corresponding to the ellipse 401 of the person detection position are included in the ellipse, the control unit 121 determines that the requirement is satisfied.
Next, in (Item 2), the control unit 121 includes a half line 407 representing the face direction of the ellipse 402 that is the person detection position, and an ellipse 401 that is the person detection position of the person that satisfies the condition of (Item 1). It is determined whether or not the arrow 406 representing the face direction intersects. Under the situation described in the example of the present embodiment, since the arrows 406 and 407 intersect, the control unit 121 determines that the requirement is satisfied.
Next, in (Item 3), the control unit 121 determines that the coordinate 601 on the horizontal plane image corresponding to the ellipse 401 that is the person detection position of the person who satisfies the condition of (Item 1) is a non-detection region 606. Whether or not it is included in 607 is determined. Under the situation described in the example of the present embodiment, the coordinate 601 is not included in the non-detection areas 606 and 607, and thus the control unit 121 determines that the requirement is satisfied. As described above, since all the requirements of (Item 1) to (Item 3) are satisfied, the control unit 121 determines that the person of the ellipse 402 that is the person detection position is a collaborator.
Further, in the present embodiment, the control unit 121 sets a person who satisfies the condition of (Item 1) as a candidate for a single worker. However, the present invention is not limited to this, and the control unit 121 may make a determination based on the designation of the area. For example, based on the user input, the control unit 121 sets a plurality of regions where a pair of workers will exist on the captured image or the horizontal plane image. At this time, the control unit 121 may set the condition of (Item 1) as to whether a person exists in the same detection area as the person of interest.

(処理3−1).制御部121は、リストの末尾を処理対象としているか否かを判断する(S206)。
制御部121は、リストの末尾で無ければ次の人物を処理対象とし、(処理2)へ戻る(S207)。制御部121は、リストの末尾であればリスト内の走査を終了し、単独作業者が存在する累積フレーム数を0にする(S208)。
(処理3−2).制御部121は、単独作業者が存在する累積フレーム数をインクリメントする、即ち変数の値を1増やす(S209)。
次に制御部121は、単独作業者が存在する旨をユーザーへ通知するか否かを判断し、条件を満たしていた場合は通知を行う(S210、S211)。本実施形態では、制御部121は、単独作業者が存在する累積フレーム数(累積期間)が閾値を超えた場合、ユーザーに警告を通知することとする。この判断条件を用いることで、例えば共同作業者であるにもかかわらず、一瞬人物の検出に失敗したことによって単独作業者であると誤通知することを抑制することが可能になる。なお、制御部121は、累積フレーム数で判断するのではなく、単独作業者が存在する時間が閾値を超えた場合にユーザーに警告を通知するようにしてもよい。制御部121は、単独作業者が存在する期間(累積フレーム数や時間)が閾値を超えた場合にユーザーに警告を通知すればよい。また、制御部121は、単独作業者が存在する状態が連続している期間(連続期間)が所定の閾値を超えた場合にユーザーに警告を通知するようにしてもよい。ここで、閾値は、例えば、メモリ21に記憶されているものとする。制御部121は、入力装置130等を介してユーザーの設定操作に応じて、前記閾値を変更することができる。また、閾値をゼロとしてもよい。つまり、単独作業者が存在する場合、ただちにユーザーへ通知するようにしてもよい。
また、本実施形態では単独作業者が存在することをユーザーへ通知する方法として、表示装置140へ単独作業者が存在する旨を表すUIを表示する方法を例に説明を行う。例えば、制御部121は、表示制御部125を介して、表示装置140に、撮像画像300、又は水平面画像500上の単独作業者の位置に二重丸を重畳する、赤丸を重畳する等の表示処理を実行させる。しかしながらこの限りでは無く、制御部121は、ユーザーにメールを送信してもよいし、スピーカーからアラートを発する等を行ってもよい。また、LED等の発光手段を発光させることで通知を行ってもよい。
次に、制御部121は、撮像画像の取得(S200)からユーザーへ単独者業者の有無を通知するかどうかの判断(S210、S211)までの処理を繰り返すかどうかを判断する(S212)。本実施形態では、制御部121は、撮像装置110からの撮像画像の取得が不可能になった場合、又はユーザーによる繰り返し処理中断の指示が有った場合に、繰り返し処理を終了すると判断する。
以上のように、動画像において、他の人物と関連付けられない単独作業者が含まれる動画像の期間があると、それに応じて、通知処理を実行させる。これによって単独作業者が存在することを監視者に伝えることができる。
(Process 3-1). The control unit 121 determines whether or not the end of the list is to be processed (S206).
If it is not at the end of the list, the control unit 121 sets the next person as a processing target and returns to (processing 2) (S207). If it is at the end of the list, the control unit 121 ends the scanning in the list, and sets the cumulative number of frames where a single worker exists to 0 (S208).
(Process 3-2). The control unit 121 increments the cumulative number of frames in which a single worker exists, that is, increases the value of the variable by 1 (S209).
Next, the control unit 121 determines whether or not to notify the user that there is a single worker. If the condition is satisfied, the control unit 121 performs notification (S210, S211). In the present embodiment, the control unit 121 notifies the user of a warning when the number of accumulated frames (accumulated period) in which a single worker exists exceeds a threshold value. By using this determination condition, for example, it is possible to suppress erroneous notification that the person is a single worker due to the failure to detect a person for a moment despite being a collaborator. Note that the control unit 121 may notify the user of a warning when the time during which a single worker exists exceeds a threshold value, instead of making a determination based on the cumulative number of frames. The control unit 121 may notify the user of a warning when the period (the number of accumulated frames or time) in which a single worker exists exceeds a threshold value. Further, the control unit 121 may notify the user of a warning when a period (continuous period) in which a single worker is present exceeds a predetermined threshold. Here, it is assumed that the threshold value is stored in the memory 21, for example. The control unit 121 can change the threshold value according to a user's setting operation via the input device 130 or the like. The threshold value may be zero. That is, if there is a single worker, the user may be notified immediately.
In this embodiment, as a method for notifying the user that there is a single worker, a method for displaying a UI indicating that a single worker exists on the display device 140 will be described as an example. For example, the control unit 121 displays a display such as a double circle superimposed on the position of the single operator on the captured image 300 or the horizontal plane image 500 or a red circle superimposed on the display device 140 via the display control unit 125. Execute the process. However, the present invention is not limited to this, and the control unit 121 may transmit an email to the user, issue an alert from a speaker, or the like. Further, notification may be performed by causing a light emitting means such as an LED to emit light.
Next, the control unit 121 determines whether or not to repeat the processing from acquisition of the captured image (S200) to determination of whether to notify the user of the presence / absence of a single trader (S210, S211) (S212). In the present embodiment, the control unit 121 determines that the iterative process is to be terminated when it becomes impossible to acquire a captured image from the image capturing apparatus 110 or when there is an instruction to interrupt the iterative process.
As described above, if there is a moving image period in which a single worker who is not associated with another person is included in the moving image, the notification process is executed accordingly. As a result, it is possible to inform the supervisor that there is a single worker.

本実施形態では、制御部121は、検知領域を設定する例を用いて主に説明を行った。制御部121は、単独作業を検知したときに、単独作業を検知した際の検知領域を映像に重畳して表示装置140に表示させるようにしてもよい。また、制御部121は、全ての検知領域を映像に重畳して表示させておき、単独作業が行われた場合に、単独作業が行われた検知領域を他の検知領域と異なる色に変える、点滅表示にする等、明示、又は強調的に表示するようにしてもよい。このようにすることにより、作業監視員は視認性よく、映像中の人物が、単独か複数かを把握することができる。
また、本実施形態では、1台のクライアント装置で人物等を検出して表示する例を示したが、複数のクライアント装置で処理を行うようにしてもよい。例えば、映像が入力され、単独作業等を検知し、通知するための第1のクライアント装置と、前記通知を受けて警報を出力したり、重畳表示を行ったりする第2のクライアント装置と、で処理を行うようにしてもよい。第1のクライアント装置の一例は、VCA(Video Content Analysis)装置である。第2のクライアント装置の一例は、VMS(Video Management System)装置である。第1のクライアント装置と、第2のクライアント装置とのハードウェア構成は、図1のクライアント装置120のハードウェア構成と同様である。それぞれのクライアント装置のCPUがそれぞれのクライアント装置のメモリに記憶されているプログラムに基づき処理を実行することによりそれぞれのクライアント装置の機能が実現される。
In the present embodiment, the control unit 121 has mainly been described using an example in which a detection area is set. When the control unit 121 detects a single work, the control area 121 may superimpose a detection area when the single work is detected on the video and display the image on the display device 140. Further, the control unit 121 superimposes and displays all detection areas on the video, and when a single operation is performed, the detection area where the single operation is performed is changed to a color different from the other detection areas. You may make it display clearly or highlighted, such as blinking display. By doing in this way, the work supervisor can grasp whether the person in a picture is single or plural with good visibility.
In the present embodiment, an example is shown in which a single client device detects and displays a person or the like, but processing may be performed by a plurality of client devices. For example, a first client device for detecting and notifying a single operation or the like when a video is input, and a second client device that outputs an alarm upon receiving the notification or performs superimposed display Processing may be performed. An example of the first client device is a VCA (Video Content Analysis) device. An example of the second client device is a VMS (Video Management System) device. The hardware configuration of the first client device and the second client device is the same as the hardware configuration of the client device 120 of FIG. The function of each client device is realized by the CPU of each client device executing processing based on a program stored in the memory of each client device.

作業現場内に単独作業者が存在する旨の警告を受け取ることで、作業監視員は、ルールに違反している作業者見つけることができ、その作業者へ注意を促すことが可能になる。   By receiving a warning that there is a single worker in the work site, the work monitor can find a worker who violates the rule and can call attention to the worker.

<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給する。そして、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other embodiments>
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium. It can also be realized by a process in which one or more processors in the computer of the system or apparatus read and execute the program. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではない。撮像装置110の機能構成は、CPU12がメモリ13に記憶されたプログラムに基づき処理を実行することにより実現されるソフトウェア構成として撮像装置に実装されてもよい。また、撮像装置110の機能構成の一部又は全てはハードウェア構成として撮像装置110に実装されてもよい。同様に、クライアント装置120の機能構成はCPU22がメモリ21に記憶されたプログラムに基づき処理を実行することにより実現されるソフトウェア構成としてクライアント装置120に実装されてもよい。また、クライアント装置120の機能構成の一部又は全てはハードウェア構成としてクライアント装置120に実装されてもよい。
また、単独作業者の位置に二重丸を重畳する、赤丸を重畳する以外に、単独作業者に「単独作業者」と文字列を重畳させるようにしてもよいし、赤色等の警告色を撮像画像上の単独作業者に重畳させるようにしてもよい。また、これらを任意に組み合わせて重畳表示させるようにしてもよい。実線の楕円、二重線の楕円、「単独作業者」等の文字列、赤色等の警告色は、他の人物と関連付けられない人物であることを示すオブジェクトの例である。
また、上述したクライアント装置や撮像装置のハードウェア構成は一例であり、例えば、CPUやメモリ、通信I/F等は複数有していてもよい。
As mentioned above, although preferable embodiment of this invention was explained in full detail, this invention is not limited to the specific embodiment which concerns. The functional configuration of the imaging apparatus 110 may be implemented in the imaging apparatus as a software configuration realized by the CPU 12 executing processing based on a program stored in the memory 13. In addition, a part or all of the functional configuration of the imaging apparatus 110 may be implemented in the imaging apparatus 110 as a hardware configuration. Similarly, the functional configuration of the client device 120 may be implemented in the client device 120 as a software configuration realized by the CPU 22 executing a process based on a program stored in the memory 21. Further, part or all of the functional configuration of the client device 120 may be implemented in the client device 120 as a hardware configuration.
In addition to superimposing a double circle or a red circle on the position of the single worker, the single worker may be superimposed with a character string “single worker”, or a warning color such as red may be displayed. You may make it superimpose on the single worker on a captured image. Further, these may be arbitrarily combined and displayed. A solid line ellipse, a double line ellipse, a character string such as “single worker”, and a warning color such as red are examples of objects indicating that the person is not associated with another person.
The hardware configurations of the client device and the imaging device described above are examples, and for example, a plurality of CPUs, memories, communication I / Fs, and the like may be provided.

以上、上述した各実施形態の処理によれば、画像中の人物が単独であった場合、ユーザーに通知することができる。   As described above, according to the processing of each embodiment described above, when the person in the image is alone, the user can be notified.

21 メモリ
22 CPU
120 クライアント装置
140 表示装置
21 Memory 22 CPU
120 Client device 140 Display device

Claims (10)

動画像から人物を検出する検出手段と、
前記検出手段によって検出される人物の位置、人物の顔の向き、及び人物間の距離、の内の少なくとも何れかに基づいて、人物同士を関連付ける関連付け手段と、
前記関連付け手段によって他の人物と関連付けられない人物が含まれる動画像の期間に応じて、通知装置に通知処理を実行させる通知制御手段と、
を有することを特徴とする制御装置。
Detecting means for detecting a person from a moving image;
Association means for associating persons based on at least one of the position of the person detected by the detection means, the face orientation of the person, and the distance between the persons;
A notification control unit that causes the notification device to execute a notification process according to a period of a moving image including a person that is not associated with another person by the association unit;
A control device comprising:
前記通知制御手段は、前記関連付け手段によって他の人物と関連付けられない人物が含まれる動画像の期間が閾値を超えた場合に、通知装置に通知処理を実行させることを特徴とする請求項1に記載の制御装置。   The notification control unit causes the notification device to execute a notification process when a period of a moving image including a person who is not associated with another person by the association unit exceeds a threshold. The control device described. 前記通知装置は、表示装置であり、
前記通知制御手段は、前記関連付け手段によって他の人物と関連付けられない人物が含まれる動画像の期間に応じて、前記表示装置に表示処理を実行させることで前記通知処理を実行させることを特徴とする請求項1又は2に記載の制御装置。
The notification device is a display device;
The notification control unit causes the display device to execute the notification process according to a period of a moving image including a person who is not associated with another person by the association unit. The control device according to claim 1 or 2.
前記表示処理は、前記人物に他の人物と関連付けられない人物であることを示すオブジェクトを重畳表示させる処理であることを特徴とする請求項3に記載の制御装置。   The control apparatus according to claim 3, wherein the display process is a process of superimposing and displaying an object indicating that the person is a person who is not associated with another person. 撮像装置より動画像を取得する取得手段を更に有し、
前記検出手段は、前記取得手段により取得された前記動画像から人物を検出することを特徴とする請求項1乃至4の何れか1項に記載の制御装置。
It further has an acquisition means for acquiring a moving image from the imaging device,
The control device according to claim 1, wherein the detection unit detects a person from the moving image acquired by the acquisition unit.
前記検出手段は、人物の特徴量に基づき前記動画像から人物を検出することを特徴とする請求項1乃至5の何れか1項に記載の制御装置。   The control device according to claim 1, wherein the detection unit detects a person from the moving image based on a feature amount of the person. 前記検出手段は、更に、人物が身につけている物の特徴量に基づき前記動画像から人物を検出することを特徴とする請求項6に記載の制御装置。   The control device according to claim 6, wherein the detection unit further detects the person from the moving image based on a feature amount of an object worn by the person. 前記人物が身につけている物は、制服、ビブス、及び帽子の内の少なくとも何れかであることを特徴とする請求項7に記載の制御装置。   The control device according to claim 7, wherein the person is wearing at least one of a uniform, a bib, and a hat. 制御装置が実行する制御方法であって、
動画像から人物を検出する検出工程と、
前記検出工程によって検出される人物の位置、人物の顔の向き、及び人物間の距離、の内の少なくとも何れかに基づいて、人物同士を関連付ける関連付け工程と、
前記関連付け工程によって他の人物と関連付けられない人物が含まれる動画像の期間に応じて、通知装置に通知処理を実行させる通知制御工程と、
を含むことを特徴とする制御方法。
A control method executed by a control device,
A detection step of detecting a person from a moving image;
An associating step of associating persons based on at least one of the position of the person detected by the detecting step, the orientation of the person's face, and the distance between the persons;
A notification control step of causing the notification device to execute notification processing according to a period of a moving image including a person that is not associated with another person by the association step;
The control method characterized by including.
コンピュータを、請求項1乃至8の何れか1項に記載の制御装置の各手段として機能させるためのプログラム。   The program for functioning a computer as each means of the control apparatus of any one of Claims 1 thru | or 8.
JP2015214935A 2015-10-30 2015-10-30 Control device, control method, and program Pending JP2017085507A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015214935A JP2017085507A (en) 2015-10-30 2015-10-30 Control device, control method, and program
US15/334,990 US10372989B2 (en) 2015-10-30 2016-10-26 Control apparatus and control method for determining relation of persons included in an image, and storage medium storing a program therefor
US16/447,349 US10970551B2 (en) 2015-10-30 2019-06-20 Control apparatus and control method for determining relation of persons included in an image, and storage medium storing a program therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015214935A JP2017085507A (en) 2015-10-30 2015-10-30 Control device, control method, and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020163242A Division JP7005717B2 (en) 2020-09-29 2020-09-29 Controls, control methods and programs

Publications (1)

Publication Number Publication Date
JP2017085507A true JP2017085507A (en) 2017-05-18

Family

ID=58711394

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015214935A Pending JP2017085507A (en) 2015-10-30 2015-10-30 Control device, control method, and program

Country Status (1)

Country Link
JP (1) JP2017085507A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019106582A (en) * 2017-12-11 2019-06-27 キヤノンマーケティングジャパン株式会社 Information processing apparatus, method for controlling information processing apparatus, and program
JP2019125058A (en) * 2018-01-12 2019-07-25 キヤノン株式会社 Image processing apparatus, imaging apparatus, image processing method and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006092396A (en) * 2004-09-27 2006-04-06 Oki Electric Ind Co Ltd Apparatus for detecting lone person and person in group
JP2007241965A (en) * 2006-03-08 2007-09-20 Yoshitaka Takeuchi Infrared warning system for crime prevention
JP2011248548A (en) * 2010-05-25 2011-12-08 Fujitsu Ltd Content determination program and content determination device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006092396A (en) * 2004-09-27 2006-04-06 Oki Electric Ind Co Ltd Apparatus for detecting lone person and person in group
JP2007241965A (en) * 2006-03-08 2007-09-20 Yoshitaka Takeuchi Infrared warning system for crime prevention
JP2011248548A (en) * 2010-05-25 2011-12-08 Fujitsu Ltd Content determination program and content determination device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019106582A (en) * 2017-12-11 2019-06-27 キヤノンマーケティングジャパン株式会社 Information processing apparatus, method for controlling information processing apparatus, and program
JP7007566B2 (en) 2017-12-11 2022-01-24 キヤノンマーケティングジャパン株式会社 Information processing equipment, information processing equipment control methods, and programs
JP2019125058A (en) * 2018-01-12 2019-07-25 キヤノン株式会社 Image processing apparatus, imaging apparatus, image processing method and program
JP7130375B2 (en) 2018-01-12 2022-09-05 キヤノン株式会社 Image processing device, imaging device, image processing method, and program

Similar Documents

Publication Publication Date Title
JP6534499B1 (en) MONITORING DEVICE, MONITORING SYSTEM, AND MONITORING METHOD
Shrestha et al. Hard‐hat detection for construction safety visualization
US9947138B2 (en) System and method for augmented reality display of dynamic environment information
JP6712778B2 (en) Object detection device, object detection system, and object detection method
US10970551B2 (en) Control apparatus and control method for determining relation of persons included in an image, and storage medium storing a program therefor
JP6624629B2 (en) Fish counting device, fish counting method, fish number prediction device, fish number prediction method, fish counting system and fish number prediction system
US20240155080A1 (en) Systems and methods for personnel location at a drilling site
JP2011060058A (en) Imaging apparatus and monitoring system
JP7067604B2 (en) Event monitoring system, event monitoring method, and program
US20220036731A1 (en) Method for detecting vehicle lane change, roadside device, and cloud control platform
WO2018008702A1 (en) Behavior detection system
JP6648923B2 (en) Control device, control method, and program
CN113447128A (en) Multi-person body temperature detection method and device, electronic equipment and storage medium
JP2017085507A (en) Control device, control method, and program
JP7005717B2 (en) Controls, control methods and programs
JP5574551B2 (en) Image processing apparatus and image processing method
JP6987902B2 (en) Controls, control methods and programs
JP2014182628A (en) Space importance determination device, space importance determination method and program
JP2017084289A (en) Display controller, display control method and program
JP6412685B2 (en) Video projection device
JP7247310B2 (en) CONTROL DEVICE, CONTROL METHOD, PROGRAM AND SYSTEM
US10931923B2 (en) Surveillance system, surveillance network construction method, and program
WO2022239315A1 (en) Information processing method, information processing device, and program
WO2017169593A1 (en) Monitoring system and terminal device
JP2023133962A (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181005

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190731

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190806

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191002

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200204

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200630