JP2016111649A - Monitoring system, video analysis device, video analysis method, and program - Google Patents

Monitoring system, video analysis device, video analysis method, and program Download PDF

Info

Publication number
JP2016111649A
JP2016111649A JP2014249941A JP2014249941A JP2016111649A JP 2016111649 A JP2016111649 A JP 2016111649A JP 2014249941 A JP2014249941 A JP 2014249941A JP 2014249941 A JP2014249941 A JP 2014249941A JP 2016111649 A JP2016111649 A JP 2016111649A
Authority
JP
Japan
Prior art keywords
unit
wide
moving object
area
tracking target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014249941A
Other languages
Japanese (ja)
Other versions
JP6458474B2 (en
Inventor
渡辺 孝弘
Takahiro Watanabe
孝弘 渡辺
規景 今中
Norihiro Imanaka
規景 今中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2014249941A priority Critical patent/JP6458474B2/en
Publication of JP2016111649A publication Critical patent/JP2016111649A/en
Application granted granted Critical
Publication of JP6458474B2 publication Critical patent/JP6458474B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technology capable of accurately tracking a moving body by using a PTZ camera on the basis of wide area camera video.SOLUTION: There is provided a video analysis device 22A that comprises a tracking target identification unit 214 for identifying a moving body as a tracking target when an operation body locus in wide area camera video transmitted through a network 50 agrees with or is similar to the moving body's locus detected from the wide area camera video and a position identification unit 215 for identifying the latest position of the tracking target, and makes a movable camera 30 perform imaging in an imaging direction depending on the latest position.SELECTED DRAWING: Figure 1

Description

本発明は、監視システム、映像解析装置、映像解析方法およびプログラムに関するものである。   The present invention relates to a monitoring system, a video analysis device, a video analysis method, and a program.

従来、移動物体(以下、単に「動体」とも言う。)を追尾する技術として様々な技術が開示されている。例えば、過去に動体を追尾した結果に基づいて動体の移動方向を予測し、予測した動体の移動方向に応じた撮像範囲が撮像されるようにPTZ(パン・チルト・ズーム)カメラ(以下、「可動カメラ」とも言う。)を制御する技術が開示されている(例えば、特許文献1参照)。かかる技術によれば、動体追尾の遅延を低減することが可能となる。   Conventionally, various techniques have been disclosed as techniques for tracking a moving object (hereinafter also simply referred to as “moving object”). For example, the moving direction of the moving object is predicted based on the result of tracking the moving object in the past, and a PTZ (pan / tilt / zoom) camera (hereinafter, “ A technique for controlling a movable camera is also disclosed (for example, see Patent Document 1). According to such a technique, it is possible to reduce the delay in tracking moving objects.

しかしながら、1台のPTZカメラだけを利用する技術は、動体の移動範囲が広域になるほど、動体を追尾するのに適さなくなる可能性が高まる。なぜなら、動体の移動範囲が広域になるほど、広い画角のレンズを用いて動体を追尾する必要性が高まるが、レンズの画角が広くなってしまうと、PTZカメラの映像サイズに対する動体サイズが小さくなりやすくなってしまうからである。   However, the technology that uses only one PTZ camera increases the possibility that it becomes less suitable for tracking a moving object as the moving range of the moving object becomes wider. This is because, as the moving range of the moving object becomes wider, the need to track the moving object using a lens with a wide angle of view increases. However, if the angle of view of the lens increases, the moving object size with respect to the image size of the PTZ camera decreases. Because it becomes easy to become.

そこで、固定カメラ等によって撮像された広域の映像(以下、「広域カメラ映像」とも言う。)を表示させ、表示された広域カメラ映像から動体が存在する領域を選択領域として選択し、選択領域から検出された動体をPTZカメラで追尾する技術が存在する。かかる技術によれば、PTZカメラのレンズ画角を抑えることができるため、PTZカメラの映像サイズに対する動体サイズが小さくなることを抑えることができる。   Therefore, a wide-area image captured by a fixed camera or the like (hereinafter also referred to as “wide-area camera image”) is displayed, and an area where a moving object exists is selected as a selection area from the displayed wide-area camera image. There is a technique for tracking a detected moving object with a PTZ camera. According to this technique, since the lens angle of view of the PTZ camera can be suppressed, it is possible to suppress a reduction in the moving object size with respect to the video size of the PTZ camera.

特開2006−229322号公報JP 2006-229322 A

しかしながら、かかる技術においては、広域カメラ映像が固定カメラ等によって送信されてから表示制御装置に到達するまでの時間、広域カメラ映像が表示制御装置に到達してから広域カメラ映像が表示されるまでの時間、広域カメラ映像における選択領域の通知が表示制御装置によってなされてからPTZカメラを制御するカメラ制御装置によって受け取られるまでの時間、選択領域に応じた撮像方向を撮像するようにPTZカメラを制御するために要する時間など(以下、これらの時間を「タイムラグ」とも言う。)が生じ得る。   However, in such a technique, the time from when the wide-area camera image is transmitted by the fixed camera or the like until it reaches the display control device, from when the wide-area camera image reaches the display control device until the wide-area camera image is displayed. Controls the PTZ camera to capture the imaging direction corresponding to the selected area, the time from when the notification of the selected area in the wide-area camera image is made by the display control apparatus until it is received by the camera control apparatus that controls the PTZ camera Time (for example, these times are also referred to as “time lag”).

そのため、固定カメラ等とPTZカメラとの組み合わせを用いる技術においては、PTZカメラが選択領域に応じた撮像方向を撮像したとき、選択領域に動体が存在しない可能性が高まるため、動体追尾の精度が低下する可能性がある。そこで、本発明は、上記問題に鑑みてなされたものであり、広域カメラ映像に基づいて動体をPTZカメラでより高精度に追尾することが可能な技術を提供する。   For this reason, in the technology using a combination of a fixed camera or the like and a PTZ camera, when the PTZ camera captures an imaging direction corresponding to the selected area, there is a high possibility that there is no moving object in the selected area. May be reduced. Therefore, the present invention has been made in view of the above problems, and provides a technique capable of tracking a moving object with a PTZ camera with higher accuracy based on a wide-area camera image.

上記問題を解決するために、本発明のある観点によれば、映像解析装置と表示制御装置とカメラ制御装置とを有する、監視システムにおいて、前記映像解析装置は、広域カメラ映像を記憶している記憶部を備え、前記表示制御装置は、ネットワークを介して前記広域カメラ映像を取得する映像取得部と、前記広域カメラ映像を表示部に表示させる表示制御部と、前記広域カメラ映像における操作体軌跡を検出する操作体軌跡検出部と、前記操作体軌跡を前記映像解析装置に通知する通知部と、を備え、前記映像解析装置は、前記操作体軌跡が通知されると、前記記憶部によって記憶されている前記広域カメラ映像から動体軌跡を検出する動体軌跡検出部と、前記操作体軌跡と前記動体軌跡とが一致または類似する場合、当該動体を追尾対象として特定する追尾対象特定部と、前記追尾対象の最新位置を特定する位置特定部と、を備え、前記カメラ制御装置は、前記最新位置に応じた撮像方向を可動カメラに撮像させる、監視システムが提供される。   In order to solve the above problem, according to an aspect of the present invention, in a monitoring system having a video analysis device, a display control device, and a camera control device, the video analysis device stores a wide-area camera video. A storage unit, and the display control device includes a video acquisition unit that acquires the wide-area camera image via a network, a display control unit that displays the wide-area camera image on the display unit, and an operating object locus in the wide-area camera image And a notification unit that notifies the video analysis device of the operation tool trajectory. When the control tool trajectory is notified, the video analysis device stores the operation tool trajectory in the storage unit. A moving object trajectory detecting unit that detects a moving object trajectory from the wide-area camera image, and when the operating object trajectory and the moving object trajectory match or are similar to each other, A monitoring target specifying unit for specifying the tracking target and a position specifying unit for specifying the latest position of the tracking target, wherein the camera control device causes the movable camera to capture an imaging direction corresponding to the latest position. Provided.

前記映像取得部は、前記可動カメラによって撮像された可動カメラ映像を取得し、前記表示制御部は、前記可動カメラ映像を表示させてよい。   The image acquisition unit may acquire a movable camera image captured by the movable camera, and the display control unit may display the movable camera image.

前記操作体軌跡検出部は、前記表示部に重畳されたタッチパネルに対して操作体が接触しながら移動した軌跡を前記操作体軌跡として検出してよい。   The operation object locus detection unit may detect, as the operation object locus, a locus moved while the operation object is in contact with the touch panel superimposed on the display unit.

前記表示制御装置は、前記広域カメラ映像からフレームを選択フレームとして選択するとともに前記選択フレームにおける領域を選択領域として選択する選択部を備え、前記映像解析装置は、前記ネットワークを介して前記選択領域が通知された場合、蓄積されている過去の広域カメラ映像から前記選択フレームを特定するフレーム特定部と、前記選択フレームにおける前記選択領域から動体を検出する動体検出部と、を備え、前記追尾対象特定部は、前記操作体軌跡と前記動体軌跡とが一致または類似する場合、かつ、前記動体軌跡の前記選択フレームにおける位置と前記選択フレームにおける前記選択領域から検出された動体の位置とが一致する場合、当該動体を追尾対象として特定してよい。   The display control apparatus includes a selection unit that selects a frame from the wide-area camera image as a selection frame and selects an area in the selection frame as a selection area, and the video analysis apparatus includes the selection area via the network. A frame identification unit that identifies the selected frame from the accumulated past wide-area camera video, and a moving object detection unit that detects a moving object from the selection area in the selected frame when notified, the tracking target identification And when the operating object locus and the moving object locus match or are similar, and the position of the moving object locus in the selection frame matches the position of the moving object detected from the selection area in the selection frame. The moving object may be specified as a tracking target.

前記フレーム特定部は、前記選択フレームに付与されていたフレーム撮像時刻が通知されると、蓄積されている過去の広域カメラ映像から前記フレーム撮像時刻が付与されているフレームを前記選択フレームとして特定してよい。   The frame specifying unit, when notified of the frame imaging time given to the selected frame, specifies the frame to which the frame imaging time is given from the accumulated past wide-area camera video as the selected frame. It's okay.

前記フレーム特定部は、前記過去の広域カメラ映像から、前記選択領域が通知された時刻より所定時間前のフレーム撮像時刻が付与されているフレームを前記選択フレームとして特定してよい。   The frame specifying unit may specify, as the selected frame, a frame to which a frame imaging time that is a predetermined time before the time when the selected area is notified is given from the past wide-area camera video.

前記位置特定部は、前記過去の広域カメラ映像の複数フレームそれぞれに映る前記追尾対象の位置から推定した前記追尾対象の現在位置を前記追尾対象の最新位置として特定してよい。   The position specifying unit may specify the current position of the tracking target estimated from the position of the tracking target shown in each of a plurality of frames of the past wide-area camera video as the latest position of the tracking target.

前記位置特定部は、前記過去の広域カメラ映像の最新のフレームに映る前記追尾対象の位置を前記追尾対象の最新位置として特定してよい。   The position specifying unit may specify the position of the tracking target shown in the latest frame of the past wide-area camera video as the latest position of the tracking target.

また、本発明の他の観点によれば、映像解析装置と表示制御装置とカメラ制御装置とを有する、監視システムにおいて、前記映像解析装置は、広域カメラ映像から動体軌跡を検出する動体軌跡検出部を備え、前記表示制御装置は、ネットワークを介して前記広域カメラ映像を取得する映像取得部と、前記広域カメラ映像を表示部に表示させる表示制御部と、前記広域カメラ映像における操作体軌跡を検出する操作体軌跡検出部と、前記操作体軌跡を通知する通知部と、を備え、前記映像解析装置は、前記操作体軌跡と前記動体軌跡とが一致または類似する場合、当該動体を追尾対象として特定する追尾対象特定部と、前記追尾対象の最新位置を特定する位置特定部と、を備え、前記カメラ制御装置は、前記最新位置に応じた撮像方向を可動カメラに撮像させる、監視システムが提供される。   According to another aspect of the present invention, in the monitoring system having a video analysis device, a display control device, and a camera control device, the video analysis device detects a moving subject locus from a wide-area camera image. The display control device includes a video acquisition unit that acquires the wide-area camera video via a network, a display control unit that displays the wide-area camera video on a display unit, and an operation object locus in the wide-area camera video. An operating object locus detecting unit, and a notifying unit for notifying the operating object locus, and the video analysis apparatus sets the moving object as a tracking target when the operating object locus and the moving object locus match or are similar to each other. A tracking target specifying unit for specifying, and a position specifying unit for specifying the latest position of the tracking target, wherein the camera control device is configured to move the imaging direction according to the latest position. Is imaged in La, the monitoring system is provided.

また、本発明の他の観点によれば、映像解析装置と表示制御装置とカメラ制御装置とを有する、監視システムにおいて、前記映像解析装置は、広域カメラ映像から動体軌跡を検出する動体軌跡検出部と、当該動体の識別情報が付与された前記動体軌跡を記憶する記憶部と、を備え、前記表示制御装置は、ネットワークを介して前記広域カメラ映像を取得する映像取得部と、前記広域カメラ映像を表示部に表示させる表示制御部と、前記広域カメラ映像における操作体軌跡を検出する操作体軌跡検出部と、前記操作体軌跡と前記動体軌跡とが一致または類似する場合、当該動体を追尾対象として特定する追尾対象特定部と、前記追尾対象の識別情報を前記映像解析装置に通知する追尾対象通知部と、を備え、前記映像解析装置は、前記追尾対象の識別情報によって識別される前記追尾対象の最新位置を特定する位置特定部を備え、前記カメラ制御装置は、前記最新位置に応じた撮像方向を可動カメラに撮像させる、監視システムが提供される。   According to another aspect of the present invention, in the monitoring system having a video analysis device, a display control device, and a camera control device, the video analysis device detects a moving subject locus from a wide-area camera image. And a storage unit that stores the moving object trajectory to which the moving object identification information is assigned, wherein the display control device acquires the wide-area camera image via a network, and the wide-area camera image Is displayed on the display unit, the operating object locus detecting unit for detecting the operating object locus in the wide-area camera image, and the moving object locus is tracked when the operating object locus and the moving object locus match or are similar to each other. A tracking target specifying unit that specifies the tracking target identification information, and a tracking target notification unit that notifies the video analysis device of identification information of the tracking target, the video analysis device including the tracking target Comprising a position specifying unit for specifying the latest position of the tracking target to be identified by the identification information, the camera control unit, the to image the imaging direction in accordance with the latest position to the movable camera, surveillance system is provided.

また、本発明の他の観点によれば、ネットワークを介して送信された広域カメラ映像における操作体軌跡と前記広域カメラ映像から検出された動体軌跡とが一致または類似する場合、当該動体を追尾対象として特定する追尾対象特定部と、前記追尾対象の最新位置を特定する位置特定部と、を備え、前記最新位置に応じた撮像方向が可動カメラによって撮像される、映像解析装置が提供される。   According to another aspect of the present invention, when an operating object locus in a wide-area camera image transmitted via a network matches or is similar to a moving object locus detected from the wide-area camera image, the moving object is tracked There is provided a video analysis apparatus that includes a tracking target specifying unit that specifies a tracking target and a position specifying unit that specifies the latest position of the tracking target, and an imaging direction corresponding to the latest position is captured by a movable camera.

また、本発明の他の観点によれば、ネットワークを介して送信された広域カメラ映像における操作体軌跡と前記広域カメラ映像から検出された動体軌跡とが一致または類似する場合、当該動体を追尾対象として特定することと、前記追尾対象の最新位置を特定することと、を含み、前記最新位置に応じた撮像方向が可動カメラによって撮像される、映像解析方法が提供される。   According to another aspect of the present invention, when an operating object locus in a wide-area camera image transmitted via a network matches or is similar to a moving object locus detected from the wide-area camera image, the moving object is tracked And specifying the latest position of the tracking target, and an image analysis method is provided in which an imaging direction corresponding to the latest position is imaged by a movable camera.

また、本発明の他の観点によれば、コンピュータを、ネットワークを介して送信された広域カメラ映像における操作体軌跡と前記広域カメラ映像から検出された動体軌跡とが一致または類似する場合、当該動体を追尾対象として特定する追尾対象特定部と、前記追尾対象の最新位置を特定する位置特定部と、を備え、前記最新位置に応じた撮像方向が可動カメラによって撮像される、映像解析装置として機能させるためのプログラムが提供される。   According to another aspect of the present invention, when the operating object locus in the wide-area camera image transmitted via the network matches or is similar to the moving object locus detected from the wide-area camera image, the computer A tracking target specifying unit that specifies a tracking target and a position specifying unit that specifies the latest position of the tracking target, and functions as a video analysis device in which an imaging direction corresponding to the latest position is captured by a movable camera A program is provided.

以上説明したように本発明によれば、広域カメラ映像に基づいて動体をPTZカメラでより高精度に追尾することが可能となる。   As described above, according to the present invention, a moving object can be tracked with higher accuracy by a PTZ camera based on a wide-area camera image.

本発明の第1および第2の実施形態に係る監視システムの構成例を示した説明図である。It is explanatory drawing which showed the structural example of the monitoring system which concerns on the 1st and 2nd embodiment of this invention. 本発明の第1の実施形態に係る表示制御装置の機能構成例を示すブロック図である。It is a block diagram which shows the function structural example of the display control apparatus which concerns on the 1st Embodiment of this invention. 同実施形態に係る映像解析装置の機能構成例を示すブロック図である。It is a block diagram which shows the function structural example of the video analysis apparatus which concerns on the same embodiment. 初期の表示画面の構成例を示す図である。It is a figure which shows the structural example of an initial display screen. 選択時刻Tmにおける表示画面の構成例を示す図である。It is a figure which shows the structural example of the display screen in the selection time Tm. 選択領域の位置と可動カメラの撮像方向(パン・チルト)との対応関係の例を説明するための図である。It is a figure for demonstrating the example of the correspondence of the position of a selection area | region, and the imaging direction (pan / tilt) of a movable camera. 選択領域のサイズと可動カメラの撮像サイズ(ズーム)との対応関係の例を説明するための図である。It is a figure for demonstrating the example of the correspondence of the size of a selection area, and the imaging size (zoom) of a movable camera. 選択フレームを特定する例を説明するための図である。It is a figure for demonstrating the example which specifies a selection frame. 操作体軌跡の例を説明するための図である。It is a figure for demonstrating the example of an operation body locus | trajectory. 特定された追尾対象の例を説明するための図である。It is a figure for demonstrating the example of the identified tracking object. 追尾対象の最新位置に応じた撮像方向(パン・チルト)を撮像するように可動カメラが制御された状況を示した図である。It is the figure which showed the condition where the movable camera was controlled to image the imaging direction (pan / tilt) according to the newest position of the tracking target. 追尾対象の最新位置に応じた撮像方向を撮像した可動カメラ映像の表示例を示す図である。It is a figure which shows the example of a display of the movable camera image | video which imaged the imaging direction according to the newest position of tracking object. 本発明の第1の実施形態に係る監視システムの動作の例を示すシーケンス図である。It is a sequence diagram which shows the example of operation | movement of the monitoring system which concerns on the 1st Embodiment of this invention. 本発明の第2の実施形態に係る表示制御装置の機能構成例を示すブロック図である。It is a block diagram which shows the function structural example of the display control apparatus which concerns on the 2nd Embodiment of this invention. 同実施形態に係る映像解析装置の機能構成例を示すブロック図である。It is a block diagram which shows the function structural example of the video analysis apparatus which concerns on the same embodiment. 本発明の第2の実施形態に係る監視システムの動作の例を示すシーケンス図である。It is a sequence diagram which shows the example of operation | movement of the monitoring system which concerns on the 2nd Embodiment of this invention.

以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。   Exemplary embodiments of the present invention will be described below in detail with reference to the accompanying drawings. In the present specification and drawings, components having substantially the same functional configuration are denoted by the same reference numerals, and redundant description is omitted.

また、本明細書および図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なる数字を付して区別する。また、異なる実施形態の類似する構成要素については、同一の符号の後に異なるアルファベットを付して区別する。ただし、実質的に同一の機能構成を有する複数の構成要素等の各々を特に区別する必要がない場合、同一符号のみを付する。   In the present specification and drawings, a plurality of constituent elements having substantially the same functional configuration are distinguished by attaching different numerals to the same reference numerals. Further, similar constituent elements of different embodiments are distinguished by attaching different alphabets after the same reference numerals. However, when there is no need to particularly distinguish each of a plurality of constituent elements having substantially the same functional configuration, only the same reference numerals are given.

(1.第1の実施形態)
まず、本発明の第1の実施形態について説明する。
(1. First embodiment)
First, a first embodiment of the present invention will be described.

(1−1.監視システムの構成)
図1を参照しながら、本発明の第1の実施形態に係る監視システム1の構成例について説明する。図1は、本発明の第1および第2の実施形態に係る監視システム1の構成例を示した説明図であり、符号の後にアルファベットAを付した構成が第1の実施形態の監視システム1Aに対応する。図1に示したように、監視システム1Aは、表示制御装置10A、監視装置20、可動カメラ30およびカメラ制御装置40を備える。
(1-1. Configuration of the monitoring system)
A configuration example of the monitoring system 1 according to the first embodiment of the present invention will be described with reference to FIG. FIG. 1 is an explanatory diagram showing a configuration example of a monitoring system 1 according to the first and second embodiments of the present invention, and a configuration in which an alphabet A is added after a reference sign is a monitoring system 1A according to the first embodiment. Corresponding to As shown in FIG. 1, the monitoring system 1A includes a display control device 10A, a monitoring device 20, a movable camera 30, and a camera control device 40.

また、図1に示したように、監視装置20、可動カメラ30およびカメラ制御装置40は、遠隔地に設置され、表示制御装置10Aは、監視者Kが存在する監視地に設置され、監視地と遠隔地とは、ネットワーク50を介して接続されている。遠隔地は、典型的には飛行場であってよいが、遠隔地は飛行場に限定されず、監視され得る他の場所(例えば、船舶の通過する航路、電車の線路など)であってもよい。本明細書においては、遠隔地が飛行場である場合を想定しており、遠隔地には動体(航空機)M1が存在している。   In addition, as shown in FIG. 1, the monitoring device 20, the movable camera 30, and the camera control device 40 are installed in a remote place, and the display control device 10A is installed in a monitoring place where the monitor K is present. And the remote location are connected via a network 50. The remote location may typically be an airfield, but the remote location is not limited to an airfield and may be another location that can be monitored (eg, a route through which a ship passes, a train track, etc.). In this specification, the case where a remote place is an airfield is assumed, and the moving body (aircraft) M1 exists in the remote place.

ここで、例えば、ネットワーク50は、インターネット、電話回線網、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、ネットワーク50は、IP−VPN(Internet Protocol−Virtual Private Network)などの専用回線網を含んでもよい。   Here, for example, the network 50 includes a public line network such as the Internet, a telephone line network, a satellite communication network, various local area networks (LANs) including the Ethernet (registered trademark), a wide area network (WAN), and the like. But you can. The network 50 may include a dedicated line network such as an IP-VPN (Internet Protocol-Virtual Private Network).

固定カメラ21−1〜21−4は、所定の監視対象領域を撮像することによって映像(以下、「広域カメラ映像」とも言う。)を撮像する。ここで、固定カメラ21の数は特に限定されない。固定カメラ21−1〜21−4によって撮像された広域カメラ映像は、ネットワーク50を介して表示制御装置10Aに提供される。映像解析装置22は、広域カメラ映像から選択された領域(以下、「選択領域」とも言う。)を解析することによって動体を検出する。例えば、動体の位置およびサイズが検出されてよい。   The fixed cameras 21-1 to 21-4 capture an image (hereinafter also referred to as “wide area camera image”) by capturing an image of a predetermined monitoring target area. Here, the number of the fixed cameras 21 is not particularly limited. Wide-area camera images captured by the fixed cameras 21-1 to 21-4 are provided to the display control device 10 </ b> A via the network 50. The video analysis device 22 detects a moving object by analyzing a region selected from the wide-area camera video (hereinafter also referred to as “selected region”). For example, the position and size of the moving object may be detected.

カメラ制御装置40は、可動カメラ30の撮像範囲(撮像方向および撮像サイズ)を制御する機能を有する。可動カメラ30の撮像方向は、パン・チルト機能により調整され得る。また、可動カメラ30の撮像サイズは、ズーム機能により調整され得る。より具体的には、カメラ制御装置40は、監視者Kによって広域カメラ映像における選択領域に応じた撮像範囲を撮像するように、可動カメラ30を制御する。   The camera control device 40 has a function of controlling the imaging range (imaging direction and imaging size) of the movable camera 30. The imaging direction of the movable camera 30 can be adjusted by a pan / tilt function. Moreover, the imaging size of the movable camera 30 can be adjusted by a zoom function. More specifically, the camera control device 40 controls the movable camera 30 so that the monitor K captures an imaging range corresponding to the selected area in the wide-area camera video.

可動カメラ30は、カメラ制御装置40による制御に従って撮像範囲を撮像する機能を有する。(なお、本実施形態では、可動カメラ30の画角は、固定カメラ21−1〜21−4それぞれの画角よりも狭い。)そのため、可動カメラ30によって撮像された撮像結果(以下、「可動カメラ映像」とも言う。)は、広域カメラ映像よりも、監視者Kによる詳細監視に向いている。可動カメラ映像は、ネットワーク50を介して表示制御装置10Aに提供される。   The movable camera 30 has a function of imaging the imaging range according to control by the camera control device 40. (In this embodiment, the angle of view of the movable camera 30 is narrower than the angle of view of each of the fixed cameras 21-1 to 21-4.) Therefore, the imaging result captured by the movable camera 30 (hereinafter “movable”). "Camera image" is also suitable for detailed monitoring by the supervisor K rather than the wide-area camera image. The movable camera image is provided to the display control apparatus 10A via the network 50.

表示制御装置10Aは、第1の表示領域に広域カメラ映像を表示させ、第1の領域とは異なる第2の表示領域に可動カメラ映像を表示させる。第1の表示領域および第2の表示領域は、表示制御装置10Aの内部に存在してもよいし、表示制御装置10Aの外部に存在してもよい。第1の表示領域および第2の表示領域については、後に詳細に説明する。監視者Kは、このようにして表示された広域カメラ映像および可動カメラ映像の双方を監視することができる。   The display control apparatus 10A displays the wide-area camera video in the first display area, and displays the movable camera video in a second display area different from the first area. The first display area and the second display area may exist inside the display control apparatus 10A or may exist outside the display control apparatus 10A. The first display area and the second display area will be described in detail later. The monitor K can monitor both the wide-area camera image and the movable camera image displayed in this way.

以上、本発明の第1の実施形態に係る監視システム1Aの構成例について説明した。   The configuration example of the monitoring system 1A according to the first embodiment of the present invention has been described above.

(1−2.表示制御装置の機能構成)
続いて、本発明の第1の実施形態に係る表示制御装置10Aの機能構成例について説明する。図2は、本発明の第1の実施形態に係る表示制御装置10Aの機能構成例を示すブロック図である。図2に示したように、本発明の第1の実施形態に係る表示制御装置10Aは、制御部110A、入力部120、通信部130、記憶部140および表示部150を備える。
(1-2. Functional configuration of display control device)
Subsequently, a functional configuration example of the display control apparatus 10A according to the first embodiment of the present invention will be described. FIG. 2 is a block diagram illustrating a functional configuration example of the display control apparatus 10A according to the first embodiment of the present invention. As shown in FIG. 2, the display control apparatus 10A according to the first embodiment of the present invention includes a control unit 110A, an input unit 120, a communication unit 130, a storage unit 140, and a display unit 150.

制御部110Aは、表示制御装置10Aの動作全体を制御する機能を有し、専用のハードウェアによって構成されてもよいし、表示制御装置10Aに内蔵されたCPUがROMに記憶されたプログラムをRAMに展開して実行することにより実現されてもよい。かかるプログラムが提供され得る他、かかるプログラムを記憶させた記憶媒体も提供され得る。制御部110Aは、映像取得部111、表示制御部112、選択部113、操作体軌跡検出部114および通知部115を備える。   The control unit 110A has a function of controlling the entire operation of the display control device 10A, and may be configured by dedicated hardware, or a CPU built in the display control device 10A stores a program stored in a ROM as a RAM. It may be realized by expanding and executing. In addition to providing such a program, a storage medium storing such a program may also be provided. The control unit 110 </ b> A includes a video acquisition unit 111, a display control unit 112, a selection unit 113, an operating body locus detection unit 114, and a notification unit 115.

入力部120は、監視者Kから各種情報の入力を受け付ける機能を有する。例えば、入力部120は、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、スイッチなどによって構成されてよい。例えば、入力部120は、表示部150によって表示された各種画面からボタンを選択する操作、広域カメラ映像から各種領域を選択する操作などの入力を受け付けることができる。入力部120がタッチパネルによって構成される場合には、入力部120は、表示部150に積層されていてよい。   The input unit 120 has a function of receiving input of various information from the supervisor K. For example, the input unit 120 may be configured with a mouse, a keyboard, a touch panel, a button, a microphone, a switch, and the like. For example, the input unit 120 can accept inputs such as an operation for selecting a button from various screens displayed by the display unit 150 and an operation for selecting various regions from a wide-area camera image. When the input unit 120 is configured by a touch panel, the input unit 120 may be stacked on the display unit 150.

通信部130は、ネットワーク50を介して映像解析装置22Aおよびカメラ制御装置40との間で各種情報を送受信するための通信インタフェースである。例えば、通信部130は、ネットワーク50を介して固定カメラ21−1〜21−4から広域カメラ映像を受信することが可能である。また、例えば、通信部130は、ネットワーク50を介して可動カメラ30から可動カメラ映像を受信することが可能である。   The communication unit 130 is a communication interface for transmitting and receiving various types of information between the video analysis device 22 </ b> A and the camera control device 40 via the network 50. For example, the communication unit 130 can receive wide-area camera images from the fixed cameras 21-1 to 21-4 via the network 50. For example, the communication unit 130 can receive a movable camera image from the movable camera 30 via the network 50.

記憶部140は、制御部110Aを動作させるためのプログラムやデータを記憶することができる。また、記憶部140は、制御部110Aの動作の過程で必要となる各種データを一時的に記憶することもできる。本発明の第1の実施形態では、記憶部140は、広域カメラ映像および可動カメラ映像を記憶することができる。   The storage unit 140 can store a program and data for operating the control unit 110A. In addition, the storage unit 140 can temporarily store various data required in the course of the operation of the control unit 110A. In the first embodiment of the present invention, the storage unit 140 can store a wide-area camera image and a movable camera image.

表示部150は、各種画面を表示する機能を有する。例えば、表示部150は、第1の表示領域に広域カメラ映像を表示し、第2の表示領域に可動カメラ映像を表示する機能を有する。例えば、表示部150は、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Diode)装置、ランプなどの表示装置であってよい。   The display unit 150 has a function of displaying various screens. For example, the display unit 150 has a function of displaying a wide-area camera image in a first display area and displaying a movable camera image in a second display area. For example, the display unit 150 may be a display device such as a CRT (Cathode Ray Tube) display device, a liquid crystal display (LCD) device, an OLED (Organic Light Emitting Diode) device, or a lamp.

(1−3.映像解析装置の機能構成)
続いて、本発明の第1の実施形態に係る映像解析装置22Aの機能構成例について説明する。図3は、本発明の第1の実施形態に係る映像解析装置22Aの機能構成例を示すブロック図である。図3に示したように、本発明の第1の実施形態に係る映像解析装置22Aは、制御部210A、通信部230および記憶部240を備える。
(1-3. Functional configuration of video analysis apparatus)
Subsequently, a functional configuration example of the video analysis device 22A according to the first embodiment of the present invention will be described. FIG. 3 is a block diagram illustrating a functional configuration example of the video analysis device 22A according to the first embodiment of the present invention. As shown in FIG. 3, the video analysis device 22A according to the first embodiment of the present invention includes a control unit 210A, a communication unit 230, and a storage unit 240.

制御部210Aは、映像解析装置22Aの動作全体を制御する機能を有し、専用のハードウェアによって構成されてもよいし、映像解析装置22Aに内蔵されたCPUがROMに記憶されたプログラムをRAMに展開して実行することにより実現されてもよい。かかるプログラムが提供され得る他、かかるプログラムを記憶させた記憶媒体も提供され得る。制御部210Aは、動体軌跡検出部211、フレーム特定部212、動体検出部213A、追尾対象特定部214Aおよび位置特定部215を備える。   The control unit 210A has a function of controlling the entire operation of the video analysis device 22A, and may be configured by dedicated hardware, or a CPU built in the video analysis device 22A stores a program stored in the ROM as a RAM. It may be realized by expanding and executing. In addition to providing such a program, a storage medium storing such a program may also be provided. The control unit 210A includes a moving object trajectory detection unit 211, a frame specifying unit 212, a moving object detecting unit 213A, a tracking target specifying unit 214A, and a position specifying unit 215.

通信部230は、ネットワーク50を介して表示制御装置10Aおよびカメラ制御装置40との間で各種情報を送受信するための通信インタフェースである。例えば、通信部230は、固定カメラ21−1〜21−4によって撮像された広域カメラ映像を、ネットワーク50を介して表示制御装置10Aに送信することが可能である。   The communication unit 230 is a communication interface for transmitting and receiving various types of information between the display control device 10 </ b> A and the camera control device 40 via the network 50. For example, the communication unit 230 can transmit wide-area camera images captured by the fixed cameras 21-1 to 21-4 to the display control apparatus 10 </ b> A via the network 50.

記憶部240は、制御部210Aを動作させるためのプログラムやデータを記憶することができる。また、記憶部240は、制御部210Aの動作の過程で必要となる各種データを一時的に記憶することもできる。本発明の第1の実施形態では、記憶部240は、広域カメラ映像を記憶することができる。   The storage unit 240 can store a program and data for operating the control unit 210A. In addition, the storage unit 240 can temporarily store various data necessary in the course of the operation of the control unit 210A. In the first embodiment of the present invention, the storage unit 240 can store a wide-area camera image.

以上、本発明の第1の実施形態に係る映像解析装置22Aの機能構成例について説明した。   The function configuration example of the video analysis device 22A according to the first embodiment of the present invention has been described above.

(1−4.背景)
続いて、本発明の第1の実施形態の背景について説明する。まず、表示制御装置10Aの表示制御部112は、初期の表示画面を表示部150に表示させる。図4は、初期の表示画面の構成例を示す図である。図4に示したように、初期の表示画面Gは、第1のボタン群B1、第2のボタン群B2、第1の表示領域W1〜W4、第2の表示領域W0、移動ボタンB3、ズームボタンB4などを含んでいる。第1の表示領域W1〜W4には、映像取得部111によって通信部130を介して取得された広域カメラ映像が、表示部150によって表示される。
(1-4. Background)
Next, the background of the first embodiment of the present invention will be described. First, the display control unit 112 of the display control apparatus 10A causes the display unit 150 to display an initial display screen. FIG. 4 is a diagram illustrating a configuration example of an initial display screen. As shown in FIG. 4, the initial display screen G includes the first button group B1, the second button group B2, the first display areas W1 to W4, the second display area W0, the movement button B3, the zoom. Button B4 etc. are included. Wide area camera images acquired by the image acquisition unit 111 via the communication unit 130 are displayed by the display unit 150 in the first display areas W1 to W4.

第1の表示領域W1〜W4に表示された広域カメラ映像から、監視者Kの操作に基づいて選択部113によってフレーム選択およびそのフレームに対する領域選択が行われると、通知部115によって、通信部130およびネットワーク50を介して選択領域がカメラ制御装置40に通知される。ここで、領域選択が行われた時刻を選択時刻Tmとする。   When the selection unit 113 selects a frame from the wide-area camera video displayed in the first display areas W1 to W4 and selects an area for the frame based on the operation of the supervisor K, the notification unit 115 causes the communication unit 130 to perform the selection. The selected area is notified to the camera control device 40 via the network 50. Here, the time when the area selection is performed is set as a selection time Tm.

図5は、選択時刻Tmにおける表示画面の構成例を示す図である。図5に示したように、動体M1の映る領域が選択領域Rmとして選択された場合を想定して説明する。そして、カメラ制御装置40が、選択領域Rmに応じた撮像範囲を撮像するように可動カメラ30を制御すると、可動カメラ30が、選択領域Rmに応じた撮像範囲を撮像し、ネットワーク50を介して可動カメラ映像を表示制御装置10Aに送信する。   FIG. 5 is a diagram illustrating a configuration example of the display screen at the selection time Tm. As shown in FIG. 5, description will be made on the assumption that the area in which the moving object M1 appears is selected as the selection area Rm. Then, when the camera control device 40 controls the movable camera 30 so as to capture an imaging range corresponding to the selection region Rm, the movable camera 30 captures an imaging range corresponding to the selection region Rm and via the network 50. The movable camera image is transmitted to the display control apparatus 10A.

ここで、第1の表示領域W1〜W4に表示された広域カメラ映像における選択領域Rmから可動カメラ30の撮像範囲を特定する手法の例を説明する。図6は、広域カメラ映像における選択領域の位置と可動カメラの撮像方向(パン・チルト)との対応関係の例を説明するための図である。例えば、図6に示したように、選択領域の位置(x,y)と可動カメラ30の撮像方向(パン・チルト)とがあらかじめ対応付けられている。選択領域の位置(x,y)と可動カメラ30の撮像方向(パン・チルト)とが対応付けられた情報は、例えば、カメラ制御装置40によって記憶されている。   Here, an example of a technique for specifying the imaging range of the movable camera 30 from the selection area Rm in the wide-area camera image displayed in the first display areas W1 to W4 will be described. FIG. 6 is a diagram for explaining an example of the correspondence relationship between the position of the selected area in the wide-area camera image and the imaging direction (pan / tilt) of the movable camera. For example, as shown in FIG. 6, the position (x, y) of the selected area and the imaging direction (pan / tilt) of the movable camera 30 are associated in advance. Information in which the position (x, y) of the selected region and the imaging direction (pan / tilt) of the movable camera 30 are associated with each other is stored by the camera control device 40, for example.

また、図7は、広域カメラ映像における選択領域のサイズと可動カメラの撮像サイズ(ズーム)との対応関係の例を説明するための図である。例えば、図7に示すように、選択領域のサイズ(r)と可動カメラ30の撮像サイズ(ズーム)とが対応付けられている。選択領域のサイズ(r)と可動カメラ30の撮像サイズ(ズーム)とが対応付けられた情報は、例えば、カメラ制御装置40によって記憶されている。   FIG. 7 is a diagram for explaining an example of the correspondence relationship between the size of the selected area in the wide-area camera image and the imaging size (zoom) of the movable camera. For example, as shown in FIG. 7, the size (r) of the selected area and the imaging size (zoom) of the movable camera 30 are associated with each other. Information in which the size (r) of the selected region and the imaging size (zoom) of the movable camera 30 are associated with each other is stored by the camera control device 40, for example.

なお、本明細書では、選択領域が縦横比一定の矩形領域であるとし、選択領域のサイズを、矩形領域の縦の長さによって規定することにする。しかし、選択領域のサイズはどのように規定されてもよい。例えば、選択領域のサイズは、矩形領域の横の長さによって規定されてもよいし、他の部分の長さ(例えば、矩形領域の縦の長さの半分、矩形領域の横の長さの半分など)によって規定されてもよい。   In this specification, it is assumed that the selected area is a rectangular area having a constant aspect ratio, and the size of the selected area is defined by the vertical length of the rectangular area. However, the size of the selection area may be defined in any way. For example, the size of the selected area may be defined by the horizontal length of the rectangular area, or the length of the other part (for example, half of the vertical length of the rectangular area, the horizontal length of the rectangular area) Half) etc.

図5に戻って説明を続ける。監視対象領域が固定カメラ21−1〜21−4によって撮像されて広域カメラ映像が得られると、広域カメラ映像が第1の表示領域W1〜W4に表示される。監視者Kによって広域カメラ映像から選択領域Rmが選択されたとすると、表示制御装置10Aから、選択領域Rmの広域カメラ映像における位置(xm,ym)および選択領域Rmのサイズrmがカメラ制御装置40に通知される。   Returning to FIG. When the monitoring target area is captured by the fixed cameras 21-1 to 21-4 and a wide area camera image is obtained, the wide area camera image is displayed in the first display areas W1 to W4. If the selection area Rm is selected from the wide area camera image by the monitor K, the position (xm, ym) of the selection area Rm in the wide area camera image and the size rm of the selection area Rm are sent to the camera control apparatus 40 from the display control device 10A. Be notified.

続いて、カメラ制御装置40は、選択領域Rmの広域カメラ映像における位置(xm,ym)に対応する撮像方向(パン・チルト)として(pm,tm)を取得し(図6参照)、サイズrmに対応する撮像サイズ(ズーム)としてzmを取得し(図7参照)、取得した撮像方向および撮像サイズによって規定される撮像範囲を撮像するように、可動カメラ30を制御する。可動カメラ30によって撮像された可動カメラ映像は、ネットワーク50を介して表示制御装置10Aに提供される。   Subsequently, the camera control device 40 acquires (pm, tm) as the imaging direction (pan / tilt) corresponding to the position (xm, ym) in the wide-area camera image of the selection region Rm (see FIG. 6), and the size rm Zm is acquired as an imaging size (zoom) corresponding to (see FIG. 7), and the movable camera 30 is controlled so as to image an imaging range defined by the acquired imaging direction and imaging size. The movable camera image captured by the movable camera 30 is provided to the display control apparatus 10A via the network 50.

表示制御装置10Aの表示制御部112は、映像取得部111によって取得された可動カメラ映像を第2の表示領域W0に表示させる。このようにして、監視対象領域の広域カメラ映像を第1の表示領域W1〜W4に表示させるとともに、広域カメラ映像における選択領域Rmに応じた撮像範囲の可動カメラ映像を第2の表示領域W0に表示させることによって、監視者Kに対して、広域カメラ映像と広域カメラ映像における選択領域に応じた撮像範囲の可動カメラ映像とを監視させることができる。   The display control unit 112 of the display control apparatus 10A displays the movable camera video acquired by the video acquisition unit 111 in the second display area W0. In this way, the wide-area camera video of the monitoring target area is displayed on the first display areas W1 to W4, and the movable camera video of the imaging range corresponding to the selection area Rm in the wide-area camera video is displayed on the second display area W0. By displaying it, the supervisor K can monitor the wide-area camera video and the movable camera video in the imaging range corresponding to the selected area in the wide-area camera video.

なお、第1のボタン群B1および第2のボタン群の各ボタンが押下されたときに実行される処理は特に限定されないが、例えば、所定のボタンが押下された場合には、広域カメラ映像および可動カメラ映像を表示制御装置10Aに提供する遠隔地の切り替えが行われるようにしてもよい。かかる場合には、初期の表示画面Gの第1の表示領域W1〜W4に表示される広域カメラ映像も変更される。   The processing executed when each button of the first button group B1 and the second button group is pressed is not particularly limited. For example, when a predetermined button is pressed, The remote location for providing the movable camera image to the display control apparatus 10A may be switched. In such a case, the wide-area camera image displayed in the first display areas W1 to W4 of the initial display screen G is also changed.

また、表示制御部112は、移動ボタンB3が押下された場合には、第1の表示領域W1〜W4に表示されている広域カメラ映像における選択領域の位置を移動させることができる。選択領域が移動された後は、移動後の選択領域に応じた撮像範囲の可動カメラ映像が第2の表示領域W0に表示されてよい。   In addition, when the move button B3 is pressed, the display control unit 112 can move the position of the selection area in the wide-area camera image displayed in the first display areas W1 to W4. After the selection area is moved, the movable camera image in the imaging range corresponding to the selection area after movement may be displayed in the second display area W0.

一方、表示制御部112は、ズームボタンB4が押下された場合には、広域カメラ映像における選択領域を拡大または縮小させることができる。選択領域が拡大または縮小された後は、拡大または縮小後の選択領域に応じた撮像範囲の可動カメラ映像が第2の表示領域W0に表示されてよい。   On the other hand, when the zoom button B4 is pressed, the display control unit 112 can enlarge or reduce the selected area in the wide area camera image. After the selection area is enlarged or reduced, the movable camera image in the imaging range corresponding to the enlarged or reduced selection area may be displayed in the second display area W0.

ここで、広域カメラ映像において領域選択がなされてから、選択領域Rmに応じた撮像範囲が可動カメラ30によって撮像されるまでには、タイムラグが生じ得る。具体的には、広域カメラ映像が固定カメラ21−1〜21−4によって送信されてから表示制御装置10Aに到達するまでの時間、広域カメラ映像が表示制御装置10Aに到達してから表示されるまでの時間、広域カメラ映像における選択領域Rmの通知が表示制御装置10Aによってなされてからカメラ制御装置40によって受け取られるまでの時間、選択領域Rmに応じた撮像方向を撮像するように可動カメラ30を制御するために要する時間などがタイムラグとなり得る。   Here, there may be a time lag between the area selection in the wide-area camera image and the imaging range corresponding to the selection area Rm being imaged by the movable camera 30. Specifically, the time from when the wide-area camera image is transmitted by the fixed cameras 21-1 to 21-4 until reaching the display control device 10 </ b> A is displayed after the wide-area camera image reaches the display control device 10 </ b> A. Until the notification of the selected area Rm in the wide-area camera image is made by the display control apparatus 10A until it is received by the camera control apparatus 40, the movable camera 30 is imaged so as to capture the imaging direction corresponding to the selected area Rm. The time required for control can be a time lag.

そのため、可動カメラ30が選択領域Rmに応じた撮像範囲を撮像したときには、選択領域Rmには既に動体M1が存在しない可能性が高まるため、図5に示したように、第2の表示領域W0に表示される可動カメラ映像には、動体M1が存在しない可能性が高まり、動体追尾の精度が低下する可能性がある。そこで、本明細書においては、広域カメラ映像に基づいて動体M1を可動カメラ30でより高精度に追尾することが可能な技術を提案する。   Therefore, when the movable camera 30 captures an imaging range corresponding to the selection area Rm, the possibility that the moving body M1 does not already exist in the selection area Rm increases. Therefore, as shown in FIG. 5, the second display area W0 In the movable camera image displayed on the screen, the possibility that the moving object M1 does not exist increases, and the accuracy of moving object tracking may decrease. Therefore, in the present specification, a technique is proposed in which the moving body M1 can be tracked with higher accuracy by the movable camera 30 based on the wide-area camera image.

以上、本発明の第1の実施形態の背景について説明した。   The background of the first embodiment of the present invention has been described above.

(1−5.監視システムの機能詳細)
続いて、本発明の第1の実施形態に係る監視システム1Aの機能詳細について説明する。本発明の第1の実施形態に係る監視システム1Aにおいて、映像解析装置22Aの動体軌跡検出部211は、追跡処理により動体軌跡を検出する。より具体的には、動体軌跡検出部211は、過去の広域カメラ映像を参照しながら、連続するフレーム間において同一の動体であると予測される動体同士を対応付ける処理によって動体の軌跡を検出してよい。ここで、動体を検出する手法は特に限定されない。
(1-5. Detailed functions of monitoring system)
Subsequently, functional details of the monitoring system 1A according to the first embodiment of the present invention will be described. In the monitoring system 1A according to the first embodiment of the present invention, the moving object locus detection unit 211 of the video analysis device 22A detects the moving object locus by tracking processing. More specifically, the moving object trajectory detection unit 211 detects the trajectory of the moving object by a process of associating moving objects that are predicted to be the same moving object between consecutive frames while referring to past wide-area camera images. Good. Here, the method for detecting the moving object is not particularly limited.

例えば、過去の広域カメラ映像のうち変化が生じた領域が動体として検出されてもよい。あるいは、動体は、背景差分技術を用いて検出されてもよいし、フレーム間差分技術を用いて検出されてもよいし、オプティカルフローに基づいて検出されてもよい。あるいは、広域カメラ映像に映る可能性のある物体(例えば、航空機、車、人など)の画像特徴量をあらかじめ学習しておき、広域カメラ映像からその画像特徴量が検出された場合に、物体が検出された領域を動体として検出してもよい。   For example, an area where a change has occurred in past wide-area camera images may be detected as a moving object. Alternatively, the moving object may be detected using a background difference technique, may be detected using an inter-frame difference technique, or may be detected based on an optical flow. Alternatively, when an image feature amount of an object (for example, an aircraft, a car, a person, etc.) that may appear in the wide-area camera image is learned in advance, and the image feature amount is detected from the wide-area camera image, the object is You may detect the detected area | region as a moving body.

連続フレーム間において同一の動体であると予測してよい状況は限定されないが、例えば、上記のようにして検出された動体の位置同士の距離が所定の範囲に収まるときには、連続フレーム間において同一の物体であると予測されてよい。所定の範囲は、あらかじめ設定されていてよく、動体の特性ごとに異なっていてもよい。このようにして、動体軌跡検出部211によって検出された動体軌跡を記憶部240に記憶させておくことが可能である。続いて、監視者Kが第1の表示領域W1〜W4に表示された広域カメラ映像から追尾対象として特定させたい動体を見つけた場合、その動体の動きに沿って操作体の軌跡を入力する。   The situation that may be predicted to be the same moving object between consecutive frames is not limited, but for example, when the distance between the positions of moving objects detected as described above falls within a predetermined range, It may be predicted to be an object. The predetermined range may be set in advance and may be different for each characteristic of the moving object. In this way, the moving object locus detected by the moving object locus detection unit 211 can be stored in the storage unit 240. Subsequently, when the monitoring person K finds a moving object to be specified as a tracking target from the wide-area camera image displayed in the first display areas W1 to W4, the trajectory of the operating object is input along the movement of the moving object.

図8は、広域カメラ映像における操作体軌跡の入力について説明するための図である。図8に示すように、監視者Kが第1の表示領域W1〜W4に表示された広域カメラ映像から追尾対象として特定させたい動体M1を見つけた場合を想定する。かかる場合、監視者Kは、動体M1の軌跡に沿って操作体軌跡(図8に示した例では、監視者Kの指の軌跡)Trを入力部120に入力すると、操作体軌跡検出部114によって操作体軌跡Trが検出される。入力部120のハードウェア構成は特に限定されない。   FIG. 8 is a diagram for explaining the input of the operation tool locus in the wide-area camera image. As shown in FIG. 8, a case is assumed where the supervisor K finds a moving object M1 to be specified as a tracking target from the wide-area camera video displayed in the first display areas W1 to W4. In this case, when the monitoring person K inputs the operating object locus (trajectory of the monitoring person K's finger in the example shown in FIG. 8) Tr along the locus of the moving object M1 to the input unit 120, the operating object locus detection unit 114. By this, the operating body locus Tr is detected. The hardware configuration of the input unit 120 is not particularly limited.

例えば、入力部120が表示部150に重畳されたタッチパネルである場合には、操作体軌跡検出部114は、タッチパネルに対して操作体が接触しながら移動した軌跡を操作体軌跡として検出する。しかし、入力部120はタッチパネルに限定されない。例えば、入力部120はカメラであってもよい。入力部120はカメラである場合には、カメラによって撮像された画像から検出された監視者Kの身体の一部または全部(例えば、監視者Kの手や指など)が操作体となり、操作体軌跡検出部114は、操作体が移動した軌跡を操作体軌跡として検出する。   For example, when the input unit 120 is a touch panel superimposed on the display unit 150, the operation tool locus detection unit 114 detects a locus that the operator moves while contacting the touch panel as an operation tool track. However, the input unit 120 is not limited to a touch panel. For example, the input unit 120 may be a camera. When the input unit 120 is a camera, a part or all of the body of the supervisor K detected from the image captured by the camera (for example, the hand or finger of the supervisor K) serves as the manipulation body. The trajectory detection unit 114 detects a trajectory that the operating body has moved as an operating body trajectory.

表示制御装置10Aにおいて、通知部115は、このようにして検出された操作体軌跡を、通信部130を介して映像解析装置22Aに通知する。ここで、監視者Kが動体M1に沿って操作体軌跡を入力させた場合には、動体M1の軌跡と操作体軌跡とが一致または類似すると考えられる。そこで、映像解析装置22Aにおいては、通信部230によって操作体軌跡が受信されると、追尾対象特定部214Aは、記憶部240によって記憶されている動体軌跡と通信部230によって受信された操作体軌跡とが一致または類似するか否かを判定する。   In the display control apparatus 10 </ b> A, the notification unit 115 notifies the video analysis device 22 </ b> A of the operating object locus detected in this way via the communication unit 130. Here, when the monitoring person K inputs the operating body locus along the moving body M1, it is considered that the locus of the moving body M1 and the operating body locus match or are similar. Therefore, in the video analysis device 22A, when the operating body locus is received by the communication unit 230, the tracking target specifying unit 214A causes the moving body locus stored in the storage unit 240 and the operating body locus received by the communication unit 230. Are matched or similar.

追尾対象特定部214Aは、記憶部240によって記憶されている動体軌跡と通信部230によって受信された操作体軌跡とが一致または類似する場合、当該動体を追尾対象として特定する。動体軌跡と操作体軌跡との類似範囲はあらかじめ定められていてよい。なお、動体軌跡と操作体軌跡とが一致または類似しているか否かの判定手法は特に限定されないが、一例として、文献(矢島史、中西吉洋、田中克己「動きの直接指定と時間関連指定に基づく移動体映像検索」,情報処理学会研究報告. データベース・システム研究会報告 2001(71), 169-176,
2001-07-19)によって開示されている時系列マッチングが利用され得る。
When the moving object trajectory stored in the storage unit 240 and the operating object trajectory received by the communication unit 230 match or are similar, the tracking target specifying unit 214A specifies the moving object as a tracking target. A similar range between the moving object locus and the operating object locus may be determined in advance. The method for determining whether or not the moving object trajectory and the operating object trajectory are identical or similar is not particularly limited. However, as an example, the literature (Fumi Yajima, Yoshihiro Nakanishi, Katsumi Tanaka Mobile Video Retrieval Based on Information Processing, IPSJ SIG Reports 2001 (71), 169-176,
The time series matching disclosed by 2001-07-19) can be used.

追尾対象を特定するための条件としては、記憶部240によって記憶されている動体軌跡と通信部230によって受信された操作体軌跡とが一致または類似するという条件だけではなく、他の条件が追加されてもよい。例えば、第1の表示領域W1〜W4に表示された広域カメラ映像から監視者Kによって選択されたフレームおよび監視者Kによって選択された領域がさらに考慮されてもよい。そうすれば、動体の追尾精度がさらに向上することが期待される。   As a condition for specifying the tracking target, not only a condition that the moving object trajectory stored in the storage unit 240 and the operating object trajectory received by the communication unit 230 match or are similar, but other conditions are added. May be. For example, the frame selected by the supervisor K from the wide-area camera image displayed in the first display areas W1 to W4 and the area selected by the supervisor K may be further considered. Then, it is expected that the tracking accuracy of the moving object is further improved.

例えば、第1の表示領域W1〜W4に表示された広域カメラ映像から、監視者Kの操作に基づいて選択部113によってフレーム選択およびそのフレーム(以下、「選択フレーム」とも言う。)に対する領域選択が行われると、選択領域が通知部115によって通信部130およびネットワーク50を介して映像解析装置22Aに通知されてよい。図8に示したように、選択領域Rmは、操作体軌跡の開始位置が属する領域であってもよいし、操作体軌跡とは別に選択されてもよい。フレーム特定部212は、ネットワーク50を介して選択領域が通知された場合、蓄積されている過去の広域カメラ映像から選択フレームを特定することが可能である。   For example, from the wide-area camera video displayed in the first display areas W1 to W4, the selection unit 113 selects a frame based on the operation of the supervisor K and selects the area for the frame (hereinafter also referred to as “selected frame”). When the notification is performed, the selection area may be notified to the video analysis device 22A via the communication unit 130 and the network 50 by the notification unit 115. As shown in FIG. 8, the selection region Rm may be a region to which the start position of the operating object locus belongs, or may be selected separately from the operating object locus. When the selected area is notified via the network 50, the frame specifying unit 212 can specify the selected frame from the accumulated past wide-area camera video.

図9は、選択フレームを特定する例を説明するための図である。図9を参照すると、監視対象領域N1〜N4が示されている。また、記憶部240に蓄積されている過去の各時刻における広域カメラ映像が過去の蓄積映像として示されている。選択時刻Tmにおいては、動体M1が位置P(Tm)に存在しているが、実際に可動カメラ30の撮像範囲が切り替えられる時刻(以下、「切り替え時刻」とも言う。)Tにおいては、動体M1が既に位置P(T)に移動してしまっている。   FIG. 9 is a diagram for explaining an example of specifying a selection frame. Referring to FIG. 9, monitoring target areas N1 to N4 are shown. In addition, the wide-area camera video at each past time stored in the storage unit 240 is shown as a past stored video. At the selection time Tm, the moving body M1 exists at the position P (Tm), but at the time T when the imaging range of the movable camera 30 is actually switched (hereinafter also referred to as “switching time”) T, the moving body M1. Has already moved to position P (T).

そこで、映像解析装置22Aのフレーム特定部212は、ネットワーク50を介して表示制御装置10Aから選択領域Rmが通知された場合、蓄積されている過去の広域カメラ映像から、選択フレーム(図9に示した例では、蓄積映像のうち選択時刻Tmに撮像されたフレーム)を特定する。   Therefore, when the selection area Rm is notified from the display control apparatus 10A via the network 50, the frame specifying unit 212 of the video analysis apparatus 22A selects the selected frame (shown in FIG. 9) from the accumulated wide area camera video. In this example, the frame captured at the selected time Tm) is specified from the stored video.

ここで、選択フレームの特定手法は限定されない。例えば、広域カメラ映像の各フレームには、フレームが撮像された時刻(以下、「フレーム撮像時刻」とも言う。)が付与される場合がある。かかる場合には、表示制御装置10Aの通知部115から選択フレームに付与されていたフレーム撮像時刻も映像解析装置22Aに通知されるようにすればよい。そうすれば、フレーム特定部212は、過去の広域カメラ映像を参照して、通知されたフレーム撮像時刻と一致するフレーム撮像時刻が付与されているフレームを選択フレームとして特定すればよい。   Here, the method for specifying the selected frame is not limited. For example, each frame of the wide-area camera video may be given a time when the frame was captured (hereinafter also referred to as “frame capture time”). In such a case, the frame analysis time given to the selected frame from the notification unit 115 of the display control apparatus 10A may be notified to the video analysis apparatus 22A. Then, the frame identification unit 212 may identify a frame to which a frame imaging time that matches the notified frame imaging time is given as a selected frame with reference to the past wide-area camera video.

あるいは、表示制御装置10Aにおいて選択フレームに対する領域選択がなされてから、映像解析装置22Aにおいて選択領域Rmの通知を受けるまでに要する時間がほぼ一定である場合も想定される。かかる場合には、その時間(所定時間)をあらかじめ計測しておいてもよい。そうすれば、フレーム特定部212は、過去の広域カメラ映像から、選択領域Rmが通知された時刻より所定時間前のフレーム撮像時刻が付与されているフレームを選択フレームとして特定することも可能である。   Alternatively, it may be assumed that the time required from the display control device 10A to select the region for the selected frame to the notification of the selection region Rm in the video analysis device 22A is substantially constant. In such a case, the time (predetermined time) may be measured in advance. Then, the frame specifying unit 212 can also specify, as a selected frame, a frame to which a frame imaging time that is a predetermined time before the time when the selection region Rm is notified is given from the past wide-area camera video. .

続いて、動体検出部213Aは、選択フレームにおける選択領域Rmから動体M1を検出する。例えば、動体検出部213Aは、選択フレームにおける選択領域Rmを解析することによって、動体M1の位置およびサイズを検出してもよい。選択フレームにおける選択領域Rmから動体M1を検出する手法は特に限定されず、上記した手法により検出することが可能である。追尾対象特定部214Aは、操作体軌跡と動体軌跡とが一致または類似する場合、かつ、動体軌跡の選択フレームにおける位置と選択フレームにおける選択領域Rmから検出された動体の位置とが一致する場合、当該動体を追尾対象として特定すればよい。   Subsequently, the moving object detection unit 213A detects the moving object M1 from the selection region Rm in the selection frame. For example, the moving object detection unit 213A may detect the position and size of the moving object M1 by analyzing the selection region Rm in the selection frame. The method for detecting the moving object M1 from the selection region Rm in the selection frame is not particularly limited, and can be detected by the method described above. The tracking target specifying unit 214A, when the operating body locus and the moving body locus are the same or similar, and when the position of the moving body locus in the selection frame and the position of the moving body detected from the selection region Rm in the selection frame are the same, What is necessary is just to identify the said moving body as a tracking object.

図10は、特定された追尾対象の例を説明するための図である。図10には、追尾対象特定部214Aが、選択時刻Tmから切り替え時刻Tまでの各時刻における広域カメラ映像の位置P(Tm)からP(T)までに映る動体を同一の動体M1であると予測し、1つの動体M1の軌跡を検出する例が示されている。かかる状況においては、追尾対象特定部214Aは、検出した軌跡の数が1つであるため、動体の数も1つであると推定し、動体M1を追尾対象として特定してよい。一方、動体の数が複数であると推定された場合については、複数の動体から1つの動体を追尾対象として選択すればよい。   FIG. 10 is a diagram for explaining an example of the identified tracking target. In FIG. 10, the tracking target specifying unit 214 </ b> A has the same moving object M <b> 1 as the moving object reflected from the position P (Tm) to P (T) of the wide-area camera image at each time from the selection time Tm to the switching time T. An example of predicting and detecting the trajectory of one moving body M1 is shown. In such a situation, the tracking target specifying unit 214A may specify the moving object M1 as a tracking target by estimating that the number of moving objects is one because the number of detected trajectories is one. On the other hand, when it is estimated that there are a plurality of moving objects, one moving object may be selected as a tracking target from the plurality of moving objects.

続いて、位置特定部215は、追尾対象の最新位置を特定する。追尾対象の最新位置の特定手法についても特に限定されない。例えば、位置特定部215は、過去の広域カメラ映像の複数フレームそれぞれに映る追尾対象M1の位置(例えば、P(T)およびP(T−1))から推定した追尾対象M1の現在位置を追尾対象の最新位置P(Tu)として特定してよい。   Subsequently, the position specifying unit 215 specifies the latest position of the tracking target. The method for identifying the latest position of the tracking target is not particularly limited. For example, the position specifying unit 215 tracks the current position of the tracking target M1 estimated from the position (for example, P (T) and P (T-1)) of the tracking target M1 reflected in each of a plurality of frames of the past wide-area camera video. You may specify as the newest position P (Tu) of object.

追尾対象M1の現在位置の推定手法も限定されないが、例えば、追尾対象M1の移動速度が一定であると仮定すれば、位置特定部215は、追尾対象M1の時間に対する位置が線形的に変化すると予測して、追尾対象M1の現在位置を推定することができる。図10には、位置特定部215が、追尾対象M1の時間に対する位置が線形的に変化すると予測して、追尾対象M1の現在位置を推定し、推定した追尾対象M1の現在位置を追尾対象の最新位置P(Tu)として特定する例が示されている。   The method for estimating the current position of the tracking target M1 is not limited. For example, assuming that the moving speed of the tracking target M1 is constant, the position specifying unit 215 linearly changes the position of the tracking target M1 with respect to time. The current position of the tracking target M1 can be estimated by prediction. In FIG. 10, the position specifying unit 215 predicts that the position of the tracking target M1 with respect to time changes linearly, estimates the current position of the tracking target M1, and uses the estimated current position of the tracking target M1 as the tracking target. An example of specifying as the latest position P (Tu) is shown.

続いて、位置特定部215は、特定した追尾対象M1の最新位置P(Tu)を、通信部230およびネットワーク50を介して、カメラ制御装置40に通知する。そして、カメラ制御装置40は、通知された追尾対象M1の最新位置P(Tu)に応じた撮像方向(パン・チルト)を可動カメラ30に撮像させればよい。図11は、追尾対象M1の最新位置P(Tu)に応じた撮像方向(パン・チルト)=(pu,tu)を撮像するように可動カメラ30が制御された状況を示した図である。   Subsequently, the position specifying unit 215 notifies the camera control device 40 of the latest position P (Tu) of the specified tracking target M1 via the communication unit 230 and the network 50. And the camera control apparatus 40 should just make the movable camera 30 image the imaging direction (pan / tilt) according to the latest position P (Tu) of the notified tracking target M1. FIG. 11 is a diagram illustrating a situation in which the movable camera 30 is controlled so as to capture an imaging direction (pan / tilt) = (pu, tu) corresponding to the latest position P (Tu) of the tracking target M1.

以上に説明した構成によれば、映像解析装置22Aにおいて、フレーム特定部212によって記憶部240に蓄積されている過去の広域カメラ映像から選択フレームが特定され、動体検出部213Aによって選択フレームにおける選択領域から動体が検出される。そして、追尾対象特定部214Aによって動体の追跡処理により追尾対象が特定され、位置特定部215によって追尾対象の最新位置が特定される。また、カメラ制御装置40によって、最新位置に応じた撮像方向が可動カメラ30によって撮像されるように制御される。したがって、動体を可動カメラ30でより高精度に追尾することが可能となる。   According to the configuration described above, in the video analysis device 22A, the selection frame is specified from the past wide-area camera video stored in the storage unit 240 by the frame specification unit 212, and the selection area in the selection frame is detected by the moving object detection unit 213A. A moving object is detected from Then, the tracking target specifying unit 214A specifies the tracking target by tracking the moving object, and the position specifying unit 215 specifies the latest position of the tracking target. Further, the camera control device 40 controls the imaging direction corresponding to the latest position so that the movable camera 30 captures an image. Therefore, the moving object can be tracked with higher accuracy by the movable camera 30.

続いて、可動カメラ30は、追尾対象M1の最新位置P(Tu)に応じた撮像方向(パン・チルト)=(pu,tu)を撮像すると、撮像した可動カメラ映像を、ネットワーク50を介して表示制御装置10Aに送信する。表示制御装置10Aにおいては、映像取得部111が、ネットワーク50および通信部130を介して可動カメラ映像を取得すると、表示制御部112が、可動カメラ映像を表示部150に表示させる。   Subsequently, when the movable camera 30 images the imaging direction (pan / tilt) = (pu, tu) corresponding to the latest position P (Tu) of the tracking target M1, the captured movable camera image is transmitted via the network 50. Transmit to the display control apparatus 10A. In the display control apparatus 10A, when the video acquisition unit 111 acquires the movable camera video via the network 50 and the communication unit 130, the display control unit 112 causes the display unit 150 to display the movable camera video.

図12は、追尾対象M1の最新位置P(Tu)に応じた撮像方向(パン・チルト)=(pu,tu)を撮像した可動カメラ映像の表示例を示す図である。図12に示すように、可動カメラ映像は、第2の表示領域W0に表示されてよい。なお、図12に示したように、広域カメラ映像における選択領域は、追尾対象M1の最新位置P(Tu)に応じた領域Ruによって更新されてよい。このとき、更新後の選択領域のサイズは、更新前と同じであってもよいし、追尾対象として特定された動体サイズに基づいて決められてもよい。   FIG. 12 is a diagram illustrating a display example of a movable camera image obtained by imaging the imaging direction (pan / tilt) = (pu, tu) according to the latest position P (Tu) of the tracking target M1. As shown in FIG. 12, the movable camera image may be displayed in the second display area W0. As shown in FIG. 12, the selected area in the wide-area camera image may be updated with an area Ru corresponding to the latest position P (Tu) of the tracking target M1. At this time, the size of the selected area after the update may be the same as that before the update, or may be determined based on the moving object size specified as the tracking target.

続いて、本発明の第1の実施形態に係る監視システム1Aの動作について説明する。図13は、本発明の第1の実施形態に係る監視システム1Aの動作の例を示すシーケンス図である。なお、図13に示したシーケンス図は、本発明の第1の実施形態に係る監視システム1Aの動作の流れの一例に過ぎない。したがって、かかる動作の流れは、図13に示したシーケンス図に限定されない。   Next, the operation of the monitoring system 1A according to the first embodiment of the present invention will be described. FIG. 13 is a sequence diagram showing an example of the operation of the monitoring system 1A according to the first embodiment of the present invention. Note that the sequence diagram shown in FIG. 13 is merely an example of the operation flow of the monitoring system 1A according to the first embodiment of the present invention. Therefore, the flow of this operation is not limited to the sequence diagram shown in FIG.

図13に示すように、映像解析装置22Aは、固定カメラ21−1〜21―4によって広域カメラ映像が撮像されると、撮像された広域カメラ映像を、ネットワーク50を介して表示制御装置10Aに送信する(ステップS101)。また、動体軌跡検出部211は、が広域カメラ映像から動体軌跡を検出し、記憶部240に記憶させておく(ステップS102)。表示制御装置10Aにおいては、通信部130が広域カメラ映像を受信し、映像取得部111が広域カメラ映像を取得し、表示制御部112が広域カメラ映像を第1の表示領域W1〜W4に表示させる(ステップS111)。   As shown in FIG. 13, when the wide-area camera video is captured by the fixed cameras 21-1 to 21-4, the video analysis device 22 </ b> A sends the captured wide-area camera video to the display control device 10 </ b> A via the network 50. Transmit (step S101). Further, the moving object locus detection unit 211 detects the moving object locus from the wide-area camera image and stores it in the storage unit 240 (step S102). In the display control apparatus 10A, the communication unit 130 receives the wide-area camera video, the video acquisition unit 111 acquires the wide-area camera video, and the display control unit 112 displays the wide-area camera video in the first display areas W1 to W4. (Step S111).

続いて、監視者Kによって広域カメラ映像において領域選択がなされると、選択部113は、フレームおよび領域を選択する(ステップS112)。また、監視者Kによって操作体軌跡が入力されると、操作体軌跡検出部114は、操作体軌跡を検出する(ステップS113)。続いて、通知部115は、通信部130を介して選択領域を映像解析装置22Aに通知する(ステップS114)。映像解析装置22Aにおいては、フレーム特定部212が表示制御装置10Aによって選択されたフレームを特定し(ステップS121)、動体検出部213Aが選択フレームにおける選択領域から動体を検出する(ステップS122)。   Subsequently, when an area is selected in the wide-area camera image by the supervisor K, the selection unit 113 selects a frame and an area (step S112). When the operating tool locus is input by the supervisor K, the operating tool track detection unit 114 detects the operating tool track (step S113). Subsequently, the notification unit 115 notifies the selected region to the video analysis device 22A via the communication unit 130 (step S114). In the video analysis device 22A, the frame specifying unit 212 specifies the frame selected by the display control device 10A (step S121), and the moving object detection unit 213A detects a moving object from the selected region in the selected frame (step S122).

続いて、追尾対象特定部214Aが、動体検出部213Aによる検出結果に基づいて、動体軌跡同士のマッチングにより追尾対象を特定すると(ステップS123)、位置特定部215が追尾対象の最新位置を特定し(ステップS124)、通信部230およびネットワーク50を介して最新位置をカメラ制御装置40に通知する(ステップS126)。カメラ制御装置40は、最新位置に応じた撮像方向を可動カメラ30に撮像させ(ステップS131)、撮像によって得られた可動カメラ映像を表示制御装置10Aに送信する(ステップS132)。   Subsequently, when the tracking target specifying unit 214A specifies the tracking target by matching moving object trajectories based on the detection result by the moving object detecting unit 213A (step S123), the position specifying unit 215 specifies the latest position of the tracking target. (Step S124), the camera controller 40 is notified of the latest position via the communication unit 230 and the network 50 (Step S126). The camera control device 40 causes the movable camera 30 to capture an imaging direction corresponding to the latest position (step S131), and transmits the movable camera image obtained by the imaging to the display control device 10A (step S132).

続いて、表示制御装置10Aにおいては、通信部130が可動カメラ映像を受信し、表示制御部112は、可動カメラ映像を第2の表示領域W0に表示させる(ステップS141)。以上、本発明の第1の実施形態に係る監視システム1Aの動作について説明した。   Subsequently, in the display control apparatus 10A, the communication unit 130 receives the movable camera image, and the display control unit 112 displays the movable camera image in the second display area W0 (step S141). The operation of the monitoring system 1A according to the first embodiment of the present invention has been described above.

(1−6.第1の実施形態の有効性)
本発明の第1の実施形態によれば、映像解析装置22Aにおいて、動体軌跡検出部211が、あらかじめ広域カメラ映像から動体軌跡を検出しておく。そして、追尾対象特定部214Aは、操作体軌跡と動体軌跡とが一致または類似する場合、当該動体を追尾対象として特定する。位置特定部215は、追尾対象の最新位置を特定する。カメラ制御装置40は、最新位置に応じた撮像方向を可動カメラ30に撮像させる。
(1-6. Effectiveness of the first embodiment)
According to the first embodiment of the present invention, in the video analysis device 22A, the moving object locus detection unit 211 detects a moving object locus from a wide-area camera image in advance. Then, the tracking target specifying unit 214A specifies the moving object as a tracking target when the operating object locus and the moving object locus match or are similar to each other. The position specifying unit 215 specifies the latest position of the tracking target. The camera control device 40 causes the movable camera 30 to capture an image capturing direction corresponding to the latest position.

かかる構成によれば、広域カメラ映像中に複数の動体が隣接して存在しているような場合であっても、追尾を希望する動体の動体軌跡を入力することで、追尾対象の動体の特定が行える。この結果、広域カメラ映像に基づいて、追尾対象の動体を可動カメラ30でより高精度に追尾することが可能となる。なお、上記においては、動体軌跡検出部211が、あらかじめ広域カメラ映像から動体軌跡を検出しておく例を説明したが、広域カメラ映像から動体軌跡を検出するタイミングはかかる例に限定されない。例えば、記憶部240に広域カメラ映像を記憶しておいてもよい。かかる場合、動体軌跡検出部211は、操作体軌跡が通知されたときに広域カメラ映像から動体軌跡を検出してもよい。   According to such a configuration, even when there are a plurality of moving objects adjacent to each other in the wide-area camera image, the moving object trajectory of the moving object that is desired to be tracked is input, thereby specifying the moving object to be tracked. Can be done. As a result, the moving object to be tracked can be tracked with higher accuracy by the movable camera 30 based on the wide-area camera image. In the above description, the moving object locus detecting unit 211 detects the moving object locus from the wide-area camera image in advance. However, the timing for detecting the moving object locus from the wide-area camera image is not limited to this example. For example, a wide area camera image may be stored in the storage unit 240. In such a case, the moving object locus detection unit 211 may detect the moving object locus from the wide-area camera image when the operating object locus is notified.

以上、本発明の第1の実施形態について説明した。   The first embodiment of the present invention has been described above.

(2.第2の実施形態)
続いて、本発明の第2の実施形態について説明する。上記の図1の説明図において、符号の後にアルファベットBを付した構成が第2の実施形態の監視システム1Bに対応している。以下において、本発明の第2の実施形態に係る構成のうち、本発明の第1の実施形態に係る構成と共通する構成に対しては、本発明の第1の実施形態に係る構成に付された符号と同一の符号を付し、かかる構成についての詳細な説明を省略する。
(2. Second Embodiment)
Subsequently, a second embodiment of the present invention will be described. In the explanatory diagram of FIG. 1 described above, the configuration with the alphabet B after the reference corresponds to the monitoring system 1B of the second embodiment. In the following, among the configurations according to the second embodiment of the present invention, the configurations common to the configurations according to the first embodiment of the present invention are assigned to the configurations according to the first embodiment of the present invention. The same reference numerals are assigned to the reference numerals, and detailed description of the configuration is omitted.

(2−1.表示制御装置の機能構成)
図14を参照しながら、本発明の第2の実施形態に係る表示制御装置10Bの機能構成例について説明する。図14は、本発明の第2の実施形態に係る表示制御装置10Bの機能構成例を示すブロック図である。図14に示したように、本発明の第2の実施形態に係る表示制御装置10Bは、制御部110Aの代わりに制御部110Bを備える点において、本発明の第1の実施形態に係る表示制御装置10Aと異なり、制御部110Bは、追加的に、動体検出部213Bおよび追尾対象特定部214Bを備える。また、通知部115の代わりに、追尾対象通知部116を備える。
(2-1. Functional configuration of display control device)
With reference to FIG. 14, a functional configuration example of the display control apparatus 10B according to the second embodiment of the present invention will be described. FIG. 14 is a block diagram illustrating a functional configuration example of a display control apparatus 10B according to the second embodiment of the present invention. As shown in FIG. 14, the display control apparatus 10B according to the second embodiment of the present invention includes a control unit 110B instead of the control unit 110A, and thus the display control according to the first embodiment of the present invention. Unlike apparatus 10A, control unit 110B additionally includes moving object detection unit 213B and tracking target specifying unit 214B. Further, a tracking target notification unit 116 is provided instead of the notification unit 115.

(2−2.映像解析装置の機能構成)
図15を参照しながら、本発明の第2の実施形態に係る映像解析装置22Bの機能構成例について説明する。図15は、本発明の第2の実施形態に係る映像解析装置22Bの機能構成例を示すブロック図である。図15に示したように、映像解析装置22Bは、制御部210Aの代わりに制御部210Bを備える点において、本発明の第1の実施形態と異なる。図15に示したように、制御部210Bは、動体検出部213および追尾対象特定部214を備えていない。
(2-2. Functional configuration of video analysis device)
With reference to FIG. 15, a functional configuration example of the video analysis apparatus 22B according to the second embodiment of the present invention will be described. FIG. 15 is a block diagram illustrating a functional configuration example of a video analysis device 22B according to the second embodiment of the present invention. As shown in FIG. 15, the video analysis device 22B is different from the first embodiment of the present invention in that it includes a control unit 210B instead of the control unit 210A. As illustrated in FIG. 15, the control unit 210B does not include the moving object detection unit 213 and the tracking target identification unit 214.

(2−3.監視システムの機能詳細)
本発明の第1の実施形態においては、映像解析装置22Bにおいて追尾対象を特定する例を説明した。しかし、表示制御装置10Bにおいて追尾対象を特定する場合もあり得る。そこで、本発明の第2の実施形態においては、表示制御装置10Bにおいて追尾対象を特定する例を説明する。具体的には、映像解析装置22Bにおいて、動体軌跡検出部211は、事前に広域カメラ映像から動体軌跡を検出し、検出した動体軌跡に当該動体の識別情報を付与する。記憶部240は、当該動体の識別情報が付与された動体軌跡を記憶しておく。また、通信部230は、動体軌跡および識別情報の組み合わせを、ネットワーク50を介して表示制御装置10Bに送信する。
(2-3. Detailed functions of monitoring system)
In the first embodiment of the present invention, the example in which the tracking target is specified in the video analysis device 22B has been described. However, the tracking target may be specified in the display control apparatus 10B. Therefore, in the second embodiment of the present invention, an example in which the display control device 10B specifies a tracking target will be described. Specifically, in the video analysis device 22B, the moving object locus detection unit 211 detects a moving object locus from a wide-area camera image in advance, and gives identification information of the moving object to the detected moving object locus. The storage unit 240 stores a moving object locus to which identification information of the moving object is assigned. Further, the communication unit 230 transmits the combination of the moving object trajectory and the identification information to the display control device 10B via the network 50.

一方、表示制御装置10Bにおいて、映像取得部111は、ネットワーク50を介して広域カメラ映像を取得し、表示制御部112は、広域カメラ映像を表示部150に表示させる。そして、操作体軌跡検出部114によって広域カメラ映像における操作体軌跡が検出され、通信部130によって動体軌跡および識別情報の組み合わせがネットワーク50を介して受信されると、追尾対象特定部214Bは、操作体軌跡と動体軌跡とが一致または類似するか否かを判定する。   On the other hand, in the display control apparatus 10B, the video acquisition unit 111 acquires a wide-area camera video via the network 50, and the display control unit 112 causes the display unit 150 to display the wide-area camera video. When the operating object locus in the wide-area camera image is detected by the operating object locus detection unit 114 and the combination of the moving object locus and the identification information is received by the communication unit 130 via the network 50, the tracking target specifying unit 214B It is determined whether or not the body locus and the moving body locus are the same or similar.

追尾対象特定部214Bは、操作体軌跡と動体軌跡とが一致または類似する場合、当該動体を追尾対象として特定する。そして、追尾対象通知部116は、追尾対象の識別情報を映像解析装置22Bに通知する。続いて、映像解析装置22Bにおいては、通信部230によって追尾対象の識別情報が受信されると、位置特定部215は、追尾対象の識別情報によって識別される追尾対象の最新位置を特定する。カメラ制御装置40は、最新位置に応じた撮像方向を可動カメラに撮像させる。   The tracking target specifying unit 214B specifies the moving object as a tracking target when the operating object track and the moving object track match or are similar to each other. Then, the tracking target notification unit 116 notifies the video analysis device 22B of the tracking target identification information. Subsequently, in the video analysis device 22B, when the identification information of the tracking target is received by the communication unit 230, the position specifying unit 215 specifies the latest position of the tracking target identified by the tracking target identification information. The camera control device 40 causes the movable camera to capture an image capturing direction corresponding to the latest position.

続いて、本発明の第2の実施形態に係る監視システムの動作の例について説明する。図16は、本発明の第2の実施形態に係る監視システムの動作の例を示すシーケンス図である。なお、図16に示したシーケンス図は、本発明の第2の実施形態に係る監視システムの動作の流れの一例に過ぎない。したがって、かかる動作の流れは、図16に示したシーケンス図に限定されない。   Then, the example of operation | movement of the monitoring system which concerns on the 2nd Embodiment of this invention is demonstrated. FIG. 16 is a sequence diagram illustrating an example of the operation of the monitoring system according to the second embodiment of the present invention. Note that the sequence diagram shown in FIG. 16 is merely an example of the operation flow of the monitoring system according to the second embodiment of the present invention. Therefore, the flow of such operations is not limited to the sequence diagram shown in FIG.

図16に示すように、映像解析装置22Bは、固定カメラ21−1〜21―4によって広域カメラ映像が撮像されると、撮像された広域カメラ映像を、ネットワーク50を介して表示制御装置10Bに送信する(ステップS101)。また、動体軌跡検出部211は、が広域カメラ映像から動体軌跡を検出して記憶部240に記憶させておき(ステップS102)、動体軌跡および当該動体の識別情報(ID)を、通信部230を介して表示制御装置10Bに通知する(ステップS103)。   As illustrated in FIG. 16, when the wide-area camera image is captured by the fixed cameras 21-1 to 21-4, the video analysis device 22 </ b> B transmits the captured wide-area camera image to the display control device 10 </ b> B via the network 50. Transmit (step S101). The moving object locus detection unit 211 detects the moving object locus from the wide-area camera image and stores it in the storage unit 240 (step S102), and sends the moving object locus and the identification information (ID) of the moving object to the communication unit 230. To the display control device 10B (step S103).

表示制御装置10Bにおいては、通信部130が広域カメラ映像を受信し、映像取得部111が広域カメラ映像を取得し、表示制御部112が広域カメラ映像を第1の表示領域W1〜W4に表示させる(ステップS111)。続いて、監視者Kによって広域カメラ映像において領域選択がなされると、選択部113は、フレームおよび領域を選択する(ステップS112)。また、監視者Kによって操作体軌跡が入力されると、操作体軌跡検出部114は、操作体軌跡を検出する(ステップS113)。   In the display control apparatus 10B, the communication unit 130 receives the wide-area camera video, the video acquisition unit 111 acquires the wide-area camera video, and the display control unit 112 displays the wide-area camera video in the first display areas W1 to W4. (Step S111). Subsequently, when an area is selected in the wide-area camera image by the supervisor K, the selection unit 113 selects a frame and an area (step S112). When the operating tool locus is input by the supervisor K, the operating tool track detection unit 114 detects the operating tool track (step S113).

続いて、動体検出部213Bは、選択フレームにおける選択領域から動体を検出する(ステップS122)。続いて、追尾対象特定部214Bが、動体検出部213Bによる検出結果に基づいて、動体軌跡同士のマッチングにより追尾対象を特定すると(ステップS123)、追尾対象通知部116は、追尾対象の識別情報(ID)を、通信部130を介して映像解析装置22Bに通知する(ステップS127)。   Subsequently, the moving object detection unit 213B detects a moving object from the selected region in the selected frame (step S122). Subsequently, when the tracking target specifying unit 214B specifies the tracking target by matching the moving object trajectories based on the detection result by the moving object detecting unit 213B (step S123), the tracking target notifying unit 116 identifies the tracking target identification information ( ID) is notified to the video analysis device 22B via the communication unit 130 (step S127).

映像解析装置22Bにおいては、位置特定部215が追尾対象の識別情報(ID)に基づいて、追尾対象の最新位置を特定し(ステップS124)、通信部230およびネットワーク50を介して最新位置をカメラ制御装置40に通知する(ステップS126)。カメラ制御装置40は、最新位置に応じた撮像方向を可動カメラ30に撮像させ(ステップS131)、撮像によって得られた可動カメラ映像を表示制御装置10Bに送信する(ステップS132)。   In the video analysis device 22B, the position specifying unit 215 specifies the latest position of the tracking target based on the identification information (ID) of the tracking target (step S124), and the camera determines the latest position via the communication unit 230 and the network 50. The control device 40 is notified (step S126). The camera control device 40 causes the movable camera 30 to capture an imaging direction corresponding to the latest position (step S131), and transmits the movable camera video obtained by the imaging to the display control device 10B (step S132).

続いて、表示制御装置10Bにおいては、通信部130が可動カメラ映像を受信し、表示制御部112は、可動カメラ映像を第2の表示領域W0に表示させる(ステップS141)。以上、本発明の第2の実施形態に係る監視システム1Bの動作について説明した。   Subsequently, in the display control device 10B, the communication unit 130 receives the movable camera image, and the display control unit 112 displays the movable camera image in the second display area W0 (step S141). The operation of the monitoring system 1B according to the second embodiment of the present invention has been described above.

(2−3.第2の実施形態の有効性)
本発明の第2の実施形態によれば、映像解析装置22Bにおいて、動体軌跡検出部211が、あらかじめ広域カメラ映像から動体軌跡を検出し、その動体の識別情報(ID)を表示制御装置10Bに通知する。そして、追尾対象特定部214Bは、操作体軌跡と動体軌跡とが一致または類似する場合、当該動体を追尾対象として特定し、追尾対象通知部116は、追尾対象の識別情報(ID)を映像解析装置22Bに通知する。
(2-3. Effectiveness of Second Embodiment)
According to the second embodiment of the present invention, in the video analysis device 22B, the moving object trajectory detection unit 211 detects the moving object trajectory from the wide-area camera image in advance, and identifies the moving object identification information (ID) to the display control device 10B. Notice. Then, the tracking target specifying unit 214B specifies the moving object as a tracking target when the operating object track and the moving object track match or are similar, and the tracking target notifying unit 116 analyzes the identification information (ID) of the tracking target through video analysis. Notify device 22B.

そうすると、映像解析装置22Bにおいて、位置特定部215は、追尾対象の識別情報(ID)によって識別される追尾対象の最新位置を特定する。カメラ制御装置40は、最新位置に応じた撮像方向を可動カメラ30に撮像させる。かかる構成によっても、広域カメラ映像中に複数の動体が隣接して存在しているような場合であっても、追尾を希望する動体の動体軌跡を入力することで、追尾対象の動体の特定が行える。この結果、広域カメラ映像に基づいて、追尾対象の動体を可動カメラ30でより高精度に追尾することが可能となる。   Then, in the video analysis device 22B, the position specifying unit 215 specifies the latest position of the tracking target identified by the tracking target identification information (ID). The camera control device 40 causes the movable camera 30 to capture an image capturing direction corresponding to the latest position. Even with such a configuration, even if a plurality of moving objects are present adjacent to each other in the wide-area camera image, the moving object locus to be tracked can be specified by inputting the moving object locus of the moving object desired to be tracked. Yes. As a result, the moving object to be tracked can be tracked with higher accuracy by the movable camera 30 based on the wide-area camera image.

以上、本発明の第2の実施形態について説明した。   The second embodiment of the present invention has been described above.

以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。   The preferred embodiments of the present invention have been described in detail above with reference to the accompanying drawings, but the present invention is not limited to such examples. It is obvious that a person having ordinary knowledge in the technical field to which the present invention pertains can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that these also belong to the technical scope of the present invention.

例えば、本発明の第1の実施形態においては、追尾対象M1の現在位置の推定手法として、位置特定部215が、追尾対象M1の時間に対する位置が線形的に変化すると予測して、追尾対象M1の現在位置を推定する例を説明した。しかし、追尾対象M1の現在位置の推定手法はかかる例に限定されない。例えば、位置特定部215は、記憶部240に蓄積されている過去の広域カメラ映像の中から最新のフレームを特定し、特定した最新のフレームに映る追尾対象M1の位置を追尾対象の最新位置として特定してもよい。   For example, in the first embodiment of the present invention, as a method for estimating the current position of the tracking target M1, the position specifying unit 215 predicts that the position of the tracking target M1 with respect to time changes linearly, and the tracking target M1 An example of estimating the current position of has been described. However, the method for estimating the current position of the tracking target M1 is not limited to such an example. For example, the position specifying unit 215 specifies the latest frame from the past wide-area camera images stored in the storage unit 240, and uses the position of the tracking target M1 reflected in the specified latest frame as the latest position of the tracking target. You may specify.

また、広域カメラ映像を得る手段は、固定カメラに限らず可動カメラ(以下、広域可動カメラ)を用いることもできる。この場合、広域可動カメラで撮影した広域カメラ映像と当該広域カメラ映像撮影時の広域可動カメラの撮影方向等の条件とを関連付けて蓄積しておくことで、フレーム特定部で特定したフレームの撮影方向等の情報も取得可能となり、これらの情報を利用することで、位置特定部で追尾対象の監視対象空間中の最新位置を特定することが可能となる。   The means for obtaining the wide-area camera image is not limited to a fixed camera, and a movable camera (hereinafter referred to as a wide-area movable camera) can also be used. In this case, the shooting direction of the frame specified by the frame specifying unit is stored by associating and storing the wide-area camera video shot by the wide-area movable camera and the conditions such as the shooting direction of the wide-area movable camera at the time of shooting the wide-area camera video. Such information can be acquired, and by using these pieces of information, the position specifying unit can specify the latest position in the monitoring target space to be tracked.

より具体的に説明すると、広域可動カメラの所定の撮影方向において、動体追尾用の可動カメラとの対応づけを行い、その結果を対応表として予め記録しておく。そして、広域可動カメラの撮影方向が変化した場合は、その撮影方向変化等に対応した幾何学変換を行うことで、先に記録した対応表も同様の幾何学変換を行う。このような処理を行う対応表を用いることで、広域可動カメラからの広域カメラ映像が動いている場合でも、位置特定部で動体追尾用の可動カメラを向けるべき追尾対象の最新位置を特定できる。   More specifically, it is associated with a movable camera for moving object tracking in a predetermined shooting direction of the wide area movable camera, and the result is recorded in advance as a correspondence table. When the shooting direction of the wide-area movable camera changes, geometric conversion corresponding to the change in shooting direction or the like is performed to perform the same geometric conversion on the previously recorded correspondence table. By using the correspondence table for performing such processing, even when the wide area camera image from the wide area movable camera is moving, the position specifying unit can specify the latest position of the tracking target to which the movable camera for moving body tracking should be directed.

1(1A、1B) 監視システム
10(10A、10B) 表示制御装置
20 監視装置
21 固定カメラ
22(22A、22B) 映像解析装置
30 可動カメラ
40 カメラ制御装置
50 ネットワーク
110(110A、110B) 制御部
111 映像取得部
112 表示制御部
113 選択部
114 操作体軌跡検出部
115 通知部
116 追尾対象通知部
120 入力部
130 通信部
140 記憶部
150 表示部
22(22A、22B) 映像解析装置
210(210A、210B) 制御部
211 動体軌跡検出部
212 フレーム特定部
213(213A、213B) 動体検出部
214(214A、214B) 追尾対象特定部
215 位置特定部
230 通信部
240 記憶部
G 表示画面
K 監視者
N1〜N4 監視対象領域
Rm 選択領域
Tr 操作体軌跡
M1 動体(追尾対象)
W1〜W4 第1の表示領域
W0 第2の表示領域
1 (1A, 1B) Monitoring system 10 (10A, 10B) Display control device 20 Monitoring device 21 Fixed camera 22 (22A, 22B) Video analysis device 30 Movable camera 40 Camera control device 50 Network 110 (110A, 110B) Control unit 111 Video acquisition unit 112 Display control unit 113 Selection unit 114 Operating object locus detection unit 115 Notification unit 116 Tracking target notification unit 120 Input unit 130 Communication unit 140 Storage unit 150 Display unit 22 (22A, 22B) Video analysis device 210 (210A, 210B) ) Control unit 211 Moving object trajectory detection unit 212 Frame specifying unit 213 (213A, 213B) Moving object detecting unit 214 (214A, 214B) Tracking target specifying unit 215 Position specifying unit 230 Communication unit 240 Storage unit G Display screen K Monitor N1 to N4 Monitoring area Rm selection Region Tr operating locus M1 body (tracking target)
W1 to W4 First display area W0 Second display area

Claims (13)

映像解析装置と表示制御装置とカメラ制御装置とを有する、監視システムにおいて、
前記映像解析装置は、
広域カメラ映像を記憶している記憶部を備え、
前記表示制御装置は、
ネットワークを介して前記広域カメラ映像を取得する映像取得部と、
前記広域カメラ映像を表示部に表示させる表示制御部と、
前記広域カメラ映像における操作体軌跡を検出する操作体軌跡検出部と、
前記操作体軌跡を前記映像解析装置に通知する通知部と、を備え、
前記映像解析装置は、
前記操作体軌跡が通知されると、前記記憶部によって記憶されている前記広域カメラ映像から動体軌跡を検出する動体軌跡検出部と、
前記操作体軌跡と前記動体軌跡とが一致または類似する場合、当該動体を追尾対象として特定する追尾対象特定部と、
前記追尾対象の最新位置を特定する位置特定部と、を備え、
前記カメラ制御装置は、
前記最新位置に応じた撮像方向を可動カメラに撮像させる、
監視システム。
In a surveillance system having a video analysis device, a display control device, and a camera control device,
The video analysis device
It has a storage unit that stores wide-area camera images,
The display control device includes:
A video acquisition unit for acquiring the wide-area camera video via a network;
A display control unit for displaying the wide-area camera image on a display unit;
An operation object locus detection unit for detecting an operation object locus in the wide-area camera image;
A notification unit that notifies the video analysis device of the operating object locus,
The video analysis device
When the operating object trajectory is notified, a moving object trajectory detecting unit that detects a moving object trajectory from the wide-area camera image stored in the storage unit;
A tracking target specifying unit for specifying the moving object as a tracking target when the operating object locus and the moving object locus are identical or similar;
A position specifying unit for specifying the latest position of the tracking target,
The camera control device includes:
Causing the movable camera to image the imaging direction according to the latest position;
Monitoring system.
前記映像取得部は、前記可動カメラによって撮像された可動カメラ映像を取得し、
前記表示制御部は、前記可動カメラ映像を表示させる、
請求項1に記載の監視システム。
The video acquisition unit acquires a movable camera image captured by the movable camera,
The display control unit displays the movable camera image;
The monitoring system according to claim 1.
前記操作体軌跡検出部は、前記表示部に重畳されたタッチパネルに対して操作体が接触しながら移動した軌跡を前記操作体軌跡として検出する、
請求項1に記載の監視システム。
The operating object locus detecting unit detects a locus moved while the operating object is in contact with the touch panel superimposed on the display unit, as the operating object locus.
The monitoring system according to claim 1.
前記表示制御装置は、
前記広域カメラ映像からフレームを選択フレームとして選択するとともに前記選択フレームにおける領域を選択領域として選択する選択部を備え、
前記映像解析装置は、
前記ネットワークを介して前記選択領域が通知された場合、蓄積されている過去の広域カメラ映像から前記選択フレームを特定するフレーム特定部と、
前記選択フレームにおける前記選択領域から動体を検出する動体検出部と、
を備え、
前記追尾対象特定部は、前記操作体軌跡と前記動体軌跡とが一致または類似する場合、かつ、前記動体軌跡の前記選択フレームにおける位置と前記選択フレームにおける前記選択領域から検出された動体の位置とが一致する場合、当該動体を追尾対象として特定する、
請求項1に記載の監視システム。
The display control device includes:
A selection unit for selecting a frame from the wide-area camera image as a selection frame and selecting an area in the selection frame as a selection area;
The video analysis device
When the selection area is notified via the network, a frame specifying unit for specifying the selection frame from the accumulated past wide-area camera video,
A moving object detection unit for detecting a moving object from the selection area in the selection frame;
With
The tracking target specifying unit, when the operating object trajectory and the moving object trajectory are identical or similar, and the position of the moving object trajectory in the selection frame and the position of the moving object detected from the selection area in the selection frame If the two match, the moving object is identified as the tracking target.
The monitoring system according to claim 1.
前記フレーム特定部は、前記選択フレームに付与されていたフレーム撮像時刻が通知されると、蓄積されている過去の広域カメラ映像から前記フレーム撮像時刻が付与されているフレームを前記選択フレームとして特定する、
請求項4に記載の監視システム。
When the frame imaging time given to the selected frame is notified, the frame specifying unit specifies a frame to which the frame imaging time is given from the accumulated past wide-area camera video as the selected frame. ,
The monitoring system according to claim 4.
前記フレーム特定部は、前記過去の広域カメラ映像から、前記選択領域が通知された時刻より所定時間前のフレーム撮像時刻が付与されているフレームを前記選択フレームとして特定する、
請求項4に記載の監視システム。
The frame specifying unit specifies, as the selection frame, a frame to which a frame imaging time is given a predetermined time before the time when the selection area is notified from the past wide-area camera video.
The monitoring system according to claim 4.
前記位置特定部は、前記過去の広域カメラ映像の複数フレームそれぞれに映る前記追尾対象の位置から推定した前記追尾対象の現在位置を前記追尾対象の最新位置として特定する、
請求項4に記載の監視システム。
The position specifying unit specifies the current position of the tracking target estimated from the position of the tracking target reflected in each of a plurality of frames of the past wide-area camera video as the latest position of the tracking target;
The monitoring system according to claim 4.
前記位置特定部は、前記過去の広域カメラ映像の最新のフレームに映る前記追尾対象の位置を前記追尾対象の最新位置として特定する、
請求項4に記載の監視システム。
The position specifying unit specifies the position of the tracking target reflected in the latest frame of the past wide-area camera video as the latest position of the tracking target;
The monitoring system according to claim 4.
映像解析装置と表示制御装置とカメラ制御装置とを有する、監視システムにおいて、
前記映像解析装置は、
広域カメラ映像から動体軌跡を検出する動体軌跡検出部を備え、
前記表示制御装置は、
ネットワークを介して前記広域カメラ映像を取得する映像取得部と、
前記広域カメラ映像を表示部に表示させる表示制御部と、
前記広域カメラ映像における操作体軌跡を検出する操作体軌跡検出部と、
前記操作体軌跡を通知する通知部と、を備え、
前記映像解析装置は、
前記操作体軌跡と前記動体軌跡とが一致または類似する場合、当該動体を追尾対象として特定する追尾対象特定部と、
前記追尾対象の最新位置を特定する位置特定部と、を備え、
前記カメラ制御装置は、
前記最新位置に応じた撮像方向を可動カメラに撮像させる、
監視システム。
In a surveillance system having a video analysis device, a display control device, and a camera control device,
The video analysis device
A moving object trajectory detection unit for detecting a moving object trajectory from a wide-area camera image is provided.
The display control device includes:
A video acquisition unit for acquiring the wide-area camera video via a network;
A display control unit for displaying the wide-area camera image on a display unit;
An operation object locus detection unit for detecting an operation object locus in the wide-area camera image;
A notification unit for notifying the operating object locus,
The video analysis device
A tracking target specifying unit for specifying the moving object as a tracking target when the operating object locus and the moving object locus are identical or similar;
A position specifying unit for specifying the latest position of the tracking target,
The camera control device includes:
Causing the movable camera to image the imaging direction according to the latest position;
Monitoring system.
映像解析装置と表示制御装置とカメラ制御装置とを有する、監視システムにおいて、
前記映像解析装置は、
広域カメラ映像から動体軌跡を検出する動体軌跡検出部と、
当該動体の識別情報が付与された前記動体軌跡を記憶する記憶部と、を備え、
前記表示制御装置は、
ネットワークを介して前記広域カメラ映像を取得する映像取得部と、
前記広域カメラ映像を表示部に表示させる表示制御部と、
前記広域カメラ映像における操作体軌跡を検出する操作体軌跡検出部と、
前記操作体軌跡と前記動体軌跡とが一致または類似する場合、当該動体を追尾対象として特定する追尾対象特定部と、
前記追尾対象の識別情報を前記映像解析装置に通知する追尾対象通知部と、を備え、
前記映像解析装置は、
前記追尾対象の識別情報によって識別される前記追尾対象の最新位置を特定する位置特定部を備え、
前記カメラ制御装置は、
前記最新位置に応じた撮像方向を可動カメラに撮像させる、
監視システム。
In a surveillance system having a video analysis device, a display control device, and a camera control device,
The video analysis device
A moving object trajectory detection unit for detecting a moving object trajectory from a wide-area camera image;
A storage unit that stores the moving object trajectory to which identification information of the moving object is attached,
The display control device includes:
A video acquisition unit for acquiring the wide-area camera video via a network;
A display control unit for displaying the wide-area camera image on a display unit;
An operation object locus detection unit for detecting an operation object locus in the wide-area camera image;
A tracking target specifying unit for specifying the moving object as a tracking target when the operating object locus and the moving object locus are identical or similar;
A tracking target notification unit for notifying the video analysis device of identification information of the tracking target,
The video analysis device
A position specifying unit for specifying the latest position of the tracking target identified by the identification information of the tracking target;
The camera control device includes:
Causing the movable camera to image the imaging direction according to the latest position;
Monitoring system.
ネットワークを介して送信された広域カメラ映像における操作体軌跡と前記広域カメラ映像から検出された動体軌跡とが一致または類似する場合、当該動体を追尾対象として特定する追尾対象特定部と、
前記追尾対象の最新位置を特定する位置特定部と、を備え、
前記最新位置に応じた撮像方向が可動カメラによって撮像される、
映像解析装置。
When the operating object locus in the wide-area camera image transmitted via the network matches or resembles the moving object locus detected from the wide-area camera image, a tracking object specifying unit that specifies the moving object as a tracking object;
A position specifying unit for specifying the latest position of the tracking target,
The imaging direction corresponding to the latest position is imaged by a movable camera,
Video analysis device.
ネットワークを介して送信された広域カメラ映像における操作体軌跡と前記広域カメラ映像から検出された動体軌跡とが一致または類似する場合、当該動体を追尾対象として特定することと、
前記追尾対象の最新位置を特定することと、を含み、
前記最新位置に応じた撮像方向が可動カメラによって撮像される、
映像解析方法。
When the operating object trajectory in the wide-area camera image transmitted via the network matches or resembles the moving object trajectory detected from the wide-area camera image, identifying the moving object as a tracking target;
Identifying the latest position of the tracking target,
The imaging direction corresponding to the latest position is imaged by a movable camera,
Video analysis method.
コンピュータを、
ネットワークを介して送信された広域カメラ映像における操作体軌跡と前記広域カメラ映像から検出された動体軌跡とが一致または類似する場合、当該動体を追尾対象として特定する追尾対象特定部と、
前記追尾対象の最新位置を特定する位置特定部と、を備え、
前記最新位置に応じた撮像方向が可動カメラによって撮像される、
映像解析装置として機能させるためのプログラム。
Computer
When the operating object locus in the wide-area camera image transmitted via the network matches or resembles the moving object locus detected from the wide-area camera image, a tracking object specifying unit that specifies the moving object as a tracking object;
A position specifying unit for specifying the latest position of the tracking target,
The imaging direction corresponding to the latest position is imaged by a movable camera,
A program for functioning as a video analysis device.
JP2014249941A 2014-12-10 2014-12-10 Surveillance system, video analysis apparatus, video analysis method and program Active JP6458474B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014249941A JP6458474B2 (en) 2014-12-10 2014-12-10 Surveillance system, video analysis apparatus, video analysis method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014249941A JP6458474B2 (en) 2014-12-10 2014-12-10 Surveillance system, video analysis apparatus, video analysis method and program

Publications (2)

Publication Number Publication Date
JP2016111649A true JP2016111649A (en) 2016-06-20
JP6458474B2 JP6458474B2 (en) 2019-01-30

Family

ID=56125061

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014249941A Active JP6458474B2 (en) 2014-12-10 2014-12-10 Surveillance system, video analysis apparatus, video analysis method and program

Country Status (1)

Country Link
JP (1) JP6458474B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108153763A (en) * 2016-12-05 2018-06-12 佳能株式会社 Indexing unit and method, object images retrieval device and monitoring system
CN108540759A (en) * 2017-03-01 2018-09-14 中国电信股份有限公司 Video frequency monitoring method, device and system
WO2020054281A1 (en) 2018-09-12 2020-03-19 キヤノン株式会社 Robot system, robot system control device, robot system control method, imaging device, control program, and recording medium
CN111340857A (en) * 2020-02-20 2020-06-26 浙江大华技术股份有限公司 Camera tracking control method and device
JP7058806B1 (en) * 2021-02-22 2022-04-22 三菱電機株式会社 Video monitoring equipment, video monitoring system, video monitoring method, and video monitoring program
CN114429605A (en) * 2022-01-25 2022-05-03 南京杰迈视讯科技有限公司 System for identifying, positioning and tracking dynamic random target in wide-area environment

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0918849A (en) * 1995-07-04 1997-01-17 Matsushita Electric Ind Co Ltd Photographing device
JP2004289779A (en) * 2003-03-06 2004-10-14 Chuo Electronics Co Ltd Mobile body imaging method and mobile body imaging system
JP2005175970A (en) * 2003-12-11 2005-06-30 Canon Inc Imaging system
JP2006081125A (en) * 2004-09-13 2006-03-23 Sony Corp Imaging system and imaging method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0918849A (en) * 1995-07-04 1997-01-17 Matsushita Electric Ind Co Ltd Photographing device
JP2004289779A (en) * 2003-03-06 2004-10-14 Chuo Electronics Co Ltd Mobile body imaging method and mobile body imaging system
JP2005175970A (en) * 2003-12-11 2005-06-30 Canon Inc Imaging system
JP2006081125A (en) * 2004-09-13 2006-03-23 Sony Corp Imaging system and imaging method

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108153763A (en) * 2016-12-05 2018-06-12 佳能株式会社 Indexing unit and method, object images retrieval device and monitoring system
CN108153763B (en) * 2016-12-05 2023-11-24 佳能株式会社 Indexing device and method, object image retrieval device and monitoring system
CN108540759A (en) * 2017-03-01 2018-09-14 中国电信股份有限公司 Video frequency monitoring method, device and system
CN108540759B (en) * 2017-03-01 2021-04-09 中国电信股份有限公司 Video monitoring method, device and system
WO2020054281A1 (en) 2018-09-12 2020-03-19 キヤノン株式会社 Robot system, robot system control device, robot system control method, imaging device, control program, and recording medium
US11992960B2 (en) 2018-09-12 2024-05-28 Canon Kabushiki Kaisha Robot system, control apparatus of robot system, control method of robot system, imaging apparatus, and storage medium
CN111340857A (en) * 2020-02-20 2020-06-26 浙江大华技术股份有限公司 Camera tracking control method and device
CN111340857B (en) * 2020-02-20 2023-09-19 浙江大华技术股份有限公司 Tracking control method and device for camera
JP7058806B1 (en) * 2021-02-22 2022-04-22 三菱電機株式会社 Video monitoring equipment, video monitoring system, video monitoring method, and video monitoring program
CN114429605A (en) * 2022-01-25 2022-05-03 南京杰迈视讯科技有限公司 System for identifying, positioning and tracking dynamic random target in wide-area environment

Also Published As

Publication number Publication date
JP6458474B2 (en) 2019-01-30

Similar Documents

Publication Publication Date Title
JP6458474B2 (en) Surveillance system, video analysis apparatus, video analysis method and program
JP6413530B2 (en) Surveillance system, video analysis apparatus, video analysis method and program
JP6696615B2 (en) Monitoring system, monitoring method, and recording medium storing monitoring program
EP2954499B1 (en) Information processing apparatus, information processing method, program, and information processing system
US20170091998A1 (en) Fire/Security Service System with Augmented Reality
US10192414B2 (en) System and method for overlap detection in surveillance camera network
US11127211B2 (en) Plant management system, plant management method, plant management apparatus, and plant management program
GB2553991A (en) Tracking support apparatus, tracking support system, and tracking support method
KR102219598B1 (en) Fire monitoring system for field equipment
KR101933153B1 (en) Control Image Relocation Method and Apparatus according to the direction of movement of the Object of Interest
KR101005568B1 (en) Intelligent security system
JP6032283B2 (en) Surveillance camera management device, surveillance camera management method, and program
CN106210608A (en) The methods, devices and systems of the dynamic front cover in position, control point are realized based on mobile detection
KR101404792B1 (en) Active monitoring system and method using mobile terminal
JP2014139745A (en) Equipment management system, equipment management device, equipment management method and program
KR101250956B1 (en) An automatic system for monitoring
JP2011145730A (en) Monitoring screen display control apparatus
KR20180099098A (en) Fusion Type Image Monitoring System Camera with Movement Tracking Function of Shooting Target
KR102107137B1 (en) Method and Apparatus for Detecting Event by Using Pan-Tilt-Zoom Camera
JP7176868B2 (en) monitoring device
JP7146416B2 (en) Information processing device, information processing system, information processing method, and program
KR101060414B1 (en) Monitoring system and mathod for the same
KR101445361B1 (en) Site Monitoring System
JP2016149667A (en) Control device, control method, and program
KR101434878B1 (en) Monitering camera system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170815

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180511

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180619

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180814

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181127

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181210

R150 Certificate of patent or registration of utility model

Ref document number: 6458474

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150