JP2021097299A - Parameter setting support system, parameter setting support method, and parameter setting support program - Google Patents

Parameter setting support system, parameter setting support method, and parameter setting support program Download PDF

Info

Publication number
JP2021097299A
JP2021097299A JP2019226619A JP2019226619A JP2021097299A JP 2021097299 A JP2021097299 A JP 2021097299A JP 2019226619 A JP2019226619 A JP 2019226619A JP 2019226619 A JP2019226619 A JP 2019226619A JP 2021097299 A JP2021097299 A JP 2021097299A
Authority
JP
Japan
Prior art keywords
setting
surveillance camera
terminal device
image
parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019226619A
Other languages
Japanese (ja)
Other versions
JP7444431B2 (en
Inventor
昂平 瀬川
Kohei Segawa
昂平 瀬川
利彦 山畠
Toshihiko Yamahata
利彦 山畠
原 大輔
Daisuke Hara
大輔 原
剛 小方
Takeshi Ogata
剛 小方
久保田 亮
Akira Kubota
亮 久保田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
iPro Co Ltd
Original Assignee
Panasonic iPro Sensing Solutions Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic iPro Sensing Solutions Co Ltd filed Critical Panasonic iPro Sensing Solutions Co Ltd
Priority to JP2019226619A priority Critical patent/JP7444431B2/en
Publication of JP2021097299A publication Critical patent/JP2021097299A/en
Application granted granted Critical
Publication of JP7444431B2 publication Critical patent/JP7444431B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

To support efficient setting of a parameter of a monitoring camera by using a past video or a live video of the monitoring camera.SOLUTION: In a parameter setting support system, a monitoring camera and a terminal device are connected so as to be able to communicate with each other, the terminal device transmits a parameter setting type of the monitoring camera selected by a user operation to the monitoring camera, and when the received setting type is not image quality of the image captured by the monitoring camera, the monitoring camera acquires a past video captured in the past stored in an external storage medium connected to the monitoring camera, and transmits the past video to the terminal device, and the terminal device reproduces the received past video, accepts input of the parameter for each setting type other than the image quality using the past video being played is accepted by the user operation, transmits the input parameter for each setting type to the monitoring camera, and sets the parameters for each received setting type.SELECTED DRAWING: Figure 1

Description

本開示は、パラメータ設定支援システム、パラメータ設定支援方法およびパラメータ設定支援プログラムに関する。 The present disclosure relates to a parameter setting support system, a parameter setting support method, and a parameter setting support program.

特許文献1には、監視対象範囲を撮像する撮像装置と、撮像画像から画像解析処理の設定に関するパラメータを取得し、パラメータに基づいて、監視対象範囲を撮像した撮像画像に対して実施する画像解析処理に関する設定を行う画像処理装置と、画像処理装置によって実施された画像解析結果を表示可能な表示装置と、を備えた画像処理システムが開示されている。 Patent Document 1 describes an image pickup device that captures a monitoring target range, an image analysis that acquires parameters related to image analysis processing settings from the captured image, and performs image analysis on the captured image that captures the monitoring target range based on the parameters. An image processing system including an image processing device for setting processing and a display device capable of displaying the result of image analysis performed by the image processing device is disclosed.

特開2016−197797号公報Japanese Unexamined Patent Publication No. 2016-197797

上述した特許文献1の画像処理システムの構成では、監視対象範囲に設置された画像コード(例えば2次元バーコード、多色カラーコードなど)を撮像し、撮像画像に映る画像コードに埋め込まれている画像解析処理のパラメータに基づいて、監視対象範囲を撮像した撮像画像に実施する画像解析処理を設定が可能である。一方、撮像装置の画像解析処理の性能(例えば人物等の対象物の検知性能)を確認したいというユーザからの要望がある。しかし、特許文献1の構成では、監視対象範囲をリアルタイムに撮像したライブ映像を用いて、画像解析処理の設定をしなければならなかったが、例えば、画像解析処理の設定が夜間の場合、あるいは雨天、降雪の場合などライブ映像だけでは画像解析処理の設定が不十分なことがあった。 In the configuration of the image processing system of Patent Document 1 described above, an image code (for example, a two-dimensional bar code, a multicolor color code, etc.) installed in a monitoring target range is imaged and embedded in the image code displayed in the captured image. Based on the parameters of the image analysis process, it is possible to set the image analysis process to be performed on the captured image of the monitored range. On the other hand, there is a request from a user who wants to confirm the performance of image analysis processing of an image pickup apparatus (for example, the detection performance of an object such as a person). However, in the configuration of Patent Document 1, the image analysis process must be set using the live image obtained by capturing the monitored range in real time. For example, when the image analysis process is set at night, or In the case of rainy weather or snowfall, the image analysis processing settings were sometimes insufficient only with live images.

本開示は、上述した従来の事情に鑑みて案出され、監視カメラの過去映像あるいはライブ映像を用いて監視カメラのパラメータの効率的な設定を支援するパラメータ設定支援システム、パラメータ設定支援方法およびパラメータ設定支援プログラムを提供することを目的とする。 The present disclosure has been devised in view of the above-mentioned conventional circumstances, and is a parameter setting support system, a parameter setting support method, and a parameter that support efficient setting of parameters of a surveillance camera using past images or live images of the surveillance camera. The purpose is to provide a setting support program.

本開示は、監視カメラと端末装置とが互いに通信可能に接続されたパラメータ設定支援システムであって、前記端末装置は、ユーザ操作により選択された前記監視カメラのパラメータの設定種別を前記監視カメラに送信し、前記監視カメラは、受信された前記設定種別が前記監視カメラの撮像画像の画質でない場合、前記監視カメラに接続された外部記憶媒体に記憶された過去に撮像された過去映像を取得して前記端末装置に送信し、前記端末装置は、受信された前記過去映像を再生し、前記ユーザ操作により再生中の前記過去映像を用いた前記画質以外の設定種別ごとのパラメータの入力を受け付け、前記入力された前記設定種別ごとのパラメータを前記監視カメラに送信し、前記監視カメラは、受信された前記設定種別ごとの前記パラメータを設定する、パラメータ設定支援システムを提供する。 The present disclosure is a parameter setting support system in which a surveillance camera and a terminal device are connected so as to be able to communicate with each other, and the terminal device sets the parameter setting type of the surveillance camera selected by a user operation to the surveillance camera. When the setting type received is not the image quality of the captured image of the surveillance camera, the surveillance camera acquires the past image captured in the past stored in the external storage medium connected to the surveillance camera. The terminal device reproduces the received past video, and receives the input of parameters for each setting type other than the image quality using the past video being reproduced by the user operation. The surveillance camera provides a parameter setting support system that transmits the input parameters for each setting type to the surveillance camera and sets the received parameters for each setting type.

また、本開示は、監視カメラと端末装置とが互いに通信可能に接続されたパラメータ設定支援方法であって、ユーザ操作により選択された前記監視カメラのパラメータの設定種別が、前記監視カメラの撮像画像の画質でない場合、前記監視カメラに接続された外部記憶媒体に記憶された過去映像を取得して再生し、前記ユーザ操作により前記過去映像に関する設定種別ごとの設定を受け付け、前記設定された前記設定種別ごとのパラメータを設定する、パラメータ設定支援方法を提供する。 Further, the present disclosure is a parameter setting support method in which a surveillance camera and a terminal device are connected so as to be able to communicate with each other, and the setting type of the parameter of the surveillance camera selected by the user operation is an image captured by the surveillance camera. If the image quality is not the same as the above, the past image stored in the external storage medium connected to the surveillance camera is acquired and played back, and the setting for each setting type related to the past image is accepted by the user operation, and the set setting. Provide a parameter setting support method for setting parameters for each type.

また、本開示は、監視カメラと端末装置とが互いに通信可能に接続されたパラメータ設定支援プログラムであって、ユーザ操作により選択された前記監視カメラのパラメータの設定種別が、前記監視カメラの撮像画像の画質でない場合、前記監視カメラに接続された外部記憶媒体に記憶された過去映像を取得して再生するステップと、前記ユーザ操作により前記過去映像に関する設定種別ごとの設定を受け付け、前記設定された前記設定種別ごとのパラメータを設定するステップと、を有する、パラメータ設定支援プログラムを提供する。 Further, the present disclosure is a parameter setting support program in which a surveillance camera and a terminal device are connected so as to be able to communicate with each other, and a parameter setting type of the surveillance camera selected by a user operation is an image captured by the surveillance camera. If the image quality is not the same as the above, the step of acquiring and playing back the past image stored in the external storage medium connected to the surveillance camera and the setting for each setting type related to the past image by the user operation are received and set. Provided is a parameter setting support program having a step of setting parameters for each setting type.

本開示によれば、監視カメラの過去映像あるいはライブ映像を用いて監視カメラのパラメータの効率的な設定を支援できる。 According to the present disclosure, it is possible to support the efficient setting of the parameters of the surveillance camera by using the past image or the live image of the surveillance camera.

実施の形態1に係るパラメータ設定支援システムの内部構成例を示す図The figure which shows the internal configuration example of the parameter setting support system which concerns on Embodiment 1. 設定種別選択画面の一例を示す図Diagram showing an example of the setting type selection screen エリア設定画面の一例を示す図Diagram showing an example of the area setting screen 奥行き設定画面の一例を示す図Diagram showing an example of the depth setting screen 奥行き設定画面の一例を示す図Diagram showing an example of the depth setting screen 感度設定およびその他設定画面の一例を示す図Diagram showing an example of sensitivity setting and other setting screens 画質詳細設定画面の一例を示す図The figure which shows an example of the image quality detailed setting screen 実施の形態1に係るパラメータ設定支援システムの動作手順例を示すフローチャートA flowchart showing an example of an operation procedure of the parameter setting support system according to the first embodiment.

以下、適宜図面を参照しながら、本開示に係るパラメータ設定支援システム、パラメータ設定支援方法およびパラメータ設定支援プログラムの構成および作用を具体的に開示した各実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になることを避け、当業者の理解を容易にするためである。なお、添付図面及び以下の説明は、当業者が本開示を十分に理解するために提供されるものであって、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。 Hereinafter, each embodiment in which the configuration and operation of the parameter setting support system, the parameter setting support method, and the parameter setting support program according to the present disclosure are specifically disclosed will be described in detail with reference to the drawings as appropriate. However, more detailed explanation than necessary may be omitted. For example, detailed explanations of already well-known matters and duplicate explanations for substantially the same configuration may be omitted. This is to avoid unnecessary redundancy of the following description and to facilitate the understanding of those skilled in the art. It should be noted that the accompanying drawings and the following description are provided for those skilled in the art to fully understand the present disclosure, and are not intended to limit the subject matter described in the claims.

(実施の形態1)
図1を参照して、実施の形態1に係るパラメータ設定支援システム100の構成例およびユースケース例について説明する。図1は、実施の形態1に係るパラメータ設定支援システム100の構成例を示す図である。パラメータ設定支援システム100は、ユーザが監視カメラを購入する前に、購入を希望(検討)する監視カメラによって実行される画像処理をパラメータ設定支援するシステムである。図1に示す監視カメラC1は、ユーザが購入を希望(検討)する監視カメラと同じあるいは類似する機能を有する監視カメラであって、例えば販売店、メーカなどから貸し出される。ユーザは、貸し出された監視カメラC1を、監視カメラの設置予定位置に設置し、通信可能に接続された端末装置P1を操作して監視カメラC1の性能をパラメータ設定支援する。パラメータ設定支援システム100は、監視カメラC1と、端末装置P1と、を含んで構成される。なお、図1の説明において、監視カメラが1台の例について説明するが、監視カメラの台数は複数であってもよい。
(Embodiment 1)
A configuration example and a use case example of the parameter setting support system 100 according to the first embodiment will be described with reference to FIG. FIG. 1 is a diagram showing a configuration example of the parameter setting support system 100 according to the first embodiment. The parameter setting support system 100 is a system that supports parameter setting of image processing executed by a surveillance camera that the user wishes (examines) to purchase before purchasing the surveillance camera. The surveillance camera C1 shown in FIG. 1 is a surveillance camera having the same or similar functions as the surveillance camera that the user desires (examines) to purchase, and is rented out from, for example, a store or a manufacturer. The user installs the rented surveillance camera C1 at the planned installation position of the surveillance camera, operates the terminal device P1 connected so as to be able to communicate, and supports the parameter setting of the performance of the surveillance camera C1. The parameter setting support system 100 includes a surveillance camera C1 and a terminal device P1. In the description of FIG. 1, an example in which one surveillance camera is used will be described, but the number of surveillance cameras may be plural.

パラメータ設定支援システム100における監視カメラC1は、ユーザが撮像を希望する撮像領域を撮像可能な位置(つまり、ユーザが監視カメラの設置を予定する位置)に設置される。監視カメラC1は、端末装置P1との間で通信可能に接続される。また、監視カメラC1は、撮像領域を撮像可能であるとともに、監視カメラC1あるいは他の監視カメラによって撮像された過去の撮像映像(以降、過去映像と表記)のデータを外部記憶媒体M1あるいはメモリ12から取得する。監視カメラC1は、取得された過去映像のデータを、ネットワークNW1を介して端末装置P1に送信する。 The surveillance camera C1 in the parameter setting support system 100 is installed at a position where the image pickup region desired by the user can be imaged (that is, a position where the user plans to install the surveillance camera). The surveillance camera C1 is communicably connected to the terminal device P1. Further, the surveillance camera C1 can capture an imaging region, and the data of the past captured image (hereinafter referred to as the past image) captured by the surveillance camera C1 or another surveillance camera is stored in the external storage medium M1 or the memory 12. Get from. The surveillance camera C1 transmits the acquired past video data to the terminal device P1 via the network NW1.

監視カメラC1は、ユーザ操作によって入力された各種設定種別(例えば、画質設定、検知設定、奥行き設定、その他設定、スケジュール設定など)ごとのパラメータに基づいて、過去映像あるいは撮像部13によって撮像されたライブ映像に画像処理を実行する。監視カメラC1は、通信部10と、プロセッサ11と、メモリ12と、撮像部13と、AI(Artificial Intelligence)処理部14と、外部記憶媒体I/F(interface)15と、を含んで構成される。 The surveillance camera C1 has been imaged by the past image or the imaging unit 13 based on the parameters for each setting type (for example, image quality setting, detection setting, depth setting, other setting, schedule setting, etc.) input by the user operation. Perform image processing on live video. The surveillance camera C1 includes a communication unit 10, a processor 11, a memory 12, an imaging unit 13, an AI (Artificial Intelligence) processing unit 14, and an external storage medium I / F (interface) 15. To.

通信部10は、端末装置P1における通信部20との間でネットワークNW1を介してデータ通信可能に接続される。なお、通信部10は、通信部20との間で有線通信可能に接続されてよいし、無線LANなどの無線ネットワークを介して接続されてもよい。ここでいう無線通信は、例えばBluetooth(登録商標)、NFC(登録商標)などの近距離無線通信、またはWi−fi(登録商標)などの無線LAN(Local Area Network)を介した通信である。 The communication unit 10 is connected to the communication unit 20 in the terminal device P1 so as to be capable of data communication via the network NW1. The communication unit 10 may be connected to the communication unit 20 so as to be capable of wired communication, or may be connected via a wireless network such as a wireless LAN. The wireless communication referred to here is, for example, short-range wireless communication such as Bluetooth (registered trademark) or NFC (registered trademark), or communication via a wireless LAN (Local Area Network) such as Wi-fi (registered trademark).

通信部10は、プロセッサ11により生成された画像処理結果としての過去映像あるいはライブ映像のデータ、AI処理部14により生成された画像処理結果としての検知データ、あるいは撮像部13によって撮像されたライブ映像のデータなどを、ネットワークNW1を介して、端末装置P1における通信部20に送信する。また、通信部10は、ネットワークNW1を介して、ユーザ操作により入力されたパラメータを受信し、受信されたパラメータをプロセッサ11に入力する。 The communication unit 10 includes past video or live video data as an image processing result generated by the processor 11, detection data as an image processing result generated by the AI processing unit 14, or live video captured by the imaging unit 13. Data and the like are transmitted to the communication unit 20 in the terminal device P1 via the network NW1. Further, the communication unit 10 receives the parameters input by the user operation via the network NW1 and inputs the received parameters to the processor 11.

プロセッサ11は、例えばCPU(Central Processing unit)またはFPGA(Field Programmable Gate Array)を用いて構成され、メモリ12と協働して、各種の処理および制御を行う。具体的には、プロセッサ11はメモリ12に保持されたプログラムおよびデータを参照し、そのプログラムを実行することにより、各部の機能を実現する。なお、ここでいう機能は、例えばユーザ操作により設定された設定種別ごとのパラメータに基づいて、過去映像あるいはライブ映像のデータを画像処理する機能、各種設定種別のそれぞれのうち選択された設定種別に基づいて、過去映像あるいはライブ映像のいずれを取得するかを選択する機能などを実現する。 The processor 11 is configured by using, for example, a CPU (Central Processing unit) or an FPGA (Field Programmable Gate Array), and performs various processes and controls in cooperation with the memory 12. Specifically, the processor 11 refers to the program and data held in the memory 12 and executes the program to realize the functions of each part. The function referred to here is, for example, a function for processing past video or live video data based on parameters for each setting type set by user operation, and a setting type selected from each of the various setting types. Based on this, a function for selecting whether to acquire past video or live video is realized.

プロセッサ11は、端末装置P1から各種設定種別のうち、ユーザ操作により選択された設定種別の情報を通信部10から入力される。プロセッサ11は、入力された設定種別の情報が画質設定である場合、撮像部13に撮像を開始する制御信号を生成して出力する。プロセッサ11は、撮像部13から入力されたライブ映像のデータをメモリ12に記憶するとともに、通信部10を介して端末装置P1に送信する。プロセッサ11は、ライブ映像のデータを送信した後、さらに端末装置P1からユーザ操作により設定された画質のパラメータが入力されると、入力された画質のパラメータに基づいて、撮像部13から入力されたライブ映像のデータに画像処理を実行する。プロセッサ11は、画像処理実行後のライブ映像のデータをメモリ12に記憶するとともに、通信部10を介して端末装置P1に送信する。 The processor 11 inputs the information of the setting type selected by the user operation from the various setting types from the terminal device P1 from the communication unit 10. When the input setting type information is the image quality setting, the processor 11 generates and outputs a control signal for starting imaging to the imaging unit 13. The processor 11 stores the live video data input from the imaging unit 13 in the memory 12 and transmits it to the terminal device P1 via the communication unit 10. After transmitting the live video data, the processor 11 further inputs the image quality parameters set by the user operation from the terminal device P1, and the processor 11 inputs the image quality parameters from the image pickup unit 13 based on the input image quality parameters. Perform image processing on live video data. The processor 11 stores the live video data after the image processing is executed in the memory 12 and transmits the live video data to the terminal device P1 via the communication unit 10.

プロセッサ11は、端末装置P1から各種設定種別のうち、ユーザ操作により選択された設定種別の情報を通信部10から入力される。プロセッサ11は、入力された設定種別が画質設定でない場合(例えば、検知設定、奥行き設定、その他設定、スケジュール設定などの設定種別の場合)、メモリ12に記憶された過去映像のデータを要求する信号を生成してメモリ12に入力する。また、プロセッサ21は、入力された設定種別が画質設定でない場合、外部記憶媒体I/F15を介して接続された外部記憶媒体M1に、過去映像のデータを要求する制御信号を生成して送信する。プロセッサ11は、外部記憶媒体M1から送信された過去映像のデータを受信すると、メモリ12に記憶するとともに、端末装置P1に送信する。また、プロセッサ11は、入力された設定種別が画質設定の場合、撮像部13によって撮像されたライブ映像のデータをメモリ12に記憶するとともに、端末装置P1に送信する。プロセッサ11は、端末装置P1からユーザ操作により設定された設定種別ごとのパラメータが入力されると、入力された設定種別ごとのパラメータに基づいて、過去映像あるいはライブ映像に画像処理を実行する。 The processor 11 inputs the information of the setting type selected by the user operation from the various setting types from the terminal device P1 from the communication unit 10. When the input setting type is not the image quality setting (for example, when the setting type is detection setting, depth setting, other setting, schedule setting, etc.), the processor 11 is a signal requesting the data of the past video stored in the memory 12. Is generated and input to the memory 12. Further, when the input setting type is not the image quality setting, the processor 21 generates and transmits a control signal requesting past video data to the external storage medium M1 connected via the external storage medium I / F15. .. When the processor 11 receives the data of the past video transmitted from the external storage medium M1, it stores it in the memory 12 and transmits it to the terminal device P1. Further, when the input setting type is the image quality setting, the processor 11 stores the data of the live image captured by the imaging unit 13 in the memory 12 and transmits the data to the terminal device P1. When the parameter for each setting type set by the user operation is input from the terminal device P1, the processor 11 executes image processing on the past video or the live video based on the input parameter for each setting type.

なお、プロセッサ11は、入力された設定種別が画質設定であっても、ユーザ操作によって外部記憶媒体M1に記憶された過去映像のデータを用いた画像処理を要求する信号を受信した場合には、撮像部13による撮像を中止する制御信号を送信し、外部記憶媒体I/F15を介して接続された外部記憶媒体M1に、過去映像のデータを要求してよい。 Even if the input setting type is the image quality setting, the processor 11 receives a signal requesting image processing using the past video data stored in the external storage medium M1 by the user operation. A control signal for stopping imaging by the imaging unit 13 may be transmitted, and past video data may be requested from the external storage medium M1 connected via the external storage medium I / F15.

さらに、プロセッサ11は、外部記憶媒体M1に複数の過去映像のデータのそれぞれが記憶されている場合、端末装置P1に複数の過去映像のデータのそれぞれのうち、画像処理を実行する過去映像のデータの選択操作を受け付けてよい。このような場合、プロセッサ11は、端末装置P1に複数の過去映像のデータを送信する。端末装置P1は、受信された複数の過去映像のデータのそれぞれをモニタ23に表示させ、画像処理を実行する対象となる過去映像のデータの選択操作を受け付ける。端末装置P1は、ユーザ操作により選択された過去映像のデータの情報を監視カメラC1に送信する。 Further, when each of the plurality of past video data is stored in the external storage medium M1, the processor 11 executes image processing among the plurality of past video data in the terminal device P1. You may accept the selection operation of. In such a case, the processor 11 transmits a plurality of past video data to the terminal device P1. The terminal device P1 displays each of the received plurality of past video data on the monitor 23, and accepts a selection operation of the past video data to be executed for image processing. The terminal device P1 transmits the information of the past video data selected by the user operation to the surveillance camera C1.

メモリ12は、例えばプロセッサ11の各処理を実行する際に用いられるワークメモリとしてのRAM(Random Access Memory)と、プロセッサ11の動作を規定したプログラムおよびデータを格納するROM(Read Only Memory)とを有する。RAMには、プロセッサ11により生成あるいは取得されたデータもしくは情報が一時的に保存される。ROMには、プロセッサ11の動作を規定するプログラムが書き込まれている。メモリ12は、撮像部13によって撮像された過去映像およびライブ映像のデータ、外部記憶媒体I/F15を介して取得された過去映像のデータを記憶する。また、メモリ12は、ユーザ操作によって設定された設定種別ごとのパラメータ、外部記憶媒体M1から受信された過去映像のデータ、プロセッサ11あるいはAI処理部14の画像処理結果としての過去映像あるいはライブ映像のデータ、および検知データなどを記憶する。 The memory 12 includes, for example, a RAM (Random Access Memory) as a work memory used when executing each process of the processor 11 and a ROM (Read Only Memory) for storing a program and data defining the operation of the processor 11. Have. Data or information generated or acquired by the processor 11 is temporarily stored in the RAM. A program that defines the operation of the processor 11 is written in the ROM. The memory 12 stores past video and live video data captured by the imaging unit 13, and past video data acquired via the external storage medium I / F 15. Further, the memory 12 includes parameters for each setting type set by user operation, past video data received from the external storage medium M1, past video or live video as an image processing result of the processor 11 or AI processing unit 14. Stores data, detection data, etc.

撮像部13は、少なくともレンズ(不図示)とイメージセンサ(不図示)とを有して構成される。イメージセンサは、例えばCCD(Charged−coupled device)あるいはCMOS(Complementary metal−oxide−semiconductor)などの固体撮像素子であり、撮像面に結像した光学像を電気信号に変換する。撮像部13は、撮像された撮像画像(ライブ映像)をプロセッサ11に出力する。 The image pickup unit 13 includes at least a lens (not shown) and an image sensor (not shown). The image sensor is, for example, a solid-state image sensor such as a CCD (Charged-coupled device) or a CMOS (Complementary metal-xide-semiconductor), and converts an optical image imaged on an imaging surface into an electric signal. The imaging unit 13 outputs the captured image (live image) to the processor 11.

AI処理部14は、例えばCPU、DSP(Digital Signal Processor)またはFPGAを用いて構成され、ユーザ操作により入力された設定種別ごとのパラメータに基づいて、撮像部13によって撮像された過去映像あるいはライブ映像のデータ、あるいは外部記憶媒体I/F15を介して取得された過去映像のデータに画像処理を実行する。AI処理部14は、AI演算処理部14aと、学習モデルDB(Database)14bとを含んで構成される。 The AI processing unit 14 is configured by using, for example, a CPU, a DSP (Digital Signal Processor) or an FPGA, and is a past image or a live image captured by the imaging unit 13 based on the parameters for each setting type input by the user operation. Image processing is executed on the data of the above or the data of the past video acquired via the external storage medium I / F15. The AI processing unit 14 includes an AI arithmetic processing unit 14a and a learning model DB (Database) 14b.

AI演算処理部14aは、プロセッサ11から入力された各種項目ごとのパラメータと、学習モデルDB14bに記憶された学習データとに基づいて、過去映像あるいはライブ映像のデータの画像処理を実行する。AI演算処理部14aは、画像処理結果としての過去映像あるいはライブ映像のデータあるいは検知データをプロセッサ11に出力する。 The AI arithmetic processing unit 14a executes image processing of past video or live video data based on parameters for each item input from the processor 11 and learning data stored in the learning model DB 14b. The AI calculation processing unit 14a outputs the past video or live video data or detection data as the image processing result to the processor 11.

学習モデルDB14bは、RAMおよびROMなどによる半導体メモリと、SSD(Solid State Drive)あるいはHDD(Hard Disk Drive)などによるストレージデバイスのうちいずれかを含む記憶デバイスを有する。また、学習モデルDB14bは、例えばAI演算処理部14aが実行する画像処理を規定するプログラム、これらの処理を実行するための各種の設定データ、人物、車両などの検知対象を検知する際に用いられる学習データ、プロセッサ11から入力された過去映像あるいはライブ映像のデータなどの各種のデータを生成または記憶する。 The learning model DB 14b has a storage device including a semiconductor memory such as a RAM and a ROM, and a storage device such as an SSD (Solid State Drive) or an HDD (Hard Disk Drive). Further, the learning model DB 14b is used, for example, when detecting a program that defines image processing executed by the AI arithmetic processing unit 14a, various setting data for executing these processes, a person, a vehicle, or the like. Various data such as training data, past video or live video data input from the processor 11 are generated or stored.

学習データを生成するための学習は、1つ以上の統計的分類技術を用いて行っても良い。統計的分類技術としては、例えば、線形分類器(linear classifiers)、サポートベクターマシン(support vector machines)、二次分類器(quadratic classifiers)、カーネル密度推定(kernel estimation)、決定木(decision trees)、人工ニューラルネットワーク(artificial neural networks)、ベイジアン技術および/またはネットワーク(Bayesian techniques and/or networks)、隠れマルコフモデル(hidden Markov models)、バイナリ分類子(binary classifiers)、マルチクラス分類器(multi−class classifiers)、クラスタリング(a clustering technique)、ランダムフォレスト(a random forest technique)、ロジスティック回帰(a logistic regression technique)、線形回帰(a linear regression technique)、勾配ブースティング(a gradient boosting technique)などが挙げられる。但し、使用される統計的分類技術はこれらに限定されない。また、学習データの生成は、監視カメラC1内のAI処理部14で行われても良いし、例えばネットワークNW1を用いて監視カメラC1との間で通信可能に接続される端末装置P1内で行われてもよい。さらに、学習データは、外部記憶媒体I/F15を介して通信可能に接続された、例えばUSB(Universal Serial Bus)メモリあるいはSD(Secure Digital Memory)カードなどの外部記憶媒体M1から受信(取得)された学習データであってもよい。 Learning to generate training data may be performed using one or more statistical classification techniques. Statistical classification techniques include, for example, linear classifiers, support vector machines, quadratic classifiers, kernel density estimation, decision tree. Artificial neural networks, Bayesian technology and / or networks, Bayesian techniques and / or networks, hidden Markov models, binary classifiers, binary classifiers, binary classifiers ), Clustering technology, random forest, logistic regression technology, linear regression technology, linear regression technology, etc. However, the statistical classification techniques used are not limited to these. Further, the learning data may be generated by the AI processing unit 14 in the surveillance camera C1, for example, in the terminal device P1 communicably connected to the surveillance camera C1 using the network NW1. You may be broken. Further, the learning data is received (acquired) from an external storage medium M1 such as a USB (Universal Bus) memory or an SD (Secure Digital Memory) card, which is communicably connected via the external storage medium I / F15. It may be training data.

外部記憶媒体I/F15は、例えばUSBメモリあるいはSDカードなどの外部記憶媒体M1を挿抜可能に設けられ、外部記憶媒体M1との間でデータ通信可能に接続される。外部記憶媒体I/F15は、プロセッサ11の要求に基づいて、外部記憶媒体M1に記憶された過去映像のデータあるいは学習データを取得し、プロセッサ11に出力する。また、外部記憶媒体I/F15は、プロセッサ11の要求に基づいて、撮像部13によって撮像された過去映像あるいはライブ映像のデータ、設定種別ごとのパラメータに基づく画像処理が実行された過去映像あるいはライブ映像のデータ、あるいは監視カメラC1内で生成された学習データなどを、外部記憶媒体M1に送信し、記憶する。なお、外部記憶媒体I/F15は、複数の外部記憶媒体のそれぞれを同時に接続可能であってよい。 The external storage medium I / F15 is provided so that an external storage medium M1 such as a USB memory or an SD card can be inserted and removed, and is connected to the external storage medium M1 so as to be capable of data communication. The external storage medium I / F 15 acquires past video data or learning data stored in the external storage medium M1 based on the request of the processor 11 and outputs the data to the processor 11. Further, the external storage medium I / F 15 is based on the request of the processor 11, the data of the past video or live video captured by the imaging unit 13, and the past video or live in which image processing based on the parameters for each setting type is executed. Video data, learning data generated in the surveillance camera C1, and the like are transmitted to and stored in the external storage medium M1. The external storage medium I / F15 may be capable of connecting each of a plurality of external storage media at the same time.

外部記憶媒体M1は、所謂USBメモリあるいはSDカードなどの記憶媒体であって、過去の過去映像あるいはライブ映像のデータを記憶する。なお、外部記憶媒体M1は、他の監視カメラあるいは端末装置によって生成された学習データなどを記憶してよい。 The external storage medium M1 is a storage medium such as a so-called USB memory or SD card, and stores past past video or live video data. The external storage medium M1 may store learning data or the like generated by another surveillance camera or terminal device.

端末装置P1は、例えばPC(Personal Computer)、タブレット、スマートフォンなどの装置であって、ユーザの入力操作(ユーザ操作)を受け付け可能なインターフェース(例えば、キーボード、マウス、タッチパネルディスプレイなど)を備える。端末装置P1は、ネットワークNW1を介して監視カメラC1との間で通信可能に接続され、ユーザ操作に基づいて生成された信号(入力された設定種別を含む信号、入力された設定種別ごとのパラメータを含む信号など)を、ネットワークNW1を介して監視カメラC1に送信する。また、端末装置P1は、ネットワークNW1を介して監視カメラC1から受信された過去映像あるいはライブ映像のデータ、または画像処理結果としての検知データをモニタ23に表示する。端末装置P1は、通信部20と、プロセッサ21と、メモリ22と、モニタ23と、操作部24とを含んで構成される。 The terminal device P1 is, for example, a device such as a PC (Personal Computer), a tablet, or a smartphone, and includes an interface (for example, a keyboard, a mouse, a touch panel display, etc.) capable of accepting a user's input operation (user operation). The terminal device P1 is communicably connected to the surveillance camera C1 via the network NW1 and is generated based on a user operation (a signal including an input setting type, a parameter for each input setting type). A signal including) is transmitted to the surveillance camera C1 via the network NW1. Further, the terminal device P1 displays the past video or live video data received from the surveillance camera C1 via the network NW1 or the detection data as an image processing result on the monitor 23. The terminal device P1 includes a communication unit 20, a processor 21, a memory 22, a monitor 23, and an operation unit 24.

通信部20は、ネットワークNW1を介して監視カメラC1における通信部10との間においてデータ通信可能に構成される。なお、通信部20は、通信部10との間で有線通信可能に接続されてよいし、無線LANなどの無線ネットワークを介して接続されてもよい。ここでいう無線通信は、例えばBluetooth(登録商標)、NFC(登録商標)などの近距離無線通信、またはWi−fi(登録商標)などの無線LANを介した通信である。通信部20は、プロセッサ21によって生成されたユーザの入力操作に基づく信号を監視カメラC1に送信し、監視カメラC1から受信された過去映像あるいはライブ映像のデータ、または検知データなどをプロセッサ21に出力する。 The communication unit 20 is configured to enable data communication with the communication unit 10 in the surveillance camera C1 via the network NW1. The communication unit 20 may be connected to the communication unit 10 so as to be capable of wired communication, or may be connected via a wireless network such as a wireless LAN. The wireless communication referred to here is, for example, short-range wireless communication such as Bluetooth (registered trademark) or NFC (registered trademark), or communication via a wireless LAN such as Wi-fi (registered trademark). The communication unit 20 transmits a signal based on the user's input operation generated by the processor 21 to the surveillance camera C1, and outputs past video or live video data or detection data received from the surveillance camera C1 to the processor 21. To do.

プロセッサ21は、例えばCPUまたはFPGAを用いて構成されて、メモリ22と協働して、各種の処理および制御を行う。具体的には、プロセッサ21はメモリ22に保持されたプログラムおよびデータを参照し、そのプログラムを実行することにより、各部の機能を実現する。ここでいう各部の機能は、例えば、操作部24から入力されたユーザの入力操作に基づいて信号を生成する機能、監視カメラC1から受信された過去映像あるいはライブ映像のデータ、または検知データをモニタ23に表示させる機能などである。 The processor 21 is configured by using, for example, a CPU or an FPGA, and cooperates with the memory 22 to perform various processes and controls. Specifically, the processor 21 refers to the program and data held in the memory 22 and executes the program to realize the functions of each part. The functions of each part referred to here are, for example, a function of generating a signal based on a user's input operation input from the operation unit 24, monitoring of past video or live video data received from the surveillance camera C1, or detection data. It is a function to be displayed on 23.

メモリ22は、例えばプロセッサ21の各処理を実行する際に用いられるワークメモリとしてのRAMと、プロセッサ21の動作を規定したプログラムおよびデータを格納するROMとを有する。RAMには、プロセッサ21により生成あるいは取得されたデータもしくは情報が一時的に保存される。ROMには、プロセッサ21の動作を規定するプログラムが書き込まれている。 The memory 22 has, for example, a RAM as a work memory used when executing each process of the processor 21, and a ROM for storing a program and data defining the operation of the processor 21. Data or information generated or acquired by the processor 21 is temporarily stored in the RAM. A program that defines the operation of the processor 21 is written in the ROM.

モニタ23は、例えばLCD(Liquid Crystal Display)または有機EL(Electroluminescence)などのディスプレイを用いて構成される。 The monitor 23 is configured by using a display such as an LCD (Liquid Crystal Display) or an organic EL (Electroluminescence).

操作部24は、例えばユーザの入力操作を検知するユーザインターフェースであり、マウス、キーボードまたはタッチパネルなどを用いて構成される。操作部24は、ユーザの入力操作に基づいて、各種設定種別の選択、設定種別ごとのパラメータの入力、過去映像のデータの選択などを受け付けて信号に変換し、プロセッサ21に出力する。 The operation unit 24 is, for example, a user interface for detecting a user's input operation, and is configured by using a mouse, a keyboard, a touch panel, or the like. Based on the user's input operation, the operation unit 24 receives selection of various setting types, input of parameters for each setting type, selection of past video data, etc., converts them into signals, and outputs the signals to the processor 21.

ネットワークNW1は、端末装置P1との間で無線通信ネットワークまたは有線通信ネットワークによって通信可能に接続される。ここでいう無線通信ネットワークは、例えば無線LAN(Local Area Network)、無線WAN(Wide Area NetWork)、4G(第4世代移動通信システム)、5G(第5世代移動通信システム)、またはWi−fi(登録商標)等の無線通信規格に準じて提供される。 The network NW1 is communicably connected to the terminal device P1 by a wireless communication network or a wired communication network. The wireless communication network referred to here is, for example, a wireless LAN (Local Area Network), a wireless WAN (Wide Area Network), 4G (4th generation mobile communication system), 5G (5th generation mobile communication system), or Wi-fi ( It is provided in accordance with wireless communication standards such as (registered trademark).

図2は、設定種別選択画面SL1の一例を示す図である。図2に示す設定種別選択画面SL1は、ユーザが購入を希望あるいは検討する監視カメラC1を用いて監視カメラC1の性能確認を開始する際に、モニタ23に表示される。 FIG. 2 is a diagram showing an example of the setting type selection screen SL1. The setting type selection screen SL1 shown in FIG. 2 is displayed on the monitor 23 when the user starts the performance check of the surveillance camera C1 using the surveillance camera C1 that he / she wants or considers to purchase.

設定種別選択画面SL1は、複数の設定種別のそれぞれと、複数の設定種別ごとに1つの詳細設定ボタンを含んで表示される。 The setting type selection screen SL1 is displayed including each of the plurality of setting types and one detailed setting button for each of the plurality of setting types.

複数の設定種別は、例えば画質設定、検知設定、奥行き設定、その他設定、スケジュール設定などである。なお、設定種別は、図2に示す例に限定されないことは言うまでもない。 The plurality of setting types are, for example, image quality setting, detection setting, depth setting, other setting, schedule setting, and the like. Needless to say, the setting type is not limited to the example shown in FIG.

複数の詳細設定ボタンSBt1,SBt2,SBt3,SBt4,SBt5のそれぞれは、複数の設定種別ごとに生成される。詳細設定ボタンSBt1は、画質のパラメータの入力を行う場合に、ユーザ操作により選択(押下)されるボタンである。詳細設定ボタンSBt2は、検知のパラメータの入力を行う場合に、ユーザ操作により選択(押下)されるボタンである。詳細設定ボタンSBt3は、奥行きのパラメータの入力を行う場合に、ユーザ操作により選択(押下)されるボタンである。詳細設定ボタンSBt4は、感度あるいはその他のパラメータの入力を行う場合に、ユーザ操作により選択(押下)されるボタンである。詳細設定ボタンSBt5は、スケジュールのパラメータの入力を行う場合に、ユーザ操作により選択(押下)されるボタンである。 Each of the plurality of detailed setting buttons SBt1, SBt2, SBt3, SBt4, and SBt5 is generated for each of the plurality of setting types. The detailed setting button SBt1 is a button that is selected (pressed) by a user operation when inputting an image quality parameter. The detailed setting button SBt2 is a button that is selected (pressed) by a user operation when inputting detection parameters. The detailed setting button SBt3 is a button selected (pressed) by a user operation when inputting a depth parameter. The detailed setting button SBt4 is a button selected (pressed) by a user operation when inputting sensitivity or other parameters. The detailed setting button SBt5 is a button that is selected (pressed) by a user operation when inputting schedule parameters.

図3は、エリア設定画面Mn1の一例を示す図である。エリア設定画面Mn1は、モニタ23に表示され、図2に示す複数の詳細設定ボタンSBt1〜SBt5のそれぞれのうち、ユーザ操作により検知パラメータの入力を行うための詳細設定ボタンSBt2が選択(押下)された際に、プロセッサ21により生成されて、モニタ23に表示される。 FIG. 3 is a diagram showing an example of the area setting screen Mn1. The area setting screen Mn1 is displayed on the monitor 23, and the detailed setting button SBt2 for inputting the detection parameter is selected (pressed) from each of the plurality of detailed setting buttons SBt1 to SBt5 shown in FIG. At that time, it is generated by the processor 21 and displayed on the monitor 23.

エリア設定画面Mn1は、複数のタブTb1,Tb2のそれぞれと、再生操作領域Re1と、複数の検知ボタンIc1,Ic2,Ic3,Ic4のそれぞれと、映像取込ボタンBt1と、撮像映像表示領域Mn11と、描画種別欄Bt2と、検知エリア設定ボタンBt3と、マスクエリア設定ボタンBt4と、消去ボタンBt5と、全消去ボタンBt6とを含んで構成される。 The area setting screen Mn1 includes a plurality of tabs Tb1 and Tb2, a playback operation area Re1, each of the plurality of detection buttons Ic1, Ic2, Ic3, and Ic4, an image capture button Bt1, and an captured image display area Mn11. , Drawing type column Bt2, detection area setting button Bt3, mask area setting button Bt4, erase button Bt5, and all erase button Bt6.

タブTb1は、監視カメラC1から受信された過去映像を表示する画面に切り替えて表示するためのGUI(Graphical User Interface)ウィジェットである。タブTb1が表示する過去映像は、過去の過去映像である。 The tab Tb1 is a GUI (Graphical User Interface) widget for switching to and displaying a screen for displaying the past image received from the surveillance camera C1. The past image displayed by the tab Tb1 is a past image of the past.

タブTb2は、監視カメラC1における撮像部13によって撮像されたライブ映像を表示する画面に切り替えて表示するためのGUIウィジェットである。 The tab Tb2 is a GUI widget for switching to and displaying a screen for displaying a live image captured by the imaging unit 13 in the surveillance camera C1.

なお、実施の形態1に係るパラメータ設定支援システム100において、タブの数は、2つに限定されない。例えば、ユーザが複数の監視カメラを設置する場合には、設置された監視カメラの台数に応じて複数のタブが生成されてよい。 In the parameter setting support system 100 according to the first embodiment, the number of tabs is not limited to two. For example, when a user installs a plurality of surveillance cameras, a plurality of tabs may be generated according to the number of installed surveillance cameras.

再生操作領域Re1は、過去映像を再生に関する制御(例えば、再生、ユーザ操作による所定の再生時間からの再生、一時停止など)を可能とし、過去映像の総撮像時間(例えば、図3において25分40秒で示される時間)と、総撮像時間のうち現在再生している(つまり撮像映像表示領域Mn11に表示されている撮像画像)の再生時間(例えば、図3において6分10秒)とを示す。再生操作領域Re1は、再生ボタンRe2と、スライダRe3とを含んで構成される。 The playback operation area Re1 enables control related to playback of the past video (for example, playback, playback from a predetermined playback time by user operation, pause, etc.), and the total imaging time of the past video (for example, 25 minutes in FIG. 3). The time shown in 40 seconds) and the playback time (for example, 6 minutes and 10 seconds in FIG. 3) of the total imaging time currently being reproduced (that is, the captured image displayed in the captured image display area Mn11). Shown. The reproduction operation area Re1 includes a reproduction button Re2 and a slider Re3.

再生ボタンRe2は、ユーザ操作により選択(押下)され、過去映像の再生と停止とを制御する。 The play button Re2 is selected (pressed) by a user operation to control playback and stop of the past video.

スライダRe3は、総撮像時間に対する現在の再生時間をスライダRe3の位置そのものを用いて可視化する。スライダRe3は、ユーザ操作により左右に移動されると、移動箇所に対応する再生時間から過去映像の再生を開始する制御を実行する。 The slider Re3 visualizes the current playback time with respect to the total imaging time using the position of the slider Re3 itself. When the slider Re3 is moved to the left or right by a user operation, the slider Re3 executes control to start playback of the past video from the playback time corresponding to the moved portion.

複数の検知ボタンIc1,Ic2,Ic3,Ic4のそれぞれは、ユーザ操作により選択(押下)されると、その選択(押下)された検知種別の検知パラメータの入力を受け付ける。 When each of the plurality of detection buttons Ic1, Ic2, Ic3, and Ic4 is selected (pressed) by a user operation, the input of the detection parameter of the selected (pressed) detection type is accepted.

検知ボタンIc1は、ユーザ操作により入力されたラインを通過した動体(例えば人物、車両など)を検知するための設定を行うボタンである。 The detection button Ic1 is a button for setting to detect a moving object (for example, a person, a vehicle, etc.) that has passed through a line input by a user operation.

検知ボタンIc2は、ユーザ操作により入力された設定領域内に侵入した動体(例えば人物、車両など)を検知するための設定を行うボタンである。 The detection button Ic2 is a button for setting to detect a moving object (for example, a person, a vehicle, etc.) that has invaded the setting area input by the user operation.

検知ボタンIc3は、ユーザ操作により入力された設定時間以上、指定領域内に滞在した動体(例えば人物、車両など)を検知するための設定を行うボタンである。 The detection button Ic3 is a button for setting to detect a moving object (for example, a person, a vehicle, etc.) staying in a designated area for a set time input by a user operation or longer.

検知ボタンIc4は、ユーザ操作により入力された方向に移動した動体(例えば人物、車両など)を検知するための設定を行うボタンである。 The detection button Ic4 is a button for setting to detect a moving object (for example, a person, a vehicle, etc.) that has moved in the direction input by the user operation.

映像取込ボタンBt1は、監視カメラC1におけるメモリ12あるいは外部記憶媒体M1に記憶された過去の過去映像のデータを取り込むためのボタンである。プロセッサ21は、映像取込ボタンBt1がユーザ操作により押下されると、監視カメラC1におけるメモリ12あるいは外部記憶媒体M1に記憶された過去の複数の過去映像のデータを一覧表示する。プロセッサ21は、ユーザ操作によりいずれかの過去映像のデータが選択されると、その過去映像のデータを監視カメラC1に要求する信号を生成して、通信部20を介して監視カメラC1に送信する。プロセッサ21は、監視カメラC1から受信された過去映像を撮像映像表示領域Mn11に出力する。 The video capture button Bt1 is a button for capturing past past video data stored in the memory 12 or the external storage medium M1 of the surveillance camera C1. When the video capture button Bt1 is pressed by a user operation, the processor 21 displays a list of past data of a plurality of past videos stored in the memory 12 of the surveillance camera C1 or the external storage medium M1. When any of the past video data is selected by the user operation, the processor 21 generates a signal requesting the past video data from the surveillance camera C1 and transmits the signal to the surveillance camera C1 via the communication unit 20. .. The processor 21 outputs the past image received from the surveillance camera C1 to the captured image display area Mn11.

描画種別欄Bt2は、複数の描画ツールBt21,Bt22,Bt23,Bt24,Bt25のそれぞれを含んで構成される。描画種別欄Bt2は、AI処理部14が検知対象を検知する検知エリア、AI処理部14が検知を実行しないマスクエリア、あるいは複数の検知ボタンIc1〜Ic4のそれぞれによって設定される各種検知を行うための領域またはラインを描画するための複数の描画ツールのそれぞれを選択可能に表示する。 The drawing type column Bt2 includes a plurality of drawing tools Bt21, Bt22, Bt23, Bt24, and Bt25, respectively. The drawing type column Bt2 is for performing various detections set by the detection area where the AI processing unit 14 detects the detection target, the mask area where the AI processing unit 14 does not execute the detection, or the plurality of detection buttons Ic1 to Ic4. Display each of multiple drawing tools for drawing an area or line in a selectable manner.

描画ツールBt21は、撮像映像表示領域Mn11に表示された過去映像上にラインを設定するツールである。描画ツールBt21は、ユーザ操作に基づいて、過去映像上にラインを描画可能にする。プロセッサ21は、ユーザ操作により描画されたラインを生成し、過去映像上に重畳して表示する。 The drawing tool Bt21 is a tool for setting a line on the past image displayed in the captured image display area Mn11. The drawing tool Bt21 makes it possible to draw a line on the past image based on the user operation. The processor 21 generates a line drawn by a user operation and displays it by superimposing it on a past image.

描画ツールBt22は、撮像映像表示領域Mn11に表示された過去映像上に矩形状の検知エリアを設定するツールである。描画ツールBt22は、ユーザ操作に基づいて、過去映像上に矩形状の検知エリアを描画可能にする。プロセッサ21は、ユーザ操作により描画された矩形状の検知エリアを生成し、過去映像上に重畳して表示する。 The drawing tool Bt22 is a tool for setting a rectangular detection area on the past image displayed in the captured image display area Mn11. The drawing tool Bt22 makes it possible to draw a rectangular detection area on the past image based on the user operation. The processor 21 generates a rectangular detection area drawn by a user operation, and superimposes and displays it on the past image.

描画ツールBt23は、撮像映像表示領域Mn11に表示された過去映像上に多角形状の検知エリアを設定するツールである。描画ツールBt23は、ユーザ操作に基づいて、過去映像上に多角形状の検知エリアを描画可能にする。プロセッサ21は、ユーザ操作により描画された多角形状の検知エリアを生成し、過去映像上に重畳して表示する。 The drawing tool Bt23 is a tool for setting a polygonal detection area on the past image displayed in the captured image display area Mn11. The drawing tool Bt23 makes it possible to draw a polygonal detection area on the past image based on the user operation. The processor 21 generates a polygonal detection area drawn by a user operation, and superimposes and displays it on a past image.

描画ツールBt24、撮像映像表示領域Mn11に表示された過去映像上に矩形状のマスクエリアを設定するツールである。描画ツールBt24は、ユーザ操作に基づいて、過去映像上に矩形状のマスクエリアを描画可能にする。プロセッサ21は、ユーザ操作により描画された矩形状のマスクエリアを生成し、過去映像上に重畳して表示する。 This is a tool for setting a rectangular mask area on the past image displayed in the drawing tool Bt24 and the captured image display area Mn11. The drawing tool Bt24 makes it possible to draw a rectangular mask area on the past image based on the user operation. The processor 21 generates a rectangular mask area drawn by a user operation, and superimposes and displays it on the past image.

描画ツールBt25は、撮像映像表示領域Mn11に表示された過去映像上に多角形状のマスクエリアを設定するツールである。描画ツールBt25は、ユーザ操作に基づいて、過去映像上に多角形状のマスクエリアを描画可能にする。プロセッサ21は、ユーザ操作により描画された多角形状のマスクエリアを生成し、過去映像上に重畳して表示する。 The drawing tool Bt25 is a tool for setting a polygonal mask area on the past image displayed in the captured image display area Mn11. The drawing tool Bt25 makes it possible to draw a polygonal mask area on the past image based on the user operation. The processor 21 generates a polygonal mask area drawn by a user operation, and superimposes and displays it on a past image.

検知エリア設定ボタンBt3は、過去映像上に重畳されたマスクエリアを検知エリアに変更して設定するためのボタンである。プロセッサ21は、ユーザ操作によりマスクエリアが選択された後に検知エリア設定ボタンBt3が選択されると、選択されたマスクエリアを検知エリアに変更する。 The detection area setting button Bt3 is a button for changing and setting the mask area superimposed on the past image to the detection area. When the detection area setting button Bt3 is selected after the mask area is selected by the user operation, the processor 21 changes the selected mask area to the detection area.

マスクエリア設定ボタンBt4は、過去映像上に重畳された検知エリアをマスクエリアに変更して設定するためのボタンである。プロセッサ21は、ユーザ操作により検知エリアが選択された後にマスクエリア設定ボタンBt4が選択されると、選択された検知エリアをマスクエリアに変更する。 The mask area setting button Bt4 is a button for changing and setting the detection area superimposed on the past image to the mask area. When the mask area setting button Bt4 is selected after the detection area is selected by the user operation, the processor 21 changes the selected detection area to the mask area.

消去ボタンBt5は、過去映像上に重畳された検知エリア、マスクエリア、検知のためのラインあるいは検知するための方向などの設定を削除するためのボタンである。プロセッサ21は、例えばユーザ操作により検知エリアが選択された後に消去ボタンBt5が選択されると、選択された検知エリアと検知エリアに関連にして設定(入力)されたパラメータ(例えば、検知対象としての人物、検知時間、検出感度など)を消去する。 The erase button Bt5 is a button for deleting settings such as a detection area, a mask area, a line for detection, and a direction for detection superimposed on the past image. When the erase button Bt5 is selected after the detection area is selected by the user operation, for example, the processor 21 sets (inputs) the selected detection area and the parameters set (input) in relation to the detection area (for example, as a detection target). Delete the person, detection time, detection sensitivity, etc.).

全消去ボタンBt6は、過去映像上に重畳されたすべての検知エリア、マスクエリア、検知のためのラインあるいは検知するための方向などの設定を削除するためのボタンである。プロセッサ21は、例えばユーザ操作により全消去ボタンBt6が選択されると、過去映像に設定されたすべてのパラメータを消去する。 The all erase button Bt6 is a button for deleting settings such as all detection areas, mask areas, lines for detection, and directions for detection superimposed on the past image. The processor 21 erases all the parameters set in the past video when, for example, the all erase button Bt6 is selected by the user operation.

図3に示す撮像映像表示領域Mn11は、撮像領域中において多角形状を構成するラインML1で囲まれ、マスクエリアとして設定された領域Ar1と、多角形状を構成するラインML2で囲まれ、検知エリアとして設定された領域Ar2とが重畳されて表示されている。 The captured image display region Mn11 shown in FIG. 3 is surrounded by a line ML1 forming a polygonal shape in the imaging region, and is surrounded by a region Ar1 set as a mask area and a line ML2 forming a polygonal shape as a detection area. The set area Ar2 is superimposed and displayed.

図4および図5を参照して、奥行き設定の方法について説明する。図4は、奥行き設定画面Mn2の一例を示す図である。図5は、奥行き設定画面Mn3の一例を示す図である。なお、図4および図5に示す奥行き設定画面Mn2において、図3と同一の機能を実現するものには同一の符号を付すことでその説明を省略する。奥行き設定画面Mn2,Mn3のそれぞれは、図2に示す複数の詳細設定ボタンSBt1〜SBt5のそれぞれのうち、ユーザ操作により検知設定を行うための詳細設定ボタンSBt2が選択(押下)された際に、プロセッサ21により生成されて、モニタ23に表示される。 A method of setting the depth will be described with reference to FIGS. 4 and 5. FIG. 4 is a diagram showing an example of the depth setting screen Mn2. FIG. 5 is a diagram showing an example of the depth setting screen Mn3. In the depth setting screens Mn2 shown in FIGS. 4 and 5, those that realize the same functions as those in FIG. 3 are designated by the same reference numerals, and the description thereof will be omitted. Each of the depth setting screens Mn2 and Mn3 is displayed when the detailed setting button SBt2 for performing the detection setting by the user operation is selected (pressed) from each of the plurality of detailed setting buttons SBt1 to SBt5 shown in FIG. It is generated by the processor 21 and displayed on the monitor 23.

図4に示す撮像映像表示領域Mn21には、総撮像時間25分40秒の過去映像の内、6分10秒における撮像画像が表示されている。撮像映像表示領域Mn21に表示された撮像画像には、人物U1が映っている。 In the captured image display area Mn21 shown in FIG. 4, the captured image at 6 minutes and 10 seconds out of the past images having a total imaging time of 25 minutes and 40 seconds is displayed. The person U1 is reflected in the captured image displayed in the captured image display area Mn21.

図5に示す撮像映像表示領域Mn31には、総撮像時間25分40秒の過去映像の内、6分35秒における撮像画像が表示されている。撮像映像表示領域Mn31に表示された撮像画像には、図4に示す人物U1と同一人物である人物U2が映っている。なお、ここで撮像される人物はユーザであってよい。 In the captured image display area Mn31 shown in FIG. 5, the captured image at 6 minutes and 35 seconds out of the past images having a total imaging time of 25 minutes and 40 seconds is displayed. The captured image displayed in the captured image display area Mn31 shows a person U2 who is the same person as the person U1 shown in FIG. The person imaged here may be a user.

プロセッサ21は、複数の撮像画像のそれぞれを監視カメラC1に送信する。また、プロセッサ21は、複数の撮像画像のそれぞれについて、ユーザ操作により人物U1,U2が映る領域が囲まれると、囲まれた人物U1が映る領域U11および人物U2が映る領域U21のそれぞれの情報を監視カメラC1に送信する。 The processor 21 transmits each of the plurality of captured images to the surveillance camera C1. Further, when the areas in which the persons U1 and U2 are projected are surrounded by the user operation for each of the plurality of captured images, the processor 21 provides information on the areas U11 in which the enclosed persons U1 are displayed and the areas U21 in which the people U2 are displayed. It is transmitted to the surveillance camera C1.

監視カメラC1におけるプロセッサ11は、受信された複数の撮像画像のそれぞれと、複数の領域U11,U21のそれぞれの情報とを用いた画像処理を実行し、奥行き設定を行う。プロセッサ11は、撮像画像の水平方向のピクセル数および垂直方向のピクセル数を計測する。また、プロセッサ11は、領域U11の水平方向のピクセル数および垂直方向のピクセル数(つまり領域U11の大きさ)と、領域U21の水平方向のピクセル数および垂直方向のピクセル数と(つまり領域U21の大きさ)を計測する。プロセッサ11は、計測された複数の領域U11,U21のそれぞれの大きさに基づいて、消失点P0を算出し、撮像領域内における消失点P0との間の距離であって、消失点P0から等しい距離にある位置(座標)を繋いで生成された複数の等距離線ML31のそれぞれと、消失点P0を基準として等しい角度にある位置(座標)を繋いで生成された複数の等角度線ML32のそれぞれとを生成する。プロセッサ11は、生成された消失点P0、複数の等距離線ML31のそれぞれおよび複数の等角度線ML32のそれぞれを用いて、過去映像(撮像画像)の奥行き情報を生成し、メモリ12に記憶する。また、プロセッサ11は、生成された奥行き情報を端末装置P1に送信する。 The processor 11 in the surveillance camera C1 executes image processing using each of the received plurality of captured images and the information of each of the plurality of areas U11 and U21, and sets the depth. The processor 11 measures the number of pixels in the horizontal direction and the number of pixels in the vertical direction of the captured image. Further, the processor 11 includes the number of pixels in the horizontal direction and the number of pixels in the vertical direction of the area U11 (that is, the size of the area U11) and the number of pixels in the horizontal direction and the number of pixels in the vertical direction of the area U21 (that is, the size of the area U21). Size) is measured. The processor 11 calculates the vanishing point P0 based on the respective sizes of the plurality of measured regions U11 and U21, and is the distance between the vanishing point P0 and the vanishing point P0 in the imaging region, which is equal to the vanishing point P0. Each of the plurality of equidistant lines ML31 generated by connecting the positions (coordinates) at a distance and the plurality of equiangular lines ML32 generated by connecting the positions (coordinates) at the same angle with respect to the vanishing point P0. Generate each and. The processor 11 generates depth information of a past image (captured image) using each of the generated vanishing point P0, each of the plurality of equidistant lines ML31, and each of the plurality of equidistant lines ML32, and stores the depth information in the memory 12. .. Further, the processor 11 transmits the generated depth information to the terminal device P1.

これにより、実施の形態1に係る監視カメラC1は、他の監視カメラによって撮像された過去映像のデータを用いて検知対象の検知処理を実行する場合であっても、メモリ12に記憶された奥行き情報に基づいて、ユーザ操作により設定された検知対象の大きさに基づく検知を実行できる。 As a result, the surveillance camera C1 according to the first embodiment has a depth stored in the memory 12 even when the detection process of the detection target is executed using the data of the past video captured by another surveillance camera. Based on the information, the detection based on the size of the detection target set by the user operation can be executed.

図6は、感度設定およびその他設定画面Mn4の一例を示す図である。なお、図6に示す感度設定およびその他設定画面Mn4において、図3と同一の機能を実現するものには同一の符号を付すことでその説明を省略する。感度設定およびその他設定画面Mn4のそれぞれは、図2に示す複数の詳細設定ボタンSBt1〜SBt5のそれぞれのうち、ユーザ操作により感度またはその他の設定を行うための詳細設定ボタンSBt4が選択(押下)された際に、プロセッサ21により生成されて、モニタ23に表示される。 FIG. 6 is a diagram showing an example of the sensitivity setting and other setting screen Mn4. In the sensitivity setting and other setting screens Mn4 shown in FIG. 6, those that realize the same functions as those in FIG. 3 are designated by the same reference numerals, and the description thereof will be omitted. For each of the sensitivity setting and other setting screens Mn4, the detailed setting button SBt4 for setting the sensitivity or other settings by user operation is selected (pressed) from each of the plurality of detailed setting buttons SBt1 to SBt5 shown in FIG. At that time, it is generated by the processor 21 and displayed on the monitor 23.

撮像映像表示領域Mn41には、総撮像時間25分40秒の過去映像の内、6分01秒における撮像画像が表示されている。撮像映像表示領域Mn41に表示された撮像画像は、交差点を撮像した撮像画像であって、二輪車を運転する人物H1と、人物H2と、複数の車両H3,H4,H5,H6,H7,H8のそれぞれが映っている。 In the captured image display area Mn41, the captured image at 6 minutes 01 seconds out of the past images having a total imaging time of 25 minutes and 40 seconds is displayed. The captured image displayed in the captured image display area Mn41 is an captured image of an intersection, and is a captured image of a person H1 and a person H2 driving a two-wheeled vehicle, and a plurality of vehicles H3, H4, H5, H6, H7, and H8. Each is reflected.

プロセッサ21は、ユーザ操作により詳細設定ボタンBt7が選択(押下)されると、感度設定およびその他設定を行う設定欄Dt0を表示する。 When the detailed setting button Bt7 is selected (pressed) by the user operation, the processor 21 displays the setting field Dt0 for setting the sensitivity and other settings.

設定欄Dt0は、感度設定欄Dt1と、時間設定欄Dt2と、大きさ設定欄Dt3とを含む。感度設定欄Dt1は、感度に関する複数の設定項目Dt11,Dt12,Dt13,Dt14のそれぞれを有する。時間設定欄Dt2は、時間に関する複数の設定項目Dt21,Dt22,Dt23のそれぞれを有する。大きさ設定欄Dt3は、検知する大きさに関する設定項目Dt31,Dt32のそれぞれを有する。なお、図6に示され、設定欄Dt0に含まれる感度設定欄Dt1、時間設定欄Dt2、および大きさ設定欄Dt3は一例であって、これらに限定されないことは言うまでもない。また、同様に、図6に示される複数の設定項目Dt11〜Dt14,Dt21〜Dt23,Dt31〜Dt32のそれぞれは一例であって、これらの項目に限定されない。 The setting field Dt0 includes a sensitivity setting field Dt1, a time setting field Dt2, and a size setting field Dt3. The sensitivity setting column Dt1 has a plurality of setting items Dt11, Dt12, Dt13, and Dt14 regarding sensitivity. The time setting field Dt2 has a plurality of setting items Dt21, Dt22, and Dt23 related to time. The size setting field Dt3 has setting items Dt31 and Dt32 related to the size to be detected, respectively. It goes without saying that the sensitivity setting column Dt1, the time setting column Dt2, and the size setting column Dt3, which are shown in FIG. 6 and are included in the setting column Dt0, are examples and are not limited thereto. Similarly, each of the plurality of setting items Dt11 to Dt14, Dt21 to Dt23, and Dt31 to Dt32 shown in FIG. 6 is an example and is not limited to these items.

設定項目Dt11は、監視カメラC1におけるAI処理部14で実行される画像処理に関する設定であって、ユーザ操作によって設定された検知対象を撮像画像から検出する検出感度を調整可能なスライドバーである。AI処理部14は、設定項目Dt11において、スライドバーがより小さい数字あるいは−(マイナス)側に調整された場合、検知対象の検出感度を低く(小さく)する。AI処理部14は、設定項目Dt11において、スライドバーがより大きい数字あるいは+(プラス)側に調整された場合、検知対象の検出感度を高く(大きく)する。 The setting item Dt11 is a setting related to image processing executed by the AI processing unit 14 in the surveillance camera C1, and is a slide bar capable of adjusting the detection sensitivity for detecting the detection target set by the user operation from the captured image. In the setting item Dt11, the AI processing unit 14 lowers (reduces) the detection sensitivity of the detection target when the slide bar is adjusted to a smaller number or- (minus) side. In the setting item Dt11, the AI processing unit 14 increases (increases) the detection sensitivity of the detection target when the slide bar is adjusted to a larger number or the + (plus) side.

設定項目Dt12は、監視カメラC1におけるAI処理部14で実行される画像処理に関する設定であって、撮像画像から検出された動体が検知対象である人物であるか否かを判定する判定感度を調整可能なスライドバーである。AI処理部14は、設定項目Dt12において、スライドバーがより小さい数字あるいは−(マイナス)側に調整された場合、人物の判定感度を低く(小さく)する。AI処理部14は、設定項目Dt12において、スライドバーがより大きい数字あるいは+(プラス)側に調整された場合、人物の判定感度を高く(大きく)する。例えば、設定項目Dt12を用いて人物を検知する場合、監視カメラC1におけるAI処理部14は、人物H1,H2のそれぞれを検知する。 The setting item Dt12 is a setting related to image processing executed by the AI processing unit 14 in the surveillance camera C1 and adjusts the determination sensitivity for determining whether or not the moving object detected from the captured image is a person to be detected. A possible slide bar. In the setting item Dt12, the AI processing unit 14 lowers (decreases) the determination sensitivity of the person when the slide bar is adjusted to a smaller number or the − (minus) side. In the setting item Dt12, the AI processing unit 14 increases (increases) the determination sensitivity of a person when the slide bar is adjusted to a larger number or the + (plus) side. For example, when a person is detected using the setting item Dt12, the AI processing unit 14 in the surveillance camera C1 detects each of the persons H1 and H2.

設定項目Dt13は、監視カメラC1におけるAI処理部14で実行される画像処理に関する設定であって、撮像画像から検出された動体が検知対象である車両であるか否かを判定する判定感度を調整可能なスライドバーである。AI処理部14は、設定項目Dt13において、スライドバーがより小さい数字あるいは−(マイナス)側に調整された場合、車両の判定感度を低く(小さく)する。AI処理部14は、設定項目Dt13において、スライドバーがより大きい数字あるいは+(プラス)側に調整された場合、車両の判定感度を高く(大きく)する。例えば、設定項目Dt13を用いて車両を検知する場合、監視カメラC1におけるAI処理部14は、複数の車両H3〜H8のそれぞれを検知する。 The setting item Dt13 is a setting related to image processing executed by the AI processing unit 14 in the surveillance camera C1 and adjusts the determination sensitivity for determining whether or not the moving object detected from the captured image is the vehicle to be detected. A possible slide bar. In the setting item Dt13, the AI processing unit 14 lowers (decreases) the determination sensitivity of the vehicle when the slide bar is adjusted to a smaller number or- (minus) side. In the setting item Dt13, the AI processing unit 14 increases (increases) the determination sensitivity of the vehicle when the slide bar is adjusted to a larger number or the + (plus) side. For example, when the vehicle is detected using the setting item Dt13, the AI processing unit 14 in the surveillance camera C1 detects each of the plurality of vehicles H3 to H8.

設定項目Dt14は、監視カメラC1におけるAI処理部14で実行される画像処理に関する設定であって、撮像画像から検出された動体が検知対象である二輪車(例えば自転車、バイクなど)であるか否かを判定する判定感度を調整可能なスライドバーである。AI処理部14は、設定項目Dt14において、スライドバーがより小さい数字あるいは−(マイナス)側に調整された場合、二輪車の判定感度を低く(小さく)する。AI処理部14は、設定項目Dt14において、スライドバーがより大きい数字あるいは+(プラス)側に調整された場合、二輪車の判定感度を高く(大きく)する。例えば、設定項目Dt14を用いて二輪車を検知する場合、監視カメラC1におけるAI処理部14は、二輪車を運転する人物H2あるいは人物H2が運転する二輪車を検知する。 The setting item Dt14 is a setting related to image processing executed by the AI processing unit 14 in the surveillance camera C1, and whether or not the moving object detected from the captured image is a two-wheeled vehicle (for example, a bicycle, a motorcycle, etc.) to be detected. It is a slide bar that can adjust the judgment sensitivity to judge. In the setting item Dt14, the AI processing unit 14 lowers (reduces) the determination sensitivity of the two-wheeled vehicle when the slide bar is adjusted to a smaller number or- (minus) side. In the setting item Dt14, the AI processing unit 14 increases (increases) the determination sensitivity of the two-wheeled vehicle when the slide bar is adjusted to a larger number or the + (plus) side. For example, when the motorcycle is detected by using the setting item Dt14, the AI processing unit 14 in the surveillance camera C1 detects the person H2 who drives the motorcycle or the motorcycle driven by the person H2.

設定項目Dt21は、検知エリア内へ侵入した動体を検知した際に、アラートを出力する条件を設定するための項目である。端末装置P1におけるプロセッサ21は、ユーザ操作により設定項目Dt21にセット(設定)されたパラメータを監視カメラC1に送信する。監視カメラC1におけるプロセッサ11は、検知エリア内に動体の侵入設定を検知し、さらに動体が設定された時間(例えば2秒)以上継続して侵入状態である場合、検知エリアへ動体が侵入したと判定する。プロセッサ11は、侵入検知後、検知エリア内に動体が侵入している旨を通知するアラートを生成して端末装置P1に送信する。 The setting item Dt21 is an item for setting a condition for outputting an alert when a moving object that has entered the detection area is detected. The processor 21 in the terminal device P1 transmits the parameters set (set) in the setting item Dt21 to the surveillance camera C1 by the user operation. The processor 11 in the surveillance camera C1 detects the intrusion setting of the moving object in the detection area, and when the moving object is in the intruding state continuously for the set time (for example, 2 seconds) or more, it is said that the moving object has invaded the detection area. judge. After the intrusion is detected, the processor 11 generates an alert notifying that a moving object is invading the detection area and transmits it to the terminal device P1.

設定項目Dt22は、検知エリア内で動体の滞留を検知した際に、アラートを出力する条件を設定するための項目である。端末装置P1におけるプロセッサ21は、ユーザ操作により設定項目Dt23にセット(設定)されたパラメータを監視カメラC1に送信する。監視カメラC1におけるプロセッサ11は、検知エリア内に動体の侵入設定を検知し、さらに動体が設定された時間(例えば10秒)以上継続して検知エリア内に滞留した場合、検知エリアに動体が滞留していると判定する。プロセッサ11は、滞留検知後、検知エリア内に動体が滞留している旨を通知するアラートを生成して端末装置P1に送信する。 The setting item Dt22 is an item for setting a condition for outputting an alert when a moving object stays in the detection area. The processor 21 in the terminal device P1 transmits the parameters set (set) in the setting item Dt23 by the user operation to the surveillance camera C1. The processor 11 in the surveillance camera C1 detects the intrusion setting of the moving object in the detection area, and when the moving object continuously stays in the detection area for a set time (for example, 10 seconds) or longer, the moving object stays in the detection area. Judge that it is. After the stay detection, the processor 11 generates an alert notifying that the moving object is staying in the detection area and transmits it to the terminal device P1.

設定項目Dt23は、検知エリア内で動体が設定された方向に移動したことを検知した際に、アラートを出力する条件を設定するための項目である。端末装置P1におけるプロセッサ21は、ユーザ操作により設定項目Dt23にセット(設定)されたパラメータを監視カメラC1に送信する。監視カメラC1におけるプロセッサ11は、検知エリア内の動体が、ユーザ操作によりセット(設定)された方向に、設定された時間(例えば2秒)継続して移動した場合、検知エリアに動体が設定された方向に移動していると判定する。プロセッサ11は、方向検知後、動体が設定された方向に移動している旨を通知するアラートを生成して端末装置P1に送信する。 The setting item Dt23 is an item for setting a condition for outputting an alert when it is detected that the moving object has moved in the set direction in the detection area. The processor 21 in the terminal device P1 transmits the parameters set (set) in the setting item Dt23 by the user operation to the surveillance camera C1. The processor 11 in the surveillance camera C1 sets the moving object in the detection area when the moving object in the detection area continuously moves in the direction set (set) by the user operation for a set time (for example, 2 seconds). It is determined that the camera is moving in the same direction. After detecting the direction, the processor 11 generates an alert notifying that the moving object is moving in the set direction and transmits it to the terminal device P1.

設定項目Dt31は、検知エリア内において検出される動体のうち、アラートを出力する動体の大きさを設定するための項目である。端末装置P1におけるプロセッサ21は、ユーザ操作により設定項目Dt31にセット(設定)されたパラメータを監視カメラC1に送信する。監視カメラC1におけるプロセッサ11は、監視カメラC1の画角の例えば1/2以下の大きさで、かつ動きがある場合、検知エリア内に動体が存在すると判定する。 The setting item Dt31 is an item for setting the size of the moving body that outputs an alert among the moving bodies detected in the detection area. The processor 21 in the terminal device P1 transmits the parameters set (set) in the setting item Dt31 to the surveillance camera C1 by the user operation. The processor 11 in the surveillance camera C1 determines that a moving object exists in the detection area when the angle of view of the surveillance camera C1 is, for example, 1/2 or less and there is movement.

設定項目Dt32は、検知エリア内において検出される動体のうち、アラートを出力する動体の小ささを設定するための項目である。端末装置P1におけるプロセッサ21は、ユーザ操作により設定項目Dt32にセット(設定)されたパラメータを監視カメラC1に送信する。監視カメラC1におけるプロセッサ11は、監視カメラC1の画角の例えば1/5以上の大きさで、かつ動きがある場合、検知エリア内に動体が存在すると判定する。 The setting item Dt32 is an item for setting the smallness of the moving body that outputs an alert among the moving bodies detected in the detection area. The processor 21 in the terminal device P1 transmits the parameters set (set) in the setting item Dt32 to the surveillance camera C1 by the user operation. The processor 11 in the surveillance camera C1 determines that a moving object exists in the detection area when the angle of view of the surveillance camera C1 is, for example, 1/5 or more and there is movement.

図7は、画質詳細設定画面Mn5の一例を示す図である。なお、図7に示す画質詳細設定画面Mn5において、図3および図6と同一の機能を実現するものには同一の符号を付すことでその説明を省略する。 FIG. 7 is a diagram showing an example of the image quality detailed setting screen Mn5. In the detailed image quality setting screen Mn5 shown in FIG. 7, those that realize the same functions as those in FIGS. 3 and 6 are designated by the same reference numerals, and the description thereof will be omitted.

まず、図2に示す複数の詳細設定ボタンSBt1〜SBt5のそれぞれのうち、ユーザ操作により画質設定を行うための詳細設定ボタンSBt5が選択(押下)されると、端末装置P1におけるプロセッサ21は、ユーザ操作により選択された詳細設定ボタンSBt5の情報を監視カメラC1に送信する。監視カメラC1におけるプロセッサ11は、受信された情報に基づいて、撮像部13に撮像領域の撮像を開始させる制御信号を生成して送信し、撮像部13によるライブ画(つまりリアルタイム)の撮像を開始させる。プロセッサ11は、撮像部13によって撮像されたライブ映像のデータを監視カメラC1に送信する。端末装置P1におけるプロセッサ21は、GUIウィジェットとしてタブTb2を生成し、受信されたライブ映像のデータを撮像映像表示領域Mn51に表示する。 First, when the detailed setting button SBt5 for setting the image quality by the user operation is selected (pressed) from each of the plurality of detailed setting buttons SBt1 to SBt5 shown in FIG. 2, the processor 21 in the terminal device P1 uses the user. The information of the detailed setting button SBt5 selected by the operation is transmitted to the surveillance camera C1. Based on the received information, the processor 11 in the surveillance camera C1 generates and transmits a control signal for starting the imaging of the imaging region to the imaging unit 13, and starts imaging the live image (that is, real time) by the imaging unit 13. Let me. The processor 11 transmits the data of the live image captured by the imaging unit 13 to the surveillance camera C1. The processor 21 in the terminal device P1 generates a tab Tb2 as a GUI widget, and displays the received live video data in the captured video display area Mn51.

タブTb2は、さらに簡単画質設定ボタンBt8および実行ボタンBt12を含んで構成される。プロセッサ21は、簡単画質設定ボタンBt8をユーザ操作により押下されると、画質設定を行うための画面として画質設定画面Mn52および簡単画質設定画面(不図示)のそれぞれを表示させる。図7では、ユーザ操作により簡単画質設定ボタンBt8が押下され、画質設定画面Mn52が撮像映像表示領域Mn51を含むタブTb2と同一画面(つまり画質詳細設定画面Mn5)上に表示された例を示す。 The tab Tb2 is further configured to include a simple image quality setting button Bt8 and an execution button Bt12. When the simple image quality setting button Bt8 is pressed by a user operation, the processor 21 displays each of the image quality setting screen Mn52 and the simple image quality setting screen (not shown) as screens for setting the image quality. FIG. 7 shows an example in which the simple image quality setting button Bt8 is pressed by a user operation, and the image quality setting screen Mn52 is displayed on the same screen as the tab Tb2 including the captured image display area Mn51 (that is, the image quality detailed setting screen Mn5).

画質設定画面Mn52は、画質を設定する際の複数の設定項目のそれぞれ(例えば、スーパーダイナミック、光量制限モード、白黒切換、IR(infrared) LED Light、デジタル・ノイズ・リダクションなど)を含んで生成される。例えば、画質設定画面Mn52に含まれる複数の設定項目のそれぞれのうち、項目「マスクエリア」は、開始ボタンBt9、終了ボタンBt10およびリセットボタンBt11のそれぞれを有する。開始ボタンBt9は、ユーザ操作により押下されると、現在設定されているマスクエリアを有効化し、マスクエリア内における検出および検知処理を無効化する。終了ボタンBt10は、ユーザ操作により押下されると、現在設定されているマスクエリアを無効化し、マスクエリア内における検出および検知処理を有効化する。リセットボタンBt11は、ユーザ操作により押下されると、現在設定されているマスクエリアの情報をリセット(削除)する。 The image quality setting screen Mn52 is generated including each of a plurality of setting items (for example, super dynamic, light amount limiting mode, black-and-white switching, IR (infrared) LED Light, digital noise reduction, etc.) when setting the image quality. To. For example, among each of the plurality of setting items included in the image quality setting screen Mn52, the item "mask area" has a start button Bt9, an end button Bt10, and a reset button Bt11, respectively. When the start button Bt9 is pressed by a user operation, the currently set mask area is enabled, and the detection and detection processing in the mask area is invalidated. When the end button Bt10 is pressed by a user operation, the currently set mask area is invalidated, and detection and detection processing in the mask area are enabled. When the reset button Bt11 is pressed by a user operation, the currently set mask area information is reset (deleted).

実行ボタンBt12は、ユーザ操作により押下されると、現在設定されている画質設定を反映して実行させる。プロセッサ21は、実行ボタンBt12の押下を検知すると、現在設定されている画質のパラメータを監視カメラC1に送信する。監視カメラC1におけるプロセッサ11は、受信された画質のパラメータに基づいて、ライブ映像(撮像画像)の画像処理を実行して端末装置P1に送信する。端末装置P1におけるプロセッサ21は、受信された画像処理後のライブ映像(撮像画像)をモニタ23に出力するとともに、撮像映像表示領域Mn51に表示させる。 When the execution button Bt12 is pressed by a user operation, the execution button Bt12 reflects the currently set image quality setting and is executed. When the processor 21 detects that the execution button Bt12 is pressed, the processor 21 transmits the currently set image quality parameter to the surveillance camera C1. The processor 11 in the surveillance camera C1 executes image processing of the live image (captured image) based on the received image quality parameter and transmits the image processing to the terminal device P1. The processor 21 in the terminal device P1 outputs the received live image (captured image) after image processing to the monitor 23 and displays it in the captured image display area Mn51.

図8を参照して、実施の形態1に係るパラメータ設定支援システム100の動作手順について説明する。図8は、実施の形態1に係るパラメータ設定支援システム100の動作手順例を示すフローチャートである。 The operation procedure of the parameter setting support system 100 according to the first embodiment will be described with reference to FIG. FIG. 8 is a flowchart showing an example of an operation procedure of the parameter setting support system 100 according to the first embodiment.

端末装置P1は、ユーザ操作により複数の設定種別のそれぞれのうち、設定したい種別に関する選択を受け付ける。端末装置P1は、複数の詳細設定ボタンSBt1〜SBt5のそれぞれのうち、ユーザ操作により押下(選択)された詳細設定ボタンが画質に関する設定を行うための詳細設定ボタンSBt1であるか否かを判定する(St1)。 The terminal device P1 accepts a selection regarding the type to be set from each of the plurality of setting types by user operation. The terminal device P1 determines whether or not the detailed setting button pressed (selected) by the user operation is the detailed setting button SBt1 for setting the image quality among the plurality of detailed setting buttons SBt1 to SBt5. (St1).

端末装置P1は、ステップSt1の処理において、ユーザ操作により押下(選択)された詳細設定ボタンが画質に関する設定を行うための詳細設定ボタンSBt1である場合(St1,YES)、撮像したい撮像場所の撮像を開始させる(St2)。 In the process of step St1, when the detailed setting button pressed (selected) by the user operation is the detailed setting button SBt1 for setting the image quality (St1, YES), the terminal device P1 captures the imaging location to be imaged. Is started (St2).

一方、端末装置P1は、ステップSt1の処理において、ユーザ操作により押下(選択)された詳細設定ボタンが画質に関する設定を行うための詳細設定ボタンSBt1でない(つまり、画質以外のパラメータの入力を行う)場合(St1,NO)、監視カメラC1の画像処理における設定を行うために監視カメラC1におけるメモリ12あるいは外部記憶媒体M1に記憶された過去の過去映像のデータを取り込む(St3)。なお、取り込む過去の過去映像のデータは、ユーザ操作により選択されてよい。 On the other hand, in the terminal device P1, in the process of step St1, the detailed setting button pressed (selected) by the user operation is not the detailed setting button SBt1 for setting the image quality (that is, parameters other than the image quality are input). In the case (St1, NO), the data of the past past video stored in the memory 12 in the surveillance camera C1 or the external storage medium M1 is taken in to make the setting in the image processing of the surveillance camera C1 (St3). The data of the past video to be captured may be selected by the user operation.

監視カメラC1は、ステップSt2の処理において撮像部13による撮像を開始し、撮像されたライブ映像のデータを端末装置P1に送信する。端末装置P1は、受信されたライブ映像を用いて、ライブ映像を表示する撮像映像表示領域を含む設定画面(例えば、図7に示す画質詳細設定画面Mn5)を生成し、モニタ23に表示させる(St4)。 The surveillance camera C1 starts imaging by the imaging unit 13 in the process of step St2, and transmits the captured live video data to the terminal device P1. The terminal device P1 uses the received live image to generate a setting screen (for example, the image quality detailed setting screen Mn5 shown in FIG. 7) including an captured image display area for displaying the live image, and displays the setting screen on the monitor 23 (for example). St4).

端末装置P1は、ユーザ操作による簡単画質設定ボタンBt8の押下(選択)を検知する(St5)。 The terminal device P1 detects the pressing (selection) of the simple image quality setting button Bt8 by the user operation (St5).

端末装置P1は、ユーザ操作による簡単画質設定ボタンBt8の押下(選択)を検知した場合(St5,YES)、画質の詳細設定を行うための複数の設定項目のそれぞれを含む画質設定画面Mn52を表示する(St6)。端末装置P1は、複数の設定項目のそれぞれについてユーザ操作を受け付ける。ここで、画質設定画面Mn52は、撮像映像表示領域Mn51とともに同一画面(つまり画質詳細設定画面Mn5)上に表示される。これにより、ユーザは、ライブ映像を確認しながら画質に関する設定を行うことができる。 When the terminal device P1 detects that the simple image quality setting button Bt8 is pressed (selected) by a user operation (St5, YES), the terminal device P1 displays an image quality setting screen Mn52 including each of a plurality of setting items for performing detailed image quality settings. (St6). The terminal device P1 accepts user operations for each of the plurality of setting items. Here, the image quality setting screen Mn52 is displayed on the same screen (that is, the image quality detailed setting screen Mn5) together with the captured image display area Mn51. This allows the user to make settings related to image quality while checking the live video.

一方、端末装置P1は、ユーザ操作による簡単画質設定ボタンBt8の押下(選択)を検知した場合(St5,NO)、あるいはステップSt6の処理において、画質の詳細設定が完了した場合、複数の検知ボタンIc1〜Ic4のそれぞれの選択による検知モード(例えば侵入、滞留、移動方向など)の設定あるいは描画種別欄Bt2による検知エリアおよびマスクエリアの設定を受け付ける(St7)。 On the other hand, the terminal device P1 detects the pressing (selection) of the simple image quality setting button Bt8 by the user operation (St5, NO), or when the detailed setting of the image quality is completed in the process of step St6, a plurality of detection buttons. It accepts the setting of the detection mode (for example, intrusion, retention, movement direction, etc.) by each selection of Ic1 to Ic4, or the setting of the detection area and the mask area by the drawing type column Bt2 (St7).

さらに、端末装置P1は、撮像領域の奥行き設定を実行する(St8)。具体的に端末装置P1は、撮像時刻が異なる複数の撮像画像のそれぞれから例えば同一人物を検出し、検出された人物の検出領域の大きさ(水平方向のピクセル数および垂直方向のピクセル数)に基づいて、消失点P0を算出する。端末装置P1は、算出された消失点P0を原点とする複数の等角度線および複数の等距離線のそれぞれを生成し、撮像領域の奥行設定を実行する。なお、端末装置P1は、人物の代わりに所定の撮像時刻における撮像画像内に同じ高さ(長さ)の棒などの目印を検出し、この目印の検出領域の大きさに基づいて奥行き設定を実行してもよい。 Further, the terminal device P1 executes the depth setting of the imaging region (St8). Specifically, the terminal device P1 detects, for example, the same person from each of a plurality of captured images having different imaging times, and determines the size of the detection area (the number of pixels in the horizontal direction and the number of pixels in the vertical direction) of the detected person. Based on this, the vanishing point P0 is calculated. The terminal device P1 generates each of a plurality of equidistant lines and a plurality of equidistant lines with the calculated vanishing point P0 as the origin, and executes the depth setting of the imaging region. The terminal device P1 detects a mark such as a bar having the same height (length) in the captured image at a predetermined imaging time instead of a person, and sets the depth based on the size of the detection area of the mark. You may do it.

端末装置P1は、ユーザ操作により詳細設定ボタンBt7が選択(押下)されると、スケジュール設定、感度設定およびその他設定を行う設定欄Dt0を表示し、ユーザ操作によるスケジュール設定、感度設定およびその他設定等の設定操作を受け付ける(St9)。 When the detailed setting button Bt7 is selected (pressed) by the user operation, the terminal device P1 displays the setting field Dt0 for performing the schedule setting, the sensitivity setting and other settings, and the schedule setting, the sensitivity setting and the other settings by the user operation are displayed. Accepts the setting operation of (St9).

端末装置P1は、ステップSt6〜St9における処理において受け付けた設定種別ごとのパラメータを監視カメラC1に送信する。監視カメラC1は、受信された設定種別ごとのパラメータに基づいて、撮像部13によって撮像されたライブ映像に画像処理を実行し、画像処理結果としてのライブ映像のデータおよび検知結果を端末装置P1に送信する。端末装置P1は、受信されたライブ映像を出力するとともに、検知結果をモニタ23に出力して、表示させる(St10)。 The terminal device P1 transmits the parameters for each setting type received in the processes in steps St6 to St9 to the surveillance camera C1. The surveillance camera C1 executes image processing on the live image captured by the imaging unit 13 based on the received parameters for each setting type, and transmits the live image data and the detection result as the image processing result to the terminal device P1. Send. The terminal device P1 outputs the received live video and outputs the detection result to the monitor 23 for display (St10).

監視カメラC1は、設定種別ごとのパラメータをメモリ12に記憶する(St11)。ステップSt11の処理の後、実施の形態1に係るパラメータ設定支援システム100は、動作手順を終了する。 The surveillance camera C1 stores the parameters for each setting type in the memory 12 (St11). After the process of step St11, the parameter setting support system 100 according to the first embodiment ends the operation procedure.

監視カメラC1は、ステップSt3の処理においてメモリ12あるいは外部記憶媒体M1に記憶された過去映像のデータを端末装置P1に送信する。端末装置P1は、受信された過去映像を用いて、過去映像を再生する撮像映像表示領域(例えば撮像映像表示領域Mn41)を含む画面(例えば感度設定およびその他設定画面Mn4)を生成し、モニタ23に表示させる(St12)。 The surveillance camera C1 transmits the data of the past video stored in the memory 12 or the external storage medium M1 in the process of step St3 to the terminal device P1. The terminal device P1 uses the received past image to generate a screen (for example, sensitivity setting and other setting screen Mn4) including an captured image display area (for example, captured image display area Mn41) for reproducing the past image, and monitors 23. Is displayed (St12).

端末装置P1は、ユーザ操作による複数の検知ボタンIc1〜Ic4のそれぞれの選択による検知モード(例えば侵入、滞留、移動方向など)の設定あるいは描画種別欄Bt2による検知エリアおよびマスクエリアの設定を受け付ける(St13)。 The terminal device P1 accepts the setting of the detection mode (for example, intrusion, retention, movement direction, etc.) by each selection of the plurality of detection buttons Ic1 to Ic4 by the user operation, or the setting of the detection area and the mask area by the drawing type column Bt2 ( St13).

さらに、端末装置P1は、撮像領域の奥行き設定を実行する(St14)。具体的に端末装置P1は、撮像時刻が異なる複数の撮像画像のそれぞれ(例えば、図4に示す撮像映像表示領域Mn21に表示された撮像画像および図5に示す撮像映像表示領域Mn31に表示された撮像画像)から例えば同一の人物U1,U2のそれぞれを検出し、検出された人物の検出領域の大きさ(水平方向のピクセル数および垂直方向のピクセル数)に基づいて、消失点P0を算出する。端末装置P1は、算出された消失点P0を原点とする複数の等角度線および複数の等距離線のそれぞれを生成し、撮像領域の奥行設定を実行する。これにより、ユーザは、予めユーザ自身が映るように撮像された過去映像のデータを用いて奥行き設定できる。つまり、実施の形態1に係るパラメータ設定支援システム100は、ユーザ1人で奥行き設定を行うことができる。なお、端末装置P1は、人物の代わりに所定の撮像時刻における撮像画像内に同じ高さ(長さ)の棒などの目印を検出し、この目印の検出領域の大きさに基づいて奥行き設定を実行してもよい。 Further, the terminal device P1 executes the depth setting of the imaging region (St14). Specifically, the terminal device P1 is displayed in each of the plurality of captured images having different imaging times (for example, the captured image displayed in the captured image display area Mn21 shown in FIG. 4 and the captured image display area Mn31 shown in FIG. 5). For example, each of the same person U1 and U2 is detected from the captured image), and the vanishing point P0 is calculated based on the size of the detection area (the number of pixels in the horizontal direction and the number of pixels in the vertical direction) of the detected person. .. The terminal device P1 generates each of a plurality of equidistant lines and a plurality of equidistant lines with the calculated vanishing point P0 as the origin, and executes the depth setting of the imaging region. As a result, the user can set the depth using the data of the past image captured in advance so that the user can see himself / herself. That is, in the parameter setting support system 100 according to the first embodiment, the depth can be set by one user. The terminal device P1 detects a mark such as a bar having the same height (length) in the captured image at a predetermined imaging time instead of a person, and sets the depth based on the size of the detection area of the mark. You may do it.

端末装置P1は、ユーザ操作により詳細設定ボタンBt7が選択(押下)されると、スケジュール設定、感度設定およびその他設定を行う設定欄Dt0を表示し、ユーザ操作によるスケジュール設定、感度設定およびその他設定等の設定操作を受け付ける(St15)。 When the detailed setting button Bt7 is selected (pressed) by the user operation, the terminal device P1 displays the setting field Dt0 for performing the schedule setting, the sensitivity setting and other settings, and the schedule setting, the sensitivity setting and the other settings by the user operation are displayed. Accepts the setting operation of (St15).

端末装置P1は、ステップSt13〜St15における処理において受け付けた設定種別ごとのパラメータを監視カメラC1に送信する。監視カメラC1は、受信された設定種別ごとのパラメータに基づいて、撮像部13によって撮像された過去映像に画像処理を実行し、画像処理結果としての過去映像のデータおよび検知結果を端末装置P1に送信する。端末装置P1は、受信された過去映像を再生するとともに、検知結果をモニタ23に出力して、表示させる(St16)。 The terminal device P1 transmits the parameters for each setting type received in the processes in steps St13 to St15 to the surveillance camera C1. The surveillance camera C1 executes image processing on the past image captured by the imaging unit 13 based on the received parameters for each setting type, and transmits the past image data and the detection result as the image processing result to the terminal device P1. Send. The terminal device P1 reproduces the received past video and outputs the detection result to the monitor 23 for display (St16).

端末装置P1は、ステップSt13〜St15における処理において受け付けた設定種別ごとのパラメータについて、再設定するか否かのユーザ操作を受け付ける(St17)。 The terminal device P1 accepts a user operation as to whether or not to reset the parameters for each setting type received in the processes in steps St13 to St15 (St17).

端末装置P1は、ステップSt13〜St15における処理において受け付けた設定種別ごとのパラメータについて、ユーザ操作により再設定が選択された場合(St17,YES)、ステップSt12の処理に移行する。 When the parameter for each setting type received in the processing in steps St13 to St15 is reset by the user operation (St17, YES), the terminal device P1 shifts to the processing in step St12.

一方、端末装置P1は、ステップSt13〜St15における処理において受け付けた設定種別ごとのパラメータについて、ユーザ操作により再設定が選択されなかった場合(St17,NO)、設定種別ごとのパラメータの設定完了を示す信号を生成して、監視カメラC1に送信する。監視カメラC1は、信号を受信すると、ステップSt11の処理に移行し、設定種別ごとのパラメータをメモリ12に記憶する(St11)。 On the other hand, the terminal device P1 indicates that the parameter setting for each setting type is completed when the resetting is not selected by the user operation for the parameter for each setting type received in the processing in steps St13 to St15 (St17, NO). A signal is generated and transmitted to the surveillance camera C1. When the surveillance camera C1 receives the signal, it shifts to the process of step St11 and stores the parameters for each setting type in the memory 12 (St11).

以上により、実施の形態1に係るパラメータ設定支援システム100の動作手順は終了する。なお、上述した実施の形態1に係るパラメータ設定支援システム100の動作手順は一例であって、これに限定されない。例えば、ステップSt6〜St9の処理、およびステップSt13〜St16の処理の順序は、図8に示すフローチャートと異なる順序で実行されてよい。さらに、ステップSt17の再設定をユーザに確認する処理は、ステップSt10の後に実行され、再設定が選択された場合には、ステップSt5の処理に移行してよい。また、ステップSt1において、ユーザにより押下(選択)された詳細設定ボタンが画質に関する設定を行うための詳細設定ボタンSBt1であっても、さらにユーザ操作により監視カメラC1におけるメモリ12あるいは外部記憶媒体M1に記憶された過去の過去映像のデータの取り込みを実行可能であってよい。パラメータ設定支援システム100は、ユーザ操作により過去映像のデータを用いて画質に関する設定を行う場合、ステップSt2において過去映像のデータの取り込みを実行してよい。 As described above, the operation procedure of the parameter setting support system 100 according to the first embodiment is completed. The operation procedure of the parameter setting support system 100 according to the first embodiment described above is an example, and is not limited thereto. For example, the processing of steps St6 to St9 and the processing of steps St13 to St16 may be executed in an order different from the flowchart shown in FIG. Further, the process of confirming the resetting of step St17 with the user may be executed after step St10, and if the resetting is selected, the process may shift to the process of step St5. Further, even if the detailed setting button pressed (selected) by the user in step St1 is the detailed setting button SBt1 for setting the image quality, the memory 12 in the surveillance camera C1 or the external storage medium M1 can be further operated by the user. It may be possible to capture the stored past video data. When the parameter setting support system 100 sets the image quality using the past video data by the user operation, the past video data may be captured in step St2.

以上により、実施の形態1に係るパラメータ設定支援システム100は、監視カメラC1と端末装置P1とが互いに通信可能に接続されたパラメータ設定支援システムである。端末装置P1は、ユーザ操作により選択された監視カメラC1のパラメータの設定種別(例えば、図2に示す画質設定、検知設定、奥行き設定、その他設定、スケジュール設定など)の情報を監視カメラC1に送信する。監視カメラC1は、受信された設定種別の情報が監視カメラC1の撮像画像の画質(つまり、画質設定を示す設定種別)でない場合、監視カメラC1に接続された外部記憶媒体M1に記憶された過去映像のデータを取得して端末装置P1に送信する。端末装置P1は、受信された過去映像を再生し、ユーザ操作により再生中の過去映像を用いた画質以外の設定種別ごとのパラメータの入力を受け付け、入力された設定種別ごとのパラメータ(複数の項目のそれぞれに設定された情報)を監視カメラC1に送信する。監視カメラC1は、受信された設定種別ごとのパラメータを設定する。 As described above, the parameter setting support system 100 according to the first embodiment is a parameter setting support system in which the surveillance camera C1 and the terminal device P1 are connected to each other so as to be able to communicate with each other. The terminal device P1 transmits information of the parameter setting type of the surveillance camera C1 selected by the user operation (for example, image quality setting, detection setting, depth setting, other setting, schedule setting, etc. shown in FIG. 2) to the surveillance camera C1. To do. When the received setting type information is not the image quality of the captured image of the surveillance camera C1 (that is, the setting type indicating the image quality setting), the surveillance camera C1 has the past stored in the external storage medium M1 connected to the surveillance camera C1. The video data is acquired and transmitted to the terminal device P1. The terminal device P1 reproduces the received past video, accepts the input of the parameter for each setting type other than the image quality using the past video being played by the user operation, and the input parameter for each setting type (plural items). Information set in each of the above) is transmitted to the surveillance camera C1. The surveillance camera C1 sets parameters for each received setting type.

これにより、実施の形態1に係るパラメータ設定支援システム100は、監視カメラC1あるいは他の監視カメラによって撮像された過去映像を用いて監視カメラC1のパラメータの設定を支援できる。よって、ユーザは、過去映像を用いて監視カメラC1のパラメータを設定できるため、例えば夜間など時間を指定したい場合、あるいは雨天など天候を指定したい場合などの条件であっても、時間あるいは天候によらず、監視カメラC1のパラメータを設定できる。また、ユーザは、監視カメラC1によって検知したい検知対象が撮像された過去映像を用いて検知に関するパラメータ(例えば、検知エリア、マスクエリア、各検知種別の検知設定など)を設定できる。 Thereby, the parameter setting support system 100 according to the first embodiment can support the parameter setting of the surveillance camera C1 by using the past image captured by the surveillance camera C1 or another surveillance camera. Therefore, since the user can set the parameters of the surveillance camera C1 using the past image, even if it is a condition such as when he / she wants to specify the time such as at night or when he / she wants to specify the weather such as rainy weather, it depends on the time or the weather. Instead, the parameters of the surveillance camera C1 can be set. In addition, the user can set parameters related to detection (for example, detection area, mask area, detection setting of each detection type, etc.) using the past image of the detection target to be detected by the surveillance camera C1.

また、実施の形態1に係るパラメータ設定支援システム100における監視カメラC1は、設定された設定種別ごとのパラメータに基づいて、過去映像の画像処理を実行し、画像処理後の過去映像を端末装置P1に送信し、モニタ23に出力させる。これにより、実施の形態1に係るパラメータ設定支援システム100は、パラメータに基づいて画像処理された過去映像を可視化できる。よって、ユーザは、モニタ23に表示された画像処理後の過去映像により、設定されたパラメータに基づいて実行された監視カメラC1による画像処理の性能確認を簡易に行える。 Further, the surveillance camera C1 in the parameter setting support system 100 according to the first embodiment executes image processing of the past image based on the set parameters for each setting type, and outputs the past image after the image processing to the terminal device P1. And output to the monitor 23. As a result, the parameter setting support system 100 according to the first embodiment can visualize the past image processed based on the parameters. Therefore, the user can easily confirm the performance of the image processing by the surveillance camera C1 executed based on the set parameters based on the past image after the image processing displayed on the monitor 23.

また、実施の形態1に係るパラメータ設定支援システム100における端末装置P1は、過去映像の表示領域(撮像映像表示領域の一例)を含む、設定種別ごとのパラメータの入力を受け付ける設定画面(例えば、図3に示すエリア設定画面Mn1、図4に示す奥行き設定画面Mn2、図5に示す奥行き設定画面Mn3、図6に示す感度設定およびその他設定画面Mn4、図7に示す画質詳細設定画面Mn5など)をモニタ23に出力する。これにより、実施の形態1に係るパラメータ設定支援システム100は、過去映像と設定種別ごとの設定画面とモニタ23に表示できる。よって、ユーザは、過去映像を確認しながら監視カメラC1の設定を行える。 Further, the terminal device P1 in the parameter setting support system 100 according to the first embodiment is a setting screen (for example, FIG. Area setting screen Mn1 shown in 3, depth setting screen Mn2 shown in FIG. 4, depth setting screen Mn3 shown in FIG. 5, sensitivity setting and other setting screen Mn4 shown in FIG. 6, image quality detailed setting screen Mn5 shown in FIG. 7, etc.) Output to the monitor 23. As a result, the parameter setting support system 100 according to the first embodiment can be displayed on the past video, the setting screen for each setting type, and the monitor 23. Therefore, the user can set the surveillance camera C1 while checking the past video.

また、実施の形態1に係るパラメータ設定支援システム100における端末装置P1は、ユーザ操作により画質が選択された場合、画質の設定を開始させる制御信号を生成して監視カメラC1に送信する。監視カメラC1は、画質の設定を開始させる制御信号を受信すると、監視カメラC1によって現在撮像されているライブ映像(撮像部13によって撮像されたライブ映像)を端末装置P1に送信する。端末装置P1は、受信されたライブ映像をモニタ23に出力する。これにより、実施の形態1に係るパラメータ設定支援システム100は、監視カメラC1によって撮像されているライブ映像を用いて監視カメラC1のパラメータの設定を支援できる。よって、ユーザは、他の監視カメラの性能などの影響を受けずに、監視カメラC1による画像処理の性能確認を行える。 Further, when the image quality is selected by the user operation, the terminal device P1 in the parameter setting support system 100 according to the first embodiment generates a control signal for starting the setting of the image quality and transmits it to the surveillance camera C1. When the surveillance camera C1 receives the control signal for starting the setting of the image quality, the surveillance camera C1 transmits the live image currently captured by the surveillance camera C1 (the live image captured by the imaging unit 13) to the terminal device P1. The terminal device P1 outputs the received live video to the monitor 23. Thereby, the parameter setting support system 100 according to the first embodiment can support the parameter setting of the surveillance camera C1 by using the live image captured by the surveillance camera C1. Therefore, the user can check the performance of image processing by the surveillance camera C1 without being affected by the performance of other surveillance cameras.

また、実施の形態1に係るパラメータ設定支援システム100における端末装置P1は、ユーザ操作により、表示領域(タブTb1に含まれる撮像映像表示領域の一例)にて過去映像の再生あるいは一時停止を行うとともに、画質以外の設定種別のパラメータの入力を受け付ける。これにより、実施の形態1に係るパラメータ設定支援システム100は、所定の再生時間におけるパラメータの入力を受け付けることができる。また、ユーザは、画像処理の性能を確認したい時間帯について、入力された設定種別のパラメータによる画像処理結果を確認できる。 Further, the terminal device P1 in the parameter setting support system 100 according to the first embodiment reproduces or pauses the past image in the display area (an example of the captured image display area included in the tab Tb1) by the user operation. , Accepts input of setting type parameters other than image quality. As a result, the parameter setting support system 100 according to the first embodiment can accept the input of parameters at a predetermined reproduction time. In addition, the user can confirm the image processing result by the input setting type parameter for the time zone in which the image processing performance is to be confirmed.

また、実施の形態1に係るパラメータ設定支援システム100における端末装置P1は、過去映像を用いた設定種別ごとのパラメータの入力を繰り返し受け付け、再入力された設定種別ごとのパラメータを監視カメラC1に送信する。監視カメラC1は、受信された設定種別ごとのパラメータに基づいて、過去映像の画像処理を実行し、画像処理後の過去映像を端末装置P1に送信し、モニタ23に出力させる。これにより、実施の形態1に係るパラメータ設定支援システム100は、入力された設定種別のパラメータごと画像処理された画像処理後の過去映像をモニタ23に表示できる。よって、ユーザは、設定種別のパラメータごとの画像処理結果のそれぞれの変化を十分に確認できるとともに、監視カメラC1の画像処理の性能を確認できる。 Further, the terminal device P1 in the parameter setting support system 100 according to the first embodiment repeatedly receives input of parameters for each setting type using past images, and transmits the re-input parameters for each setting type to the surveillance camera C1. To do. The surveillance camera C1 executes image processing of the past video based on the received parameters for each setting type, transmits the past video after the image processing to the terminal device P1, and outputs the past video to the monitor 23. As a result, the parameter setting support system 100 according to the first embodiment can display the past image after image processing, which has been image-processed for each parameter of the input setting type, on the monitor 23. Therefore, the user can sufficiently confirm each change of the image processing result for each parameter of the setting type, and can confirm the image processing performance of the surveillance camera C1.

以上、添付図面を参照しながら各種の実施の形態について説明したが、本開示はかかる例に限定されない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例、修正例、置換例、付加例、削除例、均等例に想到し得ることは明らかであり、それらについても本開示の技術的範囲に属すると了解される。また、発明の趣旨を逸脱しない範囲において、上述した各種の実施の形態における各構成要素を任意に組み合わせてもよい。 Although various embodiments have been described above with reference to the accompanying drawings, the present disclosure is not limited to such examples. It is clear that a person skilled in the art can come up with various modifications, modifications, substitutions, additions, deletions, and equality within the scope of the claims. It is understood that it belongs to the technical scope of the present disclosure. Further, each component in the various embodiments described above may be arbitrarily combined as long as the gist of the invention is not deviated.

本開示は、監視カメラの過去映像あるいはライブ映像を用いて監視カメラのパラメータの効率的な設定を支援するパラメータ設定支援システム、パラメータ設定支援方法およびパラメータ設定支援プログラムの提示として有用である。 The present disclosure is useful as a presentation of a parameter setting support system, a parameter setting support method, and a parameter setting support program that support efficient setting of parameters of a surveillance camera using past images or live images of a surveillance camera.

10,20 通信部
11,21 プロセッサ
12,22 メモリ
13 撮像部
14 AI処理部
14a AI演算処理部
14b 学習モデルDB
15 外部記憶媒体I/F
100 パラメータ設定支援システム
Ar1,Ar2 領域
C1 監視カメラ
M1 外部記憶媒体
NW1 ネットワーク
P1 端末装置
10,20 Communication unit 11,21 Processor 12,22 Memory 13 Imaging unit 14 AI processing unit 14a AI arithmetic processing unit 14b Learning model DB
15 External storage medium I / F
100 Parameter setting support system Ar1, Ar2 Area C1 Surveillance camera M1 External storage medium NW1 Network P1 Terminal device

Claims (8)

監視カメラと端末装置とが互いに通信可能に接続されたパラメータ設定支援システムであって、
前記端末装置は、
ユーザ操作により選択された前記監視カメラのパラメータの設定種別を前記監視カメラに送信し、
前記監視カメラは、
受信された前記設定種別が前記監視カメラの撮像画像の画質でない場合、前記監視カメラに接続された外部記憶媒体に記憶された過去に撮像された過去映像を取得して前記端末装置に送信し、
前記端末装置は、
受信された前記過去映像を再生し、
前記ユーザ操作により再生中の前記過去映像を用いた前記画質以外の設定種別ごとのパラメータの入力を受け付け、前記入力された前記設定種別ごとのパラメータを前記監視カメラに送信し、
前記監視カメラは、
受信された前記設定種別ごとの前記パラメータを設定する、
パラメータ設定支援システム。
It is a parameter setting support system in which a surveillance camera and a terminal device are connected so as to be able to communicate with each other.
The terminal device is
The setting type of the parameter of the surveillance camera selected by the user operation is transmitted to the surveillance camera, and the setting type is transmitted to the surveillance camera.
The surveillance camera
When the received setting type is not the image quality of the image captured by the surveillance camera, the past image stored in the external storage medium connected to the surveillance camera is acquired and transmitted to the terminal device.
The terminal device is
Play back the received past video and
By the user operation, the input of the parameter for each setting type other than the image quality using the past video being played is accepted, and the input parameter for each setting type is transmitted to the surveillance camera.
The surveillance camera
Set the parameters for each received setting type,
Parameter setting support system.
前記監視カメラは、
設定された前記設定種別ごとの前記パラメータに基づいて、前記過去映像の画像処理を実行し、
前記画像処理後の過去映像を前記端末装置に送信し、モニタに出力させる、
請求項1に記載のパラメータ設定支援システム。
The surveillance camera
Based on the set parameters for each setting type, the image processing of the past video is executed.
The past image after the image processing is transmitted to the terminal device and output to the monitor.
The parameter setting support system according to claim 1.
前記端末装置は、
前記過去映像の表示領域を含む、前記設定種別ごとの前記入力を受け付ける設定画面をモニタに出力する、
請求項1に記載のパラメータ設定支援システム。
The terminal device is
Output to the monitor a setting screen that accepts the input for each setting type, including the display area of the past video.
The parameter setting support system according to claim 1.
前記端末装置は、
前記ユーザ操作により前記画質が選択された場合、前記画質の設定を開始させる制御信号を生成して前記監視カメラに送信し、
前記監視カメラは、
前記画質の設定を開始させる前記制御信号を受信すると、前記監視カメラによって現在撮像されているライブ映像を前記端末装置に送信し、
前記端末装置は、
受信された前記ライブ映像を出力する、
請求項1に記載のパラメータ設定支援システム。
The terminal device is
When the image quality is selected by the user operation, a control signal for starting the setting of the image quality is generated and transmitted to the surveillance camera.
The surveillance camera
Upon receiving the control signal for starting the setting of the image quality, the live image currently captured by the surveillance camera is transmitted to the terminal device.
The terminal device is
Output the received live video,
The parameter setting support system according to claim 1.
前記端末装置は、
前記ユーザ操作により、前記表示領域にて前記過去映像の再生あるいは一時停止を行うとともに、前記画質以外の設定種別のパラメータの入力を受け付ける、
請求項3に記載のパラメータ設定支援システム。
The terminal device is
By the user operation, the past video is played or paused in the display area, and input of a parameter of a setting type other than the image quality is accepted.
The parameter setting support system according to claim 3.
前記端末装置は、
前記過去映像を用いた前記設定種別ごとのパラメータの入力を繰り返し受け付け、再入力された前記設定種別ごとのパラメータを前記監視カメラに送信し、
前記監視カメラは、
受信された前記設定種別ごとの前記パラメータに基づいて、前記過去映像の画像処理を実行し、
前記画像処理後の過去映像を前記端末装置に送信し、モニタに出力させる、
請求項1に記載のパラメータ設定支援システム。
The terminal device is
The input of the parameter for each setting type using the past video is repeatedly accepted, and the re-input parameter for each setting type is transmitted to the surveillance camera.
The surveillance camera
Based on the received parameters for each setting type, image processing of the past video is executed.
The past image after the image processing is transmitted to the terminal device and output to the monitor.
The parameter setting support system according to claim 1.
監視カメラと端末装置とが互いに通信可能に接続されたパラメータ設定支援方法であって、
ユーザ操作により選択された前記監視カメラのパラメータの設定種別が、前記監視カメラの撮像画像の画質でない場合、前記監視カメラに接続された外部記憶媒体に記憶された過去の過去映像を取得して再生し、
前記ユーザ操作により再生中の前記過去映像を用いた前記画質以外の設定種別ごとのパラメータの入力を受け付け、前記入力された前記設定種別ごとのパラメータを設定する、
パラメータ設定支援方法。
It is a parameter setting support method in which the surveillance camera and the terminal device are connected so as to be able to communicate with each other.
When the setting type of the parameter of the surveillance camera selected by the user operation is not the image quality of the image captured by the surveillance camera, the past past image stored in the external storage medium connected to the surveillance camera is acquired and played back. And
It accepts the input of parameters for each setting type other than the image quality using the past video being played by the user operation, and sets the input parameters for each setting type.
Parameter setting support method.
監視カメラと端末装置とが互いに通信可能に接続されたパラメータ設定支援プログラムであって、
ユーザ操作により選択された前記監視カメラのパラメータの設定種別が、前記監視カメラの撮像画像の画質でない場合、前記監視カメラに接続された外部記憶媒体に記憶された過去映像を取得して再生するステップと、
前記ユーザ操作により再生中の前記過去映像を用いた前記画質以外の設定種別ごとのパラメータの入力を受け付け、前記入力された前記設定種別ごとのパラメータを設定するステップと、を有する、
パラメータ設定支援プログラム。
It is a parameter setting support program in which the surveillance camera and the terminal device are connected so that they can communicate with each other.
When the setting type of the parameter of the surveillance camera selected by the user operation is not the image quality of the image captured by the surveillance camera, a step of acquiring and playing back the past image stored in the external storage medium connected to the surveillance camera. When,
It has a step of accepting input of parameters for each setting type other than the image quality using the past video being played by the user operation, and setting the input parameters for each setting type.
Parameter setting support program.
JP2019226619A 2019-12-16 2019-12-16 Parameter setting support system, parameter setting support method, and parameter setting support program Active JP7444431B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019226619A JP7444431B2 (en) 2019-12-16 2019-12-16 Parameter setting support system, parameter setting support method, and parameter setting support program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019226619A JP7444431B2 (en) 2019-12-16 2019-12-16 Parameter setting support system, parameter setting support method, and parameter setting support program

Publications (2)

Publication Number Publication Date
JP2021097299A true JP2021097299A (en) 2021-06-24
JP7444431B2 JP7444431B2 (en) 2024-03-06

Family

ID=76431698

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019226619A Active JP7444431B2 (en) 2019-12-16 2019-12-16 Parameter setting support system, parameter setting support method, and parameter setting support program

Country Status (1)

Country Link
JP (1) JP7444431B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004248090A (en) * 2003-02-14 2004-09-02 Canon Inc Camera setting device
JP2009141710A (en) * 2007-12-06 2009-06-25 Keyence Corp Moving image imaging apparatus, moving image display method, moving image display program, and computer-readable recording medium
JP2012039392A (en) * 2010-08-06 2012-02-23 Canon Inc Setting device, setting method, and program
JP2014179923A (en) * 2013-03-15 2014-09-25 Canon Inc Information processing apparatus, control method and program of information processing apparatus
JP2016099790A (en) * 2014-11-20 2016-05-30 パナソニックIpマネジメント株式会社 Monitoring system and monitoring method in monitoring system
WO2016157330A1 (en) * 2015-03-27 2016-10-06 日本電気株式会社 Mobile monitoring device, program, and control method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004248090A (en) * 2003-02-14 2004-09-02 Canon Inc Camera setting device
JP2009141710A (en) * 2007-12-06 2009-06-25 Keyence Corp Moving image imaging apparatus, moving image display method, moving image display program, and computer-readable recording medium
JP2012039392A (en) * 2010-08-06 2012-02-23 Canon Inc Setting device, setting method, and program
JP2014179923A (en) * 2013-03-15 2014-09-25 Canon Inc Information processing apparatus, control method and program of information processing apparatus
JP2016099790A (en) * 2014-11-20 2016-05-30 パナソニックIpマネジメント株式会社 Monitoring system and monitoring method in monitoring system
WO2016157330A1 (en) * 2015-03-27 2016-10-06 日本電気株式会社 Mobile monitoring device, program, and control method

Also Published As

Publication number Publication date
JP7444431B2 (en) 2024-03-06

Similar Documents

Publication Publication Date Title
US11308777B2 (en) Image capturing apparatus with variable event detecting condition
US10719946B2 (en) Information processing apparatus, method thereof, and computer-readable storage medium
KR101530255B1 (en) Cctv system having auto tracking function of moving target
WO2015186447A1 (en) Information processing device, photographing device, image sharing system, information processing method, and program
JP2016163075A (en) Video processing device, video processing method, and program
JP6465600B2 (en) Video processing apparatus and video processing method
JP6758918B2 (en) Image output device, image output method and program
JP6551226B2 (en) INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING METHOD, AND PROGRAM
WO2020151425A1 (en) Switching display method and system for 3d real scene visual monitoring
JP2013013066A5 (en)
KR20110093040A (en) Apparatus and method for monitoring an object
KR20180086662A (en) The Apparatus And The System For Monitoring
JP6602067B2 (en) Display control apparatus, display control method, and program
JP6600359B2 (en) monitoring
JPWO2021199230A5 (en) REMOTE MONITORING AND CONTROLLER, SYSTEM, METHOD AND PROGRAM
JP2006229631A (en) Image processor
JP7444431B2 (en) Parameter setting support system, parameter setting support method, and parameter setting support program
JP7354686B2 (en) Output control device, display control system, output control method and program
JP6766009B2 (en) Monitoring equipment, monitoring methods, computer programs, and storage media
JP2009253449A (en) Monitoring apparatus and monitoring method
KR100982342B1 (en) Intelligent security system and operating method thereof
KR101976493B1 (en) Method and Apparatus for Setting Object Area for Use in Video Monitoring Device
WO2020116100A1 (en) Information processing device, information processing method, program, and projection system
JP2012065027A (en) Imaging apparatus and imaging apparatus control method
JP2017085439A (en) Tracking device

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20201224

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231030

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240215

R150 Certificate of patent or registration of utility model

Ref document number: 7444431

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150