JP7444431B2 - Parameter setting support system, parameter setting support method, and parameter setting support program - Google Patents

Parameter setting support system, parameter setting support method, and parameter setting support program Download PDF

Info

Publication number
JP7444431B2
JP7444431B2 JP2019226619A JP2019226619A JP7444431B2 JP 7444431 B2 JP7444431 B2 JP 7444431B2 JP 2019226619 A JP2019226619 A JP 2019226619A JP 2019226619 A JP2019226619 A JP 2019226619A JP 7444431 B2 JP7444431 B2 JP 7444431B2
Authority
JP
Japan
Prior art keywords
setting
surveillance camera
terminal device
parameters
past
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019226619A
Other languages
Japanese (ja)
Other versions
JP2021097299A (en
Inventor
昂平 瀬川
利彦 山畠
大輔 原
剛 小方
亮 久保田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
I Pro Co Ltd
Original Assignee
I Pro Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by I Pro Co Ltd filed Critical I Pro Co Ltd
Priority to JP2019226619A priority Critical patent/JP7444431B2/en
Publication of JP2021097299A publication Critical patent/JP2021097299A/en
Application granted granted Critical
Publication of JP7444431B2 publication Critical patent/JP7444431B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Description

本開示は、パラメータ設定支援システム、パラメータ設定支援方法およびパラメータ設定支援プログラムに関する。 The present disclosure relates to a parameter setting support system, a parameter setting support method, and a parameter setting support program.

特許文献1には、監視対象範囲を撮像する撮像装置と、撮像画像から画像解析処理の設定に関するパラメータを取得し、パラメータに基づいて、監視対象範囲を撮像した撮像画像に対して実施する画像解析処理に関する設定を行う画像処理装置と、画像処理装置によって実施された画像解析結果を表示可能な表示装置と、を備えた画像処理システムが開示されている。 Patent Document 1 describes an imaging device that captures an image of a monitoring target range, and an image analysis device that obtains parameters related to image analysis processing settings from the captured image and performs image analysis on the captured image of the monitoring target range based on the parameters. An image processing system is disclosed that includes an image processing device that performs settings related to processing, and a display device that can display the results of image analysis performed by the image processing device.

特開2016-197797号公報Japanese Patent Application Publication No. 2016-197797

上述した特許文献1の画像処理システムの構成では、監視対象範囲に設置された画像コード(例えば2次元バーコード、多色カラーコードなど)を撮像し、撮像画像に映る画像コードに埋め込まれている画像解析処理のパラメータに基づいて、監視対象範囲を撮像した撮像画像に実施する画像解析処理を設定が可能である。一方、撮像装置の画像解析処理の性能(例えば人物等の対象物の検知性能)を確認したいというユーザからの要望がある。しかし、特許文献1の構成では、監視対象範囲をリアルタイムに撮像したライブ映像を用いて、画像解析処理の設定をしなければならなかったが、例えば、画像解析処理の設定が夜間の場合、あるいは雨天、降雪の場合などライブ映像だけでは画像解析処理の設定が不十分なことがあった。 In the configuration of the image processing system of Patent Document 1 mentioned above, an image code (for example, a two-dimensional bar code, a multicolor code, etc.) installed in a monitoring target area is imaged and embedded in the image code reflected in the captured image. Based on the parameters of the image analysis process, it is possible to set the image analysis process to be performed on the captured image of the monitoring target range. On the other hand, there are requests from users who want to check the performance of image analysis processing (for example, the performance of detecting objects such as people) of the imaging device. However, in the configuration of Patent Document 1, it was necessary to set the image analysis processing using live video captured in real time of the monitoring target range, but for example, when the image analysis processing is set at night, or In some cases, such as in the case of rain or snow, the settings for image analysis processing may not be sufficient with just live video.

本開示は、上述した従来の事情に鑑みて案出され、監視カメラの過去映像あるいはライブ映像を用いて監視カメラのパラメータの効率的な設定を支援するパラメータ設定支援システム、パラメータ設定支援方法およびパラメータ設定支援プログラムを提供することを目的とする。 The present disclosure has been devised in view of the conventional circumstances described above, and provides a parameter setting support system, a parameter setting support method, and a parameter setting support system that supports efficient setting of parameters of a surveillance camera using past images or live images of the surveillance camera. The purpose is to provide a setup support program.

本開示は、監視カメラと端末装置とが互いに通信可能に接続されたパラメータ設定支援システムであって、前記端末装置は、ユーザ操作により選択された前記監視カメラのパラメータの設定種別を前記監視カメラに送信し、前記監視カメラは、受信された前記設定種別が前記監視カメラの撮像画像の画質でない場合、前記監視カメラに接続された外部記憶媒体に記憶された過去に撮像された過去映像を取得して前記端末装置に送信し、前記端末装置は、受信された前記過去映像を再生し、前記ユーザ操作により再生中の前記過去映像を用いた対象物の検知に関する設定種別ごとのパラメータの入力を受け付け、前記入力された前記設定種別ごとのパラメータを前記監視カメラに送信し、前記監視カメラは、受信された前記設定種別ごとの前記パラメータを設定する、パラメータ設定支援システムを提供する。 The present disclosure is a parameter setting support system in which a surveillance camera and a terminal device are connected to each other so as to be able to communicate with each other, and the terminal device transmits to the surveillance camera the parameter setting type of the surveillance camera selected by a user operation. and if the received setting type is not the image quality of the captured image of the surveillance camera, the surveillance camera acquires a past image captured in the past stored in an external storage medium connected to the surveillance camera. and transmits the received past video to the terminal device, and the terminal device plays the received past video and receives input of parameters for each setting type regarding detection of an object using the past video being played by the user operation. , a parameter setting support system is provided in which the input parameters for each setting type are transmitted to the monitoring camera, and the monitoring camera sets the received parameters for each setting type.

また、本開示は、監視カメラと端末装置とが互いに通信可能に接続されたパラメータ設定支援方法であって、ユーザ操作により選択された前記監視カメラのパラメータの設定種別が、前記監視カメラの撮像画像の画質でない場合、前記監視カメラに接続された外部記憶媒体に記憶された過去の過去映像を取得して再生し、前記ユーザ操作により再生中の前記過去映像を用いた対象物の検知に関する設定種別ごとのパラメータの入力を受け付け、前記入力された前記設定種別ごとのパラメータを設定する、パラメータ設定支援方法を提供する。 The present disclosure also provides a parameter setting support method in which a surveillance camera and a terminal device are connected to each other so as to be able to communicate with each other, wherein the setting type of the parameter of the surveillance camera selected by a user operation is set to an image captured by the surveillance camera. If the image quality is not the same, the setting type regarding the detection of a target object using the past video that is being played back by acquiring and playing back a past video stored in an external storage medium connected to the surveillance camera, and is being played back by the user's operation. The present invention provides a parameter setting support method that accepts input of parameters for each type and sets parameters for each of the input setting types.

また、本開示は、監視カメラと端末装置とが互いに通信可能に接続されたパラメータ設定支援プログラムであって、ユーザ操作により選択された前記監視カメラのパラメータの設定種別が、前記監視カメラの撮像画像の画質でない場合、前記監視カメラに接続された外部記憶媒体に記憶された過去映像を取得して再生するステップと、前記ユーザ操作により再生中の前記過去映像を用いた対象物の検知に関する設定種別ごとのパラメータの入力を受け付け、前記入力された前記設定種別ごとのパラメータを設定するステップと、を有する、パラメータ設定支援プログラムを提供する。
The present disclosure also provides a parameter setting support program in which a surveillance camera and a terminal device are connected to each other so as to be able to communicate with each other, wherein the parameter setting type of the surveillance camera selected by a user operation is set to a captured image of the surveillance camera. a step of acquiring and playing back past video stored in an external storage medium connected to the surveillance camera if the image quality is not high enough, and a setting type for detecting an object using the past video being played by the user's operation. The present invention provides a parameter setting support program, which includes the steps of: receiving input of parameters for each setting type, and setting parameters for each of the input setting types.

本開示によれば、監視カメラの過去映像あるいはライブ映像を用いて監視カメラのパラメータの効率的な設定を支援できる。 According to the present disclosure, it is possible to support efficient setting of surveillance camera parameters using past video or live video of the surveillance camera.

実施の形態1に係るパラメータ設定支援システムの内部構成例を示す図A diagram showing an example of the internal configuration of the parameter setting support system according to Embodiment 1. 設定種別選択画面の一例を示す図Diagram showing an example of the setting type selection screen エリア設定画面の一例を示す図Diagram showing an example of the area setting screen 奥行き設定画面の一例を示す図Diagram showing an example of the depth setting screen 奥行き設定画面の一例を示す図Diagram showing an example of the depth setting screen 感度設定およびその他設定画面の一例を示す図Diagram showing an example of sensitivity setting and other setting screens 画質詳細設定画面の一例を示す図Diagram showing an example of the image quality detailed setting screen 実施の形態1に係るパラメータ設定支援システムの動作手順例を示すフローチャートFlowchart showing an example of the operation procedure of the parameter setting support system according to the first embodiment

以下、適宜図面を参照しながら、本開示に係るパラメータ設定支援システム、パラメータ設定支援方法およびパラメータ設定支援プログラムの構成および作用を具体的に開示した各実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になることを避け、当業者の理解を容易にするためである。なお、添付図面及び以下の説明は、当業者が本開示を十分に理解するために提供されるものであって、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。 DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments specifically disclosing the configuration and operation of a parameter setting support system, a parameter setting support method, and a parameter setting support program according to the present disclosure will be described in detail with reference to the drawings as appropriate. However, more detailed explanation than necessary may be omitted. For example, detailed explanations of well-known matters or redundant explanations of substantially the same configurations may be omitted. This is to avoid unnecessary redundancy in the following description and to facilitate understanding by those skilled in the art. The accompanying drawings and the following description are provided to enable those skilled in the art to fully understand the present disclosure, and are not intended to limit the subject matter recited in the claims.

(実施の形態1)
図1を参照して、実施の形態1に係るパラメータ設定支援システム100の構成例およびユースケース例について説明する。図1は、実施の形態1に係るパラメータ設定支援システム100の構成例を示す図である。パラメータ設定支援システム100は、ユーザが監視カメラを購入する前に、購入を希望(検討)する監視カメラによって実行される画像処理をパラメータ設定支援するシステムである。図1に示す監視カメラC1は、ユーザが購入を希望(検討)する監視カメラと同じあるいは類似する機能を有する監視カメラであって、例えば販売店、メーカなどから貸し出される。ユーザは、貸し出された監視カメラC1を、監視カメラの設置予定位置に設置し、通信可能に接続された端末装置P1を操作して監視カメラC1の性能をパラメータ設定支援する。パラメータ設定支援システム100は、監視カメラC1と、端末装置P1と、を含んで構成される。なお、図1の説明において、監視カメラが1台の例について説明するが、監視カメラの台数は複数であってもよい。
(Embodiment 1)
With reference to FIG. 1, a configuration example and a use case example of the parameter setting support system 100 according to the first embodiment will be described. FIG. 1 is a diagram showing a configuration example of a parameter setting support system 100 according to the first embodiment. The parameter setting support system 100 is a system that supports setting parameters for image processing to be performed by a surveillance camera that a user desires (considers) purchasing, before the user purchases a surveillance camera. The surveillance camera C1 shown in FIG. 1 is a surveillance camera that has the same or similar functions as the surveillance camera that the user wishes to purchase (considers), and is rented from, for example, a store or a manufacturer. The user installs the lent surveillance camera C1 at the planned installation position of the surveillance camera, and operates the communicably connected terminal device P1 to assist in setting parameters for the performance of the surveillance camera C1. The parameter setting support system 100 includes a surveillance camera C1 and a terminal device P1. In the description of FIG. 1, an example in which there is one surveillance camera will be described, but the number of surveillance cameras may be plural.

パラメータ設定支援システム100における監視カメラC1は、ユーザが撮像を希望する撮像領域を撮像可能な位置(つまり、ユーザが監視カメラの設置を予定する位置)に設置される。監視カメラC1は、端末装置P1との間で通信可能に接続される。また、監視カメラC1は、撮像領域を撮像可能であるとともに、監視カメラC1あるいは他の監視カメラによって撮像された過去の撮像映像(以降、過去映像と表記)のデータを外部記憶媒体M1あるいはメモリ12から取得する。監視カメラC1は、取得された過去映像のデータを、ネットワークNW1を介して端末装置P1に送信する。 The surveillance camera C1 in the parameter setting support system 100 is installed at a position where it can image the imaging area that the user desires to image (that is, the position where the user plans to install the surveillance camera). The surveillance camera C1 is communicably connected to the terminal device P1. The surveillance camera C1 is capable of capturing an image of an imaging area, and also stores data of past captured images (hereinafter referred to as past images) captured by the surveillance camera C1 or other surveillance cameras on an external storage medium M1 or memory 1. Get from. The surveillance camera C1 transmits the acquired past video data to the terminal device P1 via the network NW1.

監視カメラC1は、ユーザ操作によって入力された各種設定種別(例えば、画質設定、検知設定、奥行き設定、その他設定、スケジュール設定など)ごとのパラメータに基づいて、過去映像あるいは撮像部13によって撮像されたライブ映像に画像処理を実行する。監視カメラC1は、通信部10と、プロセッサ11と、メモリ12と、撮像部13と、AI(Artificial Intelligence)処理部14と、外部記憶媒体I/F(interface)15と、を含んで構成される。 The surveillance camera C1 displays past images or images captured by the imaging unit 13 based on parameters for each type of setting (for example, image quality settings, detection settings, depth settings, other settings, schedule settings, etc.) input by user operations. Perform image processing on live video. The surveillance camera C1 includes a communication section 10, a processor 11, a memory 12, an imaging section 13, an AI (Artificial Intelligence) processing section 14, and an external storage medium I/F (interface) 15. Ru.

通信部10は、端末装置P1における通信部20との間でネットワークNW1を介してデータ通信可能に接続される。なお、通信部10は、通信部20との間で有線通信可能に接続されてよいし、無線LANなどの無線ネットワークを介して接続されてもよい。ここでいう無線通信は、例えばBluetooth(登録商標)、NFC(登録商標)などの近距離無線通信、またはWi-fi(登録商標)などの無線LAN(Local Area Network)を介した通信である。 The communication unit 10 is connected to the communication unit 20 in the terminal device P1 via the network NW1 so as to be capable of data communication. Note that the communication unit 10 may be connected to the communication unit 20 for wired communication, or may be connected via a wireless network such as a wireless LAN. The wireless communication referred to here is, for example, short-range wireless communication such as Bluetooth (registered trademark) or NFC (registered trademark), or communication via a wireless LAN (Local Area Network) such as Wi-fi (registered trademark).

通信部10は、プロセッサ11により生成された画像処理結果としての過去映像あるいはライブ映像のデータ、AI処理部14により生成された画像処理結果としての検知データ、あるいは撮像部13によって撮像されたライブ映像のデータなどを、ネットワークNW1を介して、端末装置P1における通信部20に送信する。また、通信部10は、ネットワークNW1を介して、ユーザ操作により入力されたパラメータを受信し、受信されたパラメータをプロセッサ11に入力する。 The communication unit 10 receives past video or live video data as an image processing result generated by the processor 11, detection data as an image processing result generated by the AI processing unit 14, or live video imaged by the imaging unit 13. data, etc. are transmitted to the communication unit 20 in the terminal device P1 via the network NW1. The communication unit 10 also receives parameters input by user operation via the network NW1, and inputs the received parameters to the processor 11.

プロセッサ11は、例えばCPU(Central Processing unit)またはFPGA(Field Programmable Gate Array)を用いて構成され、メモリ12と協働して、各種の処理および制御を行う。具体的には、プロセッサ11はメモリ12に保持されたプログラムおよびデータを参照し、そのプログラムを実行することにより、各部の機能を実現する。なお、ここでいう機能は、例えばユーザ操作により設定された設定種別ごとのパラメータに基づいて、過去映像あるいはライブ映像のデータを画像処理する機能、各種設定種別のそれぞれのうち選択された設定種別に基づいて、過去映像あるいはライブ映像のいずれを取得するかを選択する機能などを実現する。 The processor 11 is configured using, for example, a CPU (Central Processing unit) or an FPGA (Field Programmable Gate Array), and cooperates with the memory 12 to perform various types of processing and control. Specifically, the processor 11 references programs and data held in the memory 12 and executes the programs to realize the functions of each section. Note that the function referred to here is, for example, a function that performs image processing on past video or live video data based on parameters for each setting type set by user operation, Based on the information provided, this feature allows users to select whether to acquire past footage or live footage.

プロセッサ11は、端末装置P1から各種設定種別のうち、ユーザ操作により選択された設定種別の情報を通信部10から入力される。プロセッサ11は、入力された設定種別の情報が画質設定である場合、撮像部13に撮像を開始する制御信号を生成して出力する。プロセッサ11は、撮像部13から入力されたライブ映像のデータをメモリ12に記憶するとともに、通信部10を介して端末装置P1に送信する。プロセッサ11は、ライブ映像のデータを送信した後、さらに端末装置P1からユーザ操作により設定された画質のパラメータが入力されると、入力された画質のパラメータに基づいて、撮像部13から入力されたライブ映像のデータに画像処理を実行する。プロセッサ11は、画像処理実行後のライブ映像のデータをメモリ12に記憶するとともに、通信部10を介して端末装置P1に送信する。 The processor 11 receives from the communication unit 10 information about the setting type selected by the user operation from among various setting types from the terminal device P1. When the input setting type information is an image quality setting, the processor 11 generates and outputs a control signal for starting imaging to the imaging unit 13. The processor 11 stores live video data input from the imaging unit 13 in the memory 12 and transmits it to the terminal device P1 via the communication unit 10. After transmitting the live video data, when the image quality parameters set by the user's operation are further input from the terminal device P1, the processor 11 receives the image quality parameters input from the imaging unit 13 based on the input image quality parameters. Perform image processing on live video data. The processor 11 stores the live video data after image processing has been performed in the memory 12, and transmits it to the terminal device P1 via the communication unit 10.

プロセッサ11は、端末装置P1から各種設定種別のうち、ユーザ操作により選択された設定種別の情報を通信部10から入力される。プロセッサ11は、入力された設定種別が画質設定でない場合(例えば、検知設定、奥行き設定、その他設定、スケジュール設定などの設定種別の場合)、メモリ12に記憶された過去映像のデータを要求する信号を生成してメモリ12に入力する。また、プロセッサ21は、入力された設定種別が画質設定でない場合、外部記憶媒体I/F15を介して接続された外部記憶媒体M1に、過去映像のデータを要求する制御信号を生成して送信する。プロセッサ11は、外部記憶媒体M1から送信された過去映像のデータを受信すると、メモリ12に記憶するとともに、端末装置P1に送信する。また、プロセッサ11は、入力された設定種別が画質設定の場合、撮像部13によって撮像されたライブ映像のデータをメモリ12に記憶するとともに、端末装置P1に送信する。プロセッサ11は、端末装置P1からユーザ操作により設定された設定種別ごとのパラメータが入力されると、入力された設定種別ごとのパラメータに基づいて、過去映像あるいはライブ映像に画像処理を実行する。 The processor 11 receives from the communication unit 10 information about the setting type selected by the user operation from among various setting types from the terminal device P1. If the input setting type is not an image quality setting (for example, in the case of a setting type such as detection setting, depth setting, other setting, schedule setting, etc.), the processor 11 sends a signal requesting data of past images stored in the memory 12. is generated and input into the memory 12. Further, if the input setting type is not an image quality setting, the processor 21 generates and transmits a control signal requesting past video data to the external storage medium M1 connected via the external storage medium I/F 15. . When the processor 11 receives past video data transmitted from the external storage medium M1, it stores it in the memory 12 and transmits it to the terminal device P1. Further, when the input setting type is image quality setting, the processor 11 stores the data of the live video imaged by the imaging unit 13 in the memory 12, and transmits it to the terminal device P1. When parameters for each setting type set by a user operation are input from the terminal device P1, the processor 11 executes image processing on past video or live video based on the input parameters for each setting type.

なお、プロセッサ11は、入力された設定種別が画質設定であっても、ユーザ操作によって外部記憶媒体M1に記憶された過去映像のデータを用いた画像処理を要求する信号を受信した場合には、撮像部13による撮像を中止する制御信号を送信し、外部記憶媒体I/F15を介して接続された外部記憶媒体M1に、過去映像のデータを要求してよい。 Note that even if the input setting type is image quality setting, if the processor 11 receives a signal requesting image processing using past video data stored in the external storage medium M1 through a user operation, A control signal to stop imaging by the imaging unit 13 may be transmitted, and data of past video may be requested from the external storage medium M1 connected via the external storage medium I/F 15.

さらに、プロセッサ11は、外部記憶媒体M1に複数の過去映像のデータのそれぞれが記憶されている場合、端末装置P1に複数の過去映像のデータのそれぞれのうち、画像処理を実行する過去映像のデータの選択操作を受け付けてよい。このような場合、プロセッサ11は、端末装置P1に複数の過去映像のデータを送信する。端末装置P1は、受信された複数の過去映像のデータのそれぞれをモニタ23に表示させ、画像処理を実行する対象となる過去映像のデータの選択操作を受け付ける。端末装置P1は、ユーザ操作により選択された過去映像のデータの情報を監視カメラC1に送信する。 Furthermore, when each of the plurality of past video data is stored in the external storage medium M1, the processor 11 stores the past video data to be subjected to image processing among the plurality of past video data in the terminal device P1. may accept selection operations. In such a case, the processor 11 transmits data of a plurality of past videos to the terminal device P1. The terminal device P1 displays each of the received past video data on the monitor 23, and accepts an operation to select past video data to be subjected to image processing. The terminal device P1 transmits information on the past video data selected by the user's operation to the surveillance camera C1.

メモリ12は、例えばプロセッサ11の各処理を実行する際に用いられるワークメモリとしてのRAM(Random Access Memory)と、プロセッサ11の動作を規定したプログラムおよびデータを格納するROM(Read Only Memory)とを有する。RAMには、プロセッサ11により生成あるいは取得されたデータもしくは情報が一時的に保存される。ROMには、プロセッサ11の動作を規定するプログラムが書き込まれている。メモリ12は、撮像部13によって撮像された過去映像およびライブ映像のデータ、外部記憶媒体I/F15を介して取得された過去映像のデータを記憶する。また、メモリ12は、ユーザ操作によって設定された設定種別ごとのパラメータ、外部記憶媒体M1から受信された過去映像のデータ、プロセッサ11あるいはAI処理部14の画像処理結果としての過去映像あるいはライブ映像のデータ、および検知データなどを記憶する。 The memory 12 includes, for example, a RAM (Random Access Memory) as a work memory used when the processor 11 executes each process, and a ROM (Read Only Memory) that stores programs and data that define the operations of the processor 11. have Data or information generated or acquired by the processor 11 is temporarily stored in the RAM. A program that defines the operation of the processor 11 is written in the ROM. The memory 12 stores past video data and live video data captured by the imaging unit 13, and past video data acquired via the external storage medium I/F 15. The memory 12 also stores parameters for each setting type set by user operations, past video data received from the external storage medium M1, past video or live video as an image processing result of the processor 11 or the AI processing unit 14. data, detection data, etc.

撮像部13は、少なくともレンズ(不図示)とイメージセンサ(不図示)とを有して構成される。イメージセンサは、例えばCCD(Charged-coupled device)あるいはCMOS(Complementary metal-oxide-semiconductor)などの固体撮像素子であり、撮像面に結像した光学像を電気信号に変換する。撮像部13は、撮像された撮像画像(ライブ映像)をプロセッサ11に出力する。 The imaging unit 13 includes at least a lens (not shown) and an image sensor (not shown). The image sensor is a solid-state imaging device such as a CCD (Charged-Coupled Device) or a CMOS (Complementary Metal-Oxide-Semiconductor), and converts an optical image formed on an imaging surface into an electrical signal. The imaging unit 13 outputs the captured image (live video) to the processor 11.

AI処理部14は、例えばCPU、DSP(Digital Signal Processor)またはFPGAを用いて構成され、ユーザ操作により入力された設定種別ごとのパラメータに基づいて、撮像部13によって撮像された過去映像あるいはライブ映像のデータ、あるいは外部記憶媒体I/F15を介して取得された過去映像のデータに画像処理を実行する。AI処理部14は、AI演算処理部14aと、学習モデルDB(Database)14bとを含んで構成される。 The AI processing unit 14 is configured using, for example, a CPU, a DSP (Digital Signal Processor), or an FPGA, and based on parameters for each setting type input by user operation, the AI processing unit 14 processes past images or live images captured by the imaging unit 13. image processing is performed on the data of the past video acquired via the external storage medium I/F 15. The AI processing unit 14 includes an AI calculation processing unit 14a and a learning model DB (Database) 14b.

AI演算処理部14aは、プロセッサ11から入力された各種項目ごとのパラメータと、学習モデルDB14bに記憶された学習データとに基づいて、過去映像あるいはライブ映像のデータの画像処理を実行する。AI演算処理部14aは、画像処理結果としての過去映像あるいはライブ映像のデータあるいは検知データをプロセッサ11に出力する。 The AI calculation processing unit 14a executes image processing of past video or live video data based on parameters for each of various items input from the processor 11 and learning data stored in the learning model DB 14b. The AI calculation processing unit 14a outputs past video or live video data or detection data as an image processing result to the processor 11.

学習モデルDB14bは、RAMおよびROMなどによる半導体メモリと、SSD(Solid State Drive)あるいはHDD(Hard Disk Drive)などによるストレージデバイスのうちいずれかを含む記憶デバイスを有する。また、学習モデルDB14bは、例えばAI演算処理部14aが実行する画像処理を規定するプログラム、これらの処理を実行するための各種の設定データ、人物、車両などの検知対象を検知する際に用いられる学習データ、プロセッサ11から入力された過去映像あるいはライブ映像のデータなどの各種のデータを生成または記憶する。 The learning model DB 14b has a storage device including one of a semiconductor memory such as a RAM and a ROM, and a storage device such as an SSD (Solid State Drive) or an HDD (Hard Disk Drive). In addition, the learning model DB 14b includes, for example, a program that defines image processing to be executed by the AI calculation processing unit 14a, various setting data for executing these processes, and is used when detecting a detection target such as a person or a vehicle. It generates or stores various data such as learning data, past video or live video data input from the processor 11.

学習データを生成するための学習は、1つ以上の統計的分類技術を用いて行っても良い。統計的分類技術としては、例えば、線形分類器(linear classifiers)、サポートベクターマシン(support vector machines)、二次分類器(quadratic classifiers)、カーネル密度推定(kernel estimation)、決定木(decision trees)、人工ニューラルネットワーク(artificial neural networks)、ベイジアン技術および/またはネットワーク(Bayesian techniques and/or networks)、隠れマルコフモデル(hidden Markov models)、バイナリ分類子(binary classifiers)、マルチクラス分類器(multi-class classifiers)、クラスタリング(a clustering technique)、ランダムフォレスト(a random forest technique)、ロジスティック回帰(a logistic regression technique)、線形回帰(a linear regression technique)、勾配ブースティング(a gradient boosting technique)などが挙げられる。但し、使用される統計的分類技術はこれらに限定されない。また、学習データの生成は、監視カメラC1内のAI処理部14で行われても良いし、例えばネットワークNW1を用いて監視カメラC1との間で通信可能に接続される端末装置P1内で行われてもよい。さらに、学習データは、外部記憶媒体I/F15を介して通信可能に接続された、例えばUSB(Universal Serial Bus)メモリあるいはSD(Secure Digital Memory)カードなどの外部記憶媒体M1から受信(取得)された学習データであってもよい。 Learning to generate training data may be performed using one or more statistical classification techniques. Examples of statistical classification techniques include linear classifiers, support vector machines, quadratic classifiers, kernel density estimation, and decision trees. ion trees), artificial neural networks, Bayesian techniques and/or networks, hidden Markov models, binary classifiers multi-class classifiers), multi-class classifiers ), clustering (a clustering technique), random forest (a random forest technique), logistic regression (a logistic regression technique), linear regression (a linear regression) techniques, a gradient boosting technique, and the like. However, the statistical classification techniques used are not limited to these. Further, the learning data may be generated in the AI processing unit 14 within the surveillance camera C1, or may be generated within the terminal device P1 that is communicably connected to the surveillance camera C1 using the network NW1. It's okay to be hurt. Further, the learning data is received (acquired) from an external storage medium M1 such as a USB (Universal Serial Bus) memory or an SD (Secure Digital Memory) card, which is communicably connected via the external storage medium I/F 15. The learning data may also be used as training data.

外部記憶媒体I/F15は、例えばUSBメモリあるいはSDカードなどの外部記憶媒体M1を挿抜可能に設けられ、外部記憶媒体M1との間でデータ通信可能に接続される。外部記憶媒体I/F15は、プロセッサ11の要求に基づいて、外部記憶媒体M1に記憶された過去映像のデータあるいは学習データを取得し、プロセッサ11に出力する。また、外部記憶媒体I/F15は、プロセッサ11の要求に基づいて、撮像部13によって撮像された過去映像あるいはライブ映像のデータ、設定種別ごとのパラメータに基づく画像処理が実行された過去映像あるいはライブ映像のデータ、あるいは監視カメラC1内で生成された学習データなどを、外部記憶媒体M1に送信し、記憶する。なお、外部記憶媒体I/F15は、複数の外部記憶媒体のそれぞれを同時に接続可能であってよい。 The external storage medium I/F 15 is provided so that an external storage medium M1 such as a USB memory or an SD card can be inserted into and removed from the external storage medium I/F 15, and is connected to enable data communication with the external storage medium M1. The external storage medium I/F 15 acquires past video data or learning data stored in the external storage medium M1 based on a request from the processor 11, and outputs it to the processor 11. The external storage medium I/F 15 also stores, based on a request from the processor 11, past video or live video data captured by the imaging unit 13, past video or live video on which image processing has been performed based on parameters for each setting type. Video data or learning data generated within the surveillance camera C1 is transmitted to and stored in the external storage medium M1. Note that the external storage medium I/F 15 may be able to connect each of a plurality of external storage media at the same time.

外部記憶媒体M1は、所謂USBメモリあるいはSDカードなどの記憶媒体であって、過去の過去映像あるいはライブ映像のデータを記憶する。なお、外部記憶媒体M1は、他の監視カメラあるいは端末装置によって生成された学習データなどを記憶してよい。 The external storage medium M1 is a storage medium such as a so-called USB memory or an SD card, and stores data of past video or live video. Note that the external storage medium M1 may store learning data generated by another surveillance camera or a terminal device.

端末装置P1は、例えばPC(Personal Computer)、タブレット、スマートフォンなどの装置であって、ユーザの入力操作(ユーザ操作)を受け付け可能なインターフェース(例えば、キーボード、マウス、タッチパネルディスプレイなど)を備える。端末装置P1は、ネットワークNW1を介して監視カメラC1との間で通信可能に接続され、ユーザ操作に基づいて生成された信号(入力された設定種別を含む信号、入力された設定種別ごとのパラメータを含む信号など)を、ネットワークNW1を介して監視カメラC1に送信する。また、端末装置P1は、ネットワークNW1を介して監視カメラC1から受信された過去映像あるいはライブ映像のデータ、または画像処理結果としての検知データをモニタ23に表示する。端末装置P1は、通信部20と、プロセッサ21と、メモリ22と、モニタ23と、操作部24とを含んで構成される。 The terminal device P1 is a device such as a PC (Personal Computer), a tablet, or a smartphone, and includes an interface (eg, a keyboard, a mouse, a touch panel display, etc.) that can accept user input operations (user operations). The terminal device P1 is communicably connected to the surveillance camera C1 via the network NW1, and receives signals generated based on user operations (signals including input setting types, parameters for each input setting type). ) is transmitted to the surveillance camera C1 via the network NW1. The terminal device P1 also displays on the monitor 23 past video or live video data received from the surveillance camera C1 via the network NW1, or detection data as an image processing result. The terminal device P1 includes a communication section 20, a processor 21, a memory 22, a monitor 23, and an operation section 24.

通信部20は、ネットワークNW1を介して監視カメラC1における通信部10との間においてデータ通信可能に構成される。なお、通信部20は、通信部10との間で有線通信可能に接続されてよいし、無線LANなどの無線ネットワークを介して接続されてもよい。ここでいう無線通信は、例えばBluetooth(登録商標)、NFC(登録商標)などの近距離無線通信、またはWi-fi(登録商標)などの無線LANを介した通信である。通信部20は、プロセッサ21によって生成されたユーザの入力操作に基づく信号を監視カメラC1に送信し、監視カメラC1から受信された過去映像あるいはライブ映像のデータ、または検知データなどをプロセッサ21に出力する。 The communication unit 20 is configured to be capable of data communication with the communication unit 10 in the surveillance camera C1 via the network NW1. Note that the communication unit 20 may be connected to the communication unit 10 for wired communication, or may be connected via a wireless network such as a wireless LAN. The wireless communication referred to here is, for example, short-range wireless communication such as Bluetooth (registered trademark) or NFC (registered trademark), or communication via a wireless LAN such as Wi-fi (registered trademark). The communication unit 20 transmits a signal based on the user's input operation generated by the processor 21 to the surveillance camera C1, and outputs past video or live video data, detection data, etc. received from the surveillance camera C1 to the processor 21. do.

プロセッサ21は、例えばCPUまたはFPGAを用いて構成されて、メモリ22と協働して、各種の処理および制御を行う。具体的には、プロセッサ21はメモリ22に保持されたプログラムおよびデータを参照し、そのプログラムを実行することにより、各部の機能を実現する。ここでいう各部の機能は、例えば、操作部24から入力されたユーザの入力操作に基づいて信号を生成する機能、監視カメラC1から受信された過去映像あるいはライブ映像のデータ、または検知データをモニタ23に表示させる機能などである。 The processor 21 is configured using, for example, a CPU or an FPGA, and performs various processing and control in cooperation with the memory 22. Specifically, the processor 21 references programs and data held in the memory 22 and executes the programs to realize the functions of each part. The functions of each part here include, for example, a function to generate a signal based on a user's input operation input from the operation unit 24, a function to monitor past video or live video data received from the surveillance camera C1, or detection data. 23, etc.

メモリ22は、例えばプロセッサ21の各処理を実行する際に用いられるワークメモリとしてのRAMと、プロセッサ21の動作を規定したプログラムおよびデータを格納するROMとを有する。RAMには、プロセッサ21により生成あるいは取得されたデータもしくは情報が一時的に保存される。ROMには、プロセッサ21の動作を規定するプログラムが書き込まれている。 The memory 22 includes, for example, a RAM as a work memory used when the processor 21 executes each process, and a ROM that stores programs and data that define the operations of the processor 21. Data or information generated or acquired by the processor 21 is temporarily stored in the RAM. A program that defines the operation of the processor 21 is written in the ROM.

モニタ23は、例えばLCD(Liquid Crystal Display)または有機EL(Electroluminescence)などのディスプレイを用いて構成される。 The monitor 23 is configured using a display such as an LCD (Liquid Crystal Display) or an organic EL (Electroluminescence).

操作部24は、例えばユーザの入力操作を検知するユーザインターフェースであり、マウス、キーボードまたはタッチパネルなどを用いて構成される。操作部24は、ユーザの入力操作に基づいて、各種設定種別の選択、設定種別ごとのパラメータの入力、過去映像のデータの選択などを受け付けて信号に変換し、プロセッサ21に出力する。 The operation unit 24 is, for example, a user interface that detects a user's input operation, and is configured using a mouse, a keyboard, a touch panel, or the like. The operation unit 24 accepts selections of various setting types, input of parameters for each setting type, selection of past video data, etc. based on user input operations, converts them into signals, and outputs the signals to the processor 21.

ネットワークNW1は、端末装置P1との間で無線通信ネットワークまたは有線通信ネットワークによって通信可能に接続される。ここでいう無線通信ネットワークは、例えば無線LAN(Local Area Network)、無線WAN(Wide Area NetWork)、4G(第4世代移動通信システム)、5G(第5世代移動通信システム)、またはWi-fi(登録商標)等の無線通信規格に準じて提供される。 The network NW1 is communicably connected to the terminal device P1 via a wireless communication network or a wired communication network. The wireless communication networks mentioned here include, for example, wireless LAN (Local Area Network), wireless WAN (Wide Area NetWork), 4G (4th generation mobile communication system), 5G (5th generation mobile communication system), or Wi-fi ( (registered trademark) and other wireless communication standards.

図2は、設定種別選択画面SL1の一例を示す図である。図2に示す設定種別選択画面SL1は、ユーザが購入を希望あるいは検討する監視カメラC1を用いて監視カメラC1の性能確認を開始する際に、モニタ23に表示される。 FIG. 2 is a diagram showing an example of the setting type selection screen SL1. The setting type selection screen SL1 shown in FIG. 2 is displayed on the monitor 23 when the user starts checking the performance of the surveillance camera C1 that the user desires or is considering purchasing.

設定種別選択画面SL1は、複数の設定種別のそれぞれと、複数の設定種別ごとに1つの詳細設定ボタンを含んで表示される。 The setting type selection screen SL1 is displayed including each of a plurality of setting types and one detailed setting button for each of the plurality of setting types.

複数の設定種別は、例えば画質設定、検知設定、奥行き設定、その他設定、スケジュール設定などである。なお、設定種別は、図2に示す例に限定されないことは言うまでもない。 Examples of the plurality of setting types include image quality settings, detection settings, depth settings, other settings, and schedule settings. Note that it goes without saying that the setting type is not limited to the example shown in FIG.

複数の詳細設定ボタンSBt1,SBt2,SBt3,SBt4,SBt5のそれぞれは、複数の設定種別ごとに生成される。詳細設定ボタンSBt1は、画質のパラメータの入力を行う場合に、ユーザ操作により選択(押下)されるボタンである。詳細設定ボタンSBt2は、検知のパラメータの入力を行う場合に、ユーザ操作により選択(押下)されるボタンである。詳細設定ボタンSBt3は、奥行きのパラメータの入力を行う場合に、ユーザ操作により選択(押下)されるボタンである。詳細設定ボタンSBt4は、感度あるいはその他のパラメータの入力を行う場合に、ユーザ操作により選択(押下)されるボタンである。詳細設定ボタンSBt5は、スケジュールのパラメータの入力を行う場合に、ユーザ操作により選択(押下)されるボタンである。 Each of the plurality of detailed setting buttons SBt1, SBt2, SBt3, SBt4, and SBt5 is generated for each of the plurality of setting types. The detailed setting button SBt1 is a button that is selected (pressed) by a user operation when inputting image quality parameters. The detailed setting button SBt2 is a button that is selected (pressed) by a user operation when inputting detection parameters. The detailed setting button SBt3 is a button that is selected (pressed) by a user operation when inputting a depth parameter. The detailed setting button SBt4 is a button that is selected (pressed) by a user operation when inputting sensitivity or other parameters. The detailed setting button SBt5 is a button that is selected (pressed) by a user operation when inputting schedule parameters.

図3は、エリア設定画面Mn1の一例を示す図である。エリア設定画面Mn1は、モニタ23に表示され、図2に示す複数の詳細設定ボタンSBt1~SBt5のそれぞれのうち、ユーザ操作により検知パラメータの入力を行うための詳細設定ボタンSBt2が選択(押下)された際に、プロセッサ21により生成されて、モニタ23に表示される。 FIG. 3 is a diagram showing an example of the area setting screen Mn1. The area setting screen Mn1 is displayed on the monitor 23, and when the detailed setting button SBt2 for inputting detection parameters is selected (pressed) by a user operation from among the plurality of detailed setting buttons SBt1 to SBt5 shown in FIG. When this happens, it is generated by the processor 21 and displayed on the monitor 23.

エリア設定画面Mn1は、複数のタブTb1,Tb2のそれぞれと、再生操作領域Re1と、複数の検知ボタンIc1,Ic2,Ic3,Ic4のそれぞれと、映像取込ボタンBt1と、撮像映像表示領域Mn11と、描画種別欄Bt2と、検知エリア設定ボタンBt3と、マスクエリア設定ボタンBt4と、消去ボタンBt5と、全消去ボタンBt6とを含んで構成される。 The area setting screen Mn1 includes each of a plurality of tabs Tb1 and Tb2, a playback operation area Re1, each of a plurality of detection buttons Ic1, Ic2, Ic3, and Ic4, a video capture button Bt1, and a captured video display area Mn11. , a drawing type column Bt2, a detection area setting button Bt3, a mask area setting button Bt4, an erase button Bt5, and an erase all button Bt6.

タブTb1は、監視カメラC1から受信された過去映像を表示する画面に切り替えて表示するためのGUI(Graphical User Interface)ウィジェットである。タブTb1が表示する過去映像は、過去の過去映像である。 The tab Tb1 is a GUI (Graphical User Interface) widget for switching to and displaying a screen displaying past images received from the surveillance camera C1. The past video displayed by the tab Tb1 is a past video.

タブTb2は、監視カメラC1における撮像部13によって撮像されたライブ映像を表示する画面に切り替えて表示するためのGUIウィジェットである。 The tab Tb2 is a GUI widget for switching to and displaying a screen displaying a live video imaged by the imaging unit 13 of the surveillance camera C1.

なお、実施の形態1に係るパラメータ設定支援システム100において、タブの数は、2つに限定されない。例えば、ユーザが複数の監視カメラを設置する場合には、設置された監視カメラの台数に応じて複数のタブが生成されてよい。 Note that in the parameter setting support system 100 according to the first embodiment, the number of tabs is not limited to two. For example, if the user installs multiple surveillance cameras, multiple tabs may be generated depending on the number of installed surveillance cameras.

再生操作領域Re1は、過去映像を再生に関する制御(例えば、再生、ユーザ操作による所定の再生時間からの再生、一時停止など)を可能とし、過去映像の総撮像時間(例えば、図3において25分40秒で示される時間)と、総撮像時間のうち現在再生している(つまり撮像映像表示領域Mn11に表示されている撮像画像)の再生時間(例えば、図3において6分10秒)とを示す。再生操作領域Re1は、再生ボタンRe2と、スライダRe3とを含んで構成される。 The playback operation area Re1 enables controls related to playback of past videos (for example, playback, playback from a predetermined playback time by user operation, pause, etc.), and controls the total imaging time of past videos (for example, 25 minutes in FIG. 3). 40 seconds) and the playback time (for example, 6 minutes and 10 seconds in FIG. 3) of the currently being played back (that is, the captured image displayed in the captured image display area Mn11) out of the total imaging time. show. The playback operation area Re1 includes a playback button Re2 and a slider Re3.

再生ボタンRe2は、ユーザ操作により選択(押下)され、過去映像の再生と停止とを制御する。 The playback button Re2 is selected (pressed down) by a user operation and controls playback and stop of past videos.

スライダRe3は、総撮像時間に対する現在の再生時間をスライダRe3の位置そのものを用いて可視化する。スライダRe3は、ユーザ操作により左右に移動されると、移動箇所に対応する再生時間から過去映像の再生を開始する制御を実行する。 The slider Re3 visualizes the current playback time relative to the total imaging time using the position of the slider Re3 itself. When the slider Re3 is moved left or right by the user's operation, the slider Re3 executes control to start playing the past video from the playback time corresponding to the moved location.

複数の検知ボタンIc1,Ic2,Ic3,Ic4のそれぞれは、ユーザ操作により選択(押下)されると、その選択(押下)された検知種別の検知パラメータの入力を受け付ける。 When each of the plurality of detection buttons Ic1, Ic2, Ic3, and Ic4 is selected (pressed down) by a user operation, it receives an input of a detection parameter of the selected (pressed) detection type.

検知ボタンIc1は、ユーザ操作により入力されたラインを通過した動体(例えば人物、車両など)を検知するための設定を行うボタンである。 The detection button Ic1 is a button for making settings for detecting a moving object (for example, a person, a vehicle, etc.) that has passed through a line input by a user operation.

検知ボタンIc2は、ユーザ操作により入力された設定領域内に侵入した動体(例えば人物、車両など)を検知するための設定を行うボタンである。 The detection button Ic2 is a button for making settings for detecting a moving object (for example, a person, a vehicle, etc.) that has entered a setting area input by a user operation.

検知ボタンIc3は、ユーザ操作により入力された設定時間以上、指定領域内に滞在した動体(例えば人物、車両など)を検知するための設定を行うボタンである。 The detection button Ic3 is a button for making settings for detecting a moving object (for example, a person, a vehicle, etc.) that has stayed within a designated area for a set time or more inputted by a user operation.

検知ボタンIc4は、ユーザ操作により入力された方向に移動した動体(例えば人物、車両など)を検知するための設定を行うボタンである。 The detection button Ic4 is a button for making settings for detecting a moving object (for example, a person, a vehicle, etc.) that moves in the direction input by the user's operation.

映像取込ボタンBt1は、監視カメラC1におけるメモリ12あるいは外部記憶媒体M1に記憶された過去の過去映像のデータを取り込むためのボタンである。プロセッサ21は、映像取込ボタンBt1がユーザ操作により押下されると、監視カメラC1におけるメモリ12あるいは外部記憶媒体M1に記憶された過去の複数の過去映像のデータを一覧表示する。プロセッサ21は、ユーザ操作によりいずれかの過去映像のデータが選択されると、その過去映像のデータを監視カメラC1に要求する信号を生成して、通信部20を介して監視カメラC1に送信する。プロセッサ21は、監視カメラC1から受信された過去映像を撮像映像表示領域Mn11に出力する。 The video capture button Bt1 is a button for capturing past video data stored in the memory 12 of the surveillance camera C1 or the external storage medium M1. When the video capture button Bt1 is pressed by a user operation, the processor 21 displays a list of data of a plurality of past videos stored in the memory 12 of the surveillance camera C1 or the external storage medium M1. When data of any past video is selected by a user operation, the processor 21 generates a signal requesting the data of the past video from the surveillance camera C1, and transmits the signal to the surveillance camera C1 via the communication unit 20. . The processor 21 outputs the past video received from the surveillance camera C1 to the captured video display area Mn11.

描画種別欄Bt2は、複数の描画ツールBt21,Bt22,Bt23,Bt24,Bt25のそれぞれを含んで構成される。描画種別欄Bt2は、AI処理部14が検知対象を検知する検知エリア、AI処理部14が検知を実行しないマスクエリア、あるいは複数の検知ボタンIc1~Ic4のそれぞれによって設定される各種検知を行うための領域またはラインを描画するための複数の描画ツールのそれぞれを選択可能に表示する。 The drawing type column Bt2 includes each of a plurality of drawing tools Bt21, Bt22, Bt23, Bt24, and Bt25. The drawing type field Bt2 is for performing various detections set by a detection area where the AI processing unit 14 detects a detection target, a mask area where the AI processing unit 14 does not perform detection, or each of the plurality of detection buttons Ic1 to Ic4. selectably display each of a plurality of drawing tools for drawing an area or line.

描画ツールBt21は、撮像映像表示領域Mn11に表示された過去映像上にラインを設定するツールである。描画ツールBt21は、ユーザ操作に基づいて、過去映像上にラインを描画可能にする。プロセッサ21は、ユーザ操作により描画されたラインを生成し、過去映像上に重畳して表示する。 The drawing tool Bt21 is a tool for setting a line on the past video displayed in the captured video display area Mn11. The drawing tool Bt21 allows lines to be drawn on the past video based on user operations. The processor 21 generates a line drawn by a user's operation, and displays the line in a superimposed manner on the past video.

描画ツールBt22は、撮像映像表示領域Mn11に表示された過去映像上に矩形状の検知エリアを設定するツールである。描画ツールBt22は、ユーザ操作に基づいて、過去映像上に矩形状の検知エリアを描画可能にする。プロセッサ21は、ユーザ操作により描画された矩形状の検知エリアを生成し、過去映像上に重畳して表示する。 The drawing tool Bt22 is a tool that sets a rectangular detection area on the past video displayed in the captured video display area Mn11. The drawing tool Bt22 makes it possible to draw a rectangular detection area on the past video based on the user's operation. The processor 21 generates a rectangular detection area drawn by a user's operation, and displays it superimposed on the past video.

描画ツールBt23は、撮像映像表示領域Mn11に表示された過去映像上に多角形状の検知エリアを設定するツールである。描画ツールBt23は、ユーザ操作に基づいて、過去映像上に多角形状の検知エリアを描画可能にする。プロセッサ21は、ユーザ操作により描画された多角形状の検知エリアを生成し、過去映像上に重畳して表示する。 The drawing tool Bt23 is a tool for setting a polygonal detection area on the past video displayed in the captured video display area Mn11. The drawing tool Bt23 makes it possible to draw a polygonal detection area on the past video based on the user's operation. The processor 21 generates a polygonal detection area drawn by a user's operation, and displays it superimposed on the past video.

描画ツールBt24、撮像映像表示領域Mn11に表示された過去映像上に矩形状のマスクエリアを設定するツールである。描画ツールBt24は、ユーザ操作に基づいて、過去映像上に矩形状のマスクエリアを描画可能にする。プロセッサ21は、ユーザ操作により描画された矩形状のマスクエリアを生成し、過去映像上に重畳して表示する。 The drawing tool Bt24 is a tool for setting a rectangular mask area on the past video displayed in the captured video display area Mn11. The drawing tool Bt24 makes it possible to draw a rectangular mask area on the past video based on the user's operation. The processor 21 generates a rectangular mask area drawn by a user's operation, and displays the rectangular mask area superimposed on the past video.

描画ツールBt25は、撮像映像表示領域Mn11に表示された過去映像上に多角形状のマスクエリアを設定するツールである。描画ツールBt25は、ユーザ操作に基づいて、過去映像上に多角形状のマスクエリアを描画可能にする。プロセッサ21は、ユーザ操作により描画された多角形状のマスクエリアを生成し、過去映像上に重畳して表示する。 The drawing tool Bt25 is a tool for setting a polygonal mask area on the past video displayed in the captured video display area Mn11. The drawing tool Bt25 makes it possible to draw a polygonal mask area on the past video based on the user's operation. The processor 21 generates a polygonal mask area drawn by a user's operation, and displays the polygonal mask area superimposed on the past video.

検知エリア設定ボタンBt3は、過去映像上に重畳されたマスクエリアを検知エリアに変更して設定するためのボタンである。プロセッサ21は、ユーザ操作によりマスクエリアが選択された後に検知エリア設定ボタンBt3が選択されると、選択されたマスクエリアを検知エリアに変更する。 The detection area setting button Bt3 is a button for changing and setting the mask area superimposed on the past video to the detection area. When the detection area setting button Bt3 is selected after the mask area is selected by the user's operation, the processor 21 changes the selected mask area to the detection area.

マスクエリア設定ボタンBt4は、過去映像上に重畳された検知エリアをマスクエリアに変更して設定するためのボタンである。プロセッサ21は、ユーザ操作により検知エリアが選択された後にマスクエリア設定ボタンBt4が選択されると、選択された検知エリアをマスクエリアに変更する。 The mask area setting button Bt4 is a button for changing and setting the detection area superimposed on the past video to a mask area. When the mask area setting button Bt4 is selected after a detection area is selected by a user operation, the processor 21 changes the selected detection area to a mask area.

消去ボタンBt5は、過去映像上に重畳された検知エリア、マスクエリア、検知のためのラインあるいは検知するための方向などの設定を削除するためのボタンである。プロセッサ21は、例えばユーザ操作により検知エリアが選択された後に消去ボタンBt5が選択されると、選択された検知エリアと検知エリアに関連にして設定(入力)されたパラメータ(例えば、検知対象としての人物、検知時間、検出感度など)を消去する。 The delete button Bt5 is a button for deleting settings such as a detection area, a mask area, a line for detection, a direction for detection, etc. superimposed on the past video. For example, when the erase button Bt5 is selected after a detection area is selected by a user operation, the processor 21 deletes the selected detection area and parameters set (input) in relation to the detection area (for example, the detection area as a detection target). (person, detection time, detection sensitivity, etc.).

全消去ボタンBt6は、過去映像上に重畳されたすべての検知エリア、マスクエリア、検知のためのラインあるいは検知するための方向などの設定を削除するためのボタンである。プロセッサ21は、例えばユーザ操作により全消去ボタンBt6が選択されると、過去映像に設定されたすべてのパラメータを消去する。 The delete all button Bt6 is a button for deleting all settings such as detection areas, mask areas, lines for detection, directions for detection, etc. superimposed on past images. For example, when the delete all button Bt6 is selected by a user operation, the processor 21 deletes all parameters set for past videos.

図3に示す撮像映像表示領域Mn11は、撮像領域中において多角形状を構成するラインML1で囲まれ、マスクエリアとして設定された領域Ar1と、多角形状を構成するラインML2で囲まれ、検知エリアとして設定された領域Ar2とが重畳されて表示されている。 The captured video display area Mn11 shown in FIG. 3 is surrounded by a line ML1 forming a polygon in the image capturing area, an area Ar1 set as a mask area, and a line ML2 forming a polygon, and is used as a detection area. The set area Ar2 is displayed in a superimposed manner.

図4および図5を参照して、奥行き設定の方法について説明する。図4は、奥行き設定画面Mn2の一例を示す図である。図5は、奥行き設定画面Mn3の一例を示す図である。なお、図4および図5に示す奥行き設定画面Mn2において、図3と同一の機能を実現するものには同一の符号を付すことでその説明を省略する。奥行き設定画面Mn2,Mn3のそれぞれは、図2に示す複数の詳細設定ボタンSBt1~SBt5のそれぞれのうち、ユーザ操作により検知設定を行うための詳細設定ボタンSBt2が選択(押下)された際に、プロセッサ21により生成されて、モニタ23に表示される。 A depth setting method will be described with reference to FIGS. 4 and 5. FIG. 4 is a diagram showing an example of the depth setting screen Mn2. FIG. 5 is a diagram showing an example of the depth setting screen Mn3. Note that in the depth setting screen Mn2 shown in FIGS. 4 and 5, those that implement the same functions as those in FIG. 3 are given the same reference numerals, and the explanation thereof will be omitted. Each of the depth setting screens Mn2 and Mn3 is set when the detailed setting button SBt2 for performing detection settings by user operation is selected (pressed) among the plurality of detailed setting buttons SBt1 to SBt5 shown in FIG. It is generated by the processor 21 and displayed on the monitor 23.

図4に示す撮像映像表示領域Mn21には、総撮像時間25分40秒の過去映像の内、6分10秒における撮像画像が表示されている。撮像映像表示領域Mn21に表示された撮像画像には、人物U1が映っている。 In the captured image display area Mn21 shown in FIG. 4, an image captured at 6 minutes and 10 seconds out of past images with a total imaging time of 25 minutes and 40 seconds is displayed. The person U1 appears in the captured image displayed in the captured image display area Mn21.

図5に示す撮像映像表示領域Mn31には、総撮像時間25分40秒の過去映像の内、6分35秒における撮像画像が表示されている。撮像映像表示領域Mn31に表示された撮像画像には、図4に示す人物U1と同一人物である人物U2が映っている。なお、ここで撮像される人物はユーザであってよい。 In the captured image display area Mn31 shown in FIG. 5, an image captured at 6 minutes 35 seconds out of past images with a total imaging time of 25 minutes 40 seconds is displayed. The captured image displayed in the captured image display area Mn31 shows a person U2 who is the same person as the person U1 shown in FIG. Note that the person imaged here may be the user.

プロセッサ21は、複数の撮像画像のそれぞれを監視カメラC1に送信する。また、プロセッサ21は、複数の撮像画像のそれぞれについて、ユーザ操作により人物U1,U2が映る領域が囲まれると、囲まれた人物U1が映る領域U11および人物U2が映る領域U21のそれぞれの情報を監視カメラC1に送信する。 The processor 21 transmits each of the plurality of captured images to the surveillance camera C1. Further, for each of the plurality of captured images, when the area in which the persons U1 and U2 are shown is surrounded by a user operation, the processor 21 stores information on each of the area U11 in which the surrounded person U1 is shown and the area U21 in which the person U2 is shown. Send to surveillance camera C1.

監視カメラC1におけるプロセッサ11は、受信された複数の撮像画像のそれぞれと、複数の領域U11,U21のそれぞれの情報とを用いた画像処理を実行し、奥行き設定を行う。プロセッサ11は、撮像画像の水平方向のピクセル数および垂直方向のピクセル数を計測する。また、プロセッサ11は、領域U11の水平方向のピクセル数および垂直方向のピクセル数(つまり領域U11の大きさ)と、領域U21の水平方向のピクセル数および垂直方向のピクセル数と(つまり領域U21の大きさ)を計測する。プロセッサ11は、計測された複数の領域U11,U21のそれぞれの大きさに基づいて、消失点P0を算出し、撮像領域内における消失点P0との間の距離であって、消失点P0から等しい距離にある位置(座標)を繋いで生成された複数の等距離線ML31のそれぞれと、消失点P0を基準として等しい角度にある位置(座標)を繋いで生成された複数の等角度線ML32のそれぞれとを生成する。プロセッサ11は、生成された消失点P0、複数の等距離線ML31のそれぞれおよび複数の等角度線ML32のそれぞれを用いて、過去映像(撮像画像)の奥行き情報を生成し、メモリ12に記憶する。また、プロセッサ11は、生成された奥行き情報を端末装置P1に送信する。 The processor 11 in the surveillance camera C1 executes image processing using each of the plurality of received captured images and information on each of the plurality of regions U11 and U21, and sets the depth. The processor 11 measures the number of pixels in the horizontal direction and the number of pixels in the vertical direction of the captured image. The processor 11 also calculates the number of pixels in the horizontal direction and the number of pixels in the vertical direction of the area U11 (that is, the size of the area U11), and the number of pixels in the horizontal direction and the number of pixels in the vertical direction of the area U21 (that is, the number of pixels in the vertical direction of the area U21). size). The processor 11 calculates a vanishing point P0 based on the respective sizes of the plurality of measured regions U11 and U21, and calculates a distance between the vanishing point P0 and the vanishing point P0 within the imaging region, which is equal to the vanishing point P0. Each of a plurality of equidistant lines ML31 generated by connecting positions (coordinates) at distances, and a plurality of equiangular lines ML32 generated by connecting positions (coordinates) at equal angles with respect to the vanishing point P0. and generate respectively. The processor 11 generates depth information of the past video (captured image) using the generated vanishing point P0, each of the plurality of equidistant lines ML31, and each of the plurality of equiangular lines ML32, and stores it in the memory 12. . Furthermore, the processor 11 transmits the generated depth information to the terminal device P1.

これにより、実施の形態1に係る監視カメラC1は、他の監視カメラによって撮像された過去映像のデータを用いて検知対象の検知処理を実行する場合であっても、メモリ12に記憶された奥行き情報に基づいて、ユーザ操作により設定された検知対象の大きさに基づく検知を実行できる。 As a result, the surveillance camera C1 according to the first embodiment can detect the depth stored in the memory 12 even when performing detection processing of a detection target using data of past images captured by other surveillance cameras. Based on the information, detection can be performed based on the size of the detection target set by the user's operation.

図6は、感度設定およびその他設定画面Mn4の一例を示す図である。なお、図6に示す感度設定およびその他設定画面Mn4において、図3と同一の機能を実現するものには同一の符号を付すことでその説明を省略する。感度設定およびその他設定画面Mn4のそれぞれは、図2に示す複数の詳細設定ボタンSBt1~SBt5のそれぞれのうち、ユーザ操作により感度またはその他の設定を行うための詳細設定ボタンSBt4が選択(押下)された際に、プロセッサ21により生成されて、モニタ23に表示される。 FIG. 6 is a diagram showing an example of the sensitivity setting and other setting screen Mn4. Note that in the sensitivity setting and other setting screen Mn4 shown in FIG. 6, those that implement the same functions as those in FIG. Each of the sensitivity setting and other setting screens Mn4 is displayed when the detailed setting button SBt4 for performing sensitivity or other settings by user operation is selected (pressed) from among the plurality of detailed setting buttons SBt1 to SBt5 shown in FIG. When this happens, it is generated by the processor 21 and displayed on the monitor 23.

撮像映像表示領域Mn41には、総撮像時間25分40秒の過去映像の内、6分01秒における撮像画像が表示されている。撮像映像表示領域Mn41に表示された撮像画像は、交差点を撮像した撮像画像であって、二輪車を運転する人物H1と、人物H2と、複数の車両H3,H4,H5,H6,H7,H8のそれぞれが映っている。 In the captured image display area Mn41, an image captured at 6 minutes 01 seconds out of past images with a total imaging time of 25 minutes 40 seconds is displayed. The captured image displayed in the captured image display area Mn41 is a captured image of an intersection, and includes a person H1 driving a two-wheeled vehicle, a person H2, and a plurality of vehicles H3, H4, H5, H6, H7, and H8. Each is reflected.

プロセッサ21は、ユーザ操作により詳細設定ボタンBt7が選択(押下)されると、感度設定およびその他設定を行う設定欄Dt0を表示する。 When the detailed setting button Bt7 is selected (pressed) by a user operation, the processor 21 displays a setting field Dt0 for performing sensitivity settings and other settings.

設定欄Dt0は、感度設定欄Dt1と、時間設定欄Dt2と、大きさ設定欄Dt3とを含む。感度設定欄Dt1は、感度に関する複数の設定項目Dt11,Dt12,Dt13,Dt14のそれぞれを有する。時間設定欄Dt2は、時間に関する複数の設定項目Dt21,Dt22,Dt23のそれぞれを有する。大きさ設定欄Dt3は、検知する大きさに関する設定項目Dt31,Dt32のそれぞれを有する。なお、図6に示され、設定欄Dt0に含まれる感度設定欄Dt1、時間設定欄Dt2、および大きさ設定欄Dt3は一例であって、これらに限定されないことは言うまでもない。また、同様に、図6に示される複数の設定項目Dt11~Dt14,Dt21~Dt23,Dt31~Dt32のそれぞれは一例であって、これらの項目に限定されない。 The setting field Dt0 includes a sensitivity setting field Dt1, a time setting field Dt2, and a size setting field Dt3. The sensitivity setting field Dt1 has a plurality of setting items Dt11, Dt12, Dt13, and Dt14 regarding sensitivity. The time setting field Dt2 has a plurality of setting items Dt21, Dt22, and Dt23 related to time. The size setting field Dt3 has setting items Dt31 and Dt32 regarding the size to be detected. Note that the sensitivity setting field Dt1, time setting field Dt2, and size setting field Dt3 shown in FIG. 6 and included in the setting field Dt0 are examples, and it goes without saying that the present invention is not limited to these. Similarly, each of the plurality of setting items Dt11 to Dt14, Dt21 to Dt23, and Dt31 to Dt32 shown in FIG. 6 is an example, and the present invention is not limited to these items.

設定項目Dt11は、監視カメラC1におけるAI処理部14で実行される画像処理に関する設定であって、ユーザ操作によって設定された検知対象を撮像画像から検出する検出感度を調整可能なスライドバーである。AI処理部14は、設定項目Dt11において、スライドバーがより小さい数字あるいは-(マイナス)側に調整された場合、検知対象の検出感度を低く(小さく)する。AI処理部14は、設定項目Dt11において、スライドバーがより大きい数字あるいは+(プラス)側に調整された場合、検知対象の検出感度を高く(大きく)する。 The setting item Dt11 is a setting related to image processing performed by the AI processing unit 14 in the surveillance camera C1, and is a slide bar that can adjust the detection sensitivity for detecting a detection target set by a user operation from a captured image. The AI processing unit 14 lowers (reduces) the detection sensitivity of the detection target when the slide bar is adjusted to a smaller number or to the - (minus) side in the setting item Dt11. The AI processing unit 14 increases (increases) the detection sensitivity of the detection target when the slide bar is adjusted to a larger number or to the + (plus) side in the setting item Dt11.

設定項目Dt12は、監視カメラC1におけるAI処理部14で実行される画像処理に関する設定であって、撮像画像から検出された動体が検知対象である人物であるか否かを判定する判定感度を調整可能なスライドバーである。AI処理部14は、設定項目Dt12において、スライドバーがより小さい数字あるいは-(マイナス)側に調整された場合、人物の判定感度を低く(小さく)する。AI処理部14は、設定項目Dt12において、スライドバーがより大きい数字あるいは+(プラス)側に調整された場合、人物の判定感度を高く(大きく)する。例えば、設定項目Dt12を用いて人物を検知する場合、監視カメラC1におけるAI処理部14は、人物H1,H2のそれぞれを検知する。 The setting item Dt12 is a setting related to image processing executed by the AI processing unit 14 in the surveillance camera C1, and adjusts the determination sensitivity for determining whether a moving object detected from a captured image is a person to be detected. A possible slide bar. The AI processing unit 14 lowers (decreases) the person determination sensitivity when the slide bar is adjusted to a smaller number or to the - (minus) side in the setting item Dt12. In the setting item Dt12, the AI processing unit 14 increases (increases) the person determination sensitivity when the slide bar is adjusted to a larger number or to the + (plus) side. For example, when detecting a person using the setting item Dt12, the AI processing unit 14 in the surveillance camera C1 detects each of the persons H1 and H2.

設定項目Dt13は、監視カメラC1におけるAI処理部14で実行される画像処理に関する設定であって、撮像画像から検出された動体が検知対象である車両であるか否かを判定する判定感度を調整可能なスライドバーである。AI処理部14は、設定項目Dt13において、スライドバーがより小さい数字あるいは-(マイナス)側に調整された場合、車両の判定感度を低く(小さく)する。AI処理部14は、設定項目Dt13において、スライドバーがより大きい数字あるいは+(プラス)側に調整された場合、車両の判定感度を高く(大きく)する。例えば、設定項目Dt13を用いて車両を検知する場合、監視カメラC1におけるAI処理部14は、複数の車両H3~H8のそれぞれを検知する。 The setting item Dt13 is a setting related to image processing executed by the AI processing unit 14 in the surveillance camera C1, and adjusts the determination sensitivity for determining whether a moving object detected from a captured image is a vehicle to be detected. Possible slide bar. The AI processing unit 14 lowers (decreases) the determination sensitivity of the vehicle when the slide bar is adjusted to a smaller number or to the - (minus) side in the setting item Dt13. In the setting item Dt13, the AI processing unit 14 increases (increases) the determination sensitivity of the vehicle when the slide bar is adjusted to a larger number or to the + (plus) side. For example, when detecting a vehicle using the setting item Dt13, the AI processing unit 14 in the surveillance camera C1 detects each of the plurality of vehicles H3 to H8.

設定項目Dt14は、監視カメラC1におけるAI処理部14で実行される画像処理に関する設定であって、撮像画像から検出された動体が検知対象である二輪車(例えば自転車、バイクなど)であるか否かを判定する判定感度を調整可能なスライドバーである。AI処理部14は、設定項目Dt14において、スライドバーがより小さい数字あるいは-(マイナス)側に調整された場合、二輪車の判定感度を低く(小さく)する。AI処理部14は、設定項目Dt14において、スライドバーがより大きい数字あるいは+(プラス)側に調整された場合、二輪車の判定感度を高く(大きく)する。例えば、設定項目Dt14を用いて二輪車を検知する場合、監視カメラC1におけるAI処理部14は、二輪車を運転する人物H2あるいは人物H2が運転する二輪車を検知する。 The setting item Dt14 is a setting related to image processing executed by the AI processing unit 14 in the surveillance camera C1, and determines whether the moving object detected from the captured image is a two-wheeled vehicle (for example, a bicycle, a motorcycle, etc.) to be detected. This is a slide bar that allows you to adjust the judgment sensitivity. The AI processing unit 14 lowers (decreases) the determination sensitivity of the two-wheeled vehicle when the slide bar is adjusted to a smaller number or to the - (minus) side in the setting item Dt14. In the setting item Dt14, the AI processing unit 14 increases (increases) the determination sensitivity of the two-wheeled vehicle when the slide bar is adjusted to a larger number or to the + (plus) side. For example, when detecting a two-wheeled vehicle using the setting item Dt14, the AI processing unit 14 in the surveillance camera C1 detects a person H2 driving a two-wheeled vehicle or a two-wheeled vehicle driven by the person H2.

設定項目Dt21は、検知エリア内へ侵入した動体を検知した際に、アラートを出力する条件を設定するための項目である。端末装置P1におけるプロセッサ21は、ユーザ操作により設定項目Dt21にセット(設定)されたパラメータを監視カメラC1に送信する。監視カメラC1におけるプロセッサ11は、検知エリア内に動体の侵入設定を検知し、さらに動体が設定された時間(例えば2秒)以上継続して侵入状態である場合、検知エリアへ動体が侵入したと判定する。プロセッサ11は、侵入検知後、検知エリア内に動体が侵入している旨を通知するアラートを生成して端末装置P1に送信する。 The setting item Dt21 is an item for setting conditions for outputting an alert when a moving object entering the detection area is detected. The processor 21 in the terminal device P1 transmits the parameters set (set) in the setting item Dt21 by the user's operation to the surveillance camera C1. The processor 11 in the surveillance camera C1 detects the intrusion setting of a moving object into the detection area, and if the moving object continues to enter the intrusion state for a set time (for example, 2 seconds) or more, the processor 11 determines that a moving object has entered the detection area. judge. After detecting the intrusion, the processor 11 generates an alert to notify that a moving object is intruding into the detection area, and sends it to the terminal device P1.

設定項目Dt22は、検知エリア内で動体の滞留を検知した際に、アラートを出力する条件を設定するための項目である。端末装置P1におけるプロセッサ21は、ユーザ操作により設定項目Dt23にセット(設定)されたパラメータを監視カメラC1に送信する。監視カメラC1におけるプロセッサ11は、検知エリア内に動体の侵入設定を検知し、さらに動体が設定された時間(例えば10秒)以上継続して検知エリア内に滞留した場合、検知エリアに動体が滞留していると判定する。プロセッサ11は、滞留検知後、検知エリア内に動体が滞留している旨を通知するアラートを生成して端末装置P1に送信する。 The setting item Dt22 is an item for setting conditions for outputting an alert when a residence of a moving object is detected within the detection area. The processor 21 in the terminal device P1 transmits the parameters set (set) in the setting item Dt23 by the user's operation to the surveillance camera C1. The processor 11 in the surveillance camera C1 detects the intrusion setting of a moving object into the detection area, and if the moving object remains in the detection area for a set time (for example, 10 seconds) or more, the processor 11 determines that the moving object remains in the detection area. It is determined that the After detecting the stay, the processor 11 generates an alert to notify that a moving object is staying within the detection area, and sends it to the terminal device P1.

設定項目Dt23は、検知エリア内で動体が設定された方向に移動したことを検知した際に、アラートを出力する条件を設定するための項目である。端末装置P1におけるプロセッサ21は、ユーザ操作により設定項目Dt23にセット(設定)されたパラメータを監視カメラC1に送信する。監視カメラC1におけるプロセッサ11は、検知エリア内の動体が、ユーザ操作によりセット(設定)された方向に、設定された時間(例えば2秒)継続して移動した場合、検知エリアに動体が設定された方向に移動していると判定する。プロセッサ11は、方向検知後、動体が設定された方向に移動している旨を通知するアラートを生成して端末装置P1に送信する。 The setting item Dt23 is an item for setting conditions for outputting an alert when it is detected that a moving object has moved in a set direction within the detection area. The processor 21 in the terminal device P1 transmits the parameters set (set) in the setting item Dt23 by the user's operation to the surveillance camera C1. The processor 11 in the surveillance camera C1 determines whether a moving object is set in the detection area if the moving object in the detection area continues to move for a set time (for example, 2 seconds) in a direction set (set) by a user operation. It is determined that the object is moving in the same direction. After detecting the direction, the processor 11 generates an alert to notify that the moving object is moving in the set direction and sends it to the terminal device P1.

設定項目Dt31は、検知エリア内において検出される動体のうち、アラートを出力する動体の大きさを設定するための項目である。端末装置P1におけるプロセッサ21は、ユーザ操作により設定項目Dt31にセット(設定)されたパラメータを監視カメラC1に送信する。監視カメラC1におけるプロセッサ11は、監視カメラC1の画角の例えば1/2以下の大きさで、かつ動きがある場合、検知エリア内に動体が存在すると判定する。 The setting item Dt31 is an item for setting the size of a moving object to output an alert among moving objects detected within the detection area. The processor 21 in the terminal device P1 transmits the parameters set (set) in the setting item Dt31 by the user's operation to the surveillance camera C1. The processor 11 in the surveillance camera C1 determines that a moving object exists within the detection area if the angle of view of the surveillance camera C1 is, for example, 1/2 or less and there is movement.

設定項目Dt32は、検知エリア内において検出される動体のうち、アラートを出力する動体の小ささを設定するための項目である。端末装置P1におけるプロセッサ21は、ユーザ操作により設定項目Dt32にセット(設定)されたパラメータを監視カメラC1に送信する。監視カメラC1におけるプロセッサ11は、監視カメラC1の画角の例えば1/5以上の大きさで、かつ動きがある場合、検知エリア内に動体が存在すると判定する。 The setting item Dt32 is an item for setting the size of a moving object to output an alert among moving objects detected within the detection area. The processor 21 in the terminal device P1 transmits the parameters set (set) in the setting item Dt32 by the user's operation to the surveillance camera C1. The processor 11 in the surveillance camera C1 determines that a moving object exists within the detection area if the angle of view of the surveillance camera C1 is, for example, 1/5 or more and there is movement.

図7は、画質詳細設定画面Mn5の一例を示す図である。なお、図7に示す画質詳細設定画面Mn5において、図3および図6と同一の機能を実現するものには同一の符号を付すことでその説明を省略する。 FIG. 7 is a diagram showing an example of the image quality detailed setting screen Mn5. Note that in the image quality detail setting screen Mn5 shown in FIG. 7, those that implement the same functions as those in FIGS. 3 and 6 are given the same reference numerals, and their explanations will be omitted.

まず、図2に示す複数の詳細設定ボタンSBt1~SBt5のそれぞれのうち、ユーザ操作により画質設定を行うための詳細設定ボタンSBt5が選択(押下)されると、端末装置P1におけるプロセッサ21は、ユーザ操作により選択された詳細設定ボタンSBt5の情報を監視カメラC1に送信する。監視カメラC1におけるプロセッサ11は、受信された情報に基づいて、撮像部13に撮像領域の撮像を開始させる制御信号を生成して送信し、撮像部13によるライブ画(つまりリアルタイム)の撮像を開始させる。プロセッサ11は、撮像部13によって撮像されたライブ映像のデータを監視カメラC1に送信する。端末装置P1におけるプロセッサ21は、GUIウィジェットとしてタブTb2を生成し、受信されたライブ映像のデータを撮像映像表示領域Mn51に表示する。 First, when the detailed setting button SBt5 for performing image quality settings is selected (pressed) by a user operation among the plurality of detailed setting buttons SBt1 to SBt5 shown in FIG. Information on the detailed setting button SBt5 selected by the operation is transmitted to the surveillance camera C1. Based on the received information, the processor 11 in the surveillance camera C1 generates and transmits a control signal that causes the imaging unit 13 to start imaging the imaging area, and starts the imaging unit 13 to capture a live image (that is, in real time). let The processor 11 transmits live video data captured by the imaging unit 13 to the surveillance camera C1. The processor 21 in the terminal device P1 generates a tab Tb2 as a GUI widget, and displays the received live video data in the captured video display area Mn51.

タブTb2は、さらに簡単画質設定ボタンBt8および実行ボタンBt12を含んで構成される。プロセッサ21は、簡単画質設定ボタンBt8をユーザ操作により押下されると、画質設定を行うための画面として画質設定画面Mn52および簡単画質設定画面(不図示)のそれぞれを表示させる。図7では、ユーザ操作により簡単画質設定ボタンBt8が押下され、画質設定画面Mn52が撮像映像表示領域Mn51を含むタブTb2と同一画面(つまり画質詳細設定画面Mn5)上に表示された例を示す。 The tab Tb2 further includes a simple image quality setting button Bt8 and an execution button Bt12. When the simple image quality setting button Bt8 is pressed by a user operation, the processor 21 displays an image quality setting screen Mn52 and a simple image quality setting screen (not shown) as screens for setting the image quality. FIG. 7 shows an example in which the simple image quality setting button Bt8 is pressed by a user operation, and the image quality setting screen Mn52 is displayed on the same screen as the tab Tb2 that includes the captured video display area Mn51 (that is, the detailed image quality setting screen Mn5).

画質設定画面Mn52は、画質を設定する際の複数の設定項目のそれぞれ(例えば、スーパーダイナミック、光量制限モード、白黒切換、IR(infrared) LED Light、デジタル・ノイズ・リダクションなど)を含んで生成される。例えば、画質設定画面Mn52に含まれる複数の設定項目のそれぞれのうち、項目「マスクエリア」は、開始ボタンBt9、終了ボタンBt10およびリセットボタンBt11のそれぞれを有する。開始ボタンBt9は、ユーザ操作により押下されると、現在設定されているマスクエリアを有効化し、マスクエリア内における検出および検知処理を無効化する。終了ボタンBt10は、ユーザ操作により押下されると、現在設定されているマスクエリアを無効化し、マスクエリア内における検出および検知処理を有効化する。リセットボタンBt11は、ユーザ操作により押下されると、現在設定されているマスクエリアの情報をリセット(削除)する。 The image quality setting screen Mn52 is generated including each of a plurality of setting items when setting the image quality (for example, super dynamic, light amount limiting mode, black and white switching, IR (infrared) LED Light, digital noise reduction, etc.). Ru. For example, among the multiple setting items included in the image quality setting screen Mn52, the item "Mask Area" includes a start button Bt9, an end button Bt10, and a reset button Bt11. When the start button Bt9 is pressed by a user operation, it enables the currently set mask area and disables detection and sensing processing within the mask area. When the end button Bt10 is pressed by a user operation, it invalidates the currently set mask area and enables detection and sensing processing within the mask area. When the reset button Bt11 is pressed by a user operation, the reset button Bt11 resets (deletes) information on the currently set mask area.

実行ボタンBt12は、ユーザ操作により押下されると、現在設定されている画質設定を反映して実行させる。プロセッサ21は、実行ボタンBt12の押下を検知すると、現在設定されている画質のパラメータを監視カメラC1に送信する。監視カメラC1におけるプロセッサ11は、受信された画質のパラメータに基づいて、ライブ映像(撮像画像)の画像処理を実行して端末装置P1に送信する。端末装置P1におけるプロセッサ21は、受信された画像処理後のライブ映像(撮像画像)をモニタ23に出力するとともに、撮像映像表示領域Mn51に表示させる。 When the execution button Bt12 is pressed by a user operation, the currently set image quality settings are reflected and executed. When the processor 21 detects that the execution button Bt12 is pressed, it transmits the currently set image quality parameters to the surveillance camera C1. The processor 11 in the surveillance camera C1 performs image processing on the live video (captured image) based on the received image quality parameters, and transmits it to the terminal device P1. The processor 21 in the terminal device P1 outputs the received live video (captured image) after image processing to the monitor 23 and displays it in the captured video display area Mn51.

図8を参照して、実施の形態1に係るパラメータ設定支援システム100の動作手順について説明する。図8は、実施の形態1に係るパラメータ設定支援システム100の動作手順例を示すフローチャートである。 Referring to FIG. 8, the operating procedure of the parameter setting support system 100 according to the first embodiment will be described. FIG. 8 is a flowchart illustrating an example of an operation procedure of the parameter setting support system 100 according to the first embodiment.

端末装置P1は、ユーザ操作により複数の設定種別のそれぞれのうち、設定したい種別に関する選択を受け付ける。端末装置P1は、複数の詳細設定ボタンSBt1~SBt5のそれぞれのうち、ユーザ操作により押下(選択)された詳細設定ボタンが画質に関する設定を行うための詳細設定ボタンSBt1であるか否かを判定する(St1)。 The terminal device P1 receives a selection regarding a desired setting among a plurality of setting types through a user operation. The terminal device P1 determines whether the detailed setting button pressed (selected) by the user operation among the plurality of detailed setting buttons SBt1 to SBt5 is the detailed setting button SBt1 for performing settings related to image quality. (St1).

端末装置P1は、ステップSt1の処理において、ユーザ操作により押下(選択)された詳細設定ボタンが画質に関する設定を行うための詳細設定ボタンSBt1である場合(St1,YES)、撮像したい撮像場所の撮像を開始させる(St2)。 In the process of step St1, if the detailed settings button pressed (selected) by the user operation is the detailed settings button SBt1 for making settings related to image quality (St1, YES), the terminal device P1 captures an image of the desired imaging location. (St2).

一方、端末装置P1は、ステップSt1の処理において、ユーザ操作により押下(選択)された詳細設定ボタンが画質に関する設定を行うための詳細設定ボタンSBt1でない(つまり、画質以外のパラメータの入力を行う)場合(St1,NO)、監視カメラC1の画像処理における設定を行うために監視カメラC1におけるメモリ12あるいは外部記憶媒体M1に記憶された過去の過去映像のデータを取り込む(St3)。なお、取り込む過去の過去映像のデータは、ユーザ操作により選択されてよい。 On the other hand, in the process of step St1, the terminal device P1 determines that the detailed settings button pressed (selected) by the user operation is not the detailed settings button SBt1 for performing settings related to image quality (that is, inputs parameters other than image quality). If (St1, NO), data of past video stored in the memory 12 of the surveillance camera C1 or the external storage medium M1 is imported in order to perform settings for image processing of the surveillance camera C1 (St3). Note that the past video data to be imported may be selected by a user operation.

監視カメラC1は、ステップSt2の処理において撮像部13による撮像を開始し、撮像されたライブ映像のデータを端末装置P1に送信する。端末装置P1は、受信されたライブ映像を用いて、ライブ映像を表示する撮像映像表示領域を含む設定画面(例えば、図7に示す画質詳細設定画面Mn5)を生成し、モニタ23に表示させる(St4)。 In the process of step St2, the surveillance camera C1 starts imaging by the imaging unit 13, and transmits data of the captured live video to the terminal device P1. The terminal device P1 uses the received live video to generate a settings screen (for example, the image quality detailed setting screen Mn5 shown in FIG. 7) including a captured video display area for displaying the live video, and displays it on the monitor 23 ( St4).

端末装置P1は、ユーザ操作による簡単画質設定ボタンBt8の押下(選択)を検知する(St5)。 The terminal device P1 detects the depression (selection) of the simple image quality setting button Bt8 by the user's operation (St5).

端末装置P1は、ユーザ操作による簡単画質設定ボタンBt8の押下(選択)を検知した場合(St5,YES)、画質の詳細設定を行うための複数の設定項目のそれぞれを含む画質設定画面Mn52を表示する(St6)。端末装置P1は、複数の設定項目のそれぞれについてユーザ操作を受け付ける。ここで、画質設定画面Mn52は、撮像映像表示領域Mn51とともに同一画面(つまり画質詳細設定画面Mn5)上に表示される。これにより、ユーザは、ライブ映像を確認しながら画質に関する設定を行うことができる。 When the terminal device P1 detects that the simple image quality setting button Bt8 is pressed (selected) by a user operation (St5, YES), the terminal device P1 displays an image quality setting screen Mn52 including each of a plurality of setting items for making detailed image quality settings. (St6). The terminal device P1 accepts user operations for each of a plurality of setting items. Here, the image quality setting screen Mn52 is displayed on the same screen (that is, the image quality detailed setting screen Mn5) together with the captured video display area Mn51. This allows the user to make settings regarding image quality while checking the live video.

一方、端末装置P1は、ユーザ操作による簡単画質設定ボタンBt8の押下(選択)を検知した場合(St5,NO)、あるいはステップSt6の処理において、画質の詳細設定が完了した場合、複数の検知ボタンIc1~Ic4のそれぞれの選択による検知モード(例えば侵入、滞留、移動方向など)の設定あるいは描画種別欄Bt2による検知エリアおよびマスクエリアの設定を受け付ける(St7)。 On the other hand, when the terminal device P1 detects that the simple image quality setting button Bt8 is pressed (selected) by the user's operation (St5, NO), or when the detailed setting of image quality is completed in the process of step St6, the terminal device P1 selects a plurality of detection buttons. The setting of the detection mode (for example, intrusion, retention, movement direction, etc.) by selecting each of Ic1 to Ic4 or the setting of the detection area and mask area by the drawing type field Bt2 is accepted (St7).

さらに、端末装置P1は、撮像領域の奥行き設定を実行する(St8)。具体的に端末装置P1は、撮像時刻が異なる複数の撮像画像のそれぞれから例えば同一人物を検出し、検出された人物の検出領域の大きさ(水平方向のピクセル数および垂直方向のピクセル数)に基づいて、消失点P0を算出する。端末装置P1は、算出された消失点P0を原点とする複数の等角度線および複数の等距離線のそれぞれを生成し、撮像領域の奥行設定を実行する。なお、端末装置P1は、人物の代わりに所定の撮像時刻における撮像画像内に同じ高さ(長さ)の棒などの目印を検出し、この目印の検出領域の大きさに基づいて奥行き設定を実行してもよい。 Furthermore, the terminal device P1 executes depth setting of the imaging area (St8). Specifically, the terminal device P1 detects, for example, the same person from each of a plurality of captured images captured at different times, and determines the size of the detection area (the number of pixels in the horizontal direction and the number of pixels in the vertical direction) of the detected person. Based on this, the vanishing point P0 is calculated. The terminal device P1 generates each of a plurality of equiangular lines and a plurality of equidistant lines having the calculated vanishing point P0 as the origin, and executes depth setting of the imaging area. Note that the terminal device P1 detects a landmark such as a bar of the same height (length) in the captured image at a predetermined imaging time instead of a person, and sets the depth based on the size of the detection area of this landmark. May be executed.

端末装置P1は、ユーザ操作により詳細設定ボタンBt7が選択(押下)されると、スケジュール設定、感度設定およびその他設定を行う設定欄Dt0を表示し、ユーザ操作によるスケジュール設定、感度設定およびその他設定等の設定操作を受け付ける(St9)。 When the detailed settings button Bt7 is selected (pressed) by a user operation, the terminal device P1 displays a setting field Dt0 for performing schedule settings, sensitivity settings, and other settings, and allows the user to perform schedule settings, sensitivity settings, and other settings. The setting operation is accepted (St9).

端末装置P1は、ステップSt6~St9における処理において受け付けた設定種別ごとのパラメータを監視カメラC1に送信する。監視カメラC1は、受信された設定種別ごとのパラメータに基づいて、撮像部13によって撮像されたライブ映像に画像処理を実行し、画像処理結果としてのライブ映像のデータおよび検知結果を端末装置P1に送信する。端末装置P1は、受信されたライブ映像を出力するとともに、検知結果をモニタ23に出力して、表示させる(St10)。 The terminal device P1 transmits the parameters for each setting type received in the processing in steps St6 to St9 to the surveillance camera C1. The surveillance camera C1 executes image processing on the live video imaged by the imaging unit 13 based on the received parameters for each setting type, and sends the live video data and detection results as the image processing results to the terminal device P1. Send. The terminal device P1 outputs the received live video and also outputs the detection result to the monitor 23 for display (St10).

監視カメラC1は、設定種別ごとのパラメータをメモリ12に記憶する(St11)。ステップSt11の処理の後、実施の形態1に係るパラメータ設定支援システム100は、動作手順を終了する。 The surveillance camera C1 stores parameters for each setting type in the memory 12 (St11). After the process of step St11, the parameter setting support system 100 according to the first embodiment ends the operation procedure.

監視カメラC1は、ステップSt3の処理においてメモリ12あるいは外部記憶媒体M1に記憶された過去映像のデータを端末装置P1に送信する。端末装置P1は、受信された過去映像を用いて、過去映像を再生する撮像映像表示領域(例えば撮像映像表示領域Mn41)を含む画面(例えば感度設定およびその他設定画面Mn4)を生成し、モニタ23に表示させる(St12)。 The surveillance camera C1 transmits past video data stored in the memory 12 or the external storage medium M1 to the terminal device P1 in the process of step St3. The terminal device P1 uses the received past video to generate a screen (for example, a sensitivity setting and other setting screen Mn4) including a captured video display area (for example, a captured video display area Mn41) for reproducing the past video, and displays the screen on the monitor 23. (St12).

端末装置P1は、ユーザ操作による複数の検知ボタンIc1~Ic4のそれぞれの選択による検知モード(例えば侵入、滞留、移動方向など)の設定あるいは描画種別欄Bt2による検知エリアおよびマスクエリアの設定を受け付ける(St13)。 The terminal device P1 accepts the setting of the detection mode (for example, intrusion, retention, movement direction, etc.) by selecting each of the plurality of detection buttons Ic1 to Ic4 by the user's operation, or the setting of the detection area and mask area by the drawing type column Bt2 ( St13).

さらに、端末装置P1は、撮像領域の奥行き設定を実行する(St14)。具体的に端末装置P1は、撮像時刻が異なる複数の撮像画像のそれぞれ(例えば、図4に示す撮像映像表示領域Mn21に表示された撮像画像および図5に示す撮像映像表示領域Mn31に表示された撮像画像)から例えば同一の人物U1,U2のそれぞれを検出し、検出された人物の検出領域の大きさ(水平方向のピクセル数および垂直方向のピクセル数)に基づいて、消失点P0を算出する。端末装置P1は、算出された消失点P0を原点とする複数の等角度線および複数の等距離線のそれぞれを生成し、撮像領域の奥行設定を実行する。これにより、ユーザは、予めユーザ自身が映るように撮像された過去映像のデータを用いて奥行き設定できる。つまり、実施の形態1に係るパラメータ設定支援システム100は、ユーザ1人で奥行き設定を行うことができる。なお、端末装置P1は、人物の代わりに所定の撮像時刻における撮像画像内に同じ高さ(長さ)の棒などの目印を検出し、この目印の検出領域の大きさに基づいて奥行き設定を実行してもよい。 Furthermore, the terminal device P1 executes depth setting of the imaging area (St14). Specifically, the terminal device P1 displays each of a plurality of captured images having different imaging times (for example, the captured image displayed in the captured image display area Mn21 shown in FIG. 4 and the captured image displayed in the captured image display area Mn31 shown in FIG. 5). For example, each of the same people U1 and U2 is detected from the captured image), and the vanishing point P0 is calculated based on the size of the detection area (the number of pixels in the horizontal direction and the number of pixels in the vertical direction) of the detected person. . The terminal device P1 generates each of a plurality of equiangular lines and a plurality of equidistant lines having the calculated vanishing point P0 as the origin, and executes depth setting of the imaging area. Thereby, the user can set the depth using data of past videos that were captured in advance so that the user himself or herself appears in the image. In other words, the parameter setting support system 100 according to the first embodiment allows one user to set the depth. Note that the terminal device P1 detects a landmark such as a bar of the same height (length) in the captured image at a predetermined imaging time instead of a person, and sets the depth based on the size of the detection area of this landmark. May be executed.

端末装置P1は、ユーザ操作により詳細設定ボタンBt7が選択(押下)されると、スケジュール設定、感度設定およびその他設定を行う設定欄Dt0を表示し、ユーザ操作によるスケジュール設定、感度設定およびその他設定等の設定操作を受け付ける(St15)。 When the detailed settings button Bt7 is selected (pressed) by a user operation, the terminal device P1 displays a setting field Dt0 for performing schedule settings, sensitivity settings, and other settings, and allows the user to perform schedule settings, sensitivity settings, and other settings. The setting operation is accepted (St15).

端末装置P1は、ステップSt13~St15における処理において受け付けた設定種別ごとのパラメータを監視カメラC1に送信する。監視カメラC1は、受信された設定種別ごとのパラメータに基づいて、撮像部13によって撮像された過去映像に画像処理を実行し、画像処理結果としての過去映像のデータおよび検知結果を端末装置P1に送信する。端末装置P1は、受信された過去映像を再生するとともに、検知結果をモニタ23に出力して、表示させる(St16)。 The terminal device P1 transmits the parameters for each setting type received in the processing in steps St13 to St15 to the surveillance camera C1. The surveillance camera C1 executes image processing on the past video imaged by the imaging unit 13 based on the received parameters for each setting type, and sends the data of the past video and the detection results as the image processing results to the terminal device P1. Send. The terminal device P1 plays back the received past video and outputs the detection result to the monitor 23 for display (St16).

端末装置P1は、ステップSt13~St15における処理において受け付けた設定種別ごとのパラメータについて、再設定するか否かのユーザ操作を受け付ける(St17)。 The terminal device P1 accepts a user operation as to whether or not to reset the parameters for each setting type received in the processing in steps St13 to St15 (St17).

端末装置P1は、ステップSt13~St15における処理において受け付けた設定種別ごとのパラメータについて、ユーザ操作により再設定が選択された場合(St17,YES)、ステップSt12の処理に移行する。 If resetting is selected by the user operation for the parameters for each setting type received in the processing in steps St13 to St15 (St17, YES), the terminal device P1 moves to the processing in step St12.

一方、端末装置P1は、ステップSt13~St15における処理において受け付けた設定種別ごとのパラメータについて、ユーザ操作により再設定が選択されなかった場合(St17,NO)、設定種別ごとのパラメータの設定完了を示す信号を生成して、監視カメラC1に送信する。監視カメラC1は、信号を受信すると、ステップSt11の処理に移行し、設定種別ごとのパラメータをメモリ12に記憶する(St11)。 On the other hand, if resetting is not selected by the user operation for the parameters for each setting type received in the processing in steps St13 to St15 (St17, NO), the terminal device P1 indicates completion of setting the parameters for each setting type. A signal is generated and transmitted to the surveillance camera C1. When the surveillance camera C1 receives the signal, the process proceeds to step St11, and stores parameters for each setting type in the memory 12 (St11).

以上により、実施の形態1に係るパラメータ設定支援システム100の動作手順は終了する。なお、上述した実施の形態1に係るパラメータ設定支援システム100の動作手順は一例であって、これに限定されない。例えば、ステップSt6~St9の処理、およびステップSt13~St16の処理の順序は、図8に示すフローチャートと異なる順序で実行されてよい。さらに、ステップSt17の再設定をユーザに確認する処理は、ステップSt10の後に実行され、再設定が選択された場合には、ステップSt5の処理に移行してよい。また、ステップSt1において、ユーザにより押下(選択)された詳細設定ボタンが画質に関する設定を行うための詳細設定ボタンSBt1であっても、さらにユーザ操作により監視カメラC1におけるメモリ12あるいは外部記憶媒体M1に記憶された過去の過去映像のデータの取り込みを実行可能であってよい。パラメータ設定支援システム100は、ユーザ操作により過去映像のデータを用いて画質に関する設定を行う場合、ステップSt2において過去映像のデータの取り込みを実行してよい。 With the above, the operation procedure of the parameter setting support system 100 according to the first embodiment ends. Note that the operation procedure of the parameter setting support system 100 according to the first embodiment described above is an example, and is not limited thereto. For example, the processing in steps St6 to St9 and the processing in steps St13 to St16 may be executed in a different order from the flowchart shown in FIG. Further, the process of confirming the resetting with the user in step St17 may be executed after step St10, and if resetting is selected, the process may proceed to step St5. In addition, in step St1, even if the detailed setting button pressed (selected) by the user is the detailed setting button SBt1 for making settings related to image quality, the memory 12 in the surveillance camera C1 or the external storage medium M1 may be It may be possible to import data of stored past video images. When the parameter setting support system 100 performs settings related to image quality using past video data through a user operation, the parameter setting support system 100 may import the past video data in step St2.

以上により、実施の形態1に係るパラメータ設定支援システム100は、監視カメラC1と端末装置P1とが互いに通信可能に接続されたパラメータ設定支援システムである。端末装置P1は、ユーザ操作により選択された監視カメラC1のパラメータの設定種別(例えば、図2に示す画質設定、検知設定、奥行き設定、その他設定、スケジュール設定など)の情報を監視カメラC1に送信する。監視カメラC1は、受信された設定種別の情報が監視カメラC1の撮像画像の画質(つまり、画質設定を示す設定種別)でない場合、監視カメラC1に接続された外部記憶媒体M1に記憶された過去映像のデータを取得して端末装置P1に送信する。端末装置P1は、受信された過去映像を再生し、ユーザ操作により再生中の過去映像を用いた画質以外の設定種別ごとのパラメータの入力を受け付け、入力された設定種別ごとのパラメータ(複数の項目のそれぞれに設定された情報)を監視カメラC1に送信する。監視カメラC1は、受信された設定種別ごとのパラメータを設定する。 As described above, the parameter setting support system 100 according to the first embodiment is a parameter setting support system in which the surveillance camera C1 and the terminal device P1 are communicably connected to each other. The terminal device P1 transmits information on the parameter setting type of the surveillance camera C1 selected by the user operation (for example, image quality setting, detection setting, depth setting, other settings, schedule setting, etc. shown in FIG. 2) to the surveillance camera C1. do. If the received setting type information is not the image quality of the captured image of the monitoring camera C1 (in other words, the setting type indicating the image quality setting), the monitoring camera C1 detects the past information stored in the external storage medium M1 connected to the monitoring camera C1. The video data is acquired and transmitted to the terminal device P1. The terminal device P1 plays back the received past video, receives input of parameters for each setting type other than image quality using the past video being played back by user operation, and inputs parameters (multiple items) for each input setting type. (information set for each) is transmitted to the surveillance camera C1. The surveillance camera C1 sets parameters for each received setting type.

これにより、実施の形態1に係るパラメータ設定支援システム100は、監視カメラC1あるいは他の監視カメラによって撮像された過去映像を用いて監視カメラC1のパラメータの設定を支援できる。よって、ユーザは、過去映像を用いて監視カメラC1のパラメータを設定できるため、例えば夜間など時間を指定したい場合、あるいは雨天など天候を指定したい場合などの条件であっても、時間あるいは天候によらず、監視カメラC1のパラメータを設定できる。また、ユーザは、監視カメラC1によって検知したい検知対象が撮像された過去映像を用いて検知に関するパラメータ(例えば、検知エリア、マスクエリア、各検知種別の検知設定など)を設定できる。 Thereby, the parameter setting support system 100 according to the first embodiment can support setting of the parameters of the surveillance camera C1 using past images captured by the surveillance camera C1 or other surveillance cameras. Therefore, the user can set the parameters of the surveillance camera C1 using past images, so even if the user wants to specify the time, such as night time, or the weather, such as rainy weather, the user can set the parameters of the surveillance camera C1 using past images. First, parameters of the surveillance camera C1 can be set. Further, the user can set parameters related to detection (for example, detection area, mask area, detection settings for each detection type, etc.) using past images in which the detection target to be detected was captured by the surveillance camera C1.

また、実施の形態1に係るパラメータ設定支援システム100における監視カメラC1は、設定された設定種別ごとのパラメータに基づいて、過去映像の画像処理を実行し、画像処理後の過去映像を端末装置P1に送信し、モニタ23に出力させる。これにより、実施の形態1に係るパラメータ設定支援システム100は、パラメータに基づいて画像処理された過去映像を可視化できる。よって、ユーザは、モニタ23に表示された画像処理後の過去映像により、設定されたパラメータに基づいて実行された監視カメラC1による画像処理の性能確認を簡易に行える。 Furthermore, the surveillance camera C1 in the parameter setting support system 100 according to the first embodiment executes image processing of the past video based on the parameters for each set setting type, and transfers the past video after the image processing to the terminal device P1. and output it to the monitor 23. Thereby, the parameter setting support system 100 according to the first embodiment can visualize past videos that have been image-processed based on the parameters. Therefore, the user can easily check the performance of the image processing performed by the surveillance camera C1 based on the set parameters using the past image after image processing displayed on the monitor 23.

また、実施の形態1に係るパラメータ設定支援システム100における端末装置P1は、過去映像の表示領域(撮像映像表示領域の一例)を含む、設定種別ごとのパラメータの入力を受け付ける設定画面(例えば、図3に示すエリア設定画面Mn1、図4に示す奥行き設定画面Mn2、図5に示す奥行き設定画面Mn3、図6に示す感度設定およびその他設定画面Mn4、図7に示す画質詳細設定画面Mn5など)をモニタ23に出力する。これにより、実施の形態1に係るパラメータ設定支援システム100は、過去映像と設定種別ごとの設定画面とモニタ23に表示できる。よって、ユーザは、過去映像を確認しながら監視カメラC1の設定を行える。 The terminal device P1 in the parameter setting support system 100 according to the first embodiment also has a setting screen (for example, a 3, the depth setting screen Mn2 shown in FIG. 4, the depth setting screen Mn3 shown in FIG. 5, the sensitivity setting and other setting screen Mn4 shown in FIG. 6, the image quality detailed setting screen Mn5 shown in FIG. Output to the monitor 23. Thereby, the parameter setting support system 100 according to the first embodiment can display past images and setting screens for each setting type on the monitor 23. Therefore, the user can configure the surveillance camera C1 while checking past images.

また、実施の形態1に係るパラメータ設定支援システム100における端末装置P1は、ユーザ操作により画質が選択された場合、画質の設定を開始させる制御信号を生成して監視カメラC1に送信する。監視カメラC1は、画質の設定を開始させる制御信号を受信すると、監視カメラC1によって現在撮像されているライブ映像(撮像部13によって撮像されたライブ映像)を端末装置P1に送信する。端末装置P1は、受信されたライブ映像をモニタ23に出力する。これにより、実施の形態1に係るパラメータ設定支援システム100は、監視カメラC1によって撮像されているライブ映像を用いて監視カメラC1のパラメータの設定を支援できる。よって、ユーザは、他の監視カメラの性能などの影響を受けずに、監視カメラC1による画像処理の性能確認を行える。 Furthermore, when image quality is selected by a user operation, the terminal device P1 in the parameter setting support system 100 according to the first embodiment generates a control signal to start setting the image quality and transmits it to the surveillance camera C1. When the surveillance camera C1 receives a control signal to start setting the image quality, the surveillance camera C1 transmits the live video currently being captured by the surveillance camera C1 (the live video captured by the imaging unit 13) to the terminal device P1. The terminal device P1 outputs the received live video to the monitor 23. Thereby, the parameter setting support system 100 according to the first embodiment can support setting of the parameters of the surveillance camera C1 using the live video imaged by the surveillance camera C1. Therefore, the user can check the performance of image processing by the surveillance camera C1 without being affected by the performance of other surveillance cameras.

また、実施の形態1に係るパラメータ設定支援システム100における端末装置P1は、ユーザ操作により、表示領域(タブTb1に含まれる撮像映像表示領域の一例)にて過去映像の再生あるいは一時停止を行うとともに、画質以外の設定種別のパラメータの入力を受け付ける。これにより、実施の形態1に係るパラメータ設定支援システム100は、所定の再生時間におけるパラメータの入力を受け付けることができる。また、ユーザは、画像処理の性能を確認したい時間帯について、入力された設定種別のパラメータによる画像処理結果を確認できる。 Further, the terminal device P1 in the parameter setting support system 100 according to the first embodiment plays back or pauses past video in the display area (an example of the captured video display area included in the tab Tb1) according to a user operation. , accepts input of parameters for setting types other than image quality. Thereby, the parameter setting support system 100 according to Embodiment 1 can accept input of parameters at a predetermined playback time. Furthermore, the user can check the image processing results based on the parameters of the input setting type for the time period in which the user wants to check the image processing performance.

また、実施の形態1に係るパラメータ設定支援システム100における端末装置P1は、過去映像を用いた設定種別ごとのパラメータの入力を繰り返し受け付け、再入力された設定種別ごとのパラメータを監視カメラC1に送信する。監視カメラC1は、受信された設定種別ごとのパラメータに基づいて、過去映像の画像処理を実行し、画像処理後の過去映像を端末装置P1に送信し、モニタ23に出力させる。これにより、実施の形態1に係るパラメータ設定支援システム100は、入力された設定種別のパラメータごと画像処理された画像処理後の過去映像をモニタ23に表示できる。よって、ユーザは、設定種別のパラメータごとの画像処理結果のそれぞれの変化を十分に確認できるとともに、監視カメラC1の画像処理の性能を確認できる。 In addition, the terminal device P1 in the parameter setting support system 100 according to the first embodiment repeatedly accepts input of parameters for each setting type using past images, and transmits the re-input parameters for each setting type to the surveillance camera C1. do. The surveillance camera C1 executes image processing of the past video based on the received parameters for each setting type, transmits the past video after image processing to the terminal device P1, and causes the monitor 23 to output the past video. Thereby, the parameter setting support system 100 according to Embodiment 1 can display on the monitor 23 past images subjected to image processing for each parameter of the input setting type. Therefore, the user can sufficiently check the changes in the image processing results for each parameter of the setting type, and can also check the image processing performance of the surveillance camera C1.

以上、添付図面を参照しながら各種の実施の形態について説明したが、本開示はかかる例に限定されない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例、修正例、置換例、付加例、削除例、均等例に想到し得ることは明らかであり、それらについても本開示の技術的範囲に属すると了解される。また、発明の趣旨を逸脱しない範囲において、上述した各種の実施の形態における各構成要素を任意に組み合わせてもよい。 Although various embodiments have been described above with reference to the accompanying drawings, the present disclosure is not limited to such examples. It is clear that those skilled in the art can come up with various changes, modifications, substitutions, additions, deletions, and equivalents within the scope of the claims, and It is understood that it falls within the technical scope of the present disclosure. Further, each of the constituent elements in the various embodiments described above may be arbitrarily combined without departing from the spirit of the invention.

本開示は、監視カメラの過去映像あるいはライブ映像を用いて監視カメラのパラメータの効率的な設定を支援するパラメータ設定支援システム、パラメータ設定支援方法およびパラメータ設定支援プログラムの提示として有用である。 The present disclosure is useful as a presentation of a parameter setting support system, a parameter setting support method, and a parameter setting support program that support efficient setting of parameters of a surveillance camera using past images or live images of the surveillance camera.

10,20 通信部
11,21 プロセッサ
12,22 メモリ
13 撮像部
14 AI処理部
14a AI演算処理部
14b 学習モデルDB
15 外部記憶媒体I/F
100 パラメータ設定支援システム
Ar1,Ar2 領域
C1 監視カメラ
M1 外部記憶媒体
NW1 ネットワーク
P1 端末装置
10, 20 Communication unit 11, 21 Processor 12, 22 Memory 13 Imaging unit 14 AI processing unit 14a AI calculation processing unit 14b Learning model DB
15 External storage medium I/F
100 Parameter setting support system Ar1, Ar2 Area C1 Surveillance camera M1 External storage medium NW1 Network P1 Terminal device

Claims (9)

監視カメラと端末装置とが互いに通信可能に接続されたパラメータ設定支援システムであって、
前記端末装置は、
ユーザ操作により選択された前記監視カメラのパラメータの設定種別を前記監視カメラに送信し、
前記監視カメラは、
受信された前記設定種別が前記監視カメラの撮像画像の画質でない場合、前記監視カメラに接続された外部記憶媒体に記憶された過去に撮像された過去映像を取得して前記端末装置に送信し、
前記端末装置は、
受信された前記過去映像を再生し、
前記ユーザ操作により再生中の前記過去映像を用いた対象物の検知に関する設定種別ごとのパラメータの入力を受け付け、前記入力された前記設定種別ごとのパラメータを前記監視カメラに送信し、
前記監視カメラは、
受信された前記設定種別ごとの前記パラメータを設定する、
パラメータ設定支援システム。
A parameter setting support system in which a surveillance camera and a terminal device are communicably connected to each other,
The terminal device is
transmitting a parameter setting type of the surveillance camera selected by a user operation to the surveillance camera;
The surveillance camera is
If the received setting type is not the image quality of the captured image of the surveillance camera, acquiring a past image captured in the past stored in an external storage medium connected to the surveillance camera and transmitting it to the terminal device;
The terminal device is
Playing the received past video,
Accepting input of parameters for each setting type regarding detection of an object using the past video being played back by the user operation, and transmitting the input parameters for each setting type to the surveillance camera;
The surveillance camera is
configuring the parameters for each of the received configuration types;
Parameter setting support system.
前記検知に関する設定種別ごとのパラメータは、検知される前記対象物に関する検知設定または前記対象物を検知する検知領域の奥行き設定に関するパラメータである、The parameters for each setting type related to detection are parameters related to detection settings related to the object to be detected or depth settings of a detection area for detecting the object,
請求項1に記載のパラメータ設定支援システム。The parameter setting support system according to claim 1.
前記監視カメラは、
設定された前記設定種別ごとの前記パラメータに基づいて、前記過去映像の画像処理を実行し、
前記画像処理後の過去映像を前記端末装置に送信し、モニタに出力させる、
請求項1に記載のパラメータ設定支援システム。
The surveillance camera is
Executing image processing of the past video based on the parameters for each of the setting types that have been set,
transmitting the past video after the image processing to the terminal device and outputting it to a monitor;
The parameter setting support system according to claim 1.
前記端末装置は、
前記過去映像の表示領域を含む、前記設定種別ごとの前記入力を受け付ける設定画面をモニタに出力する、
請求項1に記載のパラメータ設定支援システム。
The terminal device is
outputting to a monitor a setting screen that accepts the input for each setting type, including a display area of the past video;
The parameter setting support system according to claim 1.
前記端末装置は、
前記ユーザ操作により前記画質が選択された場合、前記画質の設定を開始させる制御信号を生成して前記監視カメラに送信し、
前記監視カメラは、
前記画質の設定を開始させる前記制御信号を受信すると、前記監視カメラによって現在撮像されているライブ映像を前記端末装置に送信し、
前記端末装置は、
受信された前記ライブ映像を出力する、
請求項1に記載のパラメータ設定支援システム。
The terminal device is
When the image quality is selected by the user operation, generating a control signal to start setting the image quality and transmitting it to the surveillance camera;
The surveillance camera is
Upon receiving the control signal to start setting the image quality, transmitting a live image currently captured by the surveillance camera to the terminal device;
The terminal device is
outputting the received live video;
The parameter setting support system according to claim 1.
前記端末装置は、
前記ユーザ操作により、前記表示領域にて前記過去映像の再生あるいは一時停止を行うとともに、前記設定種別のパラメータの入力を受け付ける、
請求項に記載のパラメータ設定支援システム。
The terminal device is
Playing or pausing the past video in the display area according to the user operation, and accepting input of parameters for the setting type;
The parameter setting support system according to claim 4 .
前記端末装置は、
前記過去映像を用いた前記設定種別ごとのパラメータの入力を繰り返し受け付け、再入力された前記設定種別ごとのパラメータを前記監視カメラに送信し、
前記監視カメラは、
受信された前記設定種別ごとの前記パラメータに基づいて、前記過去映像の画像処理を実行し、
前記画像処理後の過去映像を前記端末装置に送信し、モニタに出力させる、
請求項1に記載のパラメータ設定支援システム。
The terminal device is
Repeatedly accepting input of parameters for each setting type using the past video, and transmitting the re-input parameters for each setting type to the surveillance camera;
The surveillance camera is
Performing image processing of the past video based on the received parameters for each setting type,
transmitting the past video after the image processing to the terminal device and outputting it to a monitor;
The parameter setting support system according to claim 1.
監視カメラと端末装置とが互いに通信可能に接続されたパラメータ設定支援方法であって、
ユーザ操作により選択された前記監視カメラのパラメータの設定種別が、前記監視カメラの撮像画像の画質でない場合、前記監視カメラに接続された外部記憶媒体に記憶された過去の過去映像を取得して再生し、
前記ユーザ操作により再生中の前記過去映像を用いた対象物の検知に関する設定種別ごとのパラメータの入力を受け付け、前記入力された前記設定種別ごとのパラメータを設定する、
パラメータ設定支援方法。
A parameter setting support method in which a surveillance camera and a terminal device are communicably connected to each other,
If the setting type of the parameter of the surveillance camera selected by the user operation is not the image quality of the captured image of the surveillance camera, acquire and play back past video stored in an external storage medium connected to the surveillance camera. death,
accepting input of parameters for each setting type related to detection of an object using the past video being played back by the user operation, and setting the input parameters for each setting type;
Parameter setting support method.
監視カメラと通信可能に接続された端末装置に、
ユーザ操作により選択された前記監視カメラのパラメータの設定種別が、前記監視カメラの撮像画像の画質でない場合、前記監視カメラに接続された外部記憶媒体に記憶された過去映像を取得して再生するステップと、
前記ユーザ操作により再生中の前記過去映像を用いた対象物の検知に関する設定種別ごとのパラメータの入力を受け付け、前記入力された前記設定種別ごとのパラメータを設定するステップと、を実行させるための、
パラメータ設定支援プログラム。
To the terminal device that is communicably connected to the surveillance camera,
If the setting type of the parameters of the surveillance camera selected by a user operation is not the image quality of the captured image of the surveillance camera, acquiring and reproducing past images stored in an external storage medium connected to the surveillance camera. and,
receiving input of parameters for each setting type regarding detection of an object using the past video being played back by the user operation, and setting the input parameters for each setting type ;
Parameter setting support program.
JP2019226619A 2019-12-16 2019-12-16 Parameter setting support system, parameter setting support method, and parameter setting support program Active JP7444431B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019226619A JP7444431B2 (en) 2019-12-16 2019-12-16 Parameter setting support system, parameter setting support method, and parameter setting support program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019226619A JP7444431B2 (en) 2019-12-16 2019-12-16 Parameter setting support system, parameter setting support method, and parameter setting support program

Publications (2)

Publication Number Publication Date
JP2021097299A JP2021097299A (en) 2021-06-24
JP7444431B2 true JP7444431B2 (en) 2024-03-06

Family

ID=76431698

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019226619A Active JP7444431B2 (en) 2019-12-16 2019-12-16 Parameter setting support system, parameter setting support method, and parameter setting support program

Country Status (1)

Country Link
JP (1) JP7444431B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004248090A (en) 2003-02-14 2004-09-02 Canon Inc Camera setting device
JP2009141710A (en) 2007-12-06 2009-06-25 Keyence Corp Moving image imaging apparatus, moving image display method, moving image display program, and computer-readable recording medium
JP2012039392A (en) 2010-08-06 2012-02-23 Canon Inc Setting device, setting method, and program
JP2014179923A (en) 2013-03-15 2014-09-25 Canon Inc Information processing apparatus, control method and program of information processing apparatus
JP2016099790A (en) 2014-11-20 2016-05-30 パナソニックIpマネジメント株式会社 Monitoring system and monitoring method in monitoring system
WO2016157330A1 (en) 2015-03-27 2016-10-06 日本電気株式会社 Mobile monitoring device, program, and control method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004248090A (en) 2003-02-14 2004-09-02 Canon Inc Camera setting device
JP2009141710A (en) 2007-12-06 2009-06-25 Keyence Corp Moving image imaging apparatus, moving image display method, moving image display program, and computer-readable recording medium
JP2012039392A (en) 2010-08-06 2012-02-23 Canon Inc Setting device, setting method, and program
JP2014179923A (en) 2013-03-15 2014-09-25 Canon Inc Information processing apparatus, control method and program of information processing apparatus
JP2016099790A (en) 2014-11-20 2016-05-30 パナソニックIpマネジメント株式会社 Monitoring system and monitoring method in monitoring system
WO2016157330A1 (en) 2015-03-27 2016-10-06 日本電気株式会社 Mobile monitoring device, program, and control method

Also Published As

Publication number Publication date
JP2021097299A (en) 2021-06-24

Similar Documents

Publication Publication Date Title
US11308777B2 (en) Image capturing apparatus with variable event detecting condition
US10719946B2 (en) Information processing apparatus, method thereof, and computer-readable storage medium
JP6650677B2 (en) Video processing apparatus, video processing method, and program
US9432633B2 (en) Visual command processing
WO2017167282A1 (en) Target tracking method, electronic device, and computer storage medium
US20160142680A1 (en) Image processing apparatus, image processing method, and storage medium
KR101530255B1 (en) Cctv system having auto tracking function of moving target
JP6465600B2 (en) Video processing apparatus and video processing method
JP6551226B2 (en) INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING METHOD, AND PROGRAM
US10146870B2 (en) Video playback method and surveillance system using the same
KR20180086662A (en) The Apparatus And The System For Monitoring
WO2021168804A1 (en) Image processing method, image processing apparatus and image processing system
TW201818715A (en) Combination video surveillance system and physical deterrent device
US20230302945A1 (en) Systems and methods for monitoring an electric vehicle using an electric vehicle charging station
JP6498802B1 (en) Biological information analysis apparatus and face type simulation method thereof
JP6600359B2 (en) monitoring
JP2017011417A (en) Display control unit, display control method, and program
JP7444431B2 (en) Parameter setting support system, parameter setting support method, and parameter setting support program
JP2016197797A (en) Image processing apparatus, image processing method, and image processing system
US20170134627A1 (en) Control apparatus, control method, and recording medium
JP5820210B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
US10789472B1 (en) Multiple image processing and sensor targeting for object detection
US20170357336A1 (en) Remote computer mouse by camera and laser pointer
EP3477544A1 (en) Information processing apparatus, information processing method, imaging apparatus, network camera system, and program
KR101976493B1 (en) Method and Apparatus for Setting Object Area for Use in Video Monitoring Device

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20201224

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231030

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240215

R150 Certificate of patent or registration of utility model

Ref document number: 7444431

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150