JP6941457B2 - Monitoring system - Google Patents

Monitoring system Download PDF

Info

Publication number
JP6941457B2
JP6941457B2 JP2017065008A JP2017065008A JP6941457B2 JP 6941457 B2 JP6941457 B2 JP 6941457B2 JP 2017065008 A JP2017065008 A JP 2017065008A JP 2017065008 A JP2017065008 A JP 2017065008A JP 6941457 B2 JP6941457 B2 JP 6941457B2
Authority
JP
Japan
Prior art keywords
priority
monitoring target
monitoring
video
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017065008A
Other languages
Japanese (ja)
Other versions
JP2018170573A (en
Inventor
秀行 青木
秀行 青木
高橋 哲也
哲也 高橋
拓朗 田中
拓朗 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2017065008A priority Critical patent/JP6941457B2/en
Publication of JP2018170573A publication Critical patent/JP2018170573A/en
Application granted granted Critical
Publication of JP6941457B2 publication Critical patent/JP6941457B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Emergency Alarm Devices (AREA)
  • Alarm Systems (AREA)

Description

本発明は、監視を支援する技術に関する。 The present invention relates to a technique for assisting monitoring.

監視を支援する技術がある。例えば特許文献1には、映像信号の範囲に異常の発生を知らせる信号を検知したカメラ装置の映像信号を他のカメラ装置に優先して処理する技術が開示されている。 There is technology to support monitoring. For example, Patent Document 1 discloses a technique for preferentially processing a video signal of a camera device that has detected a signal indicating the occurrence of an abnormality in the range of the video signal over other camera devices.

特開平11−331818号公報Japanese Unexamined Patent Publication No. 11-331818

複数の監視カメラが撮影した映像を用いて監視エリアを監視する場合、それらの映像についての通信等の処理の負荷が過大になると、映像の表示等に支障をきたし、異常事象の発生に気付くのが遅れるおそれが生じる。また、監視エリアでは、重点的に監視すべき対象が存在する場合があり、イベントでは、その対象(例えばマラソンにおける先頭集団)が動的に変化する場合がある。その場合、特に、その対象の付近で発生した異常事象に対する対応の遅れを避けることが求められる。
そこで、本発明は、重点的に監視すべき対象が動的に変化してもその対象の付近で発生した異常事象を迅速に把握することを目的とする。
When monitoring the surveillance area using images taken by multiple surveillance cameras, if the processing load of communication etc. for those images becomes excessive, the display of the images will be hindered and the occurrence of abnormal events will be noticed. May be delayed. Further, in the monitoring area, there may be a target to be monitored with priority, and in the event, the target (for example, the leading group in the marathon) may change dynamically. In that case, in particular, it is required to avoid delays in responding to abnormal events that occur in the vicinity of the target.
Therefore, an object of the present invention is to quickly grasp an abnormal event that has occurred in the vicinity of a target to be monitored dynamically even if the target is dynamically changed.

上記目的を達成するために、本発明は、監視エリアの映像を撮影する複数の撮影装置の位置情報を取得する取得手段と、イベントの進行と共に変化する重点的な監視対象の前記監視エリア内の位置を特定する特定手段と、特定された前記監視対象の位置と取得された前記複数の撮影装置の位置情報に基づいて当該複数の撮影装置のそれぞれの優先度を判定する判定手段と、前記映像に関する処理を、当該映像を撮影する撮影装置について判定された前記優先度に応じて決定する決定手段とを備える監視システムを提供する。 In order to achieve the above object, the present invention has an acquisition means for acquiring the position information of a plurality of photographing devices that capture images in the monitoring area, and within the monitoring area of the priority monitoring target that changes as the event progresses. A specific means for specifying a position, a determination means for determining the priority of each of the plurality of photographing devices based on the specified position of the monitoring target and the acquired position information of the plurality of photographing devices, and the video. Provided is a monitoring system including a determination means for determining the processing related to the above according to the priority determined for the photographing apparatus for photographing the moving image.

上記の監視システムにおいて、前記映像に関する処理は、前記映像の撮影に関する撮影関連処理であり、前記決定手段は、前記撮影関連処理により得られた映像が送信される際の単位時間当たりの送信データ量を前記優先度に応じて決定してもよい。
上記の監視システムにおいて、前記映像に関する処理は、当該映像に対する画像処理であり、前記決定手段は、前記優先度に応じて前記画像処理を決定してもよい。
In the above monitoring system, the processing related to the video is a shooting-related process related to shooting the video, and the determination means is the amount of data to be transmitted per unit time when the video obtained by the shooting-related processing is transmitted. May be determined according to the priority.
In the above monitoring system, the processing related to the video is image processing for the video, and the determination means may determine the image processing according to the priority.

上記の監視システムにおいて、前記監視対象は人であり、前記特定手段は、前記監視対象又は当該監視対象の同行者が所持する位置情報端末に基づき前記監視対象の位置を特定してもよい。
上記の監視システムにおいて、前記監視対象は人であり、前記特定手段は、前記監視対象の移動に応じて移動可能な移動物の有する測位手段が測定する位置に基づき前記監視対象の位置を特定してもよい。
In the above monitoring system, the monitoring target is a person, and the specific means may specify the position of the monitoring target based on the position information terminal possessed by the monitoring target or a companion of the monitoring target.
In the above monitoring system, the monitoring target is a person, and the specific means identifies the position of the monitoring target based on the position measured by the positioning means having a moving object that can move according to the movement of the monitoring target. You may.

上記の監視システムにおいて、前記特定手段は、リアルタイム配信サービスにより配信された前記イベントに関する情報に基づいて前記監視対象の位置を特定してもよい。
上記の監視システムにおいて、前記イベントの進行状況を示す状況情報を取得する状況取得手段を備え、前記特定手段は、取得された前記状況情報が示す進行状況に基づき前記監視対象の位置を特定してもよい。
In the above monitoring system, the specifying means may specify the position of the monitoring target based on the information about the event delivered by the real-time distribution service.
The monitoring system includes a status acquisition means for acquiring status information indicating the progress of the event, and the specific means specifies the position of the monitoring target based on the progress status indicated by the acquired status information. May be good.

上記の監視システムにおいて、特定された前記監視対象の位置の近辺の混雑度を判定する混雑判定手段を備え、前記判定手段は、前記監視対象の位置及び前記複数の撮影装置の位置情報に加え、判定された前記混雑度に基づいて前記複数の撮影装置の優先度を判定してもよい。 In the above-mentioned monitoring system, a congestion determination means for determining the degree of congestion in the vicinity of the specified position of the monitoring target is provided, and the determination means adds the position of the monitoring target and the position information of the plurality of photographing devices to the determination means. The priority of the plurality of photographing devices may be determined based on the determined congestion degree.

本発明によれば、重点的に監視すべき対象が動的に変化してもその対象の付近で発生した異常事象を迅速に把握することができる。 According to the present invention, even if a target to be monitored dynamically changes, an abnormal event occurring in the vicinity of the target can be quickly grasped.

実施例に係る監視システムの全体構成を表す図Diagram showing the overall configuration of the monitoring system according to the embodiment 監視員に装着された監視員端末を表す図Diagram showing the watchman terminal attached to the watchman 監視員端末のハードウェア構成を表す図Diagram showing the hardware configuration of the observer terminal 監視システムが実現する機能構成を表す図Diagram showing the functional configuration realized by the monitoring system 優先度テーブルの一例を表す図Diagram showing an example of a priority table 撮影用パラメータテーブルの一例を表す図Diagram showing an example of a shooting parameter table 画像処理用パラメータテーブルの一例を表す図The figure which shows an example of the parameter table for image processing 優先度処理における各装置の動作手順の一例を表す図The figure which shows an example of the operation procedure of each device in priority processing. 変形例の監視センタサーバ装置が実現する機能構成を表す図Diagram showing the functional configuration realized by the monitoring center server device in the modified example 変形例の監視センタサーバ装置が実現する機能構成を表す図Diagram showing the functional configuration realized by the monitoring center server device in the modified example 変形例の撮影用パラメータテーブルの一例を表す図Diagram showing an example of a parameter table for shooting of a modified example

[1]実施例
図1は実施例に係る監視システム1の全体構成を表す。監視システム1は、イベントにおける監視を支援するシステムである。イベントとは、スポーツの大会や試合、音楽の演奏会やライブ、祭り、花火、パレードなど、大勢の人が集まる催し物のことである。
[1] Example FIG. 1 shows the overall configuration of the monitoring system 1 according to the embodiment. The monitoring system 1 is a system that supports monitoring at an event. An event is an event where a large number of people gather, such as sports competitions and games, music concerts and live performances, festivals, fireworks, and parades.

イベントにおいては、その開催場所に集まる人の安全が確保されるように監視エリアが定められる。例えば、マラソンやパレード、祭りなどでは、イベント自体は道路をコースとして行われるが、観客が集まるその周辺の沿道も含めて監視エリアとして定められる。また、コンサート会場、スタジアム及び花火等では観客が着席する会場の他に、最寄りの駅や駐車場から会場に着くまでのルートも監視エリアとして定められる。 At the event, a monitoring area will be set up to ensure the safety of the people who gather at the venue. For example, in marathons, parades, festivals, etc., the event itself is held on the road as a course, but it is defined as a monitoring area including the roadside around the area where spectators gather. In addition to the venues where spectators are seated at concert venues, stadiums, fireworks, etc., the route from the nearest station or parking lot to the venue is also defined as a monitoring area.

監視エリアには監視員が配置されて現場での監視を行う。また、監視員を支援するためのオペレータが監視センタに常駐し、監視員と連絡を取りながら監視エリア内の状況について情報を提供したり監視すべき場所を指示したりする。監視システム1は、主としてこれら監視員及びオペレータによって利用される。本実施例では、公道を利用して行われるマラソンというイベントにおける監視を例に挙げて説明する。 Observers are assigned to the monitoring area to monitor the site. In addition, an operator to assist the observer is stationed at the monitoring center, and while contacting the observer, he / she provides information on the situation in the monitoring area and instructs the place to be monitored. The monitoring system 1 is mainly used by these observers and operators. In this embodiment, monitoring in an event called a marathon performed on a public road will be described as an example.

監視システム1は、ネットワーク2と、イントラネット3と、複数の監視員端末10と、監視センタサーバ装置20と、オペレータ端末30と、複数の固定カメラ40と、同行者端末50とを備える。ネットワーク2は、移動体通信網及びインターネット等を含む通信システムであり、自システムに接続される装置同士のデータのやり取りを仲介する。ネットワーク2は、移動体通信を行う基地局及び無線LAN(Local Area Network)通信を行うアクセスポイント等の無線通信装置を備える。ネットワーク2には、監視員端末10、固定カメラ40及び同行者端末50がこれらの無線通信装置と無線通信を行うことにより接続される。 The monitoring system 1 includes a network 2, an intranet 3, a plurality of observer terminals 10, a monitoring center server device 20, an operator terminal 30, a plurality of fixed cameras 40, and a companion terminal 50. The network 2 is a communication system including a mobile communication network, the Internet, and the like, and mediates the exchange of data between devices connected to the own system. The network 2 includes a wireless communication device such as a base station that performs mobile communication and an access point that performs wireless LAN (Local Area Network) communication. The observer terminal 10, the fixed camera 40, and the companion terminal 50 are connected to the network 2 by performing wireless communication with these wireless communication devices.

イントラネット3は、例えばLAN及びWAN(Wide Area Network)を含む通信システムであり、自システムに接続される装置同士のデータのやり取りを仲介する。イントラネット3は、ネットワーク2に接続されている。また、イントラネット3には、監視センタサーバ装置20及びオペレータ端末30が接続されている。なお、イントラネット3との接続は有線通信及び無線通信のどちらでもよい。 The intranet 3 is a communication system including, for example, a LAN and a WAN (Wide Area Network), and mediates the exchange of data between devices connected to its own system. The intranet 3 is connected to the network 2. Further, the monitoring center server device 20 and the operator terminal 30 are connected to the intranet 3. The connection with the intranet 3 may be either wired communication or wireless communication.

固定カメラ40は、監視エリアの現場に設置されて周囲の映像、すなわち監視エリアの映像を撮影する装置であり、本発明の「撮影装置」の一例である。本発明でいう「映像」には、静止画像及び動画像のどちらも含まれ得るが、以下では動画像である場合を説明する。固定カメラ40は、撮影した映像を監視センタサーバ装置20に送信する。なお、映像を送信するとは、映像を示すデータを送信することを意味する。以下でも、各種の情報に対して送信等の処理を行うことは、それらの情報を示すデータに対して処理を行うことを意味する。 The fixed camera 40 is a device installed at the site of the surveillance area to capture an image of the surroundings, that is, an image of the surveillance area, and is an example of the "imaging device" of the present invention. The "video" referred to in the present invention may include both a still image and a moving image, but the case where it is a moving image will be described below. The fixed camera 40 transmits the captured image to the monitoring center server device 20. Note that transmitting a video means transmitting data indicating the video. Even in the following, performing processing such as transmission for various types of information means performing processing for data indicating the information.

固定カメラ40は、映像の撮影に関連する撮影関連処理において、解像度(画素数)、フレームレート、画像伝送レート(伝送速度)、圧縮率、圧縮方式等の設定事項を変更できる機能を有している。設定事項とは、コンピュータが処理(この例では撮影関連処理)を実行する際の動作の詳細な態様(どのようにその処理を行うか)を規定するために定められる情報のことであり、パラメータとも呼ばれる。 The fixed camera 40 has a function of changing setting items such as resolution (number of pixels), frame rate, image transmission rate (transmission speed), compression rate, compression method, etc. in shooting-related processing related to video shooting. There is. The setting items are information defined to specify the detailed mode (how to perform the processing) of the operation when the computer executes the processing (shooting-related processing in this example), and are parameters. Also called.

以下では撮影関連処理で用いられる前述した各設定事項のことを「撮影用パラメータ」という。固定カメラ40は、定められた撮影用パラメータに基づいて撮影関連処理を行う。例えば解像度(画素数)が640×480=約30.7万画素と定められていれば、固定カメラ40は、画素数が640×480の映像を撮影する。 Hereinafter, each of the above-mentioned setting items used in the shooting-related processing is referred to as a “shooting parameter”. The fixed camera 40 performs shooting-related processing based on the predetermined shooting parameters. For example, if the resolution (number of pixels) is set to 640 × 480 = about 307,000 pixels, the fixed camera 40 captures an image having 640 × 480 pixels.

固定カメラ40は、例えば、撮影開始時は予め定められた初期の撮影用パラメータ又は前回の撮影終了時の撮影用パラメータに基づいて撮影関連処理を行う。また、固定カメラ40は、外部装置(本実施例では監視センタサーバ装置20)から使用する撮影用パラメータを指示されると、指示された撮影用パラメータに基づいて撮影関連処理を行う。また、固定カメラ40は、パン・チルト・ズーム機能を有し、オペレータ端末30や監視員端末10からの遠隔操作により制御可能としてもよい。 For example, at the start of shooting, the fixed camera 40 performs shooting-related processing based on a predetermined initial shooting parameter or a shooting parameter at the end of the previous shooting. Further, when the fixed camera 40 is instructed by the external device (monitoring center server device 20 in this embodiment) the shooting parameters to be used, the fixed camera 40 performs the shooting-related processing based on the instructed shooting parameters. Further, the fixed camera 40 has a pan / tilt / zoom function and may be controllable by remote control from the operator terminal 30 or the observer terminal 10.

固定カメラ40が送信した映像は、監視センタの画面に表示され、オペレータはその画面を見ながら監視エリアの状況を確認する。映像が高画質であるほど詳細な状況まで確認することができるが、高画質な映像はデータ量も多いので、固定カメラ40が行う無線通信に遅延が生じやすくなる。そこで、監視システム1においては、全ての映像の画質を高くするのではなく、監視エリアにおいて重点的に監視すべき対象を映す映像の画質を、他の映像よりも高くする。 The image transmitted by the fixed camera 40 is displayed on the screen of the monitoring center, and the operator confirms the status of the monitoring area while looking at the screen. The higher the image quality, the more detailed the situation can be confirmed. However, since the high-quality image has a large amount of data, the wireless communication performed by the fixed camera 40 is likely to be delayed. Therefore, in the surveillance system 1, the image quality of the image showing the target to be monitored intensively in the monitoring area is made higher than that of the other images, instead of improving the image quality of all the images.

そうすることで、重要な映像である重点的な監視対象の映像又はその周辺の映像は高画質で表示されるようにしつつ、無線通信の遅延が生じにくいようにする。本実施例では、マラソンの先頭集団のランナー達が重点的な監視対象として定められている。そこで、それらのランナー達に近い固定カメラ40の画質を、それよりも遠い固定カメラ40の画質よりも高くするための撮影用パラメータが用いられる。この撮影用パラメータは、後述する監視センタサーバ装置20によって決定される。 By doing so, the video of the focused monitoring target, which is an important video, or the video around it is displayed in high quality, and the delay of wireless communication is less likely to occur. In this example, the runners in the leading group of marathons are set as priority monitoring targets. Therefore, a shooting parameter is used to make the image quality of the fixed camera 40 closer to those runners higher than the image quality of the fixed camera 40 farther away. This shooting parameter is determined by the monitoring center server device 20 described later.

監視員端末10は、監視エリアの現場に配置される監視員が所持して持ち運ぶ端末である。監視員端末10は、例えばスマートフォンであるが、本システム専用に作られた端末であってもよい。
図2は監視員に装着された監視員端末10を表す。図2では、監視員A1が端末ケース5を身体に固定している。端末ケース5は、監視員端末10を格納する入れ物であり、バンドにより監視員の身体(詳細には胸部)に固定されている。
The observer terminal 10 is a terminal carried by an observer placed at the site of the monitoring area. The observer terminal 10 is, for example, a smartphone, but may be a terminal made exclusively for this system.
FIG. 2 shows a watchman terminal 10 attached to a watchman. In FIG. 2, the watchman A1 fixes the terminal case 5 to his body. The terminal case 5 is a container for storing the watchman terminal 10, and is fixed to the watchman's body (specifically, the chest) by a band.

監視員端末10は、周囲の映像、すなわち監視エリアの映像を撮影する撮影手段を備えている。監視員端末10は本発明の「撮影装置」の一例でもある。端末ケース5は、自ケースに監視員端末10が格納された場合に撮影手段のレンズの位置する部分が透明になっている(孔が空いていてもよい)。監視員の胸部に装着された監視員端末10は、監視員の前方の映像を撮影する。 The observer terminal 10 is provided with a photographing means for capturing an image of the surroundings, that is, an image of the monitoring area. The observer terminal 10 is also an example of the "photographing device" of the present invention. In the terminal case 5, when the observer terminal 10 is stored in the own case, the portion where the lens of the photographing means is located is transparent (a hole may be formed). The observer terminal 10 attached to the observer's chest captures an image in front of the observer.

監視員端末10の撮影手段は、上述した撮影用パラメータを変更できる機能を有する。この撮影用パラメータも、固定カメラ40と同様に、監視センタサーバ装置20によって決定される。また、監視員端末10は、GPS(Global Positioning System)等の自装置の位置の測定手段も備えている。監視員端末10は、撮影手段が撮影した映像と、測位手段による位置の測定結果とを監視センタサーバ装置20に送信する。 The photographing means of the observer terminal 10 has a function of being able to change the above-mentioned photographing parameters. The shooting parameters are also determined by the monitoring center server device 20 as in the fixed camera 40. In addition, the observer terminal 10 also includes means for measuring the position of its own device such as GPS (Global Positioning System). The observer terminal 10 transmits the image captured by the photographing means and the position measurement result by the positioning means to the monitoring center server device 20.

同行者端末50は、前述した重点的な監視対象の同行者が所持して持ち運ぶ端末である。本実施例における同行者は、マラソンの先頭集団についていきながら監視を行う監視員である。監視員は自分の足で走ってもよいが、相手が先頭集団だとついていくのが難しいので、例えば自転車又はオートバイ等に乗ってついていくものとする。同行者端末50は、監視員端末10と同様に、撮影手段及び測位手段を備えており、管理エリアの映像の撮影及び自装置の位置の測定を行う。同行者端末50は自装置の位置を示す位置情報を生成して無線通信により送信する端末であり、本発明の「位置情報端末」の一例である。 The companion terminal 50 is a terminal possessed and carried by a companion to be monitored as described above. The companion in this example is a watchman who monitors while following the leading group of marathons. The guard may run on his own feet, but it is difficult to keep up with the opponent in the lead group, so for example, he shall follow on a bicycle or motorcycle. Like the observer terminal 10, the companion terminal 50 is provided with a photographing means and a positioning means, and captures an image of the management area and measures the position of the own device. The companion terminal 50 is a terminal that generates position information indicating the position of the own device and transmits it by wireless communication, and is an example of the "position information terminal" of the present invention.

監視センタサーバ装置20は、監視エリアの監視状況を管理するための各種の処理を実行する情報処理装置である。監視センタサーバ装置20は、例えば、送信されてきた映像に対して画像処理を行い、監視エリアでの異常事象の発生を検出する。ここでいう異常事象とは、監視エリアにおいて発生する事象のうち、周囲の人の安全を脅かしたり迷惑になったりするなどの理由で、監視員が何らかの対応(関係者への連絡や事態を収束するための対処など)を行う対象となる事象のことであり、単に異常又は事案と呼ばれることもある。 The monitoring center server device 20 is an information processing device that executes various processes for managing the monitoring status of the monitoring area. The monitoring center server device 20 performs image processing on the transmitted video, for example, and detects the occurrence of an abnormal event in the monitoring area. An abnormal event here is an event that occurs in the monitoring area, and the observer takes some action (contacts with related parties and converges the situation) because it threatens the safety of people around him or causes annoyance. It is an event that is the target of action), and is sometimes called simply an abnormality or a case.

具体的には、例えば、不審者の出現、不審物の発見、立ち入り禁止エリアへの立ち入り、道路への飛び出し、怪我人の発生、事故の発生及びケンカの発生等が異常事象に含まれる。監視センタサーバ装置20は、異常事象の発生を検出すると、その旨を示す報知情報をオペレータ端末30に送信することで、オペレータへの報知を行う。 Specifically, for example, the appearance of a suspicious person, the discovery of a suspicious object, entry into an exclusion zone, jumping out onto a road, the occurrence of an injured person, the occurrence of an accident, the occurrence of a fight, and the like are included in the abnormal events. When the monitoring center server device 20 detects the occurrence of an abnormal event, it notifies the operator by transmitting notification information indicating that fact to the operator terminal 30.

オペレータ端末30は、監視センタのオペレータによって使用される端末である。オペレータ端末30は、監視センタサーバ装置20から送信されてきた報知情報を例えば表示手段に表示することで、監視エリアでの異常事象の発生をオペレータに報知する。この報知によって異常事象の発生に気付いたオペレータは、異常事象の発生を監視の責任者に伝えたり、監視員と連絡を取って、発生した異常事象への対応を指示したりする。 The operator terminal 30 is a terminal used by the operator of the monitoring center. The operator terminal 30 notifies the operator of the occurrence of an abnormal event in the monitoring area by displaying the notification information transmitted from the monitoring center server device 20 on, for example, a display means. The operator who notices the occurrence of the abnormal event by this notification informs the person in charge of monitoring of the occurrence of the abnormal event, or contacts the observer and instructs the response to the abnormal event that has occurred.

監視センタサーバ装置20には、監視エリアを撮影する全ての固定カメラ40及び監視員端末10から映像が送信されてくるため、全ての映像に対して画像処理に用いるリソース(CPU(Central Processing Unit)及びメモリ等)を均等に割り当てると、1つの映像当たりのリソース量が少なくなる。その結果、仮に異常事象が発生してもそれを検出するまでに要する時間が長くなり、異常事象への対応が遅くなるおそれがある。 Since images are transmitted to the monitoring center server device 20 from all the fixed cameras 40 and the observer terminals 10 that capture the monitoring area, resources (CPU (Central Processing Unit)) used for image processing for all the images. And memory, etc.) are evenly allocated, and the amount of resources per video is reduced. As a result, even if an abnormal event occurs, the time required to detect it becomes long, and the response to the abnormal event may be delayed.

対応の遅れをなくすためには、全ての映像に十分な量のリソースを割り当てることが望ましいが、費用等の制限からそこまでのリソースを用意することは難しい。そこで、監視システム1においては、監視エリア内の重要な箇所を撮影した映像に他の映像よりもリソース量を多く割り当てて、重要な箇所における異常事象の発生をより早く検出できるようにする。そして、そのための画像処理に関する設定事項(パラメータ)が、監視センタサーバ装置20によって決定される。この設定事項のことを以下では「画像処理用パラメータ」という。 In order to eliminate the delay in response, it is desirable to allocate a sufficient amount of resources to all videos, but it is difficult to prepare such resources due to cost restrictions. Therefore, in the monitoring system 1, a larger amount of resources is allocated to the video obtained by capturing an important part in the monitoring area than in other images so that the occurrence of an abnormal event in the important part can be detected earlier. Then, the setting items (parameters) related to the image processing for that purpose are determined by the monitoring center server device 20. This setting item is referred to as "image processing parameter" below.

図3は監視員端末10のハードウェア構成を表す。監視員端末10は、プロセッサ11と、メモリ12と、ストレージ13と、通信装置14と、入力装置15と、出力装置16と、撮影装置17と、測位装置18とを備えるコンピュータである。プロセッサ11は、CPU等を備え、オペレーティングシステムを動作させてコンピュータ全体を制御する機能を有するデバイスである。プロセッサ11は、プログラム及びデータ等をストレージ13及び通信装置14からメモリ12に読み出し、これらに従って各種の処理を実行する。 FIG. 3 shows the hardware configuration of the observer terminal 10. The observer terminal 10 is a computer including a processor 11, a memory 12, a storage 13, a communication device 14, an input device 15, an output device 16, a photographing device 17, and a positioning device 18. The processor 11 is a device including a CPU or the like and having a function of operating an operating system and controlling the entire computer. The processor 11 reads programs, data, and the like from the storage 13 and the communication device 14 into the memory 12, and executes various processes according to these.

メモリ12は、プロセッサ11が読み取り可能なデータを記憶する機能を有する記録デバイスであり、例えばROM(Read Only Memory)及びRAM(Random Access Memory)等である。ストレージ13は、プロセッサ11が読み取り可能なデータを記憶する機能を有する記録デバイスであり、例えばハードディスクドライブ及びフラッシュメモリ等である。通信装置14は、有線ネットワーク又は/及び無線ネットワークを介してコンピュータ間の通信を行う機能を有する通信デバイスである。監視員端末10においては、通信装置14が、例えば移動体通信又は無線LANの規格に準拠した無線通信を行う。 The memory 12 is a recording device having a function of storing data that can be read by the processor 11, such as a ROM (Read Only Memory) and a RAM (Random Access Memory). The storage 13 is a recording device having a function of storing data that can be read by the processor 11, such as a hard disk drive and a flash memory. The communication device 14 is a communication device having a function of communicating between computers via a wired network and / or a wireless network. In the observer terminal 10, the communication device 14 performs, for example, mobile communication or wireless communication conforming to a wireless LAN standard.

入力装置15は、外部からの入力を受け付ける機能を有する入力デバイスである。監視員端末10においては、入力装置15が、例えばタッチセンサ、ボタン及びマイクロフォン等を備える。出力装置16は、外部への出力を実施する機能を有する出力デバイスである。監視員端末10においては、出力装置16が、ディスプレイを備え、入力装置15のタッチセンサ及び出力装置16のディスプレイが一体となってタッチスクリーンを構成する。 The input device 15 is an input device having a function of receiving an input from the outside. In the observer terminal 10, the input device 15 includes, for example, a touch sensor, a button, a microphone, and the like. The output device 16 is an output device having a function of performing output to the outside. In the observer terminal 10, the output device 16 includes a display, and the touch sensor of the input device 15 and the display of the output device 16 integrally form a touch screen.

撮影装置17は、周囲の映像を撮影するデバイスである。撮影装置17は、上述した撮影用パラメータに基づいて映像を撮影し、撮影した映像をプロセッサ11に供給する。測位装置18は、例えば、GPS衛星からの信号を用いて自身の位置を測定し、測定した位置を示す位置情報(緯度及び経度を示す情報)をプロセッサ11に供給する。 The photographing device 17 is a device that photographs an ambient image. The photographing device 17 photographs an image based on the above-mentioned photographing parameters, and supplies the photographed image to the processor 11. The positioning device 18 measures its own position using, for example, a signal from a GPS satellite, and supplies position information (information indicating latitude and longitude) indicating the measured position to the processor 11.

監視センタサーバ装置20は、プロセッサと、メモリと、ストレージと、通信装置とを備えるコンピュータである。これらはいずれも、図3に表す同名の各装置と機能が共通するデバイスである。監視センタサーバ装置20においては、通信装置が、有線LANの規格に準拠した有線通信を行う(無線通信を行ってもよい)。 The monitoring center server device 20 is a computer including a processor, a memory, a storage, and a communication device. All of these are devices having the same functions as the devices of the same name shown in FIG. In the monitoring center server device 20, the communication device performs wired communication conforming to the standard of the wired LAN (wireless communication may be performed).

オペレータ端末30は、プロセッサと、メモリと、ストレージと、通信装置と、入力装置と、出力装置とを備えるコンピュータである。これらはいずれも、図3に表す同名の各装置と機能が共通するデバイスである。オペレータ端末30においては、通信装置が、有線LANの規格に準拠した有線通信を行い(無線通信を行ってもよい)、また、入力装置が、キーボード、マウス及びマイクロフォン等を備える。 The operator terminal 30 is a computer including a processor, a memory, a storage, a communication device, an input device, and an output device. All of these are devices having the same functions as the devices of the same name shown in FIG. In the operator terminal 30, the communication device performs wired communication conforming to the standard of the wired LAN (wireless communication may be performed), and the input device includes a keyboard, a mouse, a microphone, and the like.

固定カメラ40は、プロセッサと、メモリと、ストレージと、通信装置と、撮影装置とを備えるコンピュータである。これらはいずれも、図3に表す同名の各装置と機能が共通するデバイスである。 The fixed camera 40 is a computer including a processor, a memory, a storage, a communication device, and a photographing device. All of these are devices having the same functions as the devices of the same name shown in FIG.

同行者端末50は、プロセッサと、メモリと、ストレージと、通信装置と、入力装置と、出力装置と、撮影装置と、測位装置とを備えるコンピュータである。これらはいずれも、図3に表す同名の各装置と機能が共通するデバイスである。 The companion terminal 50 is a computer including a processor, a memory, a storage, a communication device, an input device, an output device, a photographing device, and a positioning device. All of these are devices having the same functions as the devices of the same name shown in FIG.

監視システム1が備える各装置のプロセッサがプログラムを実行して各部を制御することで、以下に述べる機能が実現される。
図4は監視システム1が実現する機能構成を表す。なお、図4では、監視員端末10及び固定カメラ40がそれぞれ1つしか表されていないが、他の監視員端末10及び固定カメラ40も同じ機能構成を備えている。
The functions described below are realized by the processor of each device included in the monitoring system 1 executing a program to control each part.
FIG. 4 shows a functional configuration realized by the monitoring system 1. Although only one observer terminal 10 and one fixed camera 40 are shown in FIG. 4, the other observer terminal 10 and the fixed camera 40 also have the same functional configuration.

監視員端末10は、測位部101と、位置情報送信部102と、撮影部103と、映像送信部104と、撮影動作制御部105とを備える。監視センタサーバ装置20は、監視員端末情報取得部201と、固定カメラ情報取得部202と、同行者情報取得部203と、監視対象位置特定部204と、優先度判定部205と、処理決定部206と、撮影指示部207と、画像処理動作制御部208と、画像処理部209と、報知部210とを備える。オペレータ端末30は、報知情報表示部301を備える。固定カメラ40は、撮影部401と、映像送信部402と、撮影動作制御部403とを備える。同行者端末50は、測位部501と、位置情報送信部502とを備える。 The observer terminal 10 includes a positioning unit 101, a position information transmission unit 102, a shooting unit 103, a video transmission unit 104, and a shooting operation control unit 105. The monitoring center server device 20 includes an observer terminal information acquisition unit 201, a fixed camera information acquisition unit 202, a companion information acquisition unit 203, a monitoring target position identification unit 204, a priority determination unit 205, and a processing determination unit. It includes 206, a shooting instruction unit 207, an image processing operation control unit 208, an image processing unit 209, and a notification unit 210. The operator terminal 30 includes a notification information display unit 301. The fixed camera 40 includes a photographing unit 401, a video transmitting unit 402, and a photographing operation control unit 403. The companion terminal 50 includes a positioning unit 501 and a position information transmitting unit 502.

監視員端末10の測位部101は、自装置の位置を繰り返し測定する。測位部101は、例えば、一定時間の間隔(1秒毎など)で自装置の位置を測定し、測定した位置を示す位置情報を位置情報送信部102に供給する。位置情報送信部102は、測位部101により測定された自装置の位置を示す位置情報を監視センタサーバ装置20に送信する。監視員端末10は自装置を識別する情報として装置ID(Identification)を記憶している。位置情報送信部102は、位置情報が供給される度にその位置情報を装置IDと共に監視センタサーバ装置20に送信する。 The positioning unit 101 of the observer terminal 10 repeatedly measures the position of its own device. The positioning unit 101 measures the position of its own device at regular time intervals (every second, etc.), and supplies position information indicating the measured position to the position information transmitting unit 102. The position information transmission unit 102 transmits the position information indicating the position of the own device measured by the positioning unit 101 to the monitoring center server device 20. The observer terminal 10 stores the device ID (Identification) as information for identifying the own device. The position information transmission unit 102 transmits the position information together with the device ID to the monitoring center server device 20 each time the position information is supplied.

撮影部103は、自装置の周囲の映像を撮影する。撮影部103は、後述する撮影動作制御部105により制御されて、定められた撮影用パラメータ(解像度、フレームレート)に基づいて撮影を行う。撮影部103は、映像を撮影しながら、並行して、撮影済みの映像を映像送信部104に供給する。映像送信部104は、撮影部103により撮影された自装置の周囲の映像を監視センタサーバ装置20に送信する。 The photographing unit 103 photographs an image around the own device. The shooting unit 103 is controlled by the shooting operation control unit 105, which will be described later, and shoots based on the predetermined shooting parameters (resolution, frame rate). The shooting unit 103 supplies the shot video to the video transmitting unit 104 in parallel while shooting the video. The image transmitting unit 104 transmits the image around the own device photographed by the photographing unit 103 to the monitoring center server device 20.

映像送信部104は、後述する撮影動作制御部105により制御されて、定められた撮影用パラメータ(画像伝送レート)に基づいて映像を送信する。また、映像送信部104は、自装置の装置IDを含むメタデータを映像に付与して送信する。撮影部103及び映像送信部104は、ストリーミングの技術を用いて映像の撮影及び送信を並行して行う。撮影部103及び映像送信部104は、このようにして監視エリアの映像を撮影する撮影関連処理を行う。 The video transmission unit 104 is controlled by the shooting operation control unit 105, which will be described later, and transmits video based on a predetermined shooting parameter (image transmission rate). Further, the video transmission unit 104 adds metadata including the device ID of its own device to the video and transmits the video. The shooting unit 103 and the video transmitting unit 104 shoot and transmit video in parallel using the streaming technology. The shooting unit 103 and the video transmitting unit 104 perform shooting-related processing for shooting the video in the monitoring area in this way.

撮影動作制御部105は、撮影部103及び映像送信部104による撮影に関する動作を制御する。撮影動作制御部105は、例えば、予め定められた初期の撮影用パラメータ(解像度、フレームレート及び画像伝送レート等の初期値)を記憶しておき、その撮影用パラメータを用いて撮影関連処理を行うよう撮影部103及び映像送信部104を制御する。 The shooting operation control unit 105 controls the operation related to shooting by the shooting unit 103 and the video transmission unit 104. The shooting operation control unit 105 stores, for example, predetermined initial shooting parameters (initial values such as resolution, frame rate, and image transmission rate), and performs shooting-related processing using the shooting parameters. It controls the photographing unit 103 and the image transmitting unit 104.

固定カメラ40の撮影部401は、自カメラの周囲の映像を撮影する。映像送信部402は、撮影部401により撮影された自カメラの周囲の映像を監視センタサーバ装置20に送信する。撮影動作制御部403は、撮影部401及び映像送信部402による撮影に関する動作を制御する。撮影部401、映像送信部402、撮影動作制御部403は、監視員端末10の撮影部103、映像送信部104、撮影動作制御部105と同じ機能である。 The photographing unit 401 of the fixed camera 40 captures an image around the own camera. The image transmitting unit 402 transmits the image around the own camera captured by the photographing unit 401 to the monitoring center server device 20. The shooting operation control unit 403 controls the operation related to shooting by the shooting unit 401 and the video transmitting unit 402. The photographing unit 401, the image transmitting unit 402, and the photographing operation control unit 403 have the same functions as the photographing unit 103, the image transmitting unit 104, and the photographing operation control unit 105 of the observer terminal 10.

同行者端末50の測位部501は、自装置の位置を繰り返し測定する。位置情報送信部502は、測位部501により測定された自装置の位置を示す位置情報を監視センタサーバ装置20に送信する。測位部501、位置情報送信部502は、監視員端末10の測位部101、位置情報送信部102と同じ機能である。 The positioning unit 501 of the companion terminal 50 repeatedly measures the position of its own device. The position information transmission unit 502 transmits the position information indicating the position of the own device measured by the positioning unit 501 to the monitoring center server device 20. The positioning unit 501 and the position information transmitting unit 502 have the same functions as the positioning unit 101 and the position information transmitting unit 102 of the observer terminal 10.

監視センタサーバ装置20の監視員端末情報取得部201は、監視員端末10の位置情報送信部102から送信されてきた位置情報及び装置IDと、監視員端末10の映像送信部104から送信されてきた映像及び装置IDとを、この装置IDが示す監視員端末10に関する情報(監視員端末情報)として取得する。つまり、監視員端末情報取得部201は、監視エリアの映像を撮影する複数の撮影装置(監視員端末10)の位置情報を取得する手段であり、本発明の「取得手段」の一例である。監視員端末情報取得部201は、取得した監視員端末情報を優先度判定部205及び画像処理部209に供給する。 The observer terminal information acquisition unit 201 of the monitoring center server device 20 has received the position information and device ID transmitted from the position information transmission unit 102 of the observer terminal 10 and the video transmission unit 104 of the observer terminal 10. The video and the device ID are acquired as information (monitor terminal information) related to the watcher terminal 10 indicated by the device ID. That is, the observer terminal information acquisition unit 201 is a means for acquiring the position information of a plurality of photographing devices (observer terminals 10) that capture images in the surveillance area, and is an example of the "acquisition means" of the present invention. The observer terminal information acquisition unit 201 supplies the acquired observer terminal information to the priority determination unit 205 and the image processing unit 209.

固定カメラ情報取得部202は、固定カメラ40の映像送信部402から送信されてきた映像及び装置IDを、この装置IDが示す固定カメラ40に関する情報(固定カメラ情報)として取得する。また、固定カメラ情報取得部202は、装置IDとその装置IDが示す固定カメラ40の位置情報とを対応付けたリストである位置情報リストを記憶している。これらの位置情報は、該当する固定カメラ40の設置時等に、設置位置の緯度経度情報等を測定して取得しておく。固定カメラ情報取得部202は、取得した装置IDに位置情報リストで対応付けられている位置情報を、固定カメラ情報として取得する。 The fixed camera information acquisition unit 202 acquires the image and the device ID transmitted from the image transmission unit 402 of the fixed camera 40 as information (fixed camera information) regarding the fixed camera 40 indicated by the device ID. Further, the fixed camera information acquisition unit 202 stores a position information list which is a list in which the device ID and the position information of the fixed camera 40 indicated by the device ID are associated with each other. These position information is acquired by measuring the latitude / longitude information of the installation position when the corresponding fixed camera 40 is installed. The fixed camera information acquisition unit 202 acquires the position information associated with the acquired device ID in the position information list as the fixed camera information.

つまり、固定カメラ情報取得部202は、監視エリアの映像を撮影する複数の撮影装置(固定カメラ40)の位置情報を取得する手段であり、本発明の「取得手段」の一例である。なお、各固定カメラ40が、自装置の位置情報を記憶しておき、その位置情報を映像と共に送信して、固定カメラ情報取得部202がその映像及び位置情報を固定カメラ情報として取得してもよい。固定カメラ情報取得部202は、取得した固定カメラ情報を優先度判定部205及び画像処理部209に供給する。 That is, the fixed camera information acquisition unit 202 is a means for acquiring the position information of a plurality of photographing devices (fixed camera 40) that capture images in the surveillance area, and is an example of the "acquisition means" of the present invention. Even if each fixed camera 40 stores the position information of its own device, transmits the position information together with the image, and the fixed camera information acquisition unit 202 acquires the image and the position information as the fixed camera information. good. The fixed camera information acquisition unit 202 supplies the acquired fixed camera information to the priority determination unit 205 and the image processing unit 209.

同行者情報取得部203は、同行者端末50の位置情報送信部502から送信されてきた位置情報及び装置IDを、この装置IDが示す同行者端末50を持ち運ぶ同行者に関する情報(同行者情報)として取得する。同行者情報取得部203は、取得した同行者情報を監視対象位置特定部204に供給する。 The companion information acquisition unit 203 uses the position information and the device ID transmitted from the position information transmission unit 502 of the companion terminal 50 as information on the companion who carries the companion terminal 50 indicated by the device ID (accompanying information). Get as. The companion information acquisition unit 203 supplies the acquired companion information to the monitoring target position identification unit 204.

監視対象位置特定部204は、イベントの進行と共に変化する重点的な監視対象の監視エリア内の位置を特定する。監視対象位置特定部204は本発明の「特定手段」の一例である。監視対象位置特定部204は、本実施例では、同行者情報取得部203により取得された同行者情報、すなわち同行者が所持する同行者端末50が測定する位置に基づき重点的な監視対象の監視エリア内の位置を特定する。 The monitoring target position specifying unit 204 identifies a position in the monitoring area of the priority monitoring target that changes as the event progresses. The monitoring target position specifying unit 204 is an example of the "specific means" of the present invention. In this embodiment, the monitoring target position specifying unit 204 focuses on monitoring the monitoring target based on the companion information acquired by the companion information acquisition unit 203, that is, the position measured by the companion terminal 50 possessed by the companion. Identify the location within the area.

同行者は重点的な監視対象である先頭集団のランナー達の近くを走っているので、同行者の位置情報を重点的な監視対象の位置情報とみなすことができる。或いは同行者の位置と重点的な監視対象の位置に所定の関係(例えば、同行者は重点的な監視対象から所定距離離れた場所にいる)がある場合は、同行者端末50の位置から所定の関係に基づいた位置を重点的な監視対象の位置とする。監視対象位置特定部204は、特定した重点的な監視対象の位置情報を優先度判定部205に供給する。 Since the companion is running near the runners of the leading group, which is the priority monitoring target, the location information of the companion can be regarded as the location information of the priority monitoring target. Alternatively, if there is a predetermined relationship between the position of the companion and the position of the priority monitoring target (for example, the companion is at a predetermined distance from the priority monitoring target), the position of the companion terminal 50 is determined. The position based on the relationship of is set as the position of the priority monitoring target. The monitoring target position specifying unit 204 supplies the specified priority monitoring target position information to the priority determination unit 205.

優先度判定部205は、監視対象位置特定部204により特定された重点的な監視対象の位置と、監視員端末情報取得部201及び固定カメラ情報取得部202により取得された位置情報に基づいて、複数の撮影装置(監視員端末10及び固定カメラ40)のそれぞれの優先度を判定する。優先度判定部205は本発明の「判定手段」の一例である。監視システム1においては、この優先度が高い撮影装置ほど、監視の観点で重要な映像を撮影しているとみなし、その映像から監視エリアの状況を把握しやすくしたり、異常事象の発生を早く見つけられるようにしたりする。 The priority determination unit 205 is based on the position of the priority monitoring target specified by the monitoring target position specifying unit 204 and the position information acquired by the observer terminal information acquisition unit 201 and the fixed camera information acquisition unit 202. The priority of each of the plurality of photographing devices (observer terminal 10 and fixed camera 40) is determined. The priority determination unit 205 is an example of the "determination means" of the present invention. In the monitoring system 1, it is considered that the higher the priority of the photographing device, the more important the image is taken from the viewpoint of monitoring, and it is easier to grasp the situation of the monitoring area from the image and the occurrence of the abnormal event is earlier. Make it possible to find it.

優先度判定部205は、例えば、同行者と各撮影装置間の距離と優先度とを対応付けた優先度テーブルを用いて優先度を判定する。
図5は優先度テーブルの一例を表す。この優先度テーブルでは、「Th1未満」、「Th1以上Th2未満」、「Th2以上」という距離に、「1」、「2」、「3」という優先度が対応付けられている。
The priority determination unit 205 determines the priority by using, for example, a priority table in which the distance between the companion and each photographing device and the priority are associated with each other.
FIG. 5 shows an example of a priority table. In this priority table, the priorities "1", "2", and "3" are associated with the distances "less than Th1", "more than Th1 and less than Th2", and "more than Th2".

優先度判定部205は、各撮影装置について、それぞれの位置情報が示す位置と重点的な監視対象の位置との距離を算出し、算出した距離に優先度テーブルで対応付けられている優先度を、その撮影装置の優先度として判定する。優先度判定部205は、例えば一定時間毎(10秒毎など)に、全ての撮影装置についてこの判定を行う。優先度判定部205は、判定した優先度を、判定対象の撮影装置の装置IDに対応付けて処理決定部206に供給する。 The priority determination unit 205 calculates the distance between the position indicated by the position information and the position of the priority monitoring target for each photographing device, and sets the priority associated with the calculated distance in the priority table. , Judge as the priority of the photographing device. The priority determination unit 205 makes this determination for all the photographing devices, for example, at regular time intervals (every 10 seconds, etc.). The priority determination unit 205 supplies the determined priority to the processing determination unit 206 in association with the device ID of the photographing device to be determined.

処理決定部206は、監視エリアを撮影する映像に関する処理を、その映像を撮影する撮影装置について判定された優先度に応じて決定する。処理決定部206は本発明の「決定手段」の一例である。映像に関する処理とは、本実施例では、上述した撮影関連処理と、異常事象を検出するための映像に対する画像処理である。処理決定部206による処理の決定とは、映像に関する処理をどのようにして行うかを決定するということである。 The processing determination unit 206 determines the processing related to the image for photographing the monitoring area according to the priority determined for the photographing device for photographing the image. The processing determination unit 206 is an example of the "determining means" of the present invention. In the present embodiment, the processing related to the moving image is the above-mentioned shooting-related processing and the image processing for the moving image for detecting an abnormal event. The processing determination by the processing determination unit 206 means determining how to perform the processing related to the video.

処理決定部206は、撮影関連処理であれば、例えば高画質な処理を行うか、低画質な処理を行うかを決定する。また、処理決定部206は、画像処理であれば、例えばリソース(CPU及びメモリ等)を十分用いた処理を行うか、リソースを節約した処理を行うかを決定する。処理決定部206は、これらの決定を、より具体的には、上述した撮影用パラメータを決定し又は画像処理用パラメータを決定することで行う。 In the case of shooting-related processing, the processing determination unit 206 determines, for example, whether to perform high-quality processing or low-quality processing. Further, in the case of image processing, the processing determination unit 206 determines, for example, whether to perform processing that sufficiently uses resources (CPU, memory, etc.) or processing that saves resources. The processing determination unit 206 makes these determinations, more specifically, by determining the above-mentioned shooting parameters or determining the image processing parameters.

処理決定部206は、撮影関連処理については、優先度と撮影用パラメータとを対応付けた撮影用パラメータテーブルを用いて決定を行う。
図6は撮影用パラメータテーブルの一例を表す。この撮影用パラメータテーブルでは、「1」、「2」、「3」という優先度に、「192万画素(1600×1200)」、「122.9万画素(1280×960)」、「30.7万画素(640×480)」という解像度(画素数)が対応付けられている。
The processing determination unit 206 determines the shooting-related processing by using the shooting parameter table in which the priority and the shooting parameter are associated with each other.
FIG. 6 shows an example of a shooting parameter table. In this shooting parameter table, the priorities of "1", "2", and "3" are "1.92 million pixels (1600 x 1200)", "12.29 million pixels (1280 x 960)", and "30. A resolution (number of pixels) of "70,000 pixels (640 x 480)" is associated with it.

処理決定部206は、優先度判定部205から供給された優先度に撮影用パラメータテーブルで対応付けられている解像度(画素数)を、共に供給された装置IDが示す撮影装置が撮影関連処理で用いる撮影用パラメータとして決定する。処理決定部206は、決定した撮影用パラメータを決定対象の撮影装置の装置IDと共に撮影指示部207に供給する。 The processing determination unit 206 sets the resolution (number of pixels) associated with the priority supplied from the priority determination unit 205 in the shooting parameter table by the shooting device indicated by the device ID supplied together with the shooting-related processing. Determined as the shooting parameter to be used. The processing determination unit 206 supplies the determined imaging parameters to the imaging instruction unit 207 together with the device ID of the imaging device to be determined.

図6に表す撮影用パラメータテーブルは、優先度が高いほど解像度を高く(画素数を多く)している。他にも、例えば、優先度が高いほどフレームレートを高くしてもよいし、優先度が高いほど画像サイズを大きくしてもよいし、優先度が高いほど画像伝送レートを高く(伝送速度を速く)してもよい。また、優先度が高いほど圧縮率を低くし又は圧縮率の低い圧縮方式を選択してもよい。 In the shooting parameter table shown in FIG. 6, the higher the priority, the higher the resolution (the number of pixels). In addition, for example, the higher the priority, the higher the frame rate, the higher the priority, the larger the image size, and the higher the priority, the higher the image transmission rate (transmission speed). May be faster). Further, the higher the priority, the lower the compression rate, or the compression method having a lower compression rate may be selected.

いずれの場合も、処理決定部206は、撮影関連処理により得られた映像が送信される際の単位時間当たりの送信データ量を優先度に応じて決定し、詳細には、優先度が高いほどその単位時間当たりの送信データ量が多くなる撮影用パラメータ(解像度、フレームレート及び画像サイズ等)を決定する。これにより、撮影装置の優先度が高いほど、表示される際の映像の画質が高くなり、映像を拡大したときに細部を明瞭に表示したり、映像内の人や物の動きを滑らかにしたりすることができる。 In either case, the processing determination unit 206 determines the amount of data to be transmitted per unit time when the video obtained by the shooting-related processing is transmitted according to the priority. In detail, the higher the priority, the higher the priority. The shooting parameters (resolution, frame rate, image size, etc.) that increase the amount of transmitted data per unit time are determined. As a result, the higher the priority of the shooting device, the higher the image quality of the image when it is displayed, and when the image is enlarged, details can be clearly displayed and the movement of people and objects in the image can be smoothed. can do.

また、処理決定部206は、画像処理については、優先度とリソース量とを対応付けた画像処理用パラメータテーブルを用いて決定を行う。
図7は画像処理用パラメータテーブルの一例を表す。この画像処理用パラメータテーブルでは、「1」、「2」、「3」という優先度に、「4コア」、「2コア」、「1コア」というリソース量(CPUのコア数)が対応付けられている。
Further, the processing determination unit 206 determines the image processing by using the image processing parameter table in which the priority and the resource amount are associated with each other.
FIG. 7 shows an example of an image processing parameter table. In this image processing parameter table, the priority of "1", "2", and "3" is associated with the resource amount (number of CPU cores) of "4 cores", "2 cores", and "1 core". Has been done.

処理決定部206は、優先度判定部205から供給された優先度に画像処理用パラメータテーブルで対応付けられているリソース量(CPUのコア数)を、共に供給された装置IDが示す撮影装置が画像処理で用いる画像処理用パラメータとして決定する。処理決定部206は、決定した画像処理用パラメータを決定対象の撮影装置の装置IDと共に画像処理動作制御部208に供給する。 The processing determination unit 206 is a photographing device in which the device ID supplied together indicates the amount of resources (the number of CPU cores) associated with the priority supplied from the priority determination unit 205 in the image processing parameter table. Determined as an image processing parameter used in image processing. The processing determination unit 206 supplies the determined image processing parameters to the image processing operation control unit 208 together with the device ID of the imaging device to be determined.

図7に表す画像処理用パラメータテーブルは、優先度が高いほどリソース量であるコア数を多くしているが、それ以外にも、例えば、優先度が高いほど使用可能なメモリの記憶領域を大きくしてもよい。また、異常事象の検出のための画像処理は繰り返し行われるが、優先度が高いほどその画像処理の間隔を短くしても(つまり画像処理の頻度を高くしても)よい。 In the image processing parameter table shown in FIG. 7, the higher the priority, the larger the number of cores, which is the amount of resources. In addition, for example, the higher the priority, the larger the usable memory storage area. You may. Further, although the image processing for detecting an abnormal event is repeatedly performed, the higher the priority, the shorter the interval of the image processing (that is, the higher the frequency of the image processing) may be.

いずれの場合も、処理決定部206は、優先度に応じて画像処理を決定する、すなわち、画像処理をどのように行うかを決定する。詳細には、処理決定部206は、画像処理が行われる際に単位時間当たりに処理されるデータ量を優先度に応じて決定する。上記の各例においては、処理決定部206は、優先度が高いほどその単位時間当たりに処理されるデータ量が多くなる画像処理用パラメータ(リソース量、画像処理の間隔及び頻度等)を決定する。 In either case, the processing determination unit 206 determines the image processing according to the priority, that is, determines how the image processing is performed. Specifically, the processing determination unit 206 determines the amount of data to be processed per unit time when the image processing is performed, according to the priority. In each of the above examples, the processing determination unit 206 determines image processing parameters (resource amount, image processing interval and frequency, etc.) in which the amount of data processed per unit time increases as the priority is higher. ..

これにより、撮影装置の優先度が高いほど、映像のデータ量が同じであれば画像処理に要する時間が短くなる。その結果、重点的な監視対象の位置に関係なく画像処理が行われる場合に比べて、優先度の高い撮影装置の映像、すなわち重点的な監視対象の付近を撮影した映像からの異常事象の発生の検出をより迅速に行うことができる。 As a result, the higher the priority of the photographing device, the shorter the time required for image processing if the amount of video data is the same. As a result, an abnormal event occurs from the image of the imaging device having a higher priority, that is, the image captured in the vicinity of the priority monitoring target, as compared with the case where the image processing is performed regardless of the position of the priority monitoring target. Can be detected more quickly.

撮影指示部207は、処理決定部206により決定された撮影関連処理の実行を撮影装置に指示する。撮影指示部207は、処理決定部206から供給された撮影用パラメータを用いることを指示する指示データを生成し、生成した指示データを共に供給された装置IDが示す撮影装置(監視員端末10又は固定カメラ40)に送信する。例えば監視員端末10であれば、撮影動作制御部105が、送信されてきた指示データが示す撮影用パラメータを用いるよう撮影部103及び映像送信部104を制御することで、撮影指示部207から指示された撮影関連処理を実行する。 The shooting instruction unit 207 instructs the shooting device to execute the shooting-related processing determined by the processing determination unit 206. The shooting instruction unit 207 generates instruction data instructing to use the shooting parameters supplied from the processing determination unit 206, and the shooting device (observer terminal 10 or the monitoring device terminal 10 or) indicated by the device ID supplied with the generated instruction data. It is transmitted to the fixed camera 40). For example, in the case of the observer terminal 10, the shooting operation control unit 105 gives an instruction from the shooting instruction unit 207 by controlling the shooting unit 103 and the video transmission unit 104 so as to use the shooting parameters indicated by the transmitted instruction data. Executes the shooting-related processing that has been performed.

画像処理動作制御部208は、処理決定部206により決定された画像処理を実行するよう画像処理部209の動作を制御する。画像処理動作制御部208は、処理決定部206から供給された画像処理用パラメータ及び装置IDを画像処理部209に供給し、その装置IDと共に供給された映像についての画像処理を、その画像処理用パラメータを用いて行うよう画像処理の動作を制御する。 The image processing operation control unit 208 controls the operation of the image processing unit 209 so as to execute the image processing determined by the processing determination unit 206. The image processing operation control unit 208 supplies the image processing parameters and the device ID supplied from the processing determination unit 206 to the image processing unit 209, and performs image processing on the image supplied together with the device ID for the image processing. Control the operation of image processing so that it is performed using parameters.

画像処理部209は、監視員端末情報取得部201及び固定カメラ情報取得部202により取得された撮影装置(監視員端末10及び固定カメラ40)の映像に対して画像処理を行う。画像処理部209は、例えば、監視対象区域の画像から異常を検出する周知の技術等を応用して、撮影された監視エリアの映像を解析して異常事象の発生を検出する。 The image processing unit 209 performs image processing on the images of the photographing devices (monitor terminal 10 and fixed camera 40) acquired by the observer terminal information acquisition unit 201 and the fixed camera information acquisition unit 202. The image processing unit 209 analyzes the captured image of the monitoring area and detects the occurrence of an abnormal event by applying, for example, a well-known technique for detecting an abnormality from an image of a monitoring target area.

画像処理部209は、画像処理により異常事象の発生を検出すると、その旨を検出に用いた映像を撮影した撮影装置の装置IDと共に報知部210に通知する。報知部210は、この通知を受け取ると、例えば、異常事象が発生した旨と装置IDとを示す報知情報を生成してオペレータ端末30に送信する。オペレータ端末30の報知情報表示部301は、送信されてきた報知情報を表示する。オペレータは、こうして表示された報知情報を見て異常事象の発生に気付き、監視員と連絡を取って異常事象に対処する。 When the image processing unit 209 detects the occurrence of an abnormal event by image processing, the image processing unit 209 notifies the notification unit 210 together with the device ID of the photographing device that captured the image used for the detection. Upon receiving this notification, the notification unit 210 generates, for example, notification information indicating that an abnormal event has occurred and the device ID, and transmits the notification information to the operator terminal 30. The notification information display unit 301 of the operator terminal 30 displays the transmitted notification information. The operator notices the occurrence of the abnormal event by looking at the notification information displayed in this way, and contacts the observer to deal with the abnormal event.

監視システム1が備える各装置は、上記構成に基づいて、監視エリアを撮影する映像に関する処理を、各撮影装置の優先度に基づいて行う優先度処理を行う。
図8は優先度処理における各装置の動作手順の一例を表す。この動作手順は、例えば、各装置の電源が投入されて監視エリアにおける監視が開始されることを契機に開始される。まず、同行者端末50(測位部501)が、自装置の位置を測定する(ステップS11)。
Based on the above configuration, each device included in the monitoring system 1 performs priority processing for performing processing related to an image for shooting a monitoring area based on the priority of each shooting device.
FIG. 8 shows an example of the operation procedure of each device in the priority processing. This operation procedure is started, for example, when the power of each device is turned on and monitoring in the monitoring area is started. First, the companion terminal 50 (positioning unit 501) measures the position of the own device (step S11).

次に、同行者端末50(位置情報送信部502)は、測定された自装置の位置を示す位置情報を監視センタサーバ装置20に送信する(ステップS12)。監視センタサーバ装置20(同行者情報取得部203)は、同行者端末50から送信されてきた位置情報を同行者情報として取得する(ステップS13)。次に、監視センタサーバ装置20(監視対象位置特定部204)は、取得された同行者情報に基づいて、イベントの進行と共に変化する重点的な監視対象の監視エリア内の位置を特定する(ステップS14)。 Next, the companion terminal 50 (position information transmission unit 502) transmits the measured position information indicating the position of the own device to the monitoring center server device 20 (step S12). The monitoring center server device 20 (accompanying person information acquisition unit 203) acquires the position information transmitted from the accompanying person terminal 50 as the accompanying person information (step S13). Next, the monitoring center server device 20 (monitoring target position specifying unit 204) identifies a position in the monitoring area of the priority monitoring target that changes as the event progresses, based on the acquired companion information (step). S14).

監視員端末10(測位部101)は、自装置の位置を測定する(ステップS21)。次に、監視員端末10(位置情報送信部102)は、測定された自装置の位置を示す位置情報を監視センタサーバ装置20に送信する(ステップS22)。また、監視員端末10(撮影部103)は、自装置の周囲の映像を撮影する(ステップS23)。次に、監視員端末10(映像送信部104)は、撮影された自装置の周囲の映像を監視センタサーバ装置20に送信する(ステップS24)。監視センタサーバ装置20(監視員端末情報取得部201)は、監視員端末10から送信されてきた位置情報及び映像を監視員端末情報として取得する(ステップS25)。 The observer terminal 10 (positioning unit 101) measures the position of the own device (step S21). Next, the observer terminal 10 (position information transmission unit 102) transmits the measured position information indicating the position of the own device to the monitoring center server device 20 (step S22). Further, the observer terminal 10 (shooting unit 103) shoots an image around the own device (step S23). Next, the observer terminal 10 (video transmission unit 104) transmits the captured video around the own device to the monitoring center server device 20 (step S24). The monitoring center server device 20 (monitoring terminal information acquisition unit 201) acquires the position information and the video transmitted from the monitoring staff terminal 10 as the monitoring staff terminal information (step S25).

固定カメラ40(撮影部401)は、自装置の周囲の映像を撮影する(ステップS31)。次に、固定カメラ40(映像送信部402)は、撮影された自装置の周囲の映像を監視センタサーバ装置20に送信する(ステップS32)。監視センタサーバ装置20(固定カメラ情報取得部202)は、固定カメラ40から送信されてきた映像と、その固定カメラ40の位置情報とを固定カメラ情報として取得する(ステップS33)。ステップS11〜S14と、S21〜S25と、S31〜S33の各動作群は、並行して繰り返し行われる。 The fixed camera 40 (shooting unit 401) shoots an image around the own device (step S31). Next, the fixed camera 40 (video transmission unit 402) transmits the captured video around the own device to the monitoring center server device 20 (step S32). The monitoring center server device 20 (fixed camera information acquisition unit 202) acquires the image transmitted from the fixed camera 40 and the position information of the fixed camera 40 as fixed camera information (step S33). The operation groups of steps S11 to S14, S21 to S25, and S31 to S33 are repeated in parallel.

監視センタサーバ装置20(優先度判定部205)は、特定された重点的な監視対象の位置と、取得された各撮影装置の位置情報に基づいて、複数の撮影装置(監視員端末10及び固定カメラ40)のそれぞれの優先度を判定する(ステップS41)。次に、監視センタサーバ装置20(処理決定部206)は、監視エリアを撮影する映像に関する処理を、その映像を撮影する撮影装置について判定された優先度に応じて決定する(ステップS42)。 The monitoring center server device 20 (priority determination unit 205) has a plurality of photographing devices (observer terminal 10 and fixed) based on the specified position of the priority monitoring target and the acquired position information of each photographing device. Each priority of the camera 40) is determined (step S41). Next, the monitoring center server device 20 (processing determination unit 206) determines the processing related to the image for photographing the monitoring area according to the priority determined for the photographing device for photographing the image (step S42).

続いて、監視センタサーバ装置20(撮影指示部207)は、決定された撮影関連処理の実行を撮影装置に指示するための指示データを生成して(ステップS43)、その指示データを撮影装置(この例では監視員端末10)に送信する(ステップS44)。監視員端末10(撮影動作制御部105)は、受け取った指示データが示す指示のとおりに、自装置の撮影に関する動作を制御する(ステップS45)。また、監視センタサーバ装置20(画像処理動作制御部208)は、決定された画像処理を実行するように、自装置が行う画像処理の動作を制御する(ステップS46)。 Subsequently, the monitoring center server device 20 (shooting instruction unit 207) generates instruction data for instructing the shooting device to execute the determined shooting-related processing (step S43), and uses the instruction data as the shooting device (step S43). In this example, the data is transmitted to the observer terminal 10) (step S44). The observer terminal 10 (shooting operation control unit 105) controls the movement related to shooting of the own device according to the instruction indicated by the received instruction data (step S45). Further, the monitoring center server device 20 (image processing operation control unit 208) controls the operation of the image processing performed by the own device so as to execute the determined image processing (step S46).

本実施例では、イベントの進行と共に変化する重点的な監視対象(上記の例ではマラソンの先頭集団)に近い撮影装置ほど高い優先度と判定され、優先度が高い撮影装置の映像ほど、画質を高くし、また、画像処理に用いるリソース量を多くしている。これにより、重点的な監視対象に近い監視エリアほど映像がクリアで且つ画像処理による異常事象の検出が早く行われることになる。その結果、マラソンのようなイベントにおいて重点的に監視すべき対象が動的に変化しても、その対象の位置に関係なく映像に関する処理を行う場合に比べて、その対象の付近で発生した異常事象を迅速に把握することができる。 In this embodiment, the image quality of the imaging device closer to the priority monitoring target (the leading group of the marathon in the above example), which changes as the event progresses, is determined to be higher, and the image quality of the image of the imaging device with higher priority is higher. It is expensive and the amount of resources used for image processing is increased. As a result, the closer the monitoring area is to the priority monitoring target, the clearer the image and the faster the detection of abnormal events by image processing. As a result, even if the target to be monitored dynamically changes in an event such as a marathon, anomalies that occur near the target are compared to when processing related to video is performed regardless of the position of the target. The event can be grasped quickly.

また、本実施例では、重点的な監視対象が人であり、その同行者が所持する位置情報端末(同行者端末50)を用いて重点的な監視対象の位置が特定されている。これにより、マラソンランナーのように携帯端末を所持することができない対象であっても、重点的な監視対象としてその位置を特定することができる。 Further, in this embodiment, the priority monitoring target is a person, and the position of the priority monitoring target is specified by using the position information terminal (accompanying person terminal 50) possessed by the companion. As a result, even a target that cannot possess a mobile terminal, such as a marathon runner, can be identified as a priority monitoring target.

[2]変形例
上述した実施例は本発明の実施の一例に過ぎず、以下のように変形させてもよい。また、実施例及び各変形例は、必要に応じて組み合わせて実施してもよい。
[2] Modifications The above-mentioned examples are merely examples of the implementation of the present invention, and may be modified as follows. Further, the examples and the respective modifications may be carried out in combination as necessary.

[2−1]画像処理用パラメータ
処理決定部206は、実施例とは異なる画像処理用パラメータを決定してもよい。例えば、処理決定部206は、複数の映像に対する画像処理が順番に行われる場合に、その順番を画像処理用パラメータとして、優先度に応じて決定する。処理決定部206は、例えば、優先度が高い撮影装置の映像ほど先に画像処理が行われるよう順番を決定する。
[2-1] Image processing parameters The processing determination unit 206 may determine image processing parameters different from those in the embodiment. For example, when the image processing for a plurality of images is performed in order, the processing determination unit 206 determines the order as an image processing parameter according to the priority. For example, the processing determination unit 206 determines the order so that the image processing is performed first for the image of the photographing device having a higher priority.

なお、画像処理の順番以外にも、処理決定部206は、映像に対する画像処理の終了時間が変化する画像処理用パラメータを優先度に応じて決定してもよい。いずれの場合も、撮影装置の優先度が高いほど、その映像に対する画像処理が早く終わるので、実施例と同様に、重点的な監視対象の付近を撮影した映像からの異常事象の発生の検出をより迅速に行うことができる。 In addition to the order of image processing, the processing determination unit 206 may determine an image processing parameter in which the end time of image processing for an image changes according to the priority. In either case, the higher the priority of the photographing device, the faster the image processing for the image is completed. Therefore, as in the embodiment, the occurrence of an abnormal event can be detected from the image captured in the vicinity of the priority monitoring target. It can be done more quickly.

[2−2]重点的な監視対象
重点的な監視対象は実施例で述べたものに限らない。例えばイベントがマラソンであっても、先頭集団だけでなく途中の集団(人の密度が高い集団など)或いは注目度が高い特定のランナーを予め設定し、重点的な監視対象としてもよい。また、重点的な監視対象のランナーを間に挟む複数の同行者間を重点的な監視対象としてもよい。
[2-2] Priority monitoring target The priority monitoring target is not limited to that described in the examples. For example, even if the event is a marathon, not only the leading group but also an intermediate group (such as a group with a high density of people) or a specific runner with a high degree of attention may be set in advance and set as a priority monitoring target. In addition, the priority monitoring target may be between a plurality of companions who sandwich a runner to be a priority monitoring target.

或いはイベントが国際会議や海外からの要人の来日であれば、各要人を重点的な監視対象としてもよい。また、重点的な監視対象は人に限らない。イベント全体を重点的な監視対象としてもよい。例えばイベント開催中の周辺の沿道を重点的な監視対象としてもよい。この場合、マラソンの進行状況に応じて先頭集団の接近前から所定数のランナーが通過するまでのように重点監視対象を動的に設定するようにしてもよい。 Alternatively, if the event is an international conference or a VIP from overseas visits Japan, each VIP may be subject to priority monitoring. In addition, the focus of monitoring is not limited to people. The entire event may be the focus of monitoring. For example, the roadside around the area where the event is being held may be focused on. In this case, depending on the progress of the marathon, the priority monitoring target may be dynamically set from before the approach of the leading group to when a predetermined number of runners pass.

また、イベントがスタジアムで行われる試合やライブなどであれば、入場開始前は最寄りの駅から入場口までを重点的な監視対象とし、入場開始後は入場口から座席までの通路やトイレ等を重点的な監視対象とし、イベント開始後は座席の周辺を重点的な監視対象とする。このように、イベントの進行と共に人が多く集まる場所が変化する場合に、それらの場所を、イベントの進行と共に変化する重点的な監視対象としてもよい。 In addition, if the event is a match or live performance held at a stadium, the area from the nearest station to the entrance will be monitored intensively before the entrance starts, and after the entrance starts, the aisles and toilets from the entrance to the seats will be covered. Focus on monitoring, and after the event starts, focus on the area around the seats. In this way, when the places where many people gather change as the event progresses, those places may be the focused monitoring targets that change as the event progresses.

[2−3]同行者
重点的な監視対象に同行する同行者は実施例で述べた者(先頭集団についていく監視員)に限らない。例えば先頭集団を先導する白バイの隊員でもよいし、放送用の車両の乗員でもよい。また、イベントがパレードであれば、パレードの主役をガードするガードマンでもよいし、主役が要人である場合はSP(Security Police)であってもよい。要するに、重点的な監視対象である人に同行し且つ上述した位置情報端末(自装置の位置を示す位置情報を生成して無線通信により送信する端末)を所持することが可能な者であればよい。
[2-3] Accompanying person The accompanying person who accompanies the priority monitoring target is not limited to the person described in the example (the observer who follows the leading group). For example, it may be a police motorcycle member who leads the leading group, or it may be a crew member of a broadcasting vehicle. If the event is a parade, it may be a guard man who guards the main character of the parade, or if the main character is a VIP, it may be an SP (Security Police). In short, if it is a person who can accompany a person who is a priority monitoring target and possess the above-mentioned position information terminal (a terminal that generates position information indicating the position of the own device and transmits it by wireless communication). good.

[2−4]移動物
監視対象位置特定部204は、実施例と異なる方法で重点的な監視対象を特定してもよい。例えばイベントがパレードや祭りのように重点的な監視対象が人(パレードで祝福される人や祭りで輿を担ぐ人など)であり、それらの人が携帯端末を所持可能であれば、監視対象位置特定部204は、重点的な監視対象自身が所持する携帯端末が測定する位置を重点的な監視対象の監視エリア内の位置として特定してもよい。
[2-4] The moving object monitoring target position specifying unit 204 may specify the priority monitoring target by a method different from that of the embodiment. For example, if an event is a parade or festival, the focus of monitoring is people (people who are blessed at the parade, people who carry a litter at the festival, etc.), and if those people can carry a mobile terminal, they will be monitored. The position specifying unit 204 may specify the position measured by the mobile terminal owned by the priority monitoring target itself as a position in the monitoring area of the priority monitoring target.

また、重点的な監視対象に車両やバイク、ドローン(遠隔操作可能な無人飛行装置)などの移動物が先導又は追従する場合、或いは上空からイベントを俯瞰可能なヘリコプター、飛行船で監視する場合、監視対象位置特定部204は、重点的な監視対象自身の移動に応じて移動可能な移動物の有する測位手段(GPSモジュール等)が測定する位置に基づき重点的な監視対象の監視エリア内の位置を特定してもよい。この場合、移動物は、測位手段に加えて、測定した位置情報を送信する無線通信手段も備える。 In addition, when a moving object such as a vehicle, motorcycle, or drone (remotely controllable unmanned aerial vehicle) leads or follows a priority monitoring target, or when a helicopter or airship that can overlook the event from the sky monitors the event. The target position specifying unit 204 determines the position in the monitoring area of the priority monitoring target based on the position measured by the positioning means (GPS module, etc.) having the moving object that can move according to the movement of the priority monitoring target itself. It may be specified. In this case, the moving object includes, in addition to the positioning means, a wireless communication means for transmitting the measured position information.

このように、重点的な監視対象に同行するのは人である必要はなく、測位手段及び無線通信手段を備えて且つ監視対象が移動した場合についていくことができるものであればよい。また上空からイベントの進行状況を俯瞰可能な移動物で監視する移動物である場合、測位手段に加えて、例えば撮像手段を備え、監視対象位置特定部204が、撮影方向、高度、撮影条件(俯角、倍率等)に基づいて重点的な監視対象の位置を特定するようにしてもよい。 In this way, it is not necessary for a person to accompany the focused monitoring target, as long as it is equipped with positioning means and wireless communication means and can keep up with the case where the monitoring target moves. If the moving object monitors the progress of the event from the sky with a moving object that allows a bird's-eye view, the monitoring target position specifying unit 204 is provided with, for example, an imaging means in addition to the positioning means, and the shooting direction, altitude, and shooting conditions ( The position of the priority monitoring target may be specified based on the depression angle, magnification, etc.).

[2−5]現在時刻・経過時間
監視対象位置特定部204は、重点的な監視対象の特定に、現在時刻やイベント開始からの経過時間を利用してもよい。例えば演奏会やライブなどは、イベントがタイムテーブルに沿って行われるので、現在時刻が分かればイベントの進行状況も把握できる。また、開始時刻が遅れた場合でも、イベント開始からの経過時間が分かれば、イベントの進行状況も把握できる。
[2-5] Current Time / Elapsed Time The monitoring target position specifying unit 204 may use the current time or the elapsed time from the start of the event to identify the priority monitoring target. For example, in concerts and live performances, events are held according to the timetable, so if the current time is known, the progress of the event can be grasped. Even if the start time is delayed, the progress of the event can be grasped if the elapsed time from the start of the event is known.

本変形例では、監視対象位置特定部204は、イベントについて定められたタイムテーブルに基づき、現在の時刻から重点的な監視対象の監視エリア内の位置を特定する。また、監視対象位置特定部204は、イベントについて定められたタイムテーブルに基づき、イベントの開始から経過した時間に基づいて、重点的な監視対象の監視エリア内の位置を特定する。いずれの場合も、監視対象位置特定部204は、例えばイベントの開始前及び終了後は会場の周辺を重点的な監視対象として特定し、イベント中は会場の内部を重点的な監視対象として特定する。 In this modification, the monitoring target position specifying unit 204 identifies the position in the monitoring area of the priority monitoring target from the current time based on the timetable defined for the event. In addition, the monitoring target position specifying unit 204 identifies a position in the monitoring area of the priority monitoring target based on the time elapsed from the start of the event based on the timetable defined for the event. In either case, the monitoring target position specifying unit 204 specifies, for example, the vicinity of the venue as a priority monitoring target before and after the event starts, and specifies the inside of the venue as a priority monitoring target during the event. ..

[2−6]リアルタイム配信サービス
監視対象位置特定部204は、重点的な監視対象の特定に、リアルタイム配信サービスを利用してもよい。リアルタイム配信サービスとは、現在起きている出来事(イベントも含まれる)に関する情報をリアルタイムに配信するサービスである。具体的には、テレビのデジタル放送でマラソンの走行位置を示す情報を配信するサービスや、スポーツの試合の実況中継を配信するサービス、花火大会の現在の混雑状況を配信するサービスなどが含まれる。
[2-6] Real-time distribution service The monitoring target position specifying unit 204 may use the real-time distribution service to identify a priority monitoring target. The real-time distribution service is a service that distributes information about current events (including events) in real time. Specifically, it includes a service that distributes information indicating the running position of a marathon on a digital television broadcast, a service that distributes a live broadcast of a sports game, and a service that distributes the current congestion status of a fireworks display.

監視対象位置特定部204は、リアルタイム配信サービスにより配信されたイベントに関する情報に基づいて監視対象の位置を特定する。例えば、マラソンの走行位置を示す情報が配信される場合には、監視対象位置特定部204は、その情報が示す先頭集団の位置を監視対象の位置として特定する。また、スポーツの試合の実況中継が配信される場合には、監視対象位置特定部204は、実況中継から試合の開始前、試合中、試合の終了後というイベントの進行状況を判断し、その進行状況に応じた場所を監視対象の位置として特定する。 The monitoring target position specifying unit 204 identifies the position of the monitoring target based on the information about the event delivered by the real-time distribution service. For example, when the information indicating the running position of the marathon is distributed, the monitoring target position specifying unit 204 specifies the position of the leading group indicated by the information as the position of the monitoring target. In addition, when a live broadcast of a sports match is delivered, the monitoring target position identification unit 204 determines the progress of the event from the live broadcast before the start of the match, during the match, and after the end of the match, and the progress thereof. Specify the location according to the situation as the location to be monitored.

監視対象位置特定部204は、配信される情報がテキスト情報であれば、例えばそこから各進行状況に対応付けて予め定められたキーワード(「開始時刻」や「終了時刻」など)を抽出し、抽出されたキーワードに対応する進行状況であることを判断する。監視対象位置特定部204は、配信される情報が音声又は映像であれば、音声認識又は画像認識を行ったうえでキーワードを抽出してこの判断を行う。本変形例によれば、重点的な監視対象やその同行者の位置情報を取得できない場合やイベントが予定通りに進まない場合でも、監視対象の位置を特定することができる。 If the information to be delivered is text information, the monitoring target position specifying unit 204 extracts, for example, predetermined keywords (“start time”, “end time”, etc.) in association with each progress status from the text information. Judge that the progress corresponds to the extracted keyword. If the information to be distributed is voice or video, the monitoring target position specifying unit 204 performs voice recognition or image recognition, extracts keywords, and makes this determination. According to this modification, the position of the monitoring target can be specified even when the position information of the priority monitoring target or its companion cannot be acquired or the event does not proceed as planned.

[2−7]その他の情報
イベントの進行状況を示す情報(状況情報)は上述したものに限らない。例えば、スタジアムやライブ会場などで入場者数を計上する仕組みがある場合、入場者数が定員に対して一定の割合(例えば95%など)になったときにイベントが開始されると判断できる(この場合は入場者数が状況情報)。また、最寄りの駅から会場までのルートに設置された固定カメラ40の映像から人の混雑度が分かるので、混雑度が高い場合はイベントの開始前で、混雑度が低くなるとイベントが開始されたと判断できる(この場合は固定カメラの映像が状況情報)。
[2-7] Other information Information (status information) indicating the progress of the event is not limited to the above. For example, if there is a mechanism to count the number of visitors at a stadium or a live venue, it can be determined that the event will start when the number of visitors reaches a certain ratio (for example, 95%) to the capacity (for example, 95%). In this case, the number of visitors is the status information). Also, since the degree of congestion of people can be seen from the image of the fixed camera 40 installed on the route from the nearest station to the venue, if the degree of congestion is high, it is before the start of the event, and if the degree of congestion is low, the event has started. It can be judged (in this case, the image of the fixed camera is the situation information).

図9は本変形例の監視センタサーバ装置20aが実現する機能構成を表す。監視センタサーバ装置20aは、図4に表す同行者情報取得部203の代わりに状況情報取得部211を備える。状況情報取得部211は、イベントの進行状況を示す状況情報を取得する機能であり、本発明の「状況取得手段」の一例である。状況情報取得部211は、例えば計上された会場への入場者数を記憶するシステムからその入場者数の情報を状況情報として取得する。 FIG. 9 shows a functional configuration realized by the monitoring center server device 20a of this modified example. The monitoring center server device 20a includes a status information acquisition unit 211 instead of the companion information acquisition unit 203 shown in FIG. The status information acquisition unit 211 is a function of acquiring status information indicating the progress of an event, and is an example of the "situation acquisition means" of the present invention. The status information acquisition unit 211 acquires information on the number of visitors as status information from, for example, a system that stores the number of visitors to the venue.

また、状況情報取得部211は、前述したルートに設置された固定カメラ40の映像を状況情報として取得してもよい。状況情報取得部211は、取得した状況情報を監視対象位置特定部204に供給する。監視対象位置特定部204は、状況情報取得部211により取得された状況情報が示す進行状況に応じた位置を監視対象の位置として特定する。 Further, the situation information acquisition unit 211 may acquire the image of the fixed camera 40 installed on the route described above as the situation information. The status information acquisition unit 211 supplies the acquired status information to the monitoring target position specifying unit 204. The monitoring target position specifying unit 204 specifies a position according to the progress indicated by the status information acquired by the status information acquisition unit 211 as the position to be monitored.

監視対象位置特定部204は、入場者数が状況情報として取得された場合、例えば、入場者数が会場の定員の一定の割合未満であればイベントの開始前と判断して入場時に混雑する入場口の前を監視対象の位置と特定し、入場者数が一定の割合以上であればイベントが開始されたと判断して会場内を監視対象の位置と特定する。 When the number of visitors is acquired as status information, for example, if the number of visitors is less than a certain percentage of the capacity of the venue, the monitoring target position identification unit 204 determines that it is before the start of the event and is crowded at the time of entrance. The front of the mouth is specified as the position to be monitored, and if the number of visitors is above a certain percentage, it is judged that the event has started and the inside of the venue is specified as the position to be monitored.

また、監視対象位置特定部204は、固定カメラ40の映像が状況情報として取得された場合、例えば、その映像から人の輪郭を抽出し、映像全体のうち人が占める領域の割合を算出し、算出した割合が閾値以上であれば会場に向けて人が移動している最中、すなわちイベントの開始前と判断してこのルート又は入場口前を監視対象の位置と特定し、算出した割合が閾値未満になったら会場への移動が終わった、すなわちイベントが開始されたと判断して会場内を監視対象の位置と特定する。本変形例によれば、上記の各方法で重点的な監視対象の位置を特定できない場合にその位置を特定することができる。 Further, when the image of the fixed camera 40 is acquired as the situation information, the monitoring target position specifying unit 204 extracts, for example, the outline of a person from the image, calculates the ratio of the area occupied by the person in the entire image, and calculates the ratio of the area occupied by the person. If the calculated ratio is equal to or higher than the threshold value, it is judged that the person is moving toward the venue, that is, before the start of the event, and this route or the front of the entrance is specified as the position to be monitored, and the calculated ratio is When it becomes less than the threshold value, it is judged that the movement to the venue has been completed, that is, the event has started, and the inside of the venue is specified as the position to be monitored. According to this modification, when the position of the priority monitoring target cannot be specified by each of the above methods, the position can be specified.

[2−8]混雑度
撮影装置の優先度を判定する際に、周辺の混雑度が考慮されてもよい。
図10は本変形例の監視センタサーバ装置20bが実現する機能構成を表す。監視センタサーバ装置20bは、図4に表す各部に加えて混雑度判定部212を備える。混雑度判定部212は、監視対象位置特定部204により特定された監視対象の位置の近辺の混雑度を判定する機能であり、本発明の「混雑判定手段」の一例である。
[2-8] Congestion Degree Congestion of the surroundings may be taken into consideration when determining the priority of the photographing apparatus.
FIG. 10 shows a functional configuration realized by the monitoring center server device 20b of this modified example. The monitoring center server device 20b includes a congestion degree determination unit 212 in addition to the units shown in FIG. The congestion degree determination unit 212 is a function of determining the degree of congestion in the vicinity of the position of the monitoring target specified by the monitoring target position specifying unit 204, and is an example of the “congestion determination means” of the present invention.

本変形では、監視対象位置特定部204が、特定した重点的な監視対象の位置情報を混雑度判定部212に供給し、監視員端末情報取得部201及び固定カメラ情報取得部202が、取得した監視員端末情報及び固定カメラ情報を混雑度判定部212に供給する。混雑度判定部212は、特定された監視対象の位置の近辺(具体的にはその位置から所定の範囲内)に位置する撮影装置の映像から人の輪郭を抽出して、映像全体のうち人が占める領域の割合を前述した混雑度(監視対象の位置の近辺の混雑度)として判定する。混雑度の判定方法はこれに限られるものではなく、例えば、上空から飛行船等で撮影した熱画像に基づき判定するようにしてもよい。 In this modification, the monitoring target position specifying unit 204 supplies the specified position information of the focused monitoring target to the congestion degree determination unit 212, and the observer terminal information acquisition unit 201 and the fixed camera information acquisition unit 202 acquire the information. The observer terminal information and the fixed camera information are supplied to the congestion degree determination unit 212. The congestion degree determination unit 212 extracts the outline of a person from the image of the photographing device located in the vicinity of the specified position of the monitoring target (specifically, within a predetermined range from that position), and the person in the entire image. The ratio of the area occupied by is determined as the above-mentioned congestion degree (congestion degree in the vicinity of the position to be monitored). The method for determining the degree of congestion is not limited to this, and for example, the determination may be made based on a thermal image taken from the sky by an airship or the like.

本変形例では、所定の範囲を、監視対象の位置からの距離が図5に表す閾値Th1未満の範囲であるものとする。つまり、監視対象の位置の近辺に位置する撮影装置は、図5で述べた方法では優先度が「1」と判定される。混雑度判定部212は、供給された各情報と、判定した混雑度とを優先度判定部205に供給する。優先度判定部205は、特定された監視対象の位置及び取得された位置情報(監視員端末情報及び固定カメラ情報に含まれる位置情報)に加え、混雑度判定部212により判定された混雑度に基づいて撮影装置の優先度を判定する。 In this modification, it is assumed that the predetermined range is a range in which the distance from the position to be monitored is less than the threshold Th1 shown in FIG. That is, the photographing device located in the vicinity of the position to be monitored is determined to have a priority of "1" by the method described in FIG. The congestion degree determination unit 212 supplies each of the supplied information and the determined congestion degree to the priority determination unit 205. In addition to the specified position of the monitoring target and the acquired position information (position information included in the observer terminal information and the fixed camera information), the priority determination unit 205 determines the degree of congestion determined by the congestion degree determination unit 212. The priority of the photographing device is determined based on the above.

優先度判定部205は、例えば、図5で述べた方法で各撮影装置の仮の優先度を判定する。優先度判定部205は、仮の優先度が「1」であった撮影装置、すなわち監視対象の位置の近辺に位置する撮影装置については、取得された監視対象の位置の近辺の混雑度が閾値以上である場合は優先度を「1」のままとし、その混雑度が閾値未満である場合には優先度を「1.5」と判定する。つまり、優先度判定部205は、混雑度が閾値以上の場合の優先度を、混雑度が閾値未満の場合よりも高くする。 The priority determination unit 205 determines, for example, the provisional priority of each imaging device by the method described in FIG. The priority determination unit 205 has a threshold value of the degree of congestion in the vicinity of the acquired position of the monitoring target for the photographing device whose temporary priority is "1", that is, the photographing device located in the vicinity of the position of the monitoring target. If the above is the case, the priority is left as "1", and if the degree of congestion is less than the threshold value, the priority is determined to be "1.5". That is, the priority determination unit 205 raises the priority when the degree of congestion is equal to or higher than the threshold value than when the degree of congestion is less than the threshold value.

図11は本変形例の撮影用パラメータテーブルの一例を表す。この撮影用パラメータテーブルでは、「1」、「1.5」、「2」、「3」という優先度に、「314.6万画素(2048×1536)」、「192万画素(1600×1200)」、「122.9万画素(1280×960)」、「30.7万画素(640×480)」という解像度(画素数)が対応付けられている。処理決定部206は、この撮影用パラメータテーブルを用いて、実施例と同様に撮影用パラメータを決定する。 FIG. 11 shows an example of a shooting parameter table of this modified example. In this shooting parameter table, the priority order of "1", "1.5", "2", and "3" is "3146,000 pixels (2048 x 1536)" and "1.92 million pixels (1600 x 1200)". ) ”,“ 12.29 million pixels (1280 × 960) ”, and“ 307,000 pixels (640 × 480) ”resolutions (number of pixels) are associated with each other. The processing determination unit 206 determines the imaging parameters by using the imaging parameter table in the same manner as in the embodiment.

なお、画像処理用パラメータテーブルについても、図11に表すように4つの優先度に画像処理用パラメータを対応付けてもよい。このように、本変形例では、監視対象の位置の近辺については、混雑度に応じてさらに優先度を変化させることで、混雑している場合にはそうでない場合に比べて撮影される映像の画質をさらに高くしたり、画像処理において単位時間当たりに処理されるデータ量をさらに多くしたりすることができる。 As for the image processing parameter table, as shown in FIG. 11, image processing parameters may be associated with four priorities. As described above, in this modification, the priority of the vicinity of the position to be monitored is further changed according to the degree of congestion, so that when the image is congested, the image is captured as compared with the case where it is not. The image quality can be further improved, and the amount of data processed per unit time in image processing can be further increased.

[2−9]撮影装置
上記の実施例では、監視エリアの映像を撮影する撮影装置として監視員端末10及び固定カメラ40が用いられたが、どちらか一方だけが用いられてもよい。その場合でも、複数の撮影装置が撮影する映像に関する処理が優先度に応じて決定されることで、重点的に監視すべき対象が動的に変化しても、実施例のようにその対象の付近で発生した異常事象を迅速に把握することができる。
[2-9] Imaging Device In the above embodiment, the observer terminal 10 and the fixed camera 40 are used as the imaging device for capturing the image of the surveillance area, but only one of them may be used. Even in that case, the processing related to the images shot by the plurality of shooting devices is determined according to the priority, so that even if the target to be monitored dynamically changes, the target can be monitored as in the embodiment. It is possible to quickly grasp abnormal events that have occurred in the vicinity.

[2−10]優先度
優先度は、上記の各例とは異なる表し方をしてもよい。例えば「Lv1、Lv2、・・」や「A、B、C、・・」、「高、中、低」など、指標としての上限関係を表す記号や文字、図形などが用いられてもよい。要するに、撮影装置の優先度が高いものと低いものとを判別できれば、どのように表された優先度が用いられてもよい。
[2-10] Priority The priority may be expressed differently from each of the above examples. For example, symbols, characters, figures, etc. representing the upper limit relationship as an index such as "Lv1, Lv2, ...", "A, B, C, ...", "High, Medium, Low" may be used. In short, any representation of the priority may be used as long as it is possible to distinguish between the high priority and the low priority of the photographing apparatus.

[2−11]監視エリアの監視者
上記の実施例では、監視エリアに配置された監視員が監視エリアの現場で監視の役割を果たす監視者であったが、これに限らない。例えば、監視エリア内で働く監視員以外のスタッフが監視者であってもよい。スタッフとは、具体的には、例えばマラソン会場が監視エリアである場合、会場の案内員、コース整理員、給水スタッフ、観客の誘導員などであり、スタジアム等が監視エリアである場合、監視員に相当する警備員の他、チケットの販売員、店舗の店員、清掃員などである。また、人間に限らず、例えば監視用のカメラが内蔵された自走式のロボットやドローン、監視員端末を装着した動物(警察犬のように訓練された犬等)などであってもよい。
[2-11] Monitor in the monitoring area In the above embodiment, the observer assigned in the monitoring area is a monitor who plays a role of monitoring at the site of the monitoring area, but the present invention is not limited to this. For example, a staff member other than the watchman working in the watch area may be the watchman. Specifically, the staff is, for example, when the marathon venue is a monitoring area, a guide of the venue, a course organizer, a water supply staff, a guide for spectators, etc., and when a stadium or the like is a monitoring area, a guard. In addition to security guards equivalent to, ticket sales staff, store clerk, cleaning staff, etc. Further, the present invention is not limited to humans, and may be, for example, a self-propelled robot or drone having a built-in surveillance camera, an animal equipped with an observer terminal (a dog trained like a police dog, etc.).

[2−12]各機能を実現する装置
図4等に表す機能を実現する装置は、上述した各装置に限らない。例えば、監視センタサーバ装置が入力装置及び出力装置を備えておいて、オペレータ端末30が備える各部を実現してもよい。また、反対に、監視センタサーバ装置20が備える各部をオペレータ端末が実現してもよい。また、監視センタサーバ装置が実現する機能を、複数の情報処理装置が分担して実現してもよい。例えば、第1装置が監視員端末情報取得部201から優先度判定部205までの機能を実現し、第2装置が処理決定部206から報知部210までの機能を実現するという具合である。いずれの場合も、監視システムが備える装置全体で、上述した機能を実現していればよい。
[2-12] Devices for Realizing Each Function The devices for realizing the functions shown in FIG. 4 and the like are not limited to the above-mentioned devices. For example, the monitoring center server device may be provided with an input device and an output device, and each part included in the operator terminal 30 may be realized. On the contrary, the operator terminal may realize each part included in the monitoring center server device 20. Further, the functions realized by the monitoring center server device may be shared and realized by a plurality of information processing devices. For example, the first device realizes the functions from the observer terminal information acquisition unit 201 to the priority determination unit 205, and the second device realizes the functions from the processing determination unit 206 to the notification unit 210. In either case, it is sufficient that the above-mentioned functions are realized in the entire device provided in the monitoring system.

[2−13]指示の自動化
実施例では、オペレータ端末30を使用するオペレータが監視員に対して指示を行ったが、将来は、この指示を含むオペレータの作業が自動化されてもよい。例えば、AI(Artificial Intelligence、人工知能)を活用して、監視員端末10からの投稿情報が示す事案の情報取得位置に最も近い監視員を選定して、選定した監視員に必要な情報(事案の発生場所を示す情報等)を伝達する。このように、一定のルールに基づく処理で実現可能な作業については、自動化されてもよい。
[2-13] Automation of Instruction In the embodiment, the operator using the operator terminal 30 gives an instruction to the observer, but in the future, the operator's work including this instruction may be automated. For example, using AI (Artificial Intelligence), select the observer closest to the information acquisition position of the case indicated by the information posted from the observer terminal 10, and the information (case) required for the selected observer. Information indicating the place of occurrence of In this way, the work that can be realized by the processing based on a certain rule may be automated.

[2−14]発明のカテゴリ
本発明は、監視員端末10、監視センタサーバ装置20、オペレータ端末30、固定カメラ40及び同行者端末50という各装置の他、それらの装置を備える監視システムとしても捉えられる。また、本発明は、各装置が実施する処理を実現するための情報処理方法としても捉えられる。また、各装置を制御するコンピュータを機能させるためのプログラムとしても捉えられる。このプログラムは、それを記憶させた光ディスク等の記録媒体の形態で提供されてもよいし、インターネット等のネットワークを介してコンピュータにダウンロードさせ、それをインストールして利用可能にするなどの形態で提供されてもよい。
[2-14] Category of Invention The present invention includes devices such as a supervisor terminal 10, a monitoring center server device 20, an operator terminal 30, a fixed camera 40, and a companion terminal 50, as well as a monitoring system including these devices. Be caught. The present invention can also be regarded as an information processing method for realizing the processing performed by each device. It can also be regarded as a program for operating the computer that controls each device. This program may be provided in the form of a recording medium such as an optical disk that stores it, or may be provided in the form of being downloaded to a computer via a network such as the Internet and installed and made available. May be done.

1…監視システム、10…監視員端末、20…監視センタサーバ装置、30…オペレータ端末、40…固定カメラ、50…同行者端末、101…測位部、102…位置情報送信部、103…撮影部、104…映像送信部、105…撮影動作制御部、201…監視員端末情報取得部、202…固定カメラ情報取得部、203…同行者情報取得部、204…監視対象位置特定部、205…優先度判定部、206…処理決定部、207…撮影指示部、208…画像処理動作制御部、209…画像処理部、210…報知部、211…状況情報取得部、212…混雑度判定部、301…報知情報表示部、401…撮影部、402…映像送信部、403…撮影動作制御部、501…測位部、502…位置情報送信部。 1 ... Surveillance system, 10 ... Observer terminal, 20 ... Monitoring center server device, 30 ... Operator terminal, 40 ... Fixed camera, 50 ... Accompanying terminal, 101 ... Positioning unit, 102 ... Position information transmission unit, 103 ... Imaging unit , 104 ... Video transmission unit, 105 ... Shooting operation control unit, 201 ... Observer terminal information acquisition unit, 202 ... Fixed camera information acquisition unit, 203 ... Accompanying information acquisition unit, 204 ... Monitoring target position identification unit, 205 ... Priority Degree determination unit, 206 ... Processing determination unit, 207 ... Shooting instruction unit, 208 ... Image processing operation control unit, 209 ... Image processing unit, 210 ... Notification unit, 211 ... Status information acquisition unit, 212 ... Congestion degree determination unit, 301 ... Notification information display unit, 401 ... Shooting unit, 402 ... Video transmission unit, 403 ... Shooting operation control unit, 501 ... Positioning unit, 502 ... Position information transmission unit.

Claims (5)

監視エリアの映像を撮影する複数の撮影装置の位置情報を取得する取得手段と、
イベントの進行と共に変化する重点的な監視対象の前記監視エリア内の位置を特定する特定手段と、
特定された前記監視対象の位置と取得された前記複数の撮影装置の位置情報に基づいて当該複数の撮影装置のそれぞれの優先度を、前記監視対象の位置と各撮影装置の位置との距離が短いほど前記優先度が高くなるように判定する判定手段と、
前記映像に関する処理を、当該映像を撮影する撮影装置について判定された前記優先度が高いほど前記映像が送信される際の単位時間当たりの送信データ量が多くなる、又は当該映像から異常事象の発生を検出する画像処理において単位時間当たりに処理されるデータ量が多くなるように決定する決定手段とを備え
前記監視対象は人であり、
前記特定手段は、前記監視対象の移動に応じて移動する同行者が所持する測位手段が測定する位置に基づき前記監視対象の前記位置を特定する監視システム。
An acquisition means for acquiring the position information of a plurality of imaging devices that capture images in the surveillance area, and
Specific means for identifying the position of the focused monitoring target in the monitoring area, which changes as the event progresses,
Based on the identified position of the monitoring target and the acquired position information of the plurality of photographing devices, the priority of each of the plurality of photographing devices is determined by the distance between the position of the monitoring target and the position of each photographing device. A determination means for determining that the shorter the value, the higher the priority.
The higher the priority of the processing related to the video determined for the shooting device that shoots the video, the larger the amount of data to be transmitted per unit time when the video is transmitted, or the occurrence of an abnormal event from the video. It is provided with a determination means for determining that the amount of data processed per unit time is large in the image processing for detecting the above .
The monitoring target is a person
The specifying unit is monitoring a system for identifying the position of the monitoring target companions are based on the position where the positioning means for measuring the possession that moves in response to movement of the monitor.
監視エリアの映像を撮影する複数の撮影装置の位置情報を取得する取得手段と、
イベントの進行と共に変化する重点的な監視対象の前記監視エリア内の位置を特定する特定手段と
特定された前記監視対象の位置と取得された前記複数の撮影装置の位置情報に基づいて当該複数の撮影装置のそれぞれの優先度を、前記監視対象の位置と各撮影装置の位置との距離が短いほど前記優先度が高くなるように判定する判定手段と、
前記映像に関する処理を、当該映像を撮影する撮影装置について判定された前記優先度が高いほど前記映像が送信される際の単位時間当たりの送信データ量が多くなる、又は当該映像から異常事象の発生を検出する画像処理において単位時間当たりに処理されるデータ量が多くなるように決定する決定手段とを備え、
前記監視対象は人であり、
前記特定手段は、前記監視対象の移動に応じて移動可能な移動物の有する測位手段が測定する位置に基づき前記監視対象の前記位置を特定する監視システム。
An acquisition means for acquiring the position information of a plurality of imaging devices that capture images in the surveillance area, and
Specific means for identifying the position of the focused monitoring target in the monitoring area, which changes as the event progresses ,
Based on the identified position of the monitoring target and the acquired position information of the plurality of photographing devices, the priority of each of the plurality of photographing devices is determined by the distance between the position of the monitoring target and the position of each photographing device. A determination means for determining that the shorter the value, the higher the priority.
The higher the priority of the processing related to the video determined for the shooting device that shoots the video, the larger the amount of data to be transmitted per unit time when the video is transmitted, or the occurrence of an abnormal event from the video. It is provided with a determination means for determining that the amount of data processed per unit time is large in the image processing for detecting the above.
The monitoring target is a person
The specifying unit, the monitoring target surveillance system that identifies the location of the monitored object based on the position where the positioning means for measuring with a movable moving object in accordance with the movement of the.
監視エリアの映像を撮影する複数の撮影装置の位置情報を取得する取得手段と、
イベントの進行と共に変化する重点的な監視対象の前記監視エリア内の位置を特定する特定手段と、
特定された前記監視対象の位置と取得された前記複数の撮影装置の位置情報に基づいて当該複数の撮影装置のそれぞれの優先度を、前記監視対象の位置と各撮影装置の位置との距離が短いほど前記優先度が高くなるように判定する判定手段と、
前記映像に関する処理を、当該映像を撮影する撮影装置について判定された前記優先度が高いほど前記映像が送信される際の単位時間当たりの送信データ量が多くなる、又は当該映像から異常事象の発生を検出する画像処理において単位時間当たりに処理されるデータ量が多くなるように決定する決定手段とを備え、
前記特定手段は、リアルタイム配信サービスにより配信された前記イベントに関する情報に基づいて前記監視対象の位置を特定する監視システム。
An acquisition means for acquiring the position information of a plurality of imaging devices that capture images in the surveillance area, and
Specific means for identifying the position of the focused monitoring target in the monitoring area, which changes as the event progresses,
Based on the identified position of the monitoring target and the acquired position information of the plurality of photographing devices, the priority of each of the plurality of photographing devices is determined by the distance between the position of the monitoring target and the position of each photographing device. A determination means for determining that the shorter the value, the higher the priority.
The higher the priority of the processing related to the video determined for the shooting device that shoots the video, the larger the amount of data to be transmitted per unit time when the video is transmitted, or the occurrence of an abnormal event from the video. It is provided with a determination means for determining that the amount of data processed per unit time is large in the image processing for detecting the above.
The specifying means, monitoring system that identifies the position of the monitoring target on the basis of information about the event delivered by real time delivery service.
監視エリアの映像を撮影する複数の撮影装置の位置情報を取得する取得手段と、
イベントの進行と共に変化する重点的な監視対象の前記監視エリア内の位置を特定する特定手段と、
特定された前記監視対象の位置と取得された前記複数の撮影装置の位置情報に基づいて当該複数の撮影装置のそれぞれの優先度を、前記監視対象の位置と各撮影装置の位置との距離が短いほど前記優先度が高くなるように判定する判定手段と、
前記映像に関する処理を、当該映像を撮影する撮影装置について判定された前記優先度が高いほど前記映像が送信される際の単位時間当たりの送信データ量が多くなる、又は当該映像から異常事象の発生を検出する画像処理において単位時間当たりに処理されるデータ量が多くなるように決定する決定手段と、
前記イベントの進行状況を示す状況情報を取得する状況取得手段とを備え、
前記特定手段は、取得された前記状況情報が示す進行状況に基づき前記監視対象の位置を特定する監視システム。
An acquisition means for acquiring the position information of a plurality of imaging devices that capture images in the surveillance area, and
Specific means for identifying the position of the focused monitoring target in the monitoring area, which changes as the event progresses,
Based on the identified position of the monitoring target and the acquired position information of the plurality of photographing devices, the priority of each of the plurality of photographing devices is determined by the distance between the position of the monitoring target and the position of each photographing device. A determination means for determining that the shorter the value, the higher the priority.
The higher the priority of the processing related to the video determined for the shooting device that shoots the video, the larger the amount of data to be transmitted per unit time when the video is transmitted, or the occurrence of an abnormal event from the video. A determination means for determining that the amount of data processed per unit time is large in the image processing for detecting
It is provided with a status acquisition means for acquiring status information indicating the progress of the event.
The specifying means, monitoring system that identifies the position of the monitoring target on the basis of the progress indicated by the status information acquired.
監視エリアの映像を撮影する複数の撮影装置の位置情報を取得する取得手段と、
イベントの進行と共に変化する重点的な監視対象の前記監視エリア内の位置を特定する特定手段と、
特定された前記監視対象の位置と取得された前記複数の撮影装置の位置情報に基づいて当該複数の撮影装置のそれぞれの優先度を、前記監視対象の位置と各撮影装置の位置との距離が短いほど前記優先度が高くなるように判定する判定手段と、
前記映像に関する処理を、当該映像を撮影する撮影装置について判定された前記優先度が高いほど前記映像が送信される際の単位時間当たりの送信データ量が多くなる、又は当該映像から異常事象の発生を検出する画像処理において単位時間当たりに処理されるデータ量が多くなるように決定する決定手段と、
特定された前記監視対象の位置の近辺の混雑度を判定する混雑判定手段とを備え、
前記判定手段は、前記監視対象の位置及び前記複数の撮影装置の位置情報に加え、判定された前記混雑度が閾値以上である場合には前記閾値未満である場合に比べて前記優先度が高くなるように、前記複数の撮影装置のそれぞれの前記優先度を判定する監視システム。
An acquisition means for acquiring the position information of a plurality of imaging devices that capture images in the surveillance area, and
Specific means for identifying the position of the focused monitoring target in the monitoring area, which changes as the event progresses,
Based on the identified position of the monitoring target and the acquired position information of the plurality of photographing devices, the priority of each of the plurality of photographing devices is determined by the distance between the position of the monitoring target and the position of each photographing device. A determination means for determining that the shorter the value, the higher the priority.
The higher the priority of the processing related to the video determined for the shooting device that shoots the video, the larger the amount of data to be transmitted per unit time when the video is transmitted, or the occurrence of an abnormal event from the video. A determination means for determining that the amount of data processed per unit time is large in the image processing for detecting
It is provided with a congestion determination means for determining the degree of congestion in the vicinity of the specified position of the monitoring target.
In addition to the position of the monitoring target and the position information of the plurality of photographing devices, the determination means has a higher priority when the determined congestion degree is equal to or more than the threshold value as compared with the case where the determination degree is less than the threshold value. so as to, monitoring system that determines each of said priorities of said plurality of imaging devices.
JP2017065008A 2017-03-29 2017-03-29 Monitoring system Active JP6941457B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017065008A JP6941457B2 (en) 2017-03-29 2017-03-29 Monitoring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017065008A JP6941457B2 (en) 2017-03-29 2017-03-29 Monitoring system

Publications (2)

Publication Number Publication Date
JP2018170573A JP2018170573A (en) 2018-11-01
JP6941457B2 true JP6941457B2 (en) 2021-09-29

Family

ID=64018810

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017065008A Active JP6941457B2 (en) 2017-03-29 2017-03-29 Monitoring system

Country Status (1)

Country Link
JP (1) JP6941457B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7140043B2 (en) * 2019-05-07 2022-09-21 株式会社デンソー Information processing equipment
EP3965415A4 (en) 2019-06-04 2022-06-08 Sony Group Corporation Information processing device, method, and program
WO2021106054A1 (en) * 2019-11-25 2021-06-03 ジャパンエレベーターサービスホールディングス株式会社 Security camera apparatus and security camera apparatus control program

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5454992B2 (en) * 2008-01-18 2014-03-26 株式会社日立製作所 Video network system
JP4893649B2 (en) * 2008-02-08 2012-03-07 富士通株式会社 Bandwidth control server, bandwidth control program, and monitoring system
JP2011114580A (en) * 2009-11-26 2011-06-09 Panasonic Corp Multiple cameras monitoring system, mobile terminal apparatus, center apparatus, and method for monitoring multiple cameras
US10229327B2 (en) * 2012-12-10 2019-03-12 Nec Corporation Analysis control system
JP2014143477A (en) * 2013-01-22 2014-08-07 Canon Inc Imaging system
JP6286394B2 (en) * 2015-07-24 2018-02-28 セコム株式会社 Image surveillance system

Also Published As

Publication number Publication date
JP2018170573A (en) 2018-11-01

Similar Documents

Publication Publication Date Title
JP6696615B2 (en) Monitoring system, monitoring method, and recording medium storing monitoring program
US9607501B2 (en) Systems and methods for providing emergency resources
JP2019036872A (en) Search support device, search support method and search support system
US9615015B2 (en) Systems methods for camera control using historical or predicted event data
JP6941457B2 (en) Monitoring system
US20150062334A1 (en) Systems and Methods for Image Capture and Distribution in Venues
WO2017002240A1 (en) Monitoring system, photography-side device, and verification-side device
WO2021068553A1 (en) Monitoring method, apparatus and device
JP2012216102A (en) Image storage system
CN104010161A (en) System and method to create evidence of an incident in video surveillance system
JP2017152964A (en) Monitoring device and program therefor
KR101840300B1 (en) Apparatus and method for searching cctv image
WO2017115586A1 (en) Monitoring device, control method, and program
KR20210041337A (en) Control system and control device for patrol and moving out, and operation method thereof
KR101954951B1 (en) Multi image displaying method
JP6941458B2 (en) Monitoring system
JP2021158673A (en) Tracking support device, terminal, tracking support system, tracking support method and program
KR101842564B1 (en) Focus image surveillant method for multi images, Focus image managing server for the same, Focus image surveillant system for the same, Computer program for the same and Recording medium storing computer program for the same
US11188034B2 (en) System for monitoring and influencing objects of interest and processes carried out by the objects, and corresponding method
JP2019040368A (en) Image search assisting device and image search assisting method
TW202046710A (en) Information processing device
JP2006115006A (en) Individual video image photographing and distributing apparatus, and individual video image photographing and distributing method and program
KR102074448B1 (en) Festival unmanned management system using drones
JP2018173985A (en) Congestion degree estimation system and electric apparatus
WO2022091297A1 (en) Spectator monitoring device, spectator monitoring system, spectator monitoring method, and non-transitory computer-readable medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200324

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210202

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210331

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210831

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210906

R150 Certificate of patent or registration of utility model

Ref document number: 6941457

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150