JP7107596B2 - Station monitoring system and station monitoring method - Google Patents

Station monitoring system and station monitoring method Download PDF

Info

Publication number
JP7107596B2
JP7107596B2 JP2020538275A JP2020538275A JP7107596B2 JP 7107596 B2 JP7107596 B2 JP 7107596B2 JP 2020538275 A JP2020538275 A JP 2020538275A JP 2020538275 A JP2020538275 A JP 2020538275A JP 7107596 B2 JP7107596 B2 JP 7107596B2
Authority
JP
Japan
Prior art keywords
image
captured image
transmission
captured
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020538275A
Other languages
Japanese (ja)
Other versions
JPWO2020039897A1 (en
Inventor
実 向谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ongakukan Co Ltd
Original Assignee
Ongakukan Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ongakukan Co Ltd filed Critical Ongakukan Co Ltd
Publication of JPWO2020039897A1 publication Critical patent/JPWO2020039897A1/en
Application granted granted Critical
Publication of JP7107596B2 publication Critical patent/JP7107596B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B61RAILWAYS
    • B61LGUIDING RAILWAY TRAFFIC; ENSURING THE SAFETY OF RAILWAY TRAFFIC
    • B61L23/00Control, warning or like safety means along the route or between vehicles or trains
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Mechanical Engineering (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Train Traffic Observation, Control, And Security (AREA)

Description

本発明は、駅監視システム及び駅監視方法に関する。 The present invention relates to a station monitoring system and a station monitoring method.

特許文献1には、監視装置が複数の映像配信装置のそれぞれから駅のプラットホームを撮影した映像を受信して、受信した複数の映像を合成した映像を表示させる技術が記載されている。 Patent Literature 1 describes a technique in which a monitoring device receives video images of a station platform from each of a plurality of video distribution devices, and displays a video image obtained by synthesizing the received video images.

また、映像に特定のオブジェクトが表れているか否かの判定や映像内において特定のオブジェクトが表れている領域の特定などといった映像解析を行える映像解析システムも知られている。 Also known is a video analysis system that can perform video analysis such as determining whether a specific object appears in a video or not, and identifying an area in the video where a specific object appears.

特開2014-192844号公報JP 2014-192844 A

駅のプラットホームを撮影した映像の解像度が高いほど当該映像の解析精度は高くなる。ここで例えば白杖を持った人物や補助犬などが駅のプラットホームにいるかどうかの判定や白杖を持った人物や補助犬が当該映像内において表れている領域の特定などといった精細な解析を行う場合は、解像度が高い映像を解析する必要がある。 The higher the resolution of the image of the station platform, the higher the accuracy of analysis of the image. Here, for example, detailed analysis is performed, such as determining whether a person with a white cane or an assistance dog is on the station platform, and specifying the area where a person with a white cane or an assistance dog appears in the image. In that case, it is necessary to analyze images with high resolution.

一方で、解像度が高い映像が送信されるとネットワークに負荷がかかる。 On the other hand, when high-resolution video is transmitted, the load is placed on the network.

本発明は上記課題に鑑みてなされたものであって、その目的の1つは、駅のプラットホームを撮影した映像の解析精度を確保しつつ送信によりかかるネットワークの負荷を低減できる駅監視システム及び駅監視方法を提供することにある。 SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and one of its objects is to provide a station monitoring system and a station monitoring system capable of reducing the load on the network due to transmission while ensuring the analysis accuracy of the video of the station platform. It is to provide a monitoring method.

本発明に係る駅監視システムは、監視装置と複数の送信装置とを含む、駅のプラットホームを監視する駅監視システムであって、前記複数の送信装置のそれぞれは、当該送信装置が設置されているプラットホームを撮影した撮影映像を取得する撮影映像取得手段と、前記撮影映像に基づいて、当該撮影映像に所与のオブジェクトが表れているか否かを判定する判定手段と、前記撮影映像と前記判定の結果とに基づいて、前記撮影映像を低解像度化した低解像度映像と前記判定の結果とを示す送信データを生成する送信データ生成手段と、前記送信データを前記監視装置に送信する送信手段と、を含み、前記監視装置は、それぞれ互いに異なる前記送信装置から送信される複数の前記送信データを受信する受信手段と、前記複数の前記送信データのうちの少なくとも1つが示す前記判定の結果が表された、前記複数の前記送信データのそれぞれが示す前記低解像度映像を合成した合成映像を生成する合成映像生成手段と、前記合成映像を表示させる表示制御手段と、を含む。 A station monitoring system according to the present invention is a station monitoring system for monitoring a station platform, including a monitoring device and a plurality of transmitting devices, wherein each of the plurality of transmitting devices is provided with the transmitting device. a captured image acquiring means for acquiring a captured image of the platform; a determination means for determining whether or not a given object appears in the captured image based on the captured image; transmission data generating means for generating transmission data indicating a low-resolution image obtained by reducing the resolution of the captured image and the result of the determination based on the result; transmission means for transmitting the transmission data to the monitoring device; and the monitoring device includes receiving means for receiving a plurality of transmission data transmitted from the transmission devices different from each other, and a result of the determination indicated by at least one of the plurality of transmission data. Further, it includes synthetic image generating means for generating a synthetic image obtained by synthesizing the low-resolution images indicated by each of the plurality of transmission data, and display control means for displaying the synthetic image.

本発明の一態様では、前記監視装置は、前記送信装置に前記撮影映像の送信要求を送信する送信要求手段、をさらに含み、前記送信装置の前記送信手段は、前記送信要求の受信に応じて、前記撮影映像を前記監視装置に送信し、前記監視装置の前記表示制御手段は、前記撮影映像の受信に応じて当該撮影映像を表示させる。 In one aspect of the present invention, the monitoring device further includes transmission request means for transmitting a transmission request for the captured image to the transmission device, and the transmission means of the transmission device responds to reception of the transmission request. and transmitting the captured image to the monitoring device, and the display control means of the monitoring device displays the captured image in response to receiving the captured image.

あるいは、前記監視装置は、前記送信装置に前記撮影映像の送信要求を送信する送信要求手段、をさらに含み、前記送信装置の前記送信手段は、前記送信要求の受信に応じて、前記撮影映像と前記判定の結果とを示す代替送信データを前記監視装置に送信し、前記監視装置の前記表示制御手段は、前記代替送信データの受信に応じて、当該代替送信データが示す前記判定の結果が表された、当該代替送信データが示す前記撮影映像を表示させる。 Alternatively, the monitoring device further includes transmission request means for transmitting a transmission request for the captured image to the transmission device, and the transmission means of the transmission device transmits the captured image and the alternative transmission data indicating the determination result is transmitted to the monitoring apparatus, and the display control means of the monitoring apparatus displays the determination result indicated by the alternative transmission data in response to reception of the alternative transmission data. The photographed image indicated by the alternative transmission data that has been received is displayed.

また、本発明の一態様では、前記監視装置の前記合成映像生成手段は、前記送信データが示す前記判定の結果が当該送信データを送信する前記送信装置に対応付けられる番線に進入する車両の状況に応じた態様で表された前記合成映像を生成する。 Further, in one aspect of the present invention, the synthetic image generation means of the monitoring device may determine the situation of a vehicle entering a track whose determination result indicated by the transmission data is associated with the transmission device that transmits the transmission data. to generate the composite image represented in a manner according to .

また、本発明の一態様では、前記送信装置の前記判定手段は、前記撮影映像に含まれるフレーム画像に対する画像認識処理を実行することによって当該フレーム画像内において前記オブジェクトが表れている領域を特定する画像認識手段と、前記撮影映像に含まれるフレーム画像内において前記オブジェクトが表れている領域を、当該フレーム画像よりも前に撮影されたフレーム画像について前記画像認識手段が特定した前記領域を追尾することにより特定する追尾手段と、を含む。 Further, in one aspect of the present invention, the determination means of the transmission device specifies an area in which the object appears in the frame image by executing image recognition processing on the frame image included in the captured image. an image recognition means, and tracking the area in which the object appears in the frame image included in the captured image, the area specified by the image recognition means in the frame image captured before the frame image. and a tracking means identified by

また、本発明の一態様では、前記送信装置は、前記オブジェクトの検出に応じて撮影される当該オブジェクトが検出された場所の画像である参照撮影画像を取得する参照撮影画像取得手段、をさらに含み、前記送信装置の前記判定手段は、前記参照撮影画像と前記撮影映像とに基づいて、当該撮影映像に前記オブジェクトが表れているか否かを判定する。 In one aspect of the present invention, the transmission device further includes reference captured image acquisition means for acquiring a reference captured image, which is an image of a location where the object is detected, captured in response to detection of the object. and the determination means of the transmission device determines whether or not the object appears in the captured image based on the reference captured image and the captured image.

この態様では、前記参照撮影画像取得手段は、前記オブジェクトの検出に応じて互いに異なる方向から撮影される複数の前記参照撮影画像を取得し、前記送信装置の前記判定手段は、複数の前記参照撮影画像と前記撮影映像とに基づいて、当該撮影映像に前記オブジェクトが表れているか否かを判定してもよい。 In this aspect, the reference captured image acquisition means acquires a plurality of reference captured images captured from different directions in response to detection of the object, and the determination means of the transmission device obtains a plurality of the reference captured images. Based on the image and the captured video, it may be determined whether the object appears in the captured video.

また、この態様では、前記送信装置の前記判定手段は、前記参照撮影画像に対する画像認識処理を実行することによって特定される、当該参照撮影画像内において前記オブジェクトが表れている領域を用いて、前記撮影映像に含まれるフレーム画像に対する画像認識処理を実行することによって、当該フレーム画像内において前記オブジェクトが表れている領域を特定する画像認識手段、を含んでいてもよい。 Further, in this aspect, the determination means of the transmission device uses an area in which the object appears in the reference captured image, which is specified by executing image recognition processing on the reference captured image, to determine the An image recognition means may be included for specifying an area in which the object appears in the frame image by executing image recognition processing on the frame image included in the captured image.

あるいは、前記送信装置の前記判定手段は、前記参照撮影画像に対する画像認識処理を実行することによって当該参照撮影画像内において前記オブジェクトが表れている領域を特定する画像認識手段と、前記撮影映像に含まれるフレーム画像内において前記オブジェクトが表れている領域を、前記参照撮影画像について前記画像認識手段が特定した前記領域を追尾することにより特定する追尾手段と、を含んでいてもよい。 Alternatively, the determination means of the transmission device may include image recognition means for specifying an area in which the object appears in the reference captured image by executing image recognition processing on the reference captured image, and tracking means for identifying an area in which the object appears in the captured frame image by tracking the area identified by the image recognition means for the reference captured image.

また、本発明に係る駅監視方法は、駅のホームを監視する駅監視方法であって、複数の送信装置のそれぞれが、当該送信装置が設置されているプラットホームを撮影した撮影映像を取得するステップと、前記複数の送信装置のそれぞれが、前記撮影映像に基づいて、当該撮影映像に所与のオブジェクトが表れているか否かを判定するステップと、前記複数の送信装置のそれぞれが、前記撮影映像と前記判定の結果とに基づいて、前記撮影映像を低解像度化した低解像度映像と前記判定の結果とを示す送信データを生成するステップと、前記複数の送信装置のそれぞれが、前記送信データを監視装置に送信するステップと、前記監視装置が、それぞれ互いに異なる前記送信装置から送信される複数の前記送信データを受信するステップと、前記監視装置が、前記複数の前記送信データのうちの少なくとも1つが示す前記判定の結果が表された、前記複数の前記送信データのそれぞれが示す前記低解像度映像を合成した合成映像を生成するステップと、前記監視装置が、前記合成映像を表示させるステップと、を含む。 Further, a station monitoring method according to the present invention is a station monitoring method for monitoring a platform of a station, wherein each of a plurality of transmitting devices obtains a captured image of the platform on which the transmitting device is installed. and each of the plurality of transmission devices determines whether or not a given object appears in the captured image based on the captured image; and each of the plurality of transmission devices determines the captured image. a step of generating transmission data indicating a low-resolution image obtained by lowering the resolution of the captured image and the result of the determination based on the result of the determination; transmitting to a monitoring device; receiving, by the monitoring device, a plurality of transmission data transmitted from the transmission devices different from each other; and receiving at least one of the plurality of transmission data by the monitoring device. a step of generating a synthesized image obtained by synthesizing the low-resolution images indicated by each of the plurality of transmission data, in which the result of the determination indicated by one is expressed; and a step of the monitoring device displaying the synthesized image; including.

本発明の一実施形態に係る駅監視システムの全体構成の一例を示す図である。It is a figure showing an example of the whole station surveillance system composition concerning one embodiment of the present invention. 本発明の一実施形態に係る映像送信システムの構成の一例を示す図である。1 is a diagram showing an example of the configuration of a video transmission system according to one embodiment of the present invention; FIG. 撮影画像の一例を示す図である。It is a figure which shows an example of a picked-up image. 撮影画像の一例を示す図である。It is a figure which shows an example of a picked-up image. 領域特定結果画像の一例を示す図である。FIG. 11 is a diagram showing an example of an area identification result image; 撮影画像の一例を示す図である。It is a figure which shows an example of a picked-up image. 領域特定結果画像の一例を示す図である。FIG. 11 is a diagram showing an example of an area identification result image; 撮影画像の撮影、撮影画像に対する画像認識、及び、ターゲット領域の追尾の関係の一例を模式的に示す図である。FIG. 4 is a diagram schematically showing an example of the relationship between capturing of a captured image, image recognition of the captured image, and tracking of a target area; 合成画像の一例を示す図である。It is a figure which shows an example of a synthetic image. 合成画像の一例を示す図である。It is a figure which shows an example of a synthetic image. 駅と車両との関係の一例を模式的に示す図である。It is a figure which shows typically an example of the relationship between a station and a vehicle. 合成画像の一例を示す図である。It is a figure which shows an example of a synthetic image. 駅と車両との関係の一例を模式的に示す図である。It is a figure which shows typically an example of the relationship between a station and a vehicle. 本発明の一実施形態に係る駅監視システムの機能の一例を示す機能ブロック図である。It is a functional block diagram showing an example of a function of a station monitoring system concerning one embodiment of the present invention. 本発明の一実施形態に係る映像送信システムで行われる処理の流れの一例を示すフロー図である。FIG. 2 is a flow diagram showing an example of the flow of processing performed in the video transmission system according to one embodiment of the present invention; 本発明の一実施形態に係る中央監視装置で行われる処理の流れの一例を示すフロー図である。It is a flow diagram showing an example of the flow of processing performed by the central monitoring device according to one embodiment of the present invention. 参照撮影画像の一例を示す図である。It is a figure which shows an example of a reference picked-up image. 参照撮影画像の一例を示す図である。It is a figure which shows an example of a reference picked-up image. 領域特定結果画像の一例を示す図である。FIG. 11 is a diagram showing an example of an area identification result image; 領域特定結果画像の一例を示す図である。FIG. 11 is a diagram showing an example of an area identification result image;

以下、本発明の一実施形態について図面に基づき詳細に説明する。 An embodiment of the present invention will be described in detail below with reference to the drawings.

図1は、本発明の一実施形態に係る駅監視システム1の全体構成の一例を示す図である。図1に示すように、本実施形態に係る駅監視システム1には、中央監視装置10、及び、複数の映像送信システム12、が含まれている。 FIG. 1 is a diagram showing an example of the overall configuration of a station monitoring system 1 according to one embodiment of the present invention. As shown in FIG. 1, a station monitoring system 1 according to this embodiment includes a central monitoring device 10 and a plurality of video transmission systems 12. As shown in FIG.

中央監視装置10と、複数の映像送信システム12とは、インターネット等のコンピュータネットワーク14に接続されている。そのため、中央監視装置10と映像送信システム12とはコンピュータネットワーク14を介して互いに通信可能となっている。 A central monitoring device 10 and a plurality of video transmission systems 12 are connected to a computer network 14 such as the Internet. Therefore, the central monitoring device 10 and the video transmission system 12 can communicate with each other via the computer network 14 .

中央監視装置10は、例えばパーソナルコンピュータなどのコンピュータである。図1に示すように中央監視装置10には、プロセッサ10a、記憶部10b、通信部10c、全体監視モニタ10d、及び、個別監視モニタ10eが含まれる。 The central monitoring device 10 is, for example, a computer such as a personal computer. As shown in FIG. 1, the central monitoring device 10 includes a processor 10a, a storage unit 10b, a communication unit 10c, an overall monitor 10d, and an individual monitor 10e.

プロセッサ10aは、例えば、中央監視装置10にインストールされるプログラムに従って動作するCPU等のプログラム制御デバイスである。記憶部10bは、ROMやRAM等の記憶素子やハードディスクドライブなどである。記憶部10bには、プロセッサ10aによって実行されるプログラムなどが記憶される。通信部10cは、例えば映像送信システム12との間でデータを授受するためのネットワークボードなどの通信インタフェースである。中央監視装置10は、通信部10cを経由して映像送信システム12との間で情報の送受信を行う。全体監視モニタ10d、及び、個別監視モニタ10eは、例えば、液晶ディスプレイ等の表示デバイスであって、プロセッサ10aの指示に従って各種の画像を表示する。 The processor 10 a is, for example, a program-controlled device such as a CPU that operates according to a program installed in the central monitoring device 10 . The storage unit 10b is a storage element such as ROM or RAM, a hard disk drive, or the like. The storage unit 10b stores programs and the like executed by the processor 10a. The communication unit 10c is a communication interface such as a network board for exchanging data with the video transmission system 12, for example. The central monitoring device 10 transmits and receives information to and from the video transmission system 12 via the communication section 10c. The overall monitor 10d and the individual monitor 10e are display devices such as liquid crystal displays, and display various images according to instructions from the processor 10a.

図2は、本実施形態に係る映像送信システム12の構成の一例を示す図である。図2に示すように、本実施形態に係る映像送信システム12には、カメラ20と、映像解析装置22と、ダウンコンバータ24と、プラットホームモニタ26と、駅舎モニタ28と、が含まれている。本実施形態に係る映像解析装置22は、カメラ20、ダウンコンバータ24、駅舎モニタ28と接続されている。また本実施形態に係るカメラ20は、プラットホームモニタ26と接続されている。 FIG. 2 is a diagram showing an example of the configuration of the video transmission system 12 according to this embodiment. As shown in FIG. 2, the video transmission system 12 according to this embodiment includes a camera 20, a video analysis device 22, a down converter 24, a platform monitor 26, and a station monitor 28. A video analysis device 22 according to this embodiment is connected to the camera 20 , the down converter 24 , and the station building monitor 28 . The camera 20 according to this embodiment is also connected to a platform monitor 26 .

カメラ20は、例えばデジタルカメラなどの撮影デバイスである。プラットホームモニタ26、及び、駅舎モニタ28は、例えば、液晶ディスプレイ等の表示デバイスである。ダウンコンバータ24は、例えば受け付ける映像を低解像度化して出力する機器である。 The camera 20 is, for example, a photographing device such as a digital camera. The platform monitor 26 and the station building monitor 28 are display devices such as liquid crystal displays, for example. The down-converter 24 is, for example, a device that reduces the resolution of received video and outputs it.

映像解析装置22は、例えばパーソナルコンピュータなどのコンピュータである。図2に示すように、本実施形態に係る映像解析装置22には、プロセッサ22a、記憶部22b、通信部22c、が含まれる。プロセッサ22aは、例えば、映像解析装置22にインストールされるプログラムに従って動作するCPU等のプログラム制御デバイスである。記憶部22bは、ROMやRAM等の記憶素子やハードディスクドライブなどである。記憶部22bには、プロセッサ22aによって実行されるプログラムなどが記憶される。通信部22cは、例えば中央監視装置10との間でデータを授受するためのネットワークボードなどの通信インタフェースである。映像解析装置22は、通信部22cを経由して中央監視装置10との間で情報の送受信を行う。 The video analysis device 22 is, for example, a computer such as a personal computer. As shown in FIG. 2, the video analysis device 22 according to this embodiment includes a processor 22a, a storage unit 22b, and a communication unit 22c. The processor 22a is, for example, a program-controlled device such as a CPU that operates according to a program installed in the video analysis device 22. FIG. The storage unit 22b is a storage element such as ROM or RAM, a hard disk drive, or the like. The storage unit 22b stores programs and the like executed by the processor 22a. The communication unit 22c is a communication interface such as a network board for exchanging data with the central monitoring device 10, for example. The video analysis device 22 transmits and receives information to and from the central monitoring device 10 via the communication unit 22c.

以下、一例として、駅監視システム1に、9個の映像送信システム12(12a~12i)が含まれる場合について説明する。なお、駅監視システム1に含まれる映像送信システム12の数はもちろん9個には限定されない。 As an example, a case where the station monitoring system 1 includes nine video transmission systems 12 (12a to 12i) will be described below. Of course, the number of video transmission systems 12 included in the station monitoring system 1 is not limited to nine.

図3は、本実施形態に係る映像送信システム12eに含まれるカメラ20が生成する、駅のプラットホーム30等の監視対象を撮影した撮影映像に含まれる1つのフレーム画像の一例を示す図である。以下、撮影映像に含まれるフレーム画像を撮影画像32と呼ぶこととする。図4は、当該撮影映像に含まれる別の1つの撮影画像32の一例を示す図である。本実施形態では例えば、カメラ20が所定のフレームレートで撮影画像32を生成する。そしてここでは例えば、図3に示す撮影画像32が生成されたフレームよりも後のフレームにおいて、図4に示す撮影画像32が生成されることとする。 FIG. 3 is a diagram showing an example of one frame image included in a captured image of a monitoring target such as a station platform 30, which is generated by the camera 20 included in the image transmission system 12e according to the present embodiment. A frame image included in the captured video is hereinafter referred to as a captured image 32 . FIG. 4 is a diagram showing an example of another photographed image 32 included in the photographed video. In this embodiment, for example, the camera 20 generates the captured image 32 at a predetermined frame rate. Here, for example, the captured image 32 shown in FIG. 4 is generated in a frame subsequent to the frame in which the captured image 32 shown in FIG. 3 was generated.

本実施形態では例えば、9個の映像送信システム12(12a~12i)のそれぞれにおいて、当該映像送信システム12に含まれるカメラ20により撮影映像が生成される。カメラ20により生成される撮影映像は、当該カメラ20が監視するプラットホーム30に設置されたプラットホームモニタ26に表示されてもよい。 In this embodiment, for example, in each of the nine video transmission systems 12 (12a to 12i), the captured video is generated by the camera 20 included in the video transmission system 12 concerned. The captured image generated by the camera 20 may be displayed on the platform monitor 26 installed on the platform 30 monitored by the camera 20 .

以下の説明では、9個の映像送信システム12(12a~12i)のそれぞれは、互いに異なる駅に配置されており、1つの駅では1つのカメラ20によって当該駅のプラットホーム30が監視されることとする。 In the following explanation, each of the nine video transmission systems 12 (12a to 12i) is arranged at different stations, and one camera 20 monitors the platform 30 of the station. do.

そして本実施形態では例えば、映像解析装置22において撮影画像32に対して公知の画像認識技術による画像認識処理が実行され、当該撮影画像32に所与のオブジェクトが表れているか否かが判定される。なお当該画像認識処理が、学習済の機械学習モデルを用いて実行されてもよい。以下、当該所与のオブジェクトをターゲットオブジェクト34と呼ぶこととする。ターゲットオブジェクト34の例としては、白杖を持った人物や、盲導犬や聴導犬等の補助犬など、重点的に注意を向けることが望ましいオブジェクトが挙げられる。なおターゲットオブジェクト34は、1つの種類のオブジェクトである必要はなく、複数の種類のオブジェクトであっても構わない。 In this embodiment, for example, the image analysis device 22 performs image recognition processing on the captured image 32 using a known image recognition technology, and determines whether or not a given object appears in the captured image 32. . Note that the image recognition processing may be executed using a learned machine learning model. The given object is hereinafter referred to as the target object 34 . Examples of the target object 34 include objects to which it is desirable to focus attention, such as a person with a white cane and assistance dogs such as guide dogs and hearing dogs. Note that the target object 34 does not have to be one type of object, and may be multiple types of objects.

ここで図3に示す撮影画像32には、ターゲットオブジェクト34は表れていない。一方、図4に示す撮影画像32には、ターゲットオブジェクト34が表れている。そのため図3に示す撮影画像32についてはターゲットオブジェクト34が表されていないと判定され、図4に示す撮影画像32についてはターゲットオブジェクト34が表れていると判定される。 Here, the target object 34 does not appear in the captured image 32 shown in FIG. On the other hand, a target object 34 appears in the captured image 32 shown in FIG. Therefore, it is determined that the target object 34 does not appear in the captured image 32 shown in FIG. 3, and that the target object 34 appears in the captured image 32 shown in FIG.

そして本実施形態では例えば、ターゲットオブジェクト34が表れていると判定された撮影画像32については、ターゲットオブジェクト34が表れている領域が特定される。以下、ターゲットオブジェクト34が表れている領域をターゲット領域と呼ぶこととする。 Then, in the present embodiment, for example, with respect to the photographed image 32 in which the target object 34 is determined to appear, the area where the target object 34 appears is specified. Hereinafter, the area where the target object 34 appears will be referred to as the target area.

そして本実施形態では例えば、ターゲット領域を示すターゲット領域情報が生成される。図5は、ターゲット領域情報の一例である領域特定結果画像36の一例を示す図である。図5に示す領域特定結果画像36では、図4に示す撮影画像32にターゲットオブジェクト34を囲む枠状のターゲット領域画像38が重畳されている。 Then, in this embodiment, for example, target area information indicating the target area is generated. FIG. 5 is a diagram showing an example of an area identification result image 36, which is an example of target area information. In the area identification result image 36 shown in FIG. 5, a frame-shaped target area image 38 surrounding the target object 34 is superimposed on the photographed image 32 shown in FIG.

図6は、図4に示す撮影画像32が生成されたフレームよりも後のフレームにおいてカメラ20によって生成される撮影画像32の一例を示す図である。図6に示す撮影画像32についてもターゲットオブジェクト34が表れている。 FIG. 6 is a diagram showing an example of a captured image 32 generated by the camera 20 in a frame subsequent to the frame in which the captured image 32 shown in FIG. 4 was generated. A target object 34 also appears in the captured image 32 shown in FIG.

ここで例えば、映像解析装置22において、図4に示す撮影画像32に対する画像認識処理において特定されたターゲット領域を追尾する公知の追尾処理を実行することによって、図6に示す撮影画像32内におけるターゲット領域が特定されてもよい。そしてこのようにして特定されるターゲット領域を示す、図7に例示する領域特定結果画像36が生成されてもよい。図7に示す領域特定結果画像36では、図6に示す撮影画像32にターゲットオブジェクト34を囲む枠状のターゲット領域画像38が重畳されている。 Here, for example, in the video analysis device 22, by executing a known tracking process for tracking the target area specified in the image recognition process for the captured image 32 shown in FIG. 4, the target in the captured image 32 shown in FIG. A region may be identified. A region identification result image 36 illustrated in FIG. 7 may then be generated, which indicates the target region identified in this way. In the area identification result image 36 shown in FIG. 7, a frame-shaped target area image 38 surrounding the target object 34 is superimposed on the photographed image 32 shown in FIG.

図8は、16個のフレームに着目した、本実施形態における、撮影画像32の撮影、撮影画像32に対する画像認識、及び、ターゲット領域の追尾の関係の一例を模式的に示す図である。以下、当該16個のフレームを、第1フレーム~第16フレームと呼ぶこととする。 FIG. 8 is a diagram schematically showing an example of the relationship between the photographing of the photographed image 32, the image recognition of the photographed image 32, and the tracking of the target region in this embodiment, focusing on 16 frames. The 16 frames are hereinafter referred to as the 1st to 16th frames.

本実施形態では例えば、上述の画像認識処理が、機械学習モデルを用いて実装されており、その処理の実行には時間がかかることとする。一方、上述の追尾処理は、ターゲット領域内の画素の画素値の分布などといった特徴量を用いたパターンマッチング技術などによって実装されており、上述の画像認識処理よりも1つの画像に対する処理の実行時間が短いこととする。以下の説明では、一例として、1つの撮影画像32に対する画像認識処理には、3フレームに相当する時間がかかることとし、1つの撮影画像32に対する追尾処理には、1フレームに相当する時間よりも短い時間しかかからないこととする。 In this embodiment, for example, the image recognition processing described above is implemented using a machine learning model, and it takes time to execute the processing. On the other hand, the tracking process described above is implemented by pattern matching technology using feature quantities such as the distribution of pixel values of pixels in the target area, and the execution time for one image is longer than the image recognition process described above. be short. In the following description, as an example, image recognition processing for one captured image 32 takes time equivalent to three frames, and tracking processing for one captured image 32 takes longer than the time equivalent to one frame. Assume that it takes only a short time.

図8では、第nフレームで撮影される撮影画像32がp(n)と表現されている(nは1以上16以下の整数)。また第nフレームで撮影される撮影画像32(p(n))に対する画像認識の結果は、r(p(n))と表現されている。例えば、図5に例示する領域特定結果画像36が、画像認識の結果r(p(n))の一例に相当する。 In FIG. 8, the captured image 32 captured in the n-th frame is expressed as p(n) (n is an integer from 1 to 16). The image recognition result for the captured image 32 (p(n)) captured in the n-th frame is expressed as r(p(n)). For example, the area identification result image 36 illustrated in FIG. 5 corresponds to an example of the image recognition result r(p(n)).

図8に示すように、第1フレームの撮影画像32(p(1))の画像認識の結果(r(p(1)))は、第4フレームの撮影画像32(p(4))の撮影タイミングに特定される。 As shown in FIG. 8, the image recognition result (r(p(1))) of the captured image 32 (p(1)) of the first frame is the result of the captured image 32 (p(4)) of the fourth frame. It is specified by the shooting timing.

そしてその後、本実施形態では例えば、第4フレームの撮影画像32(p(4))に対して画像認識が実行される。そして当該画像認識の結果(r(p(4)))は、第7フレームの撮影画像32(p(7))の撮影タイミングに特定される。 After that, in the present embodiment, for example, image recognition is performed on the captured image 32 (p(4)) of the fourth frame. The image recognition result (r(p(4))) is specified at the shooting timing of the shot image 32 (p(7)) of the seventh frame.

以下、同様にして、第10フレームの撮影画像32(p(10))に対する画像認識の結果(r(p(10)))は、第13フレームの撮影画像32(p(13))の撮影タイミングに特定される。また第13フレームの撮影画像32(p(13))に対する画像認識の結果(r(p(13)))は、第16フレームの撮影画像32(p(16))の撮影タイミングに特定される。 Similarly, the image recognition result (r(p(10))) for the captured image 32 (p(10)) of the 10th frame is obtained by capturing the captured image 32 (p(13)) of the 13th frame. specified in timing. The image recognition result (r(p(13))) for the captured image 32 (p(13)) of the 13th frame is specified at the capturing timing of the captured image 32 (p(16)) of the 16th frame. .

そして本実施形態では例えば、撮影画像32に対して、当該撮影画像32の撮影タイミングにおいて利用可能な最新の画像認識の結果によって特定されたターゲット領域を追尾する処理が実行されることで当該撮影画像32内におけるターゲット領域が特定される。例えば第4フレーム~第6フレームの撮影画像32(p(4)~p(6))については、第1フレームの撮影画像32に対する画像認識の結果(r(p(1)))によって特定されたターゲット領域を追尾する処理が実行される。この追尾処理の結果が、図8では、t(p(4),r(p(1)))、t(p(5),r(p(1)))、t(p(6),r(p(1)))と表現されている。例えば、図7に例示する領域特定結果画像36が、追尾処理の結果tの一例に相当する。 Then, in the present embodiment, for example, the captured image 32 is subjected to a process of tracking the target area specified by the latest image recognition result available at the timing of capturing the captured image 32. A target area within 32 is identified. For example, the captured images 32 (p(4) to p(6)) of the fourth to sixth frames are identified by the image recognition result (r(p(1))) of the captured image 32 of the first frame. A process of tracking the target area is executed. The results of this tracking process are t(p(4), r(p(1))), t(p(5), r(p(1))), t(p(6), It is expressed as r(p(1))). For example, the area identification result image 36 illustrated in FIG. 7 corresponds to an example of the result t of the tracking process.

同様にして、例えば第7フレーム~第9フレームの撮影画像32(p(7)~p(9))については、第4フレームの撮影画像32に対する画像認識の結果(r(p(4)))によって特定されたターゲット領域を追尾する処理が実行される。この追尾処理の結果が、図8では、t(p(7),r(p(4)))、t(p(8),r(p(4)))、t(p(9),r(p(4)))と表現されている。以下、同様にして、第10フレーム以降の撮影画像32についても、ターゲット領域を追尾する処理が実行される。 Similarly, for the captured images 32 (p(7) to p(9)) of the seventh to ninth frames, for example, the result of image recognition (r(p(4)) for the captured image 32 of the fourth frame is ) is executed to track the target area specified by the method. The results of this tracking process are t(p(7),r(p(4))), t(p(8),r(p(4))), t(p(9), It is expressed as r(p(4))). Thereafter, similarly, the process of tracking the target area is executed for the photographed images 32 of the tenth and subsequent frames.

本実施形態では以上のようにして、撮影画像32に対して当該撮影画像32の撮影タイミングにおいて利用可能な最新の画像認識の結果によって特定されたターゲット領域を追尾する処理が実行されることで当該撮影画像32内におけるターゲット領域が特定される。そのため本実施形態では、撮影画像32の撮影から短い時間で当該撮影画像32内におけるターゲット領域の特定が可能となる。 In the present embodiment, as described above, the process of tracking the target area specified by the latest image recognition result available at the timing of photographing the photographed image 32 is executed on the photographed image 32, so that the target region is tracked. A target area within the captured image 32 is identified. Therefore, in the present embodiment, it is possible to specify the target area in the captured image 32 in a short time after capturing the captured image 32 .

そして本実施形態では例えば、撮影映像を低解像度化した低解像度映像と当該撮影映像にターゲットオブジェクト34が表れているか否かの判定の結果とを示す送信データが生成される。 Then, in the present embodiment, for example, transmission data is generated that indicates a low-resolution image obtained by reducing the resolution of the captured image and the determination result of whether or not the target object 34 appears in the captured image.

ここで例えば、撮影画像32にターゲット領域画像38が重畳された、図7に示す領域特定結果画像36をダウンコンバータ24によって低解像度化した画像である低解像度画像をフレーム画像として含む映像が送信データとして生成されてもよい。この場合は、当該低解像度画像は、撮影映像を低解像度化した低解像度映像のフレーム画像でもあり、撮影画像32にターゲットオブジェクト34が表れているか否かの判定の結果を示す画像でもあることとなる。 Here, for example, an image including a low-resolution image, which is an image obtained by lowering the resolution of the area identification result image 36 shown in FIG. may be generated as In this case, the low-resolution image is also a frame image of a low-resolution video obtained by reducing the resolution of the captured video, and is also an image showing the result of determination as to whether or not the target object 34 appears in the captured image 32. Become.

また例えば、撮影映像を低解像度化した低解像度化映像と含むとともに、ヘッダ等に、撮影映像に含まれるそれぞれの撮影画像32についてのターゲットオブジェクト34が表れているか否かの判定の結果を示すフラグを含む送信データが生成されてもよい。この場合、当該低解像度映像は、撮影画像32を低解像度化した低解像度化画像をフレーム画像として含むこととなる。またこの場合は、送信データに含まれるフラグが、撮影映像にターゲットオブジェクト34が表れているか否かの判定の結果を示していることとなる。 Further, for example, a flag indicating whether or not the target object 34 for each captured image 32 included in the captured video is included in the header or the like while including the captured video as a low-resolution video that has been reduced in resolution. may be generated. In this case, the low-resolution video includes a low-resolution image obtained by reducing the resolution of the captured image 32 as a frame image. Also, in this case, the flag included in the transmission data indicates the result of determination as to whether or not the target object 34 appears in the captured image.

また例えば、撮影映像を低解像度化した低解像度化映像、及び、ターゲット領域情報を含む送信データが生成されてもよい。ここでターゲット領域情報は、例えば、低解像度化映像に含まれるフレーム画像である低解像度画像のうち、ターゲットオブジェクト34が表れている低解像度画像について、当該低解像度画像内におけるターゲット領域の位置や形状を示す情報であってもよい。例えばターゲット領域情報が、低解像度画像内におけるターゲット領域に相当する枠の4つの角の位置の座標値を示す情報であってもよい。またターゲット領域情報は、ターゲット領域画像38のような画像の形式の情報であってもよい。この場合は、送信データに含まれるターゲット領域情報が、撮影映像にターゲットオブジェクト34が表れているか否かの判定の結果を示していることとなる。 Further, for example, a low-resolution image obtained by reducing the resolution of a captured image and transmission data including target area information may be generated. Here, the target area information is, for example, the position and shape of the target area in the low-resolution image of the low-resolution image in which the target object 34 appears, among the low-resolution images that are frame images included in the low-resolution video. may be information indicating For example, the target area information may be information indicating the coordinate values of the four corner positions of the frame corresponding to the target area in the low-resolution image. The target area information may also be in the form of an image, such as target area image 38 . In this case, the target area information included in the transmission data indicates the determination result of whether or not the target object 34 appears in the captured image.

以下、撮影画像32、又は、当該撮影画像32とターゲット領域画像38とが重畳された領域特定結果画像36を低解像度化した低解像度画像を、当該撮影画像32に対応付けられる低解像度画像と呼ぶこととする。 Hereinafter, a low-resolution image obtained by lowering the resolution of the captured image 32 or the area identification result image 36 in which the captured image 32 and the target area image 38 are superimposed will be referred to as a low-resolution image associated with the captured image 32. It is assumed that

そして本実施形態ではこのようにして生成される送信データが中央監視装置10に送信される。同様にして、他の映像送信システム12(12a~12d、及び、12f~12i)からも、当該映像送信システム12で生成される送信データが中央監視装置10に送信される。 Then, in this embodiment, the transmission data generated in this manner is transmitted to the central monitoring device 10 . Similarly, the transmission data generated by the other video transmission systems 12 (12a to 12d and 12f to 12i) are transmitted to the central monitoring device 10 as well.

また本実施形態において例えば、撮影映像、又は、低解像度映像が、駅舎に設置された駅舎モニタ28に表示されてもよい。ここで駅舎モニタ28に表示される映像に含まれるフレーム画像にターゲット領域が示されていてもよい。例えば、一連の領域特定結果画像36をフレーム画像として含む映像が駅舎モニタ28に表示されてもよい。 Further, in this embodiment, for example, a captured image or a low-resolution image may be displayed on the station building monitor 28 installed in the station building. Here, the target area may be shown in the frame image included in the video displayed on the station building monitor 28 . For example, an image including a series of area identification result images 36 as frame images may be displayed on the station building monitor 28 .

本実施形態では例えば、中央監視装置10が、複数の映像送信システム12(12a~12i)のそれぞれから送信される上述の送信データを受信する。 In this embodiment, for example, the central monitoring device 10 receives the above transmission data transmitted from each of the plurality of video transmission systems 12 (12a to 12i).

そして中央監視装置10において、当該複数の送信データに基づいて、当該複数の送信データのうちの少なくとも1つが示す上述の判定の結果が表された、当該複数の送信データのそれぞれが示す低解像度映像を合成した合成映像が生成される。そして生成された合成映像が全体監視モニタ10dに表示される。図9及び図10は、それぞれ、合成映像に含まれる1つのフレーム画像である合成画像40の一例を示す図である。 Then, in the central monitoring device 10, based on the plurality of transmission data, a low-resolution image indicated by each of the plurality of transmission data, which represents the result of the determination indicated by at least one of the plurality of transmission data. A composite video is generated by combining the Then, the generated synthetic image is displayed on the general monitoring monitor 10d. 9 and 10 are diagrams each showing an example of a composite image 40, which is one frame image included in a composite video.

図9には、受信するすべての送信データにおいてターゲットオブジェクト34が表れていないことが上述の判定の結果として示されている場合における合成画像40の一例が示されている。図10には、受信する2つの送信データにおいてターゲットオブジェクト34が表れていることが上述の判定の結果として示されている場合における合成画像40の一例が示されている。 FIG. 9 shows an example of the composite image 40 when the result of the above determination indicates that the target object 34 does not appear in all of the received transmission data. FIG. 10 shows an example of a composite image 40 when the target object 34 appears in the two pieces of received transmission data as a result of the determination described above.

合成画像40には、例えばそれぞれ互いに異なる映像送信システム12に対応付けられる複数の個別画像領域42が含まれている。図9及び図10に例示されている合成画像40には、9個の映像送信システム12(12a~12i)にそれぞれ対応付けられる、9つの個別画像領域42(42a~42i)が含まれている。ここで例えば、図3、図4、及び、図6に示す撮影画像32を撮影したカメラ20を含む映像送信システム12eは、個別画像領域42eに対応付けられることとなる。 Composite image 40 includes, for example, a plurality of individual image regions 42 each associated with a different video transmission system 12 . The composite image 40 illustrated in FIGS. 9 and 10 includes nine individual image regions 42 (42a-42i) respectively associated with nine video transmission systems 12 (12a-12i). . Here, for example, the video transmission system 12e including the camera 20 that captured the captured images 32 shown in FIGS. 3, 4, and 6 is associated with the individual image area 42e.

本実施形態では例えば、映像送信システム12から受信した送信データが示す低解像度映像に含まれるフレーム画像である低解像度画像が、当該映像送信システム12に対応付けられる個別画像領域42に配置される。 In this embodiment, for example, a low-resolution image, which is a frame image included in the low-resolution video indicated by the transmission data received from the video transmission system 12, is arranged in the individual image area 42 associated with the video transmission system 12.

そして本実施形態では例えば、中央監視装置10が、複数の個別画像領域42のそれぞれについて、当該個別画像領域42に配置される低解像度画像に対応付けられる撮影画像32にターゲットオブジェクト34が表れているか否かの判定の結果を特定する。ここで例えば、送信データに含まれるフラグに基づいて、当該判定の結果が特定されてもよい。また例えば、撮影画像32を低解像度化した低解像度画像内におけるターゲット領域の位置や形状を示すターゲット領域情報が送信データに含まれている場合に、当該撮影画像32にターゲットオブジェクト34が表れていると判定されてもよい。また例えば、送信データが示す低解像度画像からターゲット領域画像38を検出する処理が実行されるようにしてもよい。そしてターゲット領域画像38が検出できた場合に、当該低解像度画像が低解像度化される前の撮影画像32にターゲットオブジェクト34が表れていると判定されてもよい。 In this embodiment, for example, the central monitoring device 10 determines whether the target object 34 appears in the captured image 32 associated with the low-resolution image arranged in each individual image area 42 for each of the plurality of individual image areas 42. Specifies the result of the determination of whether or not. Here, for example, the determination result may be specified based on a flag included in the transmission data. Further, for example, when the transmission data includes target area information indicating the position and shape of the target area in the low-resolution image obtained by reducing the resolution of the captured image 32, the target object 34 appears in the captured image 32. may be determined. Further, for example, a process of detecting the target area image 38 from the low-resolution image indicated by the transmission data may be executed. Then, when the target area image 38 can be detected, it may be determined that the target object 34 appears in the captured image 32 before the resolution of the low-resolution image is reduced.

そして本実施形態では例えば、上述の判定の結果が表された合成画像40が生成される。ここで例えば、配置される低解像度画像に対応付けられる撮影画像32にターゲットオブジェクト34が表れていると判定された個別画像領域42を囲む枠状の判定識別画像44が重畳された合成画像40が生成されてもよい。図10には、一例として、個別画像領域42eを囲む判定識別画像44a、及び、個別画像領域42gを囲む判定識別画像44bが示されている。 Then, in this embodiment, for example, a composite image 40 representing the result of the determination described above is generated. Here, for example, a composite image 40 superimposed on a frame-shaped determination identification image 44 surrounding an individual image region 42 in which it is determined that the target object 34 appears in the photographed image 32 associated with the arranged low-resolution image. may be generated. FIG. 10 shows, as an example, a judgment identification image 44a surrounding the individual image region 42e and a judgment identification image 44b surrounding the individual image region 42g.

また本実施形態では例えば、図10に示すように、低解像度画像内においてターゲットオブジェクト34が表れているターゲット領域が、当該低解像度画像が配置される個別画像領域42に示される。ここで例えば、図10に示すように、領域特定結果画像46がターゲット領域を表す情報として個別画像領域42に示されるようにしてもよい。ここで領域特定結果画像46は、例えば、領域特定結果画像36を低解像度化した画像であってもよい。あるいは、領域特定結果画像46は、例えば、ターゲット領域情報が示す座標値によって表現される位置を角とする枠状の画像であってもよい。 Further, in the present embodiment, for example, as shown in FIG. 10, the target area in which the target object 34 appears in the low-resolution image is indicated in the individual image area 42 in which the low-resolution image is arranged. Here, for example, as shown in FIG. 10, the area identification result image 46 may be shown in the individual image area 42 as information representing the target area. Here, the area identification result image 46 may be an image obtained by lowering the resolution of the area identification result image 36, for example. Alternatively, the region identification result image 46 may be, for example, a frame-shaped image whose corners are the positions represented by the coordinate values indicated by the target region information.

また本実施形態において例えば、送信データに対応付けられる番線に進入する車両の状況に基づいて、映像の監視の優先度が決定されてもよい。ここで送信データに対応付けられる番線とは、例えば、送信データを送信する映像送信システム12が配置されている駅にある番線や、送信データを送信する映像送信システム12のカメラ20によって監視されるプラットホーム30に隣接する番線などを意味する。なお1つのカメラ20に1つの番線が対応付けられてもよいし、1つのカメラ20に複数の番線が対応付けられてもよい。また、撮影画像32にターゲットオブジェクト34が表れていると判定された個別画像領域42について、映像の監視の優先度が決定されるようにしてもよい。 Further, in the present embodiment, for example, the priority of video monitoring may be determined based on the situation of vehicles entering the track number associated with the transmission data. Here, the track number associated with the transmission data is, for example, the track number at the station where the video transmission system 12 that transmits the transmission data is located, or the track that is monitored by the camera 20 of the video transmission system 12 that transmits the transmission data. It means a numbered track adjacent to the platform 30 or the like. One camera 20 may be associated with one numbered line, or one camera 20 may be associated with a plurality of numbered lines. Also, the priority of video monitoring may be determined for the individual image region 42 in which it is determined that the target object 34 appears in the captured image 32 .

以下、映像の監視の優先度の決定の一例について説明する。 An example of determining the priority of video monitoring will be described below.

図11には、9個の映像送信システム12(12a~12i)のそれぞれが配置されている駅と、これらの駅の間を運行する車両との関係の一例が模式的に示されている。図11には、9個の映像送信システム12(12a~12i)が配置されている駅にそれぞれ対応付けられる9つの駅オブジェクト50(50a~50i)と、運行する車両に対応付けられる4つの車両オブジェクト52(52a~52d)が示されている。また図11には、車両の進行方向が矢印で表現されている。ここでは例えば、図10に例示する合成画像40に対応付けられる撮影画像32の撮影タイミングにおける車両の位置が、車両オブジェクト52の位置として図11に示されていることとする。 FIG. 11 schematically shows an example of the relationship between stations in which nine video transmission systems 12 (12a to 12i) are arranged and vehicles operating between these stations. FIG. 11 shows nine station objects 50 (50a to 50i) each associated with a station where nine video transmission systems 12 (12a to 12i) are arranged, and four vehicles associated with running vehicles. Objects 52 (52a-52d) are shown. Further, in FIG. 11, the traveling direction of the vehicle is represented by an arrow. Here, for example, it is assumed that the position of the vehicle at the shooting timing of the shot image 32 associated with the composite image 40 illustrated in FIG. 10 is shown in FIG. 11 as the position of the vehicle object 52 .

ここで例えば、駅オブジェクト50eと車両オブジェクト52cとの間の長さは、駅オブジェクト50gと車両オブジェクト52dとの間の長さよりも短い。このことは、映像送信システム12eが配置されている駅と当該駅に接近する車両との間の距離が、映像送信システム12gが配置されている駅と当該駅に接近する車両との間の距離よりも短いことを意味する。例えばこのような場合に、映像送信システム12eに含まれるカメラ20により撮影される映像の監視の優先度が、映像送信システム12gに含まれるカメラ20により撮影される映像の監視の優先度よりも高いと決定されてもよい。 Here, for example, the length between the station object 50e and the vehicle object 52c is shorter than the length between the station object 50g and the vehicle object 52d. This means that the distance between the station where the video transmission system 12e is located and the vehicle approaching the station is the distance between the station where the video transmission system 12g is located and the vehicle approaching the station. means shorter than For example, in such a case, the priority of monitoring the video captured by the camera 20 included in the video transmission system 12e is higher than the priority of monitoring the video captured by the camera 20 included in the video transmission system 12g. may be determined.

図10には、以上のようにして決定された映像の監視の優先度に応じた態様の判定識別画像44が合成画像40に配置される。なお本実施形態では、映像の監視の優先度に応じた態様が予め定められていることとする。例えば、最も優先度が高い態様が判定識別画像44aのような塗りつぶされた模様で、次に優先度が高い態様が判定識別画像44bのようなハッチの模様であることとする。そのため図10の例では、判定識別画像44aは、個別画像領域42eを囲むよう配置され、判定識別画像44bは、個別画像領域42gを囲むよう配置されることとなる。 In FIG. 10, the judgment identification image 44 in a form corresponding to the priority of video monitoring determined as described above is arranged in the composite image 40 . In the present embodiment, it is assumed that a mode corresponding to the priority of video monitoring is determined in advance. For example, the aspect with the highest priority is a solid pattern such as the judgment identification image 44a, and the aspect with the second highest priority is the hatched pattern such as the judgment identification image 44b. Therefore, in the example of FIG. 10, the judgment identification image 44a is arranged so as to surround the individual image region 42e, and the judgment identification image 44b is arranged so as to surround the individual image region 42g.

なお、以上の例では、送信データに対応付けられる番線がある駅と車両との間の距離に基づいて、映像の監視の優先度が決定された。ここで例えば、送信データに対応付けられる番線に車両が到着するまでの推定時間に基づいて、映像の監視の優先度が決定されてもよい。例えば当該推定時間が短いものほど優先度が高く決定されてもよい。 In the above example, the priority of video monitoring is determined based on the distance between the vehicle and the station having the track number associated with the transmission data. Here, for example, the priority of video monitoring may be determined based on the estimated time until the vehicle arrives at the track number associated with the transmission data. For example, a shorter estimated time may be determined with a higher priority.

また例えば、送信データに対応付けられる番線を通過する際の車両の速度に基づいて、映像の監視の優先度が決定されてもよい。例えば当該速度が速いものほど優先度が高く決定されてもよい。 Also, for example, the priority of video monitoring may be determined based on the speed of the vehicle when it passes through the numbered track associated with the transmission data. For example, the higher the speed, the higher the priority may be determined.

また例えば、送信データに対応付けられる番線に進入する際の車両の乗客の属性に基づいて、映像の監視の優先度が決定されてもよい。ここで車両の乗客の属性の例としては、車いすを使用している、補助犬を連れている、などの属性が挙げられる。ここで例えば、次に番線に進入する車両に車いすを使用している乗客や補助犬を連れている乗客がいる場合は、そうでない場合よりも優先度が高く決定されてもよい。 Further, for example, the priority of video monitoring may be determined based on attributes of passengers of vehicles entering a track number associated with transmission data. Examples of vehicle passenger attributes include attributes such as using a wheelchair and having an assistance dog. Here, for example, if there is a passenger using a wheelchair or a passenger with an assistance dog in the next vehicle entering the track, the priority may be determined to be higher than otherwise.

また映像の監視の優先度に応じた態様は図10に示すような模様には限定されない。例えば、映像の監視の優先度に応じた色の判定識別画像44が合成画像40に配置されてもよい。また例えば、映像の監視の優先度に応じた大きさの個別画像領域42が合成画像40内に配置されてもよい。この場合例えば、優先度が高いほど大きな個別画像領域42が合成画像40に配置されてもよい。 Also, the mode corresponding to the priority of video monitoring is not limited to the pattern shown in FIG. For example, the judgment identification image 44 having a color corresponding to the priority of video monitoring may be arranged in the synthesized image 40 . Further, for example, an individual image area 42 having a size corresponding to the priority of video monitoring may be arranged in the composite image 40 . In this case, for example, the higher the priority, the larger the individual image area 42 may be arranged in the composite image 40 .

以上で説明した車両の状況は、例えば、公知の運行管理システムによって管理されていてもよい。そして、中央監視装置10は、運行管理システムから取得する各種のデータに基づいて、上述した距離、推定時間、速度、乗客の属性、などといった車両の状況を特定してもよい。また本実施形態において、距離、推定時間、速度、乗客の属性のうちの複数の組合せに基づいて、映像の監視の優先度が決定されてもよい。 The vehicle conditions described above may be managed by, for example, a known operation management system. Then, the central monitoring device 10 may specify vehicle conditions such as the above-described distance, estimated time, speed, attributes of passengers, and the like, based on various data acquired from the operation management system. Also, in this embodiment, video monitoring priority may be determined based on a combination of multiple of distance, estimated time, speed, and passenger attributes.

また本実施形態において、中央監視装置10は、映像送信システム12に、撮影映像の送信要求を送信してもよい。例えば、合成画像40を監視している監視者(中央監視装置10のユーザ)による個別画像領域42を指定する操作に応じて、当該個別画像領域42に対応付けられる送信データの送信元である映像送信システム12に、撮影映像の送信要求が送信されてもよい。また例えば、映像の監視の優先度に基づいて決定される映像送信システム12に撮影映像の送信要求が送信されてもよい。例えば監視の優先度が最も高い映像を撮影するカメラ20を含む映像送信システム12に撮影映像の送信要求が送信されてもよい。 Further, in the present embodiment, the central monitoring device 10 may transmit a transmission request for the captured image to the image transmission system 12 . For example, in response to an operation of designating an individual image area 42 by an observer (user of the central monitoring device 10) who is monitoring the composite image 40, an image that is the transmission source of transmission data associated with the individual image area 42 is displayed. A transmission request for the captured image may be transmitted to the transmission system 12 . Further, for example, a transmission request for the captured video may be transmitted to the video transmission system 12 determined based on the priority of video monitoring. For example, a transmission request for a captured image may be transmitted to the image transmission system 12 including the camera 20 that captures the image with the highest monitoring priority.

そして撮影映像の送信要求を受信した映像送信システム12は、当該送信要求に応じて撮影映像を中央監視装置10に送信してもよい。そして中央監視装置10は、受信した撮影映像を個別監視モニタ10eに表示させてもよい。このようにすれば監視者が高解像度の撮影映像を中央監視装置10において詳細に監視できることとなる。 The video transmission system 12 that has received the transmission request for the captured video may transmit the captured video to the central monitoring device 10 in response to the transmission request. Then, the central monitoring device 10 may display the received captured image on the individual monitoring monitor 10e. In this way, the supervisor can monitor the high-resolution captured image in detail on the central monitoring device 10 .

ここで例えば、映像送信システム12は、送信要求の受信に応じて、撮影映像と上述の判定の結果とを示す代替送信データを中央監視装置10に送信してもよい。そして中央監視装置10は、代替送信データが示す上述の判定の結果が表された、当該代替送信データが示す撮影映像を個別監視モニタ10eに表示させてもよい。ここで例えば、撮影映像に含まれる撮影画像32に基づいて生成される領域特定結果画像36をフレーム画像として含む映像が代替送信データとして映像送信システム12から中央監視装置10に送信されるようにしてもよい。そして当該映像が個別監視モニタ10eに表示されるようにしてもよい。 Here, for example, the video transmission system 12 may transmit, to the central monitoring device 10, alternative transmission data indicating the captured video and the result of the determination described above in response to the reception of the transmission request. Then, the central monitoring device 10 may cause the individual monitoring monitor 10e to display the photographed image indicated by the alternative transmission data, which indicates the result of the determination indicated by the alternative transmission data. Here, for example, a video including an area identification result image 36 generated based on the captured image 32 included in the captured video as a frame image is transmitted from the video transmission system 12 to the central monitoring device 10 as the alternative transmission data. good too. Then, the image may be displayed on the individual monitoring monitor 10e.

撮影映像の解像度が高いほど当該撮影映像の解析精度は高くなる。ここで例えば白杖を持った人物や補助犬などがプラットホーム30にいるかどうかの判定や白杖を持った人物や補助犬が撮影映像内において表れている領域の特定などといった精細な解析を行う場合は、解像度が高い映像を解析する必要がある。一方で、解像度が高い撮影映像が映像送信システム12から中央監視装置10に送信されるとコンピュータネットワーク14に負荷がかかる。 The higher the resolution of the captured image, the higher the analysis accuracy of the captured image. Here, for example, when performing a detailed analysis such as determining whether a person with a white cane or an assistance dog is on the platform 30 or specifying an area in which a person with a white cane or an assistance dog appears in the captured image. needs to analyze high-resolution video. On the other hand, when a captured image with high resolution is transmitted from the image transmission system 12 to the central monitoring device 10, the computer network 14 is overloaded.

本実施形態では、映像の解析は高解像度の撮影映像に対して実行されるので、映像の解析精度は確保される。また送信される映像は低解像度映像なので、コンピュータネットワーク14の負荷は軽減できる。このようにして本実施形態によれば、駅のプラットホーム30を撮影した映像の解析精度を確保しつつ送信によりかかるコンピュータネットワーク14の負荷を低減できることとなる。 In the present embodiment, video analysis is performed on high-resolution captured video, so video analysis accuracy is ensured. Also, since the image to be transmitted is a low-resolution image, the load on the computer network 14 can be reduced. In this way, according to the present embodiment, it is possible to reduce the load on the computer network 14 due to transmission while ensuring the accuracy of analysis of the image of the platform 30 of the station.

以上の説明では、撮影画像32にターゲットオブジェクト34が表れていると判定された個別画像領域42について、映像の監視の優先度が決定されるようにした。ここで例えば、撮影画像32にターゲットオブジェクト34が表れていると判定されたか否かに関係なく、すべての個別画像領域42について、映像の監視の優先度が決定されてもよい。 In the above description, the priority of video monitoring is determined for the individual image region 42 in which it is determined that the target object 34 appears in the captured image 32 . Here, for example, regardless of whether or not it is determined that the target object 34 appears in the captured image 32, the priority of video monitoring may be determined for all the individual image regions 42. FIG.

図12は、合成画像40の別の一例を示す図である。図13は、9個の映像送信システム12(12a~12i)のそれぞれが配置されている駅と、これらの駅の間を運行する車両との関係の別の一例が模式的に示されている。また図13には、車両の進行方向が矢印で表現されている。図13には、図12に例示する合成画像40に対応付けられる撮影画像32の撮影タイミングにおける車両の位置が、車両オブジェクト52の位置として示されていることとする。 FIG. 12 is a diagram showing another example of the composite image 40. As shown in FIG. FIG. 13 schematically shows another example of the relationship between stations in which nine video transmission systems 12 (12a to 12i) are respectively arranged and vehicles operating between these stations. . Further, in FIG. 13, the traveling direction of the vehicle is represented by an arrow. In FIG. 13 , the position of the vehicle at the timing of capturing the captured image 32 associated with the composite image 40 illustrated in FIG. 12 is shown as the position of the vehicle object 52 .

ここで図13に示すように、駅オブジェクト50gと車両オブジェクト52dとの間の長さは、駅オブジェクト50cと車両オブジェクト52bとの間の長さよりも短い。また駅オブジェクト50fと車両オブジェクト52cとの間の長さは、駅オブジェクト50gと車両オブジェクト52dとの間の長さよりも短い。また駅オブジェクト50bと車両オブジェクト52aとの間の長さは、駅オブジェクト50fと車両オブジェクト52cとの間の長さよりも短い。例えばこのような場合に、映像の監視の優先度が高い方から順に、個別画像領域42b、個別画像領域42f、個別画像領域42g、個別画像領域42cと決定されてもよい。 Here, as shown in FIG. 13, the length between the station object 50g and the vehicle object 52d is shorter than the length between the station object 50c and the vehicle object 52b. Also, the length between the station object 50f and the vehicle object 52c is shorter than the length between the station object 50g and the vehicle object 52d. Also, the length between the station object 50b and the vehicle object 52a is shorter than the length between the station object 50f and the vehicle object 52c. For example, in such a case, the individual image area 42b, the individual image area 42f, the individual image area 42g, and the individual image area 42c may be determined in descending order of video monitoring priority.

図12には、以上のようにして決定された映像の監視の優先度に応じた態様の判定識別画像44が示されている。なお本実施形態では、映像の監視の優先度に応じた態様が予め定められていることとする。例えば、最も優先度が高い態様が判定識別画像44aのような塗りつぶされた模様で、次に優先度が高い態様が判定識別画像44bのようなハッチの模様で、その次に優先度が高い態様が判定識別画像44cのような白抜きの模様であることとする。また優先度が4番目以降である個別画像領域42には、判定識別画像44が配置されないこととする。そのため図12の例では、判定識別画像44aは、個別画像領域42bを囲むよう配置され、判定識別画像44bは、個別画像領域42fを囲むよう配置され、判定識別画像44cは、個別画像領域42gを囲むよう配置されることとなる。 FIG. 12 shows the determination identification image 44 in a manner corresponding to the priority of video monitoring determined as described above. In the present embodiment, it is assumed that a mode corresponding to the priority of video monitoring is determined in advance. For example, the aspect with the highest priority is a solid pattern such as the judgment identification image 44a, the aspect with the second highest priority is the hatched pattern such as the judgment identification image 44b, and the aspect with the second highest priority. is a white pattern like the judgment identification image 44c. Also, it is assumed that the judgment identification image 44 is not arranged in the individual image area 42 having the fourth priority or higher. Therefore, in the example of FIG. 12, the judgment identification image 44a is arranged to surround the individual image region 42b, the judgment identification image 44b is arranged to surround the individual image region 42f, and the judgment identification image 44c is arranged to surround the individual image region 42g. It will be arranged so as to surround it.

なお、以上の例では、送信データに対応付けられる番線がある駅と車両との間の距離に基づいて、映像の監視の優先度が決定された。ここで例えば、上述したように、番線に車両が到着するまでの推定時間、番線を通過する際の車両の速度、番線に進入する際の車両の乗客の属性、などに基づいて、映像の監視の優先度が決定されてもよい。また上述したように、映像の監視の優先度に応じた態様は図12に示すような模様には限定されない。 In the above example, the priority of video monitoring is determined based on the distance between the vehicle and the station having the track number associated with the transmission data. Here, for example, as described above, video monitoring is performed based on the estimated time until the vehicle arrives at the track number, the speed of the vehicle when passing the track number, the attributes of the passengers of the vehicle when entering the track number, etc. may be determined. Also, as described above, the mode corresponding to the priority of video monitoring is not limited to the pattern shown in FIG.

合成映像に表れている個々の映像の監視の優先度は様々であるにも関わらず、優先度が合成映像に表れていないと重点的に監視すべき部分を監視者が容易に認識できない。 In spite of the fact that the individual images appearing in the composite image have different priorities for monitoring, the observer cannot easily recognize the portion to be monitored intensively unless the priority appears in the composite image.

本実施形態によれば、以上のようにすることで、表示されている合成映像から重点的に監視すべき部分を監視者が容易に認識できることとなる。 According to the present embodiment, by doing as described above, the observer can easily recognize the part to be monitored intensively from the displayed synthesized image.

以下、本実施形態に係る駅監視システム1の機能、並びに、本実施形態に係る駅監視システム1で実行される処理についてさらに説明する。 The functions of the station monitoring system 1 according to this embodiment and the processing executed by the station monitoring system 1 according to this embodiment will be further described below.

図14は、駅のプラットホーム30を監視する本実施形態に係る駅監視システム1に含まれる、中央監視装置10、及び、映像送信システム12で実装される機能の一例を示す機能ブロック図である。なお、本実施形態に係る中央監視装置10、及び、映像送信システム12で、図14に示す機能のすべてが実装される必要はなく、また、図14に示す機能以外の機能が実装されていても構わない。 FIG. 14 is a functional block diagram showing an example of functions implemented in the central monitoring device 10 and the video transmission system 12 included in the station monitoring system 1 according to this embodiment for monitoring the station platform 30. Note that the central monitoring device 10 and the video transmission system 12 according to the present embodiment need not implement all the functions shown in FIG. 14, and functions other than the functions shown in FIG. I don't mind.

図14に示すように、本実施形態に係る中央監視装置10には、機能的には例えば、送信データ受信部60、映像取得部62、車両状況データ取得部64、監視優先度決定部66、合成映像生成部68、撮影映像送信要求部70、撮影映像受信部72、表示制御部74、が含まれる。送信データ受信部60、撮影映像送信要求部70、撮影映像受信部72は、通信部10cを主として実装される。映像取得部62、車両状況データ取得部64、監視優先度決定部66、合成映像生成部68は、プロセッサ10aを主として実装される。表示制御部74は、プロセッサ10a、全体監視モニタ10d、及び、個別監視モニタ10eを主として実装される。中央監視装置10は、本実施形態における、駅のプラットホーム30を監視する駅監視装置としての役割を担うこととなる。 As shown in FIG. 14, the central monitoring device 10 according to the present embodiment functionally includes, for example, a transmission data receiving unit 60, an image acquisition unit 62, a vehicle status data acquisition unit 64, a monitoring priority determination unit 66, A composite image generation unit 68, a captured image transmission request unit 70, a captured image reception unit 72, and a display control unit 74 are included. The transmission data reception unit 60, the captured image transmission request unit 70, and the captured image reception unit 72 are mainly implemented by the communication unit 10c. The video acquisition unit 62, the vehicle status data acquisition unit 64, the monitoring priority determination unit 66, and the composite video generation unit 68 are mainly implemented by the processor 10a. The display control unit 74 is mainly implemented by the processor 10a, the general monitoring monitor 10d, and the individual monitoring monitor 10e. The central monitoring device 10 serves as a station monitoring device that monitors the station platform 30 in this embodiment.

以上の機能は、コンピュータである中央監視装置10にインストールされた、以上の機能に対応する指令を含むプログラムをプロセッサ10aで実行することにより実装されてもよい。このプログラムは、例えば、光ディスク、磁気ディスク、磁気テープ、光磁気ディスク、フラッシュメモリ等のコンピュータ読み取り可能な情報記憶媒体を介して、あるいは、インターネットなどを介して中央監視装置10に供給されてもよい。 The functions described above may be implemented by causing the processor 10a to execute a program containing commands corresponding to the functions described above, which is installed in the central monitoring device 10, which is a computer. This program may be supplied to the central monitoring device 10 via a computer-readable information storage medium such as an optical disk, magnetic disk, magnetic tape, magneto-optical disk, flash memory, etc., or via the Internet or the like. .

図14に示すように、本実施形態に係る映像送信システム12には、機能的には例えば、撮影映像取得部80、判定部82、送信データ生成部84、送信データ送信部86、送信要求受信部88、撮影映像送信部90、が含まれる。また判定部82には、画像認識部82aと、追尾部82bと、が含まれる。撮影映像取得部80は、カメラ20、及び、映像解析装置22のプロセッサ22aを主として実装される。判定部82は、映像解析装置22のプロセッサ22aを主として実装される。送信データ生成部84は、映像解析装置22のプロセッサ22a、通信部22c、及び、ダウンコンバータ24を主として実装される。送信データ送信部86、送信要求受信部88、撮影映像送信部90は、映像解析装置22の通信部22cを主として実装される。本実施形態に係る映像解析装置22は、送信データを中央監視装置10に送信する送信装置としての役割を担うこととなる。 As shown in FIG. 14 , the video transmission system 12 according to the present embodiment includes functionally, for example, a photographed video acquisition unit 80, a determination unit 82, a transmission data generation unit 84, a transmission data transmission unit 86, a transmission request reception unit, A unit 88 and a captured video transmission unit 90 are included. The determination unit 82 also includes an image recognition unit 82a and a tracking unit 82b. The captured image acquisition unit 80 is mainly implemented by the camera 20 and the processor 22 a of the image analysis device 22 . The determination unit 82 is mainly implemented by the processor 22 a of the video analysis device 22 . The transmission data generation unit 84 is mainly implemented by the processor 22a, the communication unit 22c, and the down converter 24 of the video analysis device 22. FIG. The transmission data transmission unit 86 , the transmission request reception unit 88 , and the captured video transmission unit 90 are mainly implemented in the communication unit 22 c of the video analysis device 22 . The video analysis device 22 according to this embodiment serves as a transmission device that transmits transmission data to the central monitoring device 10 .

以上の機能は、コンピュータである映像解析装置22にインストールされた、以上の機能に対応する指令を含むプログラムをプロセッサ22aで実行することにより実装されてもよい。このプログラムは、例えば、光ディスク、磁気ディスク、磁気テープ、光磁気ディスク、フラッシュメモリ等のコンピュータ読み取り可能な情報記憶媒体を介して、あるいは、インターネットなどを介して映像解析装置22に供給されてもよい。 The functions described above may be implemented by causing the processor 22a to execute a program containing instructions corresponding to the functions described above, which is installed in the video analysis device 22, which is a computer. This program may be supplied to the video analysis device 22 via a computer-readable information storage medium such as an optical disk, magnetic disk, magnetic tape, magneto-optical disk, flash memory, etc., or via the Internet or the like. .

また、送信データ生成部84が、ダウンコンバータ24等のハードウェア及び映像解析装置22で動作するソフトウェアで実装されてもよい。また、送信データ生成部84が、ダウンコンバータ24等のハードウェアのみ、あるいは、映像解析装置22で動作するソフトウェアのみにより実装されてもよい。 Also, the transmission data generator 84 may be implemented by hardware such as the down converter 24 and software that operates on the video analysis device 22 . Also, the transmission data generator 84 may be implemented only by hardware such as the down converter 24 or only by software that operates on the video analysis device 22 .

送信データ受信部60は、本実施形態では例えば、それぞれ互いに異なる映像送信システム12から送信される複数の上述の送信データを受信する。ここで上述のように、送信データには、撮影映像を低解像度化した低解像度映像と当該撮影映像にターゲットオブジェクト34が表れているか否かの判定の結果とが示されている。 In this embodiment, for example, the transmission data receiving unit 60 receives a plurality of pieces of transmission data transmitted from the video transmission systems 12 different from each other. As described above, the transmission data includes the low-resolution image obtained by reducing the resolution of the captured image and the determination result of whether or not the target object 34 appears in the captured image.

映像取得部62は、本実施形態では例えば、それぞれ互いに異なる監視対象の様子を表す複数の映像を取得する。ここで映像取得部62は、送信データ受信部60が受信する複数の送信データのそれぞれが示す低解像度映像を取得してもよい。 In the present embodiment, for example, the image acquisition unit 62 acquires a plurality of images representing different states of the monitored object. Here, the image acquisition unit 62 may acquire low resolution images indicated by each of the plurality of transmission data received by the transmission data reception unit 60 .

以上の説明では、1つのプラットホーム30は1つのカメラ20によって撮影されていた。ここで例えば1つのプラットホーム30の互いに異なる部分がそれぞれ別のカメラ20によって撮影されてもよい。この場合、1つのカメラ20によって撮影されるプラットホーム30の一部と、別のカメラ20によって撮影される当該プラットホーム30の別の一部とは、互いに異なる監視対象であることとなる。また1つのカメラ20によって複数のプラットホーム30が撮影されてもよい。この場合、当該複数のプラットホーム30が1つの監視対象に相当することとなる。 In the above explanation, one platform 30 was photographed by one camera 20 . Here, for example, different parts of one platform 30 may be photographed by different cameras 20, respectively. In this case, a part of the platform 30 photographed by one camera 20 and another part of the platform 30 photographed by another camera 20 are different monitoring targets. Also, a plurality of platforms 30 may be photographed by one camera 20 . In this case, the plurality of platforms 30 correspond to one monitoring target.

車両状況データ取得部64は、本実施形態では例えば、監視対象の様子を表す映像に対応付けられる番線に進入する車両の状況を示す車両状況データを取得する。ここで上述のように、車両状況データ取得部64は、公知の運行管理システムから車両状況データを取得してもよい。 In this embodiment, for example, the vehicle status data acquisition unit 64 acquires vehicle status data indicating the status of a vehicle entering a track associated with an image representing the state of a monitored object. Here, as described above, the vehicle condition data acquisition unit 64 may acquire vehicle condition data from a known operation management system.

監視優先度決定部66は、本実施形態では例えば、監視対象の様子を表す映像に対応付けられる番線に進入する車両の状況に基づいて、当該映像の監視の優先度を決定する。ここで例えば、車両状況データ取得部64が取得する車両状況データに基づいて、映像の監視の優先度が決定されてもよい。 In this embodiment, the monitoring priority determining unit 66 determines the monitoring priority of the image based on the situation of the vehicle entering the track associated with the image representing the state of the object to be monitored. Here, for example, the priority of video monitoring may be determined based on the vehicle status data acquired by the vehicle status data acquisition unit 64 .

上述のように、監視優先度決定部66は、監視対象の様子を表す映像に対応付けられる番線がある駅と車両との間の距離に基づいて、当該番線に対応付けられる映像の監視の優先度を決定してもよい。 As described above, the monitoring priority determining unit 66 prioritizes the monitoring of the video associated with the track number based on the distance between the vehicle and the station having the track number associated with the video representing the state of the monitoring target. degree can be determined.

また、監視優先度決定部66は、監視対象の様子を表す映像に対応付けられる番線に車両が到着するまでの推定時間に基づいて、当該番線に対応付けられる映像の監視の優先度を決定してもよい。 In addition, the monitoring priority determination unit 66 determines the monitoring priority of the video associated with the track number based on the estimated time until the vehicle arrives at the track number associated with the video representing the state of the monitored object. may

また、監視優先度決定部66は、監視対象の様子を表す映像に対応付けられる番線を通過する際の車両の速度に基づいて、当該番線に対応付けられる映像の監視の優先度を決定してもよい。 In addition, the monitoring priority determination unit 66 determines the monitoring priority of the video associated with the track number based on the speed of the vehicle when it passes through the track number associated with the video representing the state of the monitoring target. good too.

また、監視優先度決定部66は、監視対象の様子を表す映像に対応付けられる番線に進入する車両の乗客の属性に基づいて、当該番線に対応付けられる映像の監視の優先度を決定してもよい。 In addition, the monitoring priority determining unit 66 determines the monitoring priority of the video associated with the track number based on the attributes of the passengers of the vehicle entering the track number associated with the video representing the state of the monitored object. good too.

また、監視優先度決定部66は、上述の距離、推定時間、速度、乗客の属性のうちの複数の組合せに基づいて、映像の監視の優先度を決定してもよい。 Moreover, the monitoring priority determining unit 66 may determine the priority of video monitoring based on a plurality of combinations of the aforementioned distance, estimated time, speed, and passenger attributes.

合成映像生成部68は、本実施形態では例えば、それぞれ互いに異なる監視対象の様子を表す複数の映像を合成した合成映像を生成する。ここで合成映像生成部68は、映像の監視の優先度が表された合成映像を生成してもよい。 In the present embodiment, for example, the synthetic image generation unit 68 generates a synthetic image by synthesizing a plurality of images each showing a state of a monitoring target different from each other. Here, the composite video generation unit 68 may generate a composite video that expresses the priority of video monitoring.

また合成映像生成部68は、複数の送信データのそれぞれが示す低解像度映像を合成した合成映像を生成してもよい。ここで合成映像生成部68は、映像取得部62が取得する映像を合成した合成映像を生成してもよい。また合成映像生成部68は、複数の送信データのうちの少なくとも1つが示す上述の判定の結果が表された合成映像を生成してもよい。また合成映像生成部68は、複数の送信データのそれぞれが示す上述の判定の結果が当該送信データを送信する映像送信システム12に対応付けられる番線に進入する車両の状況に応じた態様で表された合成映像を生成してもよい。 Alternatively, the composite image generation unit 68 may generate a composite image by combining low-resolution images indicated by each of a plurality of pieces of transmission data. Here, the composite image generation unit 68 may generate a composite image by combining the images acquired by the image acquisition unit 62 . Also, the synthetic image generation unit 68 may generate a synthetic image that represents the result of the above determination indicated by at least one of the plurality of pieces of transmission data. In addition, the synthesized image generation unit 68 expresses the result of the above determination indicated by each of the plurality of transmission data in a manner according to the situation of the vehicle entering the track associated with the image transmission system 12 that transmits the transmission data. may generate a composite image.

撮影映像送信要求部70は、本実施形態では例えば、映像送信システム12に当該映像送信システム12が設置されているプラットホーム30を撮影した撮影映像の送信要求を送信する。ここで例えば監視者等のユーザによって指定された映像送信システム12に撮影映像の送信要求が送信されてもよい。また例えば、映像の監視の優先度に基づいて決定される映像送信システム12に撮影映像の送信要求が送信されてもよい。ここで例えば監視の優先度が最も高い映像を撮影するカメラ20を含む映像送信システム12に撮影映像の送信要求が送信されてもよい。 In this embodiment, for example, the captured video transmission request unit 70 transmits a transmission request for a captured video of the platform 30 on which the video transmission system 12 is installed to the video transmission system 12 . Here, for example, a transmission request for the captured image may be transmitted to the image transmission system 12 designated by the user such as the supervisor. Further, for example, a transmission request for the captured video may be transmitted to the video transmission system 12 determined based on the priority of video monitoring. Here, for example, a transmission request for the captured image may be transmitted to the image transmission system 12 including the camera 20 that captures the image with the highest monitoring priority.

撮影映像受信部72は、本実施形態では例えば、撮影映像の送信要求の受信に応じて映像送信システム12が送信する撮影映像を受信する。 In the present embodiment, for example, the captured image receiving unit 72 receives captured images transmitted by the image transmission system 12 in response to reception of a transmission request for captured images.

表示制御部74は、本実施形態では例えば、合成映像生成部68が生成する合成映像を表示させる。また表示制御部74は、本実施形態では例えば、撮影映像受信部72が受信する撮影映像を表示させる。上述の例では表示制御部74は、合成映像を全体監視モニタ10dに表示させ、撮影映像を個別監視モニタ10eに表示させる。 In this embodiment, the display control unit 74 displays the composite image generated by the composite image generation unit 68, for example. Further, in the present embodiment, the display control unit 74 displays the captured image received by the captured image receiving unit 72, for example. In the above example, the display control unit 74 causes the overall monitoring monitor 10d to display the composite image and the individual monitoring monitor 10e to display the captured image.

また表示制御部74は、複数の撮影映像を切替表示させてもよい。例えば監視の優先度の高い複数の撮影映像が、自動的に所定の時間ずつ繰り返し切替表示されるようにしてもよい。また撮影映像送信要求部70が、表示の切替タイミングに応じて、撮影映像の送信要求の送信先である映像送信システム12を変更するようにしてもよい。 The display control unit 74 may switch and display a plurality of shot images. For example, a plurality of shot images having a high monitoring priority may be automatically switched and displayed repeatedly for a predetermined period of time. In addition, the captured image transmission request unit 70 may change the image transmission system 12, which is the transmission destination of the captured image transmission request, according to the switching timing of the display.

撮影映像取得部80は、本実施形態では例えば、監視対象を撮影した撮影映像を取得する。ここで例えば、映像送信システム12が設置されているプラットホーム30を撮影した撮影映像が取得されてもよい。 In this embodiment, the captured image acquisition unit 80 acquires, for example, a captured image of a monitoring target. Here, for example, a captured image of the platform 30 on which the image transmission system 12 is installed may be acquired.

判定部82は、本実施形態では例えば、撮影映像取得部80が取得する撮影映像に基づいて、当該撮影映像に所与のオブジェクトが表れているか否かを判定する。ここで例えば上述のターゲットオブジェクト34が当該所与のオブジェクトに相当する。 In this embodiment, for example, the determination unit 82 determines whether or not a given object appears in the captured image based on the captured image acquired by the captured image acquisition unit 80 . Here, for example, the target object 34 described above corresponds to the given object.

画像認識部82aは、本実施形態では例えば、撮影画像32に対する画像認識処理を実行することによって当該撮影画像32内においてターゲットオブジェクト34が表れている領域を特定する。 In this embodiment, for example, the image recognition unit 82a specifies an area in which the target object 34 appears in the captured image 32 by executing image recognition processing on the captured image 32 .

追尾部82bは、本実施形態では例えば、撮影画像32内においてターゲットオブジェクト34が表れている領域を、当該撮影画像32よりも前に撮影された撮影画像32について画像認識部82aが特定した領域を追尾することにより特定する。 In the present embodiment, the tracking unit 82b detects, for example, the area where the target object 34 appears in the captured image 32, and the area specified by the image recognition unit 82a for the captured image 32 captured before the captured image 32. Identify by tracking.

送信データ生成部84は、本実施形態では例えば、撮影映像と上述の判定の結果とに基づいて、当該撮影映像を低解像度化した低解像度映像と当該判定の結果とを示す送信データを生成する。 In the present embodiment, for example, the transmission data generation unit 84 generates transmission data indicating a low-resolution image obtained by lowering the resolution of the captured image and the determination result based on the captured image and the above determination result. .

送信データ送信部86は、本実施形態では例えば、送信データ生成部84が生成する送信データを中央監視装置10に送信する。 The transmission data transmission unit 86 transmits the transmission data generated by the transmission data generation unit 84 to the central monitoring device 10 in this embodiment, for example.

送信要求受信部88は、本実施形態では例えば、中央監視装置10の撮影映像送信要求部70が送信する撮影映像の送信要求を受信する。 In this embodiment, for example, the transmission request receiving unit 88 receives a transmission request for a captured image transmitted by the captured image transmission request unit 70 of the central monitoring device 10 .

撮影映像送信部90は、本実施形態では例えば、送信要求受信部88による撮影映像の送信要求の受信に応じて、撮影映像を中央監視装置10に送信する。ここで撮影映像送信部90は、撮影映像取得部80が取得する撮影映像を中央監視装置10に送信してもよい。 In this embodiment, for example, the captured video transmission unit 90 transmits the captured video to the central monitoring device 10 in response to the transmission request receiving unit 88 receiving a transmission request for the captured video. Here, the captured image transmission unit 90 may transmit the captured image acquired by the captured image acquisition unit 80 to the central monitoring device 10 .

また撮影映像送信部90は、送信要求受信部88による撮影映像の送信要求の受信に応じて、撮影映像と上述の判定の結果とを示す代替送信データを中央監視装置10に送信してもよい。ここで上述のように、例えば撮影映像に含まれる撮影画像32に基づいて生成される領域特定結果画像36をフレーム画像として含む映像が代替送信データとして送信されてもよい。 In addition, the photographed image transmission unit 90 may transmit alternative transmission data indicating the photographed image and the result of the above determination to the central monitoring device 10 in response to the transmission request for the photographed image received by the transmission request reception unit 88 . . Here, as described above, for example, a video including, as a frame image, the area identification result image 36 generated based on the captured image 32 included in the captured video may be transmitted as the alternative transmission data.

この場合、中央監視装置10の表示制御部74は、代替送信データの受信に応じて、当該代替送信データが示す上述の判定の結果が表された、当該代替送信データが示す撮影映像を表示させてもよい。例えば中央監視装置10の表示制御部74は、領域特定結果画像36をフレーム画像として含む映像を表示させてもよい。 In this case, the display control unit 74 of the central monitoring device 10, in response to receiving the alternative transmission data, displays the photographed image indicated by the alternative transmission data, which indicates the result of the determination indicated by the alternative transmission data. may For example, the display control unit 74 of the central monitoring device 10 may display an image including the area identification result image 36 as a frame image.

以下、本実施形態に係る映像送信システム12において所定のフレームレートで繰り返し行われる処理の流れの一例を、図15に例示するフロー図を参照しながら説明する。 An example of the flow of processing that is repeatedly performed at a predetermined frame rate in the video transmission system 12 according to this embodiment will be described below with reference to the flowchart illustrated in FIG. 15 .

まず、撮影映像取得部80が、撮影画像32を取得する(S101)。ここで取得される撮影画像32は、撮影映像における当該フレームのフレーム画像である。 First, the captured image acquisition unit 80 acquires the captured image 32 (S101). The captured image 32 acquired here is a frame image of the frame in the captured video.

そして、撮影映像取得部80が、画像認識部82aによる画像認識が可能であるか否かを判定する(S102)。ここで例えば当該フレームよりも前のフレームで取得された撮影画像32に対する画像認識を画像認識部82aが実行中である場合は、画像認識が可能でないことが判定される。一方、撮影画像32に対する画像認識を画像認識部82aが実行していない場合は、画像認識が可能であることが判定される。 Then, the captured image acquisition unit 80 determines whether image recognition by the image recognition unit 82a is possible (S102). Here, for example, when the image recognition unit 82a is executing image recognition on the captured image 32 acquired in the frame before the current frame, it is determined that the image recognition is not possible. On the other hand, when the image recognition unit 82a has not performed image recognition on the captured image 32, it is determined that image recognition is possible.

画像認識部82aによる画像認識が可能であると判定された場合は(S102:Y)、画像認識部82aは、S101に示す処理で取得された撮影画像32に対して、画像認識処理の実行を開始する(S103)。当該画像認識処理によって、当該撮影画像32内においてターゲットオブジェクト34が表れているターゲット領域が特定されることとなる。ここで上述の領域特定結果画像36が生成されてもよい。また例えばターゲット領域の位置や形状を示すターゲット領域情報が生成されてもよい。 When it is determined that image recognition by the image recognition unit 82a is possible (S102: Y), the image recognition unit 82a performs image recognition processing on the photographed image 32 acquired in the processing shown in S101. Start (S103). Through the image recognition processing, a target area in which the target object 34 appears in the captured image 32 is specified. Here, the region identification result image 36 described above may be generated. Also, for example, target area information indicating the position and shape of the target area may be generated.

画像認識部82aによる画像認識が可能でないと判定された場合は(S102:N)、追尾部82bは、S103に示す処理での画像認識処理の結果である、利用可能なターゲット領域の特定結果があるか否かを確認する(S104)。S103に示す処理が実行された後も同様に、追尾部82bは、S103に示す処理での画像認識処理の結果である、利用可能なターゲット領域の特定結果があるか否かを確認する(S104)。 If it is determined that image recognition by the image recognition unit 82a is not possible (S102: N), the tracking unit 82b determines that the available target area identification result, which is the result of the image recognition processing in the processing shown in S103, is It is checked whether or not there is (S104). Similarly, after the processing shown in S103 is executed, the tracking unit 82b confirms whether or not there is a specified result of an available target region, which is the result of the image recognition processing in the processing shown in S103 (S104 ).

ここで特定結果があることが確認された場合は(S104:Y)、追尾部82bは、追尾処理を実行する(S105)。ここでは図8を参照して説明したように、例えばS103に示す処理での画像認識処理における最新の利用可能な特定結果が特定される。そして当該特定結果が示す撮影画像32内におけるターゲット領域を追尾することにより、S101に示す処理で取得された撮影画像32内においてターゲットオブジェクト34が表れているターゲット領域が特定される。ここで上述の領域特定結果画像36が生成されてもよい。また例えばターゲット領域の位置や形状を示すターゲット領域情報が生成されてもよい。 If it is confirmed that there is a specific result (S104: Y), the tracking unit 82b executes tracking processing (S105). Here, as described with reference to FIG. 8, for example, the latest usable identification result in the image recognition processing in the processing shown in S103 is identified. By tracking the target area in the captured image 32 indicated by the identification result, the target area in which the target object 34 appears in the captured image 32 acquired in the process shown in S101 is identified. Here, the region identification result image 36 described above may be generated. Also, for example, target area information indicating the position and shape of the target area may be generated.

利用可能なターゲット領域の特定結果がないことが確認された場合は(S104:N)、追尾部82bが、S101に示す処理で取得された撮影画像32にターゲットオブジェクト34が表れているか否かを判定する(S106)。S105に示す処理が終了した場合も同様に、追尾部82bが、S101に示す処理で取得された撮影画像32にターゲットオブジェクト34が表れているか否かを判定する(S106)。ここでは例えば、S105に示す処理でターゲット領域が特定された場合は、撮影画像32にターゲットオブジェクト34が表れていると判定される。また、S105に示す処理で追尾できず、ターゲット領域が特定されなかった場合は、撮影画像32にターゲットオブジェクト34が表れていないと判定される。また、S104に示す処理で利用可能なターゲット領域の特定結果がないことが確認された場合も、撮影画像32に所与のオブジェクトが表れていないと判定される。 When it is confirmed that there is no usable target area identification result (S104: N), the tracking unit 82b determines whether the target object 34 appears in the photographed image 32 acquired in the processing shown in S101. Determine (S106). Similarly, when the processing shown in S105 is completed, the tracking unit 82b determines whether or not the target object 34 appears in the captured image 32 acquired in the processing shown in S101 (S106). Here, for example, if the target area is specified in the process shown in S105, it is determined that the target object 34 appears in the captured image 32. FIG. Further, if tracking is not possible in the processing shown in S105 and the target area is not specified, it is determined that the target object 34 does not appear in the captured image 32 . Also, when it is confirmed that there is no usable target area specified result in the processing shown in S104, it is determined that the given object does not appear in the captured image 32. FIG.

そして送信データ生成部84は、S101に示す処理で取得された撮影画像32を低解像度化することにより、低解像度画像を生成する(S107)。ここで上述のように、領域特定結果画像36を低解像度化することにより低解像度画像が生成されてもよい。 Then, the transmission data generation unit 84 generates a low-resolution image by reducing the resolution of the captured image 32 acquired in the process shown in S101 (S107). Here, as described above, a low-resolution image may be generated by reducing the resolution of the area identification result image 36 .

そして送信データ生成部84は、S106に示す処理での判定の結果とS107に示す処理で生成された低解像度画像とに基づいて、送信データを生成する(S108)。ここでは例えばS107に示す処理で生成された、低解像度化された領域特定結果画像36を含む送信データが生成されてもよい。また例えば、ヘッダ等に、S106に示す処理での判定の結果を示すフラグを含む送信データが生成されてもよい。また例えば、撮影画像32を低解像度化した低解像度画像と、当該低解像度画像内におけるターゲット領域の位置や形状を示すターゲット領域情報と、を含む送信データが生成されてもよい。 Then, the transmission data generation unit 84 generates transmission data based on the result of determination in the process shown in S106 and the low-resolution image generated in the process shown in S107 (S108). Here, for example, transmission data including the region identification result image 36 having the reduced resolution generated in the process shown in S107 may be generated. Further, for example, transmission data including a flag indicating the determination result in the process shown in S106 in a header or the like may be generated. Further, for example, transmission data including a low-resolution image obtained by reducing the resolution of the captured image 32 and target area information indicating the position and shape of the target area in the low-resolution image may be generated.

そして送信データ送信部86は、S108に示す処理で生成された送信データを中央監視装置10に送信して(S109)、S101に示す処理に戻る。 Then, the transmission data transmission unit 86 transmits the transmission data generated in the process shown in S108 to the central monitoring device 10 (S109), and returns to the process shown in S101.

本処理例では、S101~S109に示す処理が所定のフレームレートで繰り返し実行される。なお上述の処理例に示す処理では、送信データの送信が毎フレーム行われるが、例えば、S101~S108に示す処理が複数回繰り返し実行された後に、生成された複数の送信データがまとめて中央監視装置10に送信されてもよい。 In this processing example, the processing shown in S101 to S109 is repeatedly executed at a predetermined frame rate. In the processing shown in the above processing example, transmission of transmission data is performed for each frame. It may be sent to device 10 .

以下、本実施形態に係る中央監視装置10において所定のフレームレートで繰り返し行われる処理の流れの一例を、図16に例示するフロー図を参照しながら説明する。なお本処理例に示す処理では、送信データ受信部60は、複数の映像送信システム12のそれぞれから受信する送信データをバッファすることとする。 An example of the flow of processing that is repeatedly performed at a predetermined frame rate in the central monitoring device 10 according to this embodiment will be described below with reference to the flowchart illustrated in FIG. 16 . Note that in the processing shown in this processing example, the transmission data receiving unit 60 buffers transmission data received from each of the plurality of video transmission systems 12 .

まず、映像取得部62が、当該フレームにおける複数の送信データを送信データ受信部60のバッファから取得する(S201)。当該複数の送信データは、複数の映像送信システム12のそれぞれから送信されたものである。なお本処理例では、送信データにはフレーム番号が含まれており、当該フレームにおける複数の送信データは映像取得部62が特定できることとする。 First, the video acquisition unit 62 acquires a plurality of pieces of transmission data in the frame from the buffer of the transmission data reception unit 60 (S201). The plurality of transmission data are transmitted from each of the plurality of video transmission systems 12 . In this processing example, it is assumed that the transmission data includes a frame number, and the video acquisition unit 62 can identify a plurality of pieces of transmission data in the frame.

そして、合成映像生成部68が、S201に示す処理で取得した複数の送信データのそれぞれについて、当該送信データに対応付けられる撮影画像32にターゲットオブジェクト34が表れているか否かの判定の結果を特定する(S202)。上述したように例えば、送信データが示す低解像度画像からのターゲット領域画像38の検出結果、送信データに含まれるフラグが示す判定の結果、送信データに含まれるターゲット領域情報、などに基づいて、判定の結果は特定される。 Then, for each of the plurality of pieces of transmission data acquired in the processing shown in S201, the composite video generation unit 68 identifies the result of determination as to whether or not the target object 34 appears in the shot image 32 associated with the transmission data. (S202). As described above, for example, based on the detection result of the target area image 38 from the low-resolution image indicated by the transmission data, the determination result indicated by the flag included in the transmission data, the target area information included in the transmission data, etc. results are specified.

そして車両状況データ取得部64が、当該フレームにおける車両の状況を示す車両状況データを取得する(S203)。 Then, the vehicle condition data acquisition unit 64 acquires vehicle condition data indicating the vehicle condition in the frame (S203).

そして監視優先度決定部66が、S203に示す処理で取得した車両状況データに基づいて、S201に示す処理で取得された複数の送信データのそれぞれについて、映像の監視の優先度を決定する(S204)。ここでS202において撮影画像32にターゲットオブジェクト34が表れていると判定された送信データについてのみ、映像の監視の優先度が決定されてもよい。 Then, the monitoring priority determination unit 66 determines the video monitoring priority for each of the plurality of pieces of transmission data acquired in the process shown in S201 based on the vehicle status data acquired in the process shown in S203 (S204 ). Here, the priority of video monitoring may be determined only for transmission data for which it is determined in S202 that the target object 34 appears in the captured image 32 .

そして合成映像生成部68が、当該フレームにおける合成画像40を生成する(S205)。ここでは例えば、S201に示す処理で取得された送信データに含まれる低解像度映像、S202に示す処理で特定された判定の結果、及び、S204に示す処理で決定された優先度に基づいて、合成画像40が生成される。 Then, the composite video generation unit 68 generates the composite image 40 in the frame (S205). Here, for example, based on the low-resolution video included in the transmission data acquired in the process shown in S201, the determination result specified in the process shown in S202, and the priority determined in the process shown in S204, An image 40 is generated.

そして表示制御部74が、S205に示す処理で生成された合成画像40を表示させて(S206)、S201に示す処理に戻る。 Then, the display control unit 74 displays the synthesized image 40 generated in the process shown in S205 (S206), and returns to the process shown in S201.

本処理例では、S201~S206に示す処理が所定のフレームレートで繰り返し実行される。 In this processing example, the processing shown in S201 to S206 is repeatedly executed at a predetermined frame rate.

なお、本発明は上述の実施形態に限定されるものではない。 It should be noted that the present invention is not limited to the above-described embodiments.

例えば、図17及び図18に示すように、改札口などの特定の場所におけるターゲットオブジェクト34の検出に応じて当該特定の場所の画像が撮影されてもよい。以下、このようにして撮影される、ターゲットオブジェクト34の検出に応じて撮影される当該ターゲットオブジェクト34が検出された場所の画像を参照撮影画像92と呼ぶこととする。ここで参照撮影画像92は、例えば、駅のプラットホーム30等の監視対象を撮影するカメラ20とは異なるカメラ20により撮影される。 For example, as shown in FIGS. 17 and 18, upon detection of the target object 34 at a specific location such as a ticket gate, an image of the specific location may be captured. Hereinafter, the image of the location where the target object 34 is detected, which is photographed in response to the detection of the target object 34, is referred to as a reference photographed image 92. FIG. Here, the reference captured image 92 is captured, for example, by a camera 20 different from the camera 20 that captures an object to be monitored such as the platform 30 of a station.

図17には、ターゲットオブジェクト34を改札口において前方から撮影した参照撮影画像92aの一例が示されている。図18には、ターゲットオブジェクト34を改札口において後方から撮影した参照撮影画像92bの一例が示されている。このように、ICタグの検出に応じて互いに異なる方向から複数の参照撮影画像92が撮影されるようにしてもよい。 FIG. 17 shows an example of a reference photographed image 92a in which the target object 34 is photographed from the front at the ticket gate. FIG. 18 shows an example of a reference photographed image 92b in which the target object 34 is photographed from behind at the ticket gate. In this manner, a plurality of reference captured images 92 may be captured from different directions according to the detection of the IC tag.

ここで例えば白杖に埋め込まれたICタグ、白杖を持った人物が持参しているICカード、補助犬にぶらさげられているICカード、などを検出するセンサが、改札口などの特定の場所に設置されていてもよい。そして当該センサによるICタグやICカードの検出に応じて、1または複数の参照撮影画像92が撮影されるようにしてもよい。なおターゲットオブジェクト34がICタグやICカードの検出とは異なる方法で検出されてもよい。 Here, for example, a sensor that detects an IC tag embedded in a white cane, an IC card carried by a person with a white cane, an IC card hung by an assistance dog, etc., is placed in a specific place such as a ticket gate. may be installed in One or a plurality of reference captured images 92 may be captured in response to detection of the IC tag or IC card by the sensor. Note that the target object 34 may be detected by a method different from the IC tag or IC card detection.

なおターゲットオブジェクト34の検出が行われる場所は、改札口には限定されない。例えば、ホームドアなどに上述のセンサが設置されていてもよい。そして当該センサによるターゲットオブジェクト34の検出に応じて、ホームドア及びその周辺の場所の参照撮影画像92が撮影されるようにしてもよい。 Note that the location where the target object 34 is detected is not limited to the ticket gate. For example, the above-described sensor may be installed on a platform door or the like. Then, according to the detection of the target object 34 by the sensor, the reference photographed image 92 of the platform door and its surroundings may be photographed.

そして撮影映像取得部80が、このようにして撮影される参照撮影画像92を取得してもよい。ここで撮影映像取得部80が、互いに異なる方向から撮影される複数の参照撮影画像92を取得してもよい。 Then, the captured image acquisition unit 80 may acquire the reference captured image 92 captured in this manner. Here, the captured image acquisition unit 80 may acquire a plurality of reference captured images 92 captured from different directions.

そして画像認識部82aが、上述の参照撮影画像92に対して公知の画像認識技術による画像認識処理を実行し、当該参照撮影画像92においてターゲットオブジェクト34が表れているターゲット領域を特定してもよい。そして画像認識部82aが、当該ターゲット領域を示す上述のターゲット領域情報を生成してもよい。 Then, the image recognition unit 82a may perform image recognition processing using a known image recognition technique on the reference captured image 92, and identify a target area in which the target object 34 appears in the reference captured image 92. . Then, the image recognition unit 82a may generate the target area information indicating the target area.

図19は、図17に示す参照撮影画像92aに基づいて生成されるターゲット領域情報の一例である領域特定結果画像94aの一例を示す図である。図20は、図18に示す参照撮影画像92bに基づいて生成されるターゲット領域情報の一例である領域特定結果画像94bの一例を示す図である。 FIG. 19 is a diagram showing an example of an area identification result image 94a, which is an example of target area information generated based on the reference captured image 92a shown in FIG. FIG. 20 is a diagram showing an example of an area identification result image 94b, which is an example of target area information generated based on the reference captured image 92b shown in FIG.

図19に示す領域特定結果画像94aでは、図17に示す参照撮影画像92aにターゲットオブジェクト34を囲む枠状のターゲット領域画像96aが重畳されている。図20に示す領域特定結果画像94bでは、図18に示す参照撮影画像92bにターゲットオブジェクト34を囲む枠状のターゲット領域画像96bが重畳されている。 In an area identification result image 94a shown in FIG. 19, a frame-shaped target area image 96a surrounding the target object 34 is superimposed on the reference captured image 92a shown in FIG. In an area identification result image 94b shown in FIG. 20, a frame-shaped target area image 96b surrounding the target object 34 is superimposed on the reference captured image 92b shown in FIG.

そして判定部82が、参照撮影画像92と、駅のプラットホーム30等の監視対象を撮影した撮影映像とに基づいて、当該撮影映像にターゲットオブジェクト34が表れているか否かを判定してもよい。ここで互いに異なる方向から撮影される複数の参照撮影画像92と、撮影映像とに基づいて、当該撮影映像にターゲットオブジェクト34が表れているか否かが判定されてもよい。 Then, the determination unit 82 may determine whether or not the target object 34 appears in the captured video based on the captured reference image 92 and the captured video of the monitored object such as the platform 30 of the station. Here, whether or not the target object 34 appears in the captured video may be determined based on the multiple reference captured images 92 captured from different directions and the captured video.

例えば画像認識部82aが、参照撮影画像92に基づいて特定されるターゲット領域を用いて撮影画像32に対する画像認識処理を実行することによって、当該撮影画像32内においてターゲットオブジェクト34が表れている領域を特定してもよい。 For example, the image recognition unit 82a performs image recognition processing on the captured image 32 using the target region specified based on the reference captured image 92, thereby recognizing the region in which the target object 34 appears in the captured image 32. may be specified.

あるいは、追尾部82bが、撮影画像32内においてターゲットオブジェクト34が表れている領域を、上述の参照撮影画像92について画像認識部82aが特定したターゲット領域を追尾することにより特定してもよい。 Alternatively, the tracking unit 82b may identify the area where the target object 34 appears in the captured image 32 by tracking the target area identified by the image recognition unit 82a for the reference captured image 92 described above.

ターゲットオブジェクト34の検出に応じて撮影される参照撮影画像92には、ターゲットオブジェクト34が鮮明に表れている可能性が高い。そのため以上のようにすることで、駅のプラットホーム30等の監視対象を撮影した撮影画像32からより的確にターゲットオブジェクト34が検出できることとなる。 There is a high possibility that the target object 34 appears clearly in the reference captured image 92 captured in response to detection of the target object 34 . Therefore, by doing so, the target object 34 can be detected more accurately from the photographed image 32 of the monitored object such as the platform 30 of the station.

またここで互いに異なる方向から複数の参照撮影画像92が撮影されるようにすることで、より多くの情報を用いて駅のプラットホーム30等の監視対象を撮影した撮影画像32に対する画像認識処理や追尾処理が実行できる。そのため、駅のプラットホーム30等の監視対象を撮影した撮影画像32からより的確にターゲットオブジェクト34が検出できることとなる。 In addition, by allowing a plurality of reference captured images 92 to be captured from different directions, image recognition processing and tracking of the captured image 32 of the monitored object such as the station platform 30 can be performed using more information. processing can be performed. Therefore, the target object 34 can be detected more accurately from the photographed image 32 of the monitored object such as the platform 30 of the station.

また例えば中央監視装置10と映像送信システム12との役割分担は上述のものには限定されない。例えば、監視対象の様子を表す映像に対応付けられる番線に進入する車両の状況は、映像送信システム12において特定されてもよい。そして当該車両の状況を示す車両状況データが映像送信システム12から中央監視装置10に送信されてもよい。そして中央監視装置10が、映像送信システム12から受信した車両状況データに基づいて、映像の監視の優先度を決定してもよい。 Further, for example, the division of roles between the central monitoring device 10 and the video transmission system 12 is not limited to the one described above. For example, the video transmission system 12 may specify the situation of a vehicle entering a track associated with a video representing the state of the monitored object. Vehicle condition data indicating the condition of the vehicle may be transmitted from the video transmission system 12 to the central monitoring device 10 . Then, the central monitoring device 10 may determine the priority of video monitoring based on the vehicle status data received from the video transmission system 12 .

また例えば、1つの映像送信システム12で複数の駅の監視対象を監視してもよい。この場合は、1つの映像送信システム12は、互いに異なる複数の駅に設置される複数のカメラ20を含むこととなる。そして1つの映像送信システム12が、当該複数のカメラ20のそれぞれが撮影する映像に基づいて、当該映像に対応付けられる送信データを生成してもよい。 Further, for example, one video transmission system 12 may monitor targets at a plurality of stations. In this case, one video transmission system 12 includes a plurality of cameras 20 installed at a plurality of different stations. Then, one video transmission system 12 may generate transmission data associated with the video based on the video captured by each of the plurality of cameras 20 .

また中央監視装置10の機能の一部又は全部が、1つの映像送信システム12に実装されてもよい。また例えば1つの映像送信システム12が、複数の駅のプラットホーム30を監視してもよい。また例えば1つの映像送信システム12が、当該映像送信システム12が配置されている駅に設置されている複数のプラットホーム30を監視してもよい。このように本発明は、中央監視装置10における複数の駅の監視のみならず、1つの駅における複数のプラットホーム30の監視にも適用可能である。 Also, part or all of the functions of the central monitoring device 10 may be implemented in one video transmission system 12 . Also, for example, one video transmission system 12 may monitor platforms 30 of a plurality of stations. Also, for example, one video transmission system 12 may monitor a plurality of platforms 30 installed at the station where the video transmission system 12 is located. Thus, the present invention is applicable not only to monitoring multiple stations in the central monitoring device 10, but also to monitoring multiple platforms 30 in one station.

また、上述の具体的な文字列や数値、並びに、図面中の具体的な文字列は例示であり、これらの文字列や数値には限定されない。 Moreover, the specific character strings and numerical values described above and the specific character strings in the drawings are examples, and the character strings and numerical values are not limited.

Claims (9)

監視装置と複数の送信装置とを含む、駅のプラットホームを監視する駅監視システムであって、
前記複数の送信装置のそれぞれは、
当該送信装置が設置されているプラットホームを撮影した撮影映像を取得する撮影映像取得手段と、
前記撮影映像に基づいて、当該撮影映像に所与のオブジェクトが表れているか否かを判定する判定手段と、
前記撮影映像と前記判定の結果とに基づいて、前記撮影映像を低解像度化した低解像度映像と前記判定の結果とを示す送信データを生成する送信データ生成手段と、
前記送信データを前記監視装置に送信する送信手段と、を含み、
前記監視装置は、
それぞれ互いに異なる前記送信装置から送信される複数の前記送信データを受信する受信手段と、
前記複数の前記送信データのうちの少なくとも1つが示す前記判定の結果が表された、前記複数の前記送信データのそれぞれが示す前記低解像度映像を合成した合成映像を生成する合成映像生成手段と、
前記合成映像を表示させる表示制御手段と、を含
前記監視装置の前記合成映像生成手段は、前記送信データが示す前記判定の結果が当該送信データを送信する前記送信装置に対応付けられる番線に進入する車両の状況に応じた態様で表された前記合成映像を生成する、
ことを特徴とする駅監視システム。
A station monitoring system for monitoring a station platform, comprising a monitoring device and a plurality of transmitting devices, comprising:
Each of the plurality of transmitters,
a captured image acquiring means for acquiring a captured image of the platform on which the transmission device is installed;
determination means for determining whether or not a given object appears in the captured image based on the captured image;
transmission data generation means for generating transmission data indicating a low-resolution image obtained by reducing the resolution of the captured image and the result of the determination based on the captured image and the result of the determination;
transmitting means for transmitting the transmission data to the monitoring device;
The monitoring device
receiving means for receiving a plurality of the transmission data transmitted from the transmission devices different from each other;
Synthetic image generation means for generating a synthesized image obtained by synthesizing the low-resolution images indicated by each of the plurality of transmission data, in which the result of the determination indicated by at least one of the plurality of transmission data is expressed;
and display control means for displaying the composite image,
The synthetic video generation means of the monitoring device is configured such that the result of the determination indicated by the transmission data is expressed in a mode corresponding to the situation of a vehicle entering a track associated with the transmission device transmitting the transmission data. generate composite video,
A station monitoring system characterized by:
前記監視装置は、前記送信装置に前記撮影映像の送信要求を送信する送信要求手段、をさらに含み、
前記送信装置の前記送信手段は、前記送信要求の受信に応じて、前記撮影映像を前記監視装置に送信し、
前記監視装置の前記表示制御手段は、前記撮影映像の受信に応じて当該撮影映像を表示させる、
ことを特徴とする請求項1に記載の駅監視システム。
The monitoring device further includes transmission request means for transmitting a transmission request for the captured image to the transmission device,
the transmission means of the transmission device transmits the captured image to the monitoring device in response to reception of the transmission request;
The display control means of the monitoring device displays the captured image in response to receiving the captured image.
The station monitoring system according to claim 1, characterized by:
前記監視装置は、前記送信装置に前記撮影映像の送信要求を送信する送信要求手段、をさらに含み、
前記送信装置の前記送信手段は、前記送信要求の受信に応じて、前記撮影映像と前記判定の結果とを示す代替送信データを前記監視装置に送信し、
前記監視装置の前記表示制御手段は、前記代替送信データの受信に応じて、当該代替送信データが示す前記判定の結果が表された、当該代替送信データが示す前記撮影映像を表示させる、
ことを特徴とする請求項1に記載の駅監視システム。
The monitoring device further includes transmission request means for transmitting a transmission request for the captured image to the transmission device,
the transmission means of the transmission device transmits alternative transmission data indicating the captured image and the result of the determination to the monitoring device in response to reception of the transmission request;
The display control means of the monitoring device, in response to receiving the alternative transmission data, displays the captured image indicated by the alternative transmission data, which indicates the result of the determination indicated by the alternative transmission data.
The station monitoring system according to claim 1, characterized by:
前記送信装置の前記判定手段は、
前記撮影映像に含まれるフレーム画像に対する画像認識処理を実行することによって当該フレーム画像内において前記オブジェクトが表れている領域を特定する画像認識手段と、
前記撮影映像に含まれるフレーム画像内において前記オブジェクトが表れている領域を、当該フレーム画像よりも前に撮影されたフレーム画像について前記画像認識手段が特定した前記領域を追尾することにより特定する追尾手段と、を含む、
ことを特徴とする請求項1からのいずれか一項に記載の駅監視システム。
The determination means of the transmission device,
image recognition means for identifying an area in which the object appears in the frame image by executing image recognition processing on the frame image included in the captured video;
Tracking means for identifying an area in which the object appears in a frame image included in the captured image by tracking the area identified by the image recognition means for a frame image captured before the frame image. and including
The station monitoring system according to any one of claims 1 to 3 , characterized in that:
前記送信装置は、前記オブジェクトの検出に応じて撮影される当該オブジェクトが検出された場所の画像である参照撮影画像を取得する参照撮影画像取得手段、をさらに含み、
前記送信装置の前記判定手段は、前記参照撮影画像と前記撮影映像とに基づいて、当該撮影映像に前記オブジェクトが表れているか否かを判定する、
ことを特徴とする請求項1からのいずれか一項に記載の駅監視システム。
The transmission device further includes reference captured image acquisition means for acquiring a reference captured image, which is an image of a location where the object is detected, captured in response to the detection of the object,
The determination means of the transmission device determines whether or not the object appears in the captured video based on the reference captured image and the captured video.
The station monitoring system according to any one of claims 1 to 3 , characterized in that:
前記参照撮影画像取得手段は、前記オブジェクトの検出に応じて互いに異なる方向から撮影される複数の前記参照撮影画像を取得し、
前記送信装置の前記判定手段は、複数の前記参照撮影画像と前記撮影映像とに基づいて、当該撮影映像に前記オブジェクトが表れているか否かを判定する、
ことを特徴とする請求項に記載の駅監視システム。
The reference captured image acquisition means acquires a plurality of the reference captured images captured from different directions according to the detection of the object,
The determination means of the transmission device determines whether or not the object appears in the captured video based on the plurality of reference captured images and the captured video.
6. The station monitoring system according to claim 5 , characterized in that:
前記送信装置の前記判定手段は、前記参照撮影画像に対する画像認識処理を実行することによって特定される、当該参照撮影画像内において前記オブジェクトが表れている領域を用いて、前記撮影映像に含まれるフレーム画像に対する画像認識処理を実行することによって、当該フレーム画像内において前記オブジェクトが表れている領域を特定する画像認識手段、を含む、
ことを特徴とする請求項5又は6に記載の駅監視システム。
The determining means of the transmission device uses an area in which the object appears in the reference captured image, which is specified by executing image recognition processing on the reference captured image, to determine the frame included in the captured video. image recognition means for identifying an area in which the object appears in the frame image by executing image recognition processing on the image;
7. The station monitoring system according to claim 5 or 6 , characterized in that:
前記送信装置の前記判定手段は、
前記参照撮影画像に対する画像認識処理を実行することによって当該参照撮影画像内において前記オブジェクトが表れている領域を特定する画像認識手段と、
前記撮影映像に含まれるフレーム画像内において前記オブジェクトが表れている領域を、前記参照撮影画像について前記画像認識手段が特定した前記領域を追尾することにより特定する追尾手段と、を含む、
ことを特徴とする請求項5又は6に記載の駅監視システム。
The determination means of the transmission device,
image recognition means for identifying an area in which the object appears in the reference captured image by executing image recognition processing on the reference captured image;
tracking means for identifying an area where the object appears in a frame image included in the captured image by tracking the area identified by the image recognition means for the reference captured image;
7. The station monitoring system according to claim 5 or 6 , characterized in that:
駅のホームを監視する駅監視方法であって、
複数の送信装置のそれぞれが、当該送信装置が設置されているプラットホームを撮影した撮影映像を取得するステップと、
前記複数の送信装置のそれぞれが、前記撮影映像に基づいて、当該撮影映像に所与のオブジェクトが表れているか否かを判定するステップと、
前記複数の送信装置のそれぞれが、前記撮影映像と前記判定の結果とに基づいて、前記撮影映像を低解像度化した低解像度映像と前記判定の結果とを示す送信データを生成するステップと、
前記複数の送信装置のそれぞれが、前記送信データを監視装置に送信するステップと、
前記監視装置が、それぞれ互いに異なる前記送信装置から送信される複数の前記送信データを受信するステップと、
前記監視装置が、前記複数の前記送信データのうちの少なくとも1つが示す前記判定の結果が表された、前記複数の前記送信データのそれぞれが示す前記低解像度映像を合成した合成映像を生成するステップと、
前記監視装置が、前記合成映像を表示させるステップと、
前記監視装置が前記合成映像を生成するステップでは、前記送信データが示す前記判定の結果が当該送信データを送信する前記送信装置に対応付けられる番線に進入する車両の状況に応じた態様で表された前記合成映像を生成する、
とを特徴とする駅監視方法。
A station monitoring method for monitoring a station platform,
a step in which each of the plurality of transmission devices obtains a captured image of the platform on which the transmission device is installed;
a step in which each of the plurality of transmission devices determines whether or not a given object appears in the captured image based on the captured image;
a step in which each of the plurality of transmission devices generates transmission data indicating a low-resolution image obtained by reducing the resolution of the captured image and the result of the determination, based on the captured image and the result of the determination;
each of the plurality of transmission devices transmitting the transmission data to a monitoring device;
a step in which the monitoring device receives a plurality of the transmission data transmitted from the transmission devices different from each other;
the monitoring device generating a composite image obtained by synthesizing the low-resolution images indicated by each of the plurality of transmission data, in which the result of the determination indicated by at least one of the plurality of transmission data is expressed; When,
causing the monitoring device to display the composite image;
In the step of the monitoring device generating the composite image, the result of the determination indicated by the transmission data is expressed in a manner according to the situation of the vehicle entering the track number associated with the transmission device transmitting the transmission data. generating said composite video;
A station monitoring method characterized by:
JP2020538275A 2018-08-20 2019-08-02 Station monitoring system and station monitoring method Active JP7107596B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018153982 2018-08-20
JP2018153982 2018-08-20
PCT/JP2019/030535 WO2020039897A1 (en) 2018-08-20 2019-08-02 Station monitoring system and station monitoring method

Publications (2)

Publication Number Publication Date
JPWO2020039897A1 JPWO2020039897A1 (en) 2021-05-13
JP7107596B2 true JP7107596B2 (en) 2022-07-27

Family

ID=69593049

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020538275A Active JP7107596B2 (en) 2018-08-20 2019-08-02 Station monitoring system and station monitoring method

Country Status (3)

Country Link
JP (1) JP7107596B2 (en)
CN (1) CN112585957A (en)
WO (1) WO2020039897A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005008329A1 (en) * 2003-07-16 2005-01-27 Matsushita Electric Industrial Co., Ltd. Light source device, lighting device, and projection type display device

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114228794B (en) * 2021-12-17 2023-09-22 神思电子技术股份有限公司 Automatic monitoring method and equipment for CTC scheduling

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002104189A (en) 2000-09-28 2002-04-10 Matsushita Electric Ind Co Ltd Train operation support system, ground apparatus for train operation support, and vehicle apparatus for train operation support
JP2005167604A (en) 2003-12-02 2005-06-23 Chuo Electronics Co Ltd Image monitoring system
JP2014127847A (en) 2012-12-26 2014-07-07 Panasonic Corp Image monitoring system
JP2017212680A (en) 2016-05-27 2017-11-30 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP2018106282A (en) 2016-12-22 2018-07-05 セコム株式会社 Object detection device

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005292879A (en) * 2004-03-31 2005-10-20 Fujitsu Ltd Photographic information server and photographic information transmission system
JP2006093839A (en) * 2004-09-21 2006-04-06 Mitsubishi Electric Corp Monitoring terminal unit and monitoring system
EP1806786A1 (en) * 2005-02-09 2007-07-11 Matsushita Electric Industrial Co., Ltd. Monitoring camera device, monitoring system using the same, and monitoring image transmission method
JP4685561B2 (en) * 2005-09-12 2011-05-18 株式会社日立国際電気 Display method of camera system and camera system
JP5397014B2 (en) * 2009-05-21 2014-01-22 ソニー株式会社 Monitoring system, imaging device, analysis device, and monitoring method
JP2015016704A (en) * 2013-07-08 2015-01-29 株式会社日立ビルシステム Video monitoring system for station
JP6413530B2 (en) * 2014-09-12 2018-10-31 沖電気工業株式会社 Surveillance system, video analysis apparatus, video analysis method and program
CN106878666B (en) * 2015-12-10 2020-04-28 杭州海康威视数字技术股份有限公司 Method, device and system for searching target object based on monitoring camera

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002104189A (en) 2000-09-28 2002-04-10 Matsushita Electric Ind Co Ltd Train operation support system, ground apparatus for train operation support, and vehicle apparatus for train operation support
JP2005167604A (en) 2003-12-02 2005-06-23 Chuo Electronics Co Ltd Image monitoring system
JP2014127847A (en) 2012-12-26 2014-07-07 Panasonic Corp Image monitoring system
JP2017212680A (en) 2016-05-27 2017-11-30 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP2018106282A (en) 2016-12-22 2018-07-05 セコム株式会社 Object detection device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005008329A1 (en) * 2003-07-16 2005-01-27 Matsushita Electric Industrial Co., Ltd. Light source device, lighting device, and projection type display device

Also Published As

Publication number Publication date
WO2020039897A1 (en) 2020-02-27
CN112585957A (en) 2021-03-30
JPWO2020039897A1 (en) 2021-05-13

Similar Documents

Publication Publication Date Title
EP3434626B1 (en) Projection instruction device, parcel sorting system, and projection instruction method
US9477891B2 (en) Surveillance system and method based on accumulated feature of object
EP2450832A1 (en) Image processing apparatus and image processing method
WO2010101227A1 (en) Device for creating information for positional estimation of matter, method for creating information for positional estimation of matter, and program
CA3160731A1 (en) Interactive behavior recognizing method, device, computer equipment and storage medium
JP2012185540A (en) Image processing device, image processing method, and image processing program
EP3434621B1 (en) Instruction projecting device, parcel sorting system and instruction projecting method
JP7107596B2 (en) Station monitoring system and station monitoring method
JP2010128727A (en) Image processor
EP3434622A1 (en) Instruction projecting device, package sorting system and instruction projecting method
JP7459916B2 (en) Object tracking method, object tracking device, and program
EP3434623B1 (en) Projection indicator, cargo assortment system, and projection indicating method
US20180278914A1 (en) Image generation system and image generation method
JP7107597B2 (en) STATION MONITORING DEVICE, STATION MONITORING METHOD AND PROGRAM
US11537814B2 (en) Data providing system and data collection system
JP2021051470A (en) Target tracking program, device and method capable of switching target tracking means
CN109903308B (en) Method and device for acquiring information
JP7384158B2 (en) Image processing device, moving device, method, and program
JP2023100805A (en) Imaging apparatus, imaging method, and imaging program
CN114596239A (en) Loading and unloading event detection method and device, computer equipment and storage medium
CN112581630A (en) User interaction method and system
CN112313944A (en) Image processing method, device, equipment and storage medium
EP3434625B1 (en) Projection instruction device, parcel sorting system, and projection instruction method
JP5849762B2 (en) Prediction information presentation system, prediction information presentation device, prediction information presentation method, and prediction information presentation program
JP4552018B2 (en) Moving image processing apparatus and moving image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201022

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220621

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220707

R150 Certificate of patent or registration of utility model

Ref document number: 7107596

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350