JP2016170735A - Dynamic image data storage device, dynamic image data storage program, dynamic image data storage method, and dynamic image data storage system - Google Patents

Dynamic image data storage device, dynamic image data storage program, dynamic image data storage method, and dynamic image data storage system Download PDF

Info

Publication number
JP2016170735A
JP2016170735A JP2015051458A JP2015051458A JP2016170735A JP 2016170735 A JP2016170735 A JP 2016170735A JP 2015051458 A JP2015051458 A JP 2015051458A JP 2015051458 A JP2015051458 A JP 2015051458A JP 2016170735 A JP2016170735 A JP 2016170735A
Authority
JP
Japan
Prior art keywords
image data
moving image
vehicle
time
license plate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015051458A
Other languages
Japanese (ja)
Other versions
JP6443145B2 (en
Inventor
律子 田中
Ritsuko Tanaka
律子 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2015051458A priority Critical patent/JP6443145B2/en
Publication of JP2016170735A publication Critical patent/JP2016170735A/en
Application granted granted Critical
Publication of JP6443145B2 publication Critical patent/JP6443145B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Character Discrimination (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To store dynamic image data by narrowing down to a time zone when a vehicle is imaged.SOLUTION: A monitoring device 20 includes: an image input part 22 for receiving dynamic image data transmitted from a monitoring camera 10 for imaging a dynamic image of a road or the like; a vehicle extraction part 24 for extracting two sheets of frames with the same vehicle is imaged and respective imaging times from the dynamic image data received by the image input part 22; a plate extraction and recognition part 26 for extracting a number plate part from at least one sheet of the extracted frames to recognize number plate information from the extracted part; a vehicle speed calculation part 28 for calculating a traveling direction and a traveling speed of the vehicle from the two frames; a staying time prediction part 30 for calculating a time zone to be predicted that the vehicle is imaged on the basis of the imaging times, the number plate information and the traveling direction and the traveling speed; and a storage part 34 for storing dynamic image data corresponding to the calculated time zone together with the number plate information and the time zone.SELECTED DRAWING: Figure 3

Description

本発明は、動画像データ蓄積装置、動画像データ蓄積プログラム、動画像データ蓄積方法及び動画像データ蓄積システムに関する。   The present invention relates to a moving image data storage device, a moving image data storage program, a moving image data storage method, and a moving image data storage system.

従来、移動物体を認識したことをトリガとして任意のタイミングで画像データを記録する技術が知られている(例えば、特許文献1等参照)。例えば、特許文献1では、移動物体を認識した時点を中心として、その前後に同時間、画像を記録する点や、移動物体を認識した時点で画像記録を終了する点について開示している。   2. Description of the Related Art Conventionally, a technique for recording image data at an arbitrary timing triggered by recognition of a moving object is known (see, for example, Patent Document 1). For example, Patent Document 1 discloses a point at which an image is recorded before and after the time when a moving object is recognized, and a point at which image recording is ended when a moving object is recognized.

特開平7−182485号公報JP 7-182485 A

画像データを記録する場合において、ハードディスク等の記憶装置の記憶容量を効率的に利用するためには、撮像された画像データのうち必要な部分のみを記録することが好ましい。例えば、道路などにおいて車両などの移動物体を監視する装置の場合には、移動物体が撮像されている時間帯に絞って画像データを記録することが好ましい。   When recording image data, in order to efficiently use the storage capacity of a storage device such as a hard disk, it is preferable to record only a necessary portion of the captured image data. For example, in the case of a device that monitors a moving object such as a vehicle on a road or the like, it is preferable to record image data only in a time zone in which the moving object is imaged.

しかしながら、上記特許文献1では、移動物体が撮像されている時間帯に絞って、画像データを記録することはできない。   However, in the above-mentioned Patent Document 1, image data cannot be recorded in a time zone in which a moving object is imaged.

1つの側面では、本発明は、車両が撮像されている時間帯に絞って動画像データを記憶することができる動画像データ蓄積装置、動画像データ蓄積プログラム、動画像データ蓄積方法及び動画像データ蓄積システムを提供することを目的とする。   In one aspect, the present invention provides a moving image data storage device, a moving image data storage program, a moving image data storage method, and moving image data that can store moving image data in a time zone in which the vehicle is imaged. The purpose is to provide a storage system.

一つの態様では、動画像データ蓄積装置は、所定領域の動画像を撮像する撮像装置から送信される動画像データを受信する受信部と、前記受信部が受信した前記動画像データから同一の車両が撮像されている複数枚のフレーム及びそれぞれの撮像時刻を抽出する抽出部と、前記抽出部が抽出した前記複数枚のフレームのうちの少なくとも1枚からナンバープレートの部分を抽出し、抽出した部分からナンバープレート情報を認識するとともに、前記複数枚のフレームから前記車両の移動方向及び移動速度を算出する認識部と、前記撮像時刻、前記ナンバープレート情報、前記移動方向及び前記移動速度に基づいて、前記車両が前記撮像装置により撮像されていると予測される時間帯を算出する算出部と、前記算出部が算出した前記時間帯に対応する動画像データを前記ナンバープレート情報及び前記時間帯の情報とともに記憶する記憶部と、を備えている。   In one aspect, the moving image data storage device includes a receiving unit that receives moving image data transmitted from an imaging device that captures a moving image of a predetermined area, and the same vehicle from the moving image data received by the receiving unit. An extraction unit that extracts a plurality of frames in which images are captured and respective imaging times; and a portion that extracts and extracts a license plate portion from at least one of the plurality of frames extracted by the extraction unit Based on the recognition unit for recognizing license plate information from the plurality of frames and calculating the moving direction and moving speed of the vehicle based on the imaging time, the license plate information, the moving direction and the moving speed, A calculation unit that calculates a time zone in which the vehicle is predicted to be imaged by the imaging device; and a time zone calculated by the calculation unit. The moving image data and a, a storage unit for storing together with the license plate information and information of the time zone.

1つの側面として、車両が撮像されている時間帯に絞って動画像データを記憶することができる。   As one aspect, moving image data can be stored in a time zone in which the vehicle is imaged.

一実施形態に係る監視システムの構成を概略的に示す図である。It is a figure showing roughly the composition of the surveillance system concerning one embodiment. 図2(a)は、監視装置のハードウェア構成を示す図であり、図2(b)は、サーバのハードウェア構成を示す図である。FIG. 2A is a diagram illustrating a hardware configuration of the monitoring device, and FIG. 2B is a diagram illustrating a hardware configuration of the server. 監視装置の機能ブロック図である。It is a functional block diagram of a monitoring apparatus. 解析結果DBのデータ構造の一例を示す図である。It is a figure which shows an example of the data structure of analysis result DB. 映像DBのデータ構造の一例を示す図である。It is a figure which shows an example of the data structure of video DB. 車両大きさテーブルの動画像データ蓄積システムMoving image data storage system for vehicle size table 図7(a)〜図7(c)は、ナンバープレートの大きさの違いを示す図である。Fig.7 (a)-FIG.7 (c) are figures which show the difference in the magnitude | size of a license plate. 監視装置の処理を示すフローチャート(その1)である。It is a flowchart (the 1) which shows the process of a monitoring apparatus. 監視装置の処理を示すフローチャート(その2)である。It is a flowchart (the 2) which shows the process of a monitoring apparatus. 車両の滞在時間を算出する方法について説明するための図(その1)である。It is FIG. (1) for demonstrating the method to calculate the residence time of a vehicle. 車両の滞在時間を算出する方法について説明するための図(その2)である。It is FIG. (2) for demonstrating the method to calculate the stay time of a vehicle. 車両Aを認識した場合の、図9のステップS32の処理後の解析結果DBを示す図である。It is a figure which shows analysis result DB after the process of step S32 of FIG. 9 when the vehicle A is recognized. 車両B,Cを認識した場合の、図9のステップS32の処理後の解析結果DBを示す図である。It is a figure which shows analysis result DB after the process of FIG.9 S32 when the vehicles B and C are recognized. 動画データ(映像ファイル)の保存方法について概略的に示す図である。It is a figure which shows roughly about the preservation | saving method of moving image data (video file).

以下、動画像データ蓄積システムの一実施形態である、監視システムについて、図1〜図14に基づいて詳細に説明する。   Hereinafter, a monitoring system, which is an embodiment of a moving image data storage system, will be described in detail with reference to FIGS.

図1には、一実施形態にかかる監視システム100の構成が概略的に示されている。図1に示すように、監視システム100は、撮像装置としての複数の監視カメラ10と、動画像データ蓄積装置としての複数の監視装置20と、外部装置としてのサーバ70と、を備える。監視カメラ10と監視装置20は通信ケーブル等を介して接続され、監視装置20、及びサーバ70は、インターネットなどのネットワーク80に接続されている。   FIG. 1 schematically shows a configuration of a monitoring system 100 according to an embodiment. As illustrated in FIG. 1, the monitoring system 100 includes a plurality of monitoring cameras 10 as imaging devices, a plurality of monitoring devices 20 as moving image data storage devices, and a server 70 as an external device. The monitoring camera 10 and the monitoring device 20 are connected via a communication cable or the like, and the monitoring device 20 and the server 70 are connected to a network 80 such as the Internet.

監視カメラ10は、例えば、道路近傍に設置され、道路及び道路を走行する車両等を撮像する。監視カメラ10は、一例として動画(映像)を撮像し、撮像した動画データ(映像データ)を監視装置20に送信する。   For example, the monitoring camera 10 is installed in the vicinity of a road and images a road and a vehicle traveling on the road. As an example, the monitoring camera 10 captures a moving image (video), and transmits the captured moving image data (video data) to the monitoring device 20.

監視装置20は、各監視カメラ10に対応して、各監視カメラ10の近傍に設けられており、監視カメラ10において撮像された動画データを受信し、動画データから得られる情報に基づいて、記憶(蓄積)する動画データの範囲を決定する。また、監視装置20は、記憶した動画及び動画から得られる情報をサーバ70に対して送信する。   The monitoring device 20 is provided in the vicinity of each monitoring camera 10 corresponding to each monitoring camera 10, receives moving image data captured by the monitoring camera 10, and stores it based on information obtained from the moving image data. Determine the range of moving image data to be stored. In addition, the monitoring device 20 transmits the stored moving image and information obtained from the moving image to the server 70.

図2(a)には、監視装置20のハードウェア構成が示されている。図2(a)に示すように、監視装置20は、CPU(Central Processing Unit)90、ROM(Read Only Memory)92、RAM(Random Access Memory)94、記憶部(ここではHDD(Hard Disk Drive))96、ネットワークインタフェース97、及び可搬型記憶媒体用ドライブ99等を備えている。これら監視装置20の構成各部は、バス98に接続されている。CPU90は、ROM92あるいはHDD96に格納されているプログラム(動画像データ蓄積プログラムを含む)、或いは可搬型記憶媒体用ドライブ99が可搬型記憶媒体91から読み取ったプログラム(動画像データ蓄積プログラムを含む)を実行することにより、監視装置20を、図3に示す各部として機能させる。なお、図3には、監視装置20のHDD96等に格納されている解析結果DB(database)40、映像DB42、及び車両大きさテーブル44も図示されている。   FIG. 2A shows the hardware configuration of the monitoring device 20. As shown in FIG. 2A, the monitoring device 20 includes a CPU (Central Processing Unit) 90, a ROM (Read Only Memory) 92, a RAM (Random Access Memory) 94, and a storage unit (here, an HDD (Hard Disk Drive)). ) 96, a network interface 97, a portable storage medium drive 99, and the like. Each component of the monitoring device 20 is connected to the bus 98. The CPU 90 stores a program (including a moving image data storage program) stored in the ROM 92 or the HDD 96 or a program (including a moving image data storage program) read from the portable storage medium 91 by the portable storage medium drive 99. By executing this, the monitoring device 20 is caused to function as each unit shown in FIG. 3 also shows an analysis result DB (database) 40, a video DB 42, and a vehicle size table 44 stored in the HDD 96 of the monitoring device 20.

図3には、監視装置20の機能ブロック図が示されている。図3に示すように、CPU90がプログラムを実行することにより、監視装置20は、受信部及び抽出部としての画像入力部22、車両抽出部24、プレート抽出・認識部26、車両速度算出部28、算出部としての滞在時間予測部30、延長部としての映像保存時間判定部32、記憶部としての保存部34、出力部36、として機能する。   FIG. 3 shows a functional block diagram of the monitoring device 20. As shown in FIG. 3, when the CPU 90 executes the program, the monitoring device 20 has an image input unit 22 as a receiving unit and an extraction unit, a vehicle extraction unit 24, a plate extraction / recognition unit 26, and a vehicle speed calculation unit 28. It functions as a stay time prediction unit 30 as a calculation unit, a video storage time determination unit 32 as an extension unit, a storage unit 34 as a storage unit, and an output unit 36.

画像入力部22は、監視カメラ10から送信されてくる動画データを受信し、該動画データから1つのフレーム及び該フレームの撮像時刻を取得し、車両抽出部24に対して送信する。車両抽出部24は、画像入力部22から受信したフレームから車両が撮像されている部分(車両部分)を抽出し、プレート抽出・認識部26に送信する。プレート抽出・認識部26は、車両抽出部24から受信した車両部分に基づいて、ナンバープレート部分を抽出し、ナンバープレートに記載されているナンバー情報(運輸支局等、分類番号、かな文字、一連指定番号)やナンバープレートの大きさ(大型、中型、小型)を認識する。プレート抽出・認識部26は、認識結果を保存部34に送信し、保存部34は、認識結果を解析結果DB40に格納する。   The image input unit 22 receives the moving image data transmitted from the monitoring camera 10, acquires one frame and the imaging time of the frame from the moving image data, and transmits the frame to the vehicle extraction unit 24. The vehicle extraction unit 24 extracts a portion (vehicle portion) where the vehicle is imaged from the frame received from the image input unit 22 and transmits the portion to the plate extraction / recognition unit 26. The plate extraction / recognition unit 26 extracts the number plate portion based on the vehicle portion received from the vehicle extraction unit 24, and the number information (transportation branch office, classification number, kana character, series designation specified on the license plate) Number) and license plate size (large, medium, and small). The plate extraction / recognition unit 26 transmits the recognition result to the storage unit 34, and the storage unit 34 stores the recognition result in the analysis result DB 40.

車両速度算出部28は、車両が撮像されている複数フレームにおける車両の位置(移動量)に基づいて、車両の移動方向(進行方向)及び車両速度を算出する。車両速度算出部28は、算出した車両の移動方向(進行方向)や速度の情報を保存部34に送信し、保存部34は車両の移動方向(進行方向)や速度の情報を解析結果DB40に格納する。滞在時間予測部30は、車両を認識した時刻(認識開始時刻)や、車両速度、ナンバー情報やナンバープレートの大きさ、車両大きさテーブル44等に基づいて、車両が監視カメラ10によって撮像されている時間(動画内に車両が滞在している時間:滞在時間)を予測する。なお、本実施形態では、車両が監視カメラ10によって撮像されている時間(滞在時間)とは、車両の少なくとも一部が撮像され始めた時刻から車両の全てが撮像されなくなるまでの時刻までの間の時間を意味する。滞在時間予測部30は、予想結果を保存部34に送信し、保存部34は予測結果を解析結果DB40に格納する。   The vehicle speed calculation unit 28 calculates the moving direction (traveling direction) and the vehicle speed of the vehicle based on the position (movement amount) of the vehicle in a plurality of frames in which the vehicle is imaged. The vehicle speed calculation unit 28 transmits the calculated vehicle movement direction (traveling direction) and speed information to the storage unit 34, and the storage unit 34 stores the vehicle movement direction (traveling direction) and speed information in the analysis result DB 40. Store. Based on the time when the vehicle is recognized (recognition start time), the vehicle speed, the number information, the size of the license plate, the vehicle size table 44, etc., the stay time prediction unit 30 captures the vehicle by the monitoring camera 10. Is estimated (time during which the vehicle stays in the video: stay time). In the present embodiment, the time during which the vehicle is imaged by the monitoring camera 10 (stay time) is from the time when at least a part of the vehicle starts to be imaged until the time when all the vehicles are not imaged. Means time. The stay time prediction unit 30 transmits the prediction result to the storage unit 34, and the storage unit 34 stores the prediction result in the analysis result DB 40.

映像保存時間判定部32は、滞在時間予測部30の予測結果に基づいて、映像を保存する時間範囲(時間帯)を判定する。ここで、映像保存時間判定部32は、滞在時間予測部30が予測した時間が終了した時点で、実際に車両が撮像されていないかを確認し、車両が撮像されていなければ、予測した時間内に撮像された動画を保存すると判定する。また、映像保存時間判定部32は、予測した時間が終了した時点で車両が未だ撮像されていることを確認した場合には、動画データを保存する時間(時間帯)を延長する。保存部34は、映像保存時間判定部32が判定した、動画データを保存する時間に基づいて、映像DB42に動画(映像)データを保存する。また、保存部34は、前述したように動画データから得られる情報を解析結果DB40に格納する。出力部36は、定期的に、映像DB42に保存された動画データと解析結果DB40に格納された情報とを、サーバ70に対して送信する。   The video storage time determination unit 32 determines a time range (time zone) for storing the video based on the prediction result of the stay time prediction unit 30. Here, the video storage time determination unit 32 confirms whether or not the vehicle is actually imaged when the time predicted by the stay time prediction unit 30 ends, and if the vehicle is not imaged, the predicted time It is determined that the captured moving image is stored. In addition, when it is confirmed that the vehicle is still imaged when the predicted time ends, the video storage time determination unit 32 extends the time (time zone) for storing the moving image data. The storage unit 34 stores the moving image (video) data in the video DB 42 based on the time for storing the moving image data determined by the video storage time determination unit 32. Further, the storage unit 34 stores information obtained from the moving image data in the analysis result DB 40 as described above. The output unit 36 periodically transmits the moving image data stored in the video DB 42 and the information stored in the analysis result DB 40 to the server 70.

なお、プレート抽出・認識部26及び車両速度算出部28を含んで、抽出した複数枚のフレームのうちの少なくとも1枚からナンバープレートの部分を抽出し、抽出した部分からナンバープレート情報を認識するとともに、複数枚のフレームから車両の移動方向(進行方向)及び移動速度を算出する、認識部としての機能が実現されている。   In addition, the plate extraction / recognition unit 26 and the vehicle speed calculation unit 28 are included to extract a license plate portion from at least one of the extracted plurality of frames and recognize license plate information from the extracted portion. A function as a recognizing unit that calculates the moving direction (traveling direction) and moving speed of the vehicle from a plurality of frames is realized.

ここで、解析結果DB40、映像DB42、及び車両大きさテーブル44のデータ構造について説明する。   Here, the data structures of the analysis result DB 40, the video DB 42, and the vehicle size table 44 will be described.

図4には、解析結果DB40のデータ構造が示されている。解析結果DB40は、車両抽出部24により抽出された車両ごとに、「認識ID」、「認識日時」、「認識場所」、「認識方向」、「ナンバー情報」、「ナンバープレートの大きさ」、「車両速度」、「進行方向」、「滞在時間」、「映像ID」を格納する。「認識ID」は、車両抽出部24が車両を抽出するたびに発行する識別番号であり、「認識日時」は、車両抽出部24が車両を抽出した日時、「認識場所」は、監視カメラ10が設置された場所、「認識方向」は、監視カメラ10の撮像方向を意味する。なお、「認識場所」及び「認識方向」は、監視カメラ10ごとに予め定義されている情報である。   FIG. 4 shows the data structure of the analysis result DB 40. The analysis result DB 40 includes a “recognition ID”, “recognition date”, “recognition location”, “recognition direction”, “number information”, “number plate size”, for each vehicle extracted by the vehicle extraction unit 24. “Vehicle speed”, “traveling direction”, “stay time”, and “video ID” are stored. The “recognition ID” is an identification number issued every time the vehicle extraction unit 24 extracts a vehicle, the “recognition date” is the date and time when the vehicle extraction unit 24 extracts the vehicle, and the “recognition location” is the monitoring camera 10. The “recognition direction” where “is installed” means the imaging direction of the monitoring camera 10. The “recognition location” and the “recognition direction” are information defined in advance for each monitoring camera 10.

「ナンバー情報」は、運輸支局等、分類番号、かな文字、一連指定番号を含み、図7(a)〜図7(c)に示すようなナンバープレートからプレート抽出・認識部26が認識した情報が格納される。なお、図7(a)の例では、運輸支局等が「仙台」、分類番号が「199」、かな文字が「は」、一連指定番号が「4444」となっている。「ナンバープレートの大きさ」としては、中型や大型などがある。図7(a)〜図7(c)には、大きさの異なるナンバープレートの例が示されている。図7(a)は、大型のナンバープレートを示し、図7(b)は中型のナンバープレートを示している。また、図7(c)は、小型のナンバープレートを示している。なお、プレート抽出・認識部26は、ナンバープレートの大きさを、各文字の大きさ関係、配置などから認識することが可能である。   The “number information” includes classification numbers, kana characters, and series designation numbers, such as the transportation branch office, and is information recognized by the plate extraction / recognition unit 26 from the license plates as shown in FIGS. 7 (a) to 7 (c). Is stored. In the example of FIG. 7A, the transportation branch office is “Sendai”, the classification number is “199”, the kana character is “ha”, and the serial designation number is “4444”. “License plate size” includes medium size and large size. FIGS. 7A to 7C show examples of license plates having different sizes. FIG. 7A shows a large license plate, and FIG. 7B shows a medium license plate. FIG. 7C shows a small license plate. The plate extraction / recognition unit 26 can recognize the size of the license plate from the size relationship and arrangement of each character.

「車両速度」は、車両速度算出部28が算出した車両の速度情報であり、「進行方向」は、「認識方向」と車両速度算出部28が算出した車両の映像内における移動方向とから特定される車両の進行方向を意味する。また、「滞在時間」としては、車両が撮像範囲に入ってきたと予測される時刻(入場予測時刻)、実際に車両を最初に認識した時刻(認識開始時刻)、実際に車両が映像内から消えた時刻(退出時刻)、車両が撮像範囲内から消えると予測された時刻(退出予測時刻)とが格納される。「映像ID」としては、映像に付与された識別番号が格納される。なお、図4においては、車両Bと車両Cとが同時に撮像されている時間があることから、車両Bと車両Cの動画を別々にせずに一つの動画にまとめている(映像IDが同一となる)。   “Vehicle speed” is the vehicle speed information calculated by the vehicle speed calculation unit 28, and “traveling direction” is specified from the “recognition direction” and the moving direction in the video of the vehicle calculated by the vehicle speed calculation unit 28. Means the traveling direction of the vehicle. The “stay time” includes the time when the vehicle is predicted to enter the imaging range (predicted entrance time), the time when the vehicle is first recognized (recognition start time), and the vehicle actually disappears from the video. And the time (exit predicted time) at which the vehicle is predicted to disappear from the imaging range are stored. As the “video ID”, an identification number assigned to the video is stored. In FIG. 4, since there is a time during which the vehicle B and the vehicle C are simultaneously imaged, the moving images of the vehicle B and the vehicle C are combined into one moving image (the video IDs are the same). Become).

図5には、映像DB42のデータ構造が示されている。映像DB42には、保存部34が保存した動画像データ(映像データ)が、「映像ID」、「開始時刻」、「終了時刻」とともに記憶されている。   FIG. 5 shows the data structure of the video DB 42. The video DB 42 stores moving image data (video data) saved by the saving unit 34 together with “video ID”, “start time”, and “end time”.

図6には、車両大きさテーブル44のデータ構造が示されている。車両大きさテーブル44は、ナンバープレートの分類番号1桁目(上1桁目)と、ナンバープレートの大きさ(中型、大型、不明)とに基づいて、車両の大きさ(全長)を推定するのに用いられるテーブルである。例えば、ナンバープレートの分類番号上1桁目が「2」であり、ナンバープレートの大きさが「中型」であった場合には、車両大きさテーブル44より、車両の大きさ(全長)が「6m」と推定される。   FIG. 6 shows the data structure of the vehicle size table 44. The vehicle size table 44 estimates the size (full length) of the vehicle based on the first digit (first digit) of the license plate classification number and the size (medium size, large size, unknown) of the license plate. It is a table used for. For example, when the first digit of the license plate classification number is “2” and the license plate size is “medium”, the vehicle size (total length) is determined from the vehicle size table 44 as “ 6m ".

図1に戻り、サーバ70は、各監視装置20から送信されてきた動画データ及び動画データから得られる情報を管理する装置である。サーバ70は、図2(b)に示すようなハードウェア構成を有する。具体的には、サーバ70は、図2(b)に示すように、CPU190、ROM192、RAM194、記憶装置としての記憶部(HDD)196、ネットワークインタフェース197、及び可搬型記憶媒体191に記憶されたデータを読み取り可能な可搬型記憶媒体用ドライブ199等を備えている。これらサーバ70の構成各部は、バス198に接続されている。CPU190は、ネットワーク80に接続された各監視装置20の出力部36から送信されてきた動画データや、動画データに関連する情報を収集し、HDD196等に格納する。   Returning to FIG. 1, the server 70 is a device that manages moving image data transmitted from each monitoring device 20 and information obtained from the moving image data. The server 70 has a hardware configuration as shown in FIG. Specifically, the server 70 is stored in the CPU 190, ROM 192, RAM 194, storage unit (HDD) 196 as a storage device, network interface 197, and portable storage medium 191 as shown in FIG. A portable storage medium drive 199 capable of reading data is provided. Each component of the server 70 is connected to the bus 198. The CPU 190 collects moving image data transmitted from the output unit 36 of each monitoring device 20 connected to the network 80 and information related to the moving image data, and stores the collected data in the HDD 196 or the like.

(監視装置20の処理)
次に、図8、図9のフローチャートに沿って、その他図面を適宜参照しつつ、監視装置20の処理について、詳細に説明する。
(Processing of the monitoring device 20)
Next, the processing of the monitoring device 20 will be described in detail along the flowcharts of FIGS. 8 and 9 with reference to other drawings as appropriate.

図8の処理では、まず、ステップS10において、画像入力部22が、監視カメラ10において撮像された動画データの1つのフレーム(最新のフレーム)を取得する。なお、画像入力部22は、取得したフレームの撮像時刻の情報についても取得する。   In the process of FIG. 8, first, in step S <b> 10, the image input unit 22 acquires one frame (latest frame) of moving image data captured by the monitoring camera 10. Note that the image input unit 22 also acquires information about the imaging time of the acquired frame.

次いで、ステップS12では、車両抽出部24が、1つのフレームから車両部分を抽出する。なお、車両部分の抽出方法としては、例えば、車両のテンプレート画像を用いたテンプレートマッチング等を採用することができる。ただし、これに限らず、車両部分の抽出方法としては、種々の方法を採用することができる。   Next, in step S12, the vehicle extraction unit 24 extracts a vehicle portion from one frame. In addition, as a vehicle part extraction method, for example, template matching using a template image of a vehicle can be employed. However, the present invention is not limited to this, and various methods can be adopted as the vehicle portion extraction method.

次いで、ステップS14では、車両抽出部24が、新たな車両を抽出できたか否かを判断する。ここでの判断が否定された場合には、ステップS10に戻る。なお、ステップS14の判断が否定されている間は、ステップS10の処理は、例えば動画の1フレームに対応する時間毎に実行されるものとする。   Next, in step S14, the vehicle extraction unit 24 determines whether a new vehicle has been extracted. When judgment here is denied, it returns to step S10. Note that while the determination in step S14 is negative, the process in step S10 is executed, for example, every time corresponding to one frame of a moving image.

一方、ステップS14の判断が肯定された場合、すなわち、新たな車両を抽出できた場合には、ステップS16に移行し、プレート抽出・認識部26は、フレームからナンバープレート部分を抽出する。なお、プレート抽出・認識部26は、1つのフレームの車両部分において、白や黄色、緑色の略矩形領域をナンバープレート部分として抽出する。   On the other hand, if the determination in step S14 is affirmative, that is, if a new vehicle can be extracted, the process proceeds to step S16, and the plate extraction / recognition unit 26 extracts the number plate portion from the frame. The plate extraction / recognition unit 26 extracts white, yellow, and green substantially rectangular areas as license plate portions in the vehicle portion of one frame.

次いで、ステップS18では、プレート抽出・認識部26が、ナンバーを認識し、保存部34を介して解析結果DB40に記憶する。なお、ナンバーの認識には、ナンバープレート情報(ナンバープレートに記載されている文字の情報)のほか、ナンバープレートの大きさ情報も含まれる。   Next, in step S18, the plate extraction / recognition unit 26 recognizes the number and stores it in the analysis result DB 40 via the storage unit 34. The number recognition includes license plate information (character information written on the license plate) as well as license plate size information.

次いで、ステップS20では、車両速度算出部28が、画像入力部22から次のフレーム(及び撮像時刻の情報)を取得し、該次のフレームとステップS10で取得したフレームとに基づいて、車両の進行方向と車両速度を算出し、保存部34を介して解析結果DB40に記憶する。この場合、車両速度算出部28は、2枚のフレーム間における車両の移動量を公知の技術に基づいて算出し、算出した移動量と2枚のフレームの撮像時間間隔とから、車両速度を算出する。なお、車両速度を何らかの理由により算出できなかった場合には、その旨を保存部34を介して解析結果DB40に記憶する。また、車両速度算出部28は、監視カメラ10の認識方向と2枚のフレームから算出した車両の移動方向とから車両の進行方向を特定する。ステップS20の後は、ステップS10に戻り、監視装置20においては、上述した処理が繰り返し実行される。   Next, in step S20, the vehicle speed calculation unit 28 acquires the next frame (and information on the imaging time) from the image input unit 22, and based on the next frame and the frame acquired in step S10, The traveling direction and the vehicle speed are calculated and stored in the analysis result DB 40 via the storage unit 34. In this case, the vehicle speed calculation unit 28 calculates the movement amount of the vehicle between the two frames based on a known technique, and calculates the vehicle speed from the calculated movement amount and the imaging time interval of the two frames. To do. When the vehicle speed cannot be calculated for some reason, the fact is stored in the analysis result DB 40 via the storage unit 34. Further, the vehicle speed calculation unit 28 specifies the traveling direction of the vehicle from the recognition direction of the monitoring camera 10 and the moving direction of the vehicle calculated from the two frames. After step S20, the process returns to step S10, and the above-described processing is repeatedly executed in the monitoring device 20.

なお、ステップS20の処理が行われた段階では、図4の解析結果DB40には、「項目」、「認識ID」、「認識日時」、「認識場所」、「認識方向」、「ナンバー情報」、「ナンバープレートの大きさ」、「車両速度」、「進行方向」の情報が格納される。   At the stage where the process of step S20 is performed, the analysis result DB 40 in FIG. 4 includes “item”, “recognition ID”, “recognition date”, “recognition location”, “recognition direction”, “number information”. , “Number plate size”, “vehicle speed”, and “traveling direction” information are stored.

次に、図9に基づいて、監視装置20において、図8の処理と並行して実行される処理について、詳細に説明する。   Next, processing executed in parallel with the processing of FIG. 8 in the monitoring device 20 will be described in detail with reference to FIG.

図9の処理では、まず、ステップS30において、滞在時間予測部30が、新たな車両速度が解析結果DB40に記憶されたか否かを判断する。このステップS30の判断が否定された場合には、ステップS34に移行するが、肯定された場合には、ステップS32に移行する。   In the process of FIG. 9, first, in step S <b> 30, the stay time prediction unit 30 determines whether or not a new vehicle speed is stored in the analysis result DB 40. If the determination in step S30 is negative, the process proceeds to step S34. If the determination is positive, the process proceeds to step S32.

ステップS32に移行すると、滞在時間予測部30は、新たな車両の滞在時間を算出する。ここで、滞在時間の算出方法の一例について、図10に基づいて説明する。なお、監視カメラ10ごとに撮像距離、車両の進行方向、標準車両速度(例えば設置場所の法定速度)が予め定義されているものとする。   If transfering it to step S32, the stay time estimation part 30 will calculate the stay time of a new vehicle. Here, an example of a method for calculating the stay time will be described with reference to FIG. It is assumed that the imaging distance, the traveling direction of the vehicle, and the standard vehicle speed (for example, the legal speed at the installation location) are defined in advance for each monitoring camera 10.

(1)まず、滞在時間予測部30は、図6の車両大きさテーブル44を参照し、ナンバープレートの大きさと分類番号の上1桁目の認識結果とに基づいて、車両の長さを推定する。   (1) First, the stay time prediction unit 30 refers to the vehicle size table 44 in FIG. 6 and estimates the vehicle length based on the license plate size and the recognition result of the first digit of the classification number. To do.

(2)次いで、滞在時間予測部30は、進行方向が順方向(予め定義しておいた方向と同じ方向)の場合は、ナンバープレートを認識した位置(認識位置)のフレーム内における位置情報に基づいて、図10に示す距離A(フレーム内に車両が入場してからナンバープレートが認識されるまでの走行距離)を算出する。具体的には、ナンバープレートのフレーム上端からの距離の、フレームの上下方向に関する大きさに対する比率と、図10に示す撮像距離とにより距離Aを算出する。   (2) Next, when the traveling direction is the forward direction (the same direction as the previously defined direction), the stay time prediction unit 30 uses the position information in the frame of the position (recognition position) where the license plate is recognized. Based on this, the distance A shown in FIG. 10 (the travel distance from when the vehicle enters the frame until the license plate is recognized) is calculated. Specifically, the distance A is calculated from the ratio of the distance from the upper end of the license plate to the size of the frame in the vertical direction and the imaging distance shown in FIG.

(3)次いで、滞在時間予測部30は、車両速度、距離A、及びナンバープレートを認識した時刻から、撮像範囲に車両が入場した時刻を予測し、予測した時刻を「入場予測時刻」とする。なお、車両速度が不明な場合は、滞在時間予測部30は、車両の速度を標準車両速度(例えば法定速度)と仮定して入場予測時刻を予測する。   (3) Next, the stay time prediction unit 30 predicts the time when the vehicle enters the imaging range from the time when the vehicle speed, the distance A, and the license plate are recognized, and the predicted time is set as the “predicted entrance time”. . When the vehicle speed is unknown, the stay time prediction unit 30 predicts the predicted entry time assuming that the vehicle speed is a standard vehicle speed (for example, legal speed).

(4)次いで、滞在時間予測部30はナンバープレートを認識した位置(認識位置)のフレーム内における位置情報と、撮像距離とに基づいて距離Bを算出する。そして、滞在時間予測部30は、車両速度、「距離B+車両の長さ」、ナンバープレートを認識した時刻に基づいて、撮像範囲から退出する時刻を予測し、予測した時刻を「退出予測時刻」とする。なお、本実施形態では、車両全体が通過するまでを滞在時間としている。なお、滞在時間予測部30は、撮像距離と距離Aとの差から、距離Bを算出してもよい。   (4) Next, the stay time prediction unit 30 calculates the distance B based on the position information in the frame of the position (recognition position) where the license plate is recognized and the imaging distance. Then, the stay time prediction unit 30 predicts the time to exit from the imaging range based on the vehicle speed, “distance B + vehicle length”, and the time when the license plate is recognized, and the predicted time is “predicted exit time”. And In the present embodiment, the time until the entire vehicle passes is defined as the stay time. The stay time prediction unit 30 may calculate the distance B from the difference between the imaging distance and the distance A.

なお、図11に示すように、車両の進行方向が逆方向(予め定義した方向と反対の方向)の場合は、車両後部のナンバープレートを認識するので、入場予測時刻は、車両速度と「距離C+車両の長さ」、撮像時刻から算出し、退出予測時刻は車両速度と距離D、撮像時刻から算出することになる。   As shown in FIG. 11, when the traveling direction of the vehicle is the reverse direction (the direction opposite to the predefined direction), the number plate at the rear of the vehicle is recognized, so the predicted entry time is determined by the vehicle speed and the “distance” “C + vehicle length” is calculated from the imaging time, and the predicted exit time is calculated from the vehicle speed, the distance D, and the imaging time.

なお、ステップS32の処理が行われた段階では、解析結果DB40は、図12に示すように、退出時刻の項目以外の項目にデータが格納された状態となる。なお、同時に2台の車両(車両B,C)が存在する時間がある場合には、後述するステップS34の判断が肯定されるまでの間に、ステップS32が2回行われるので、図13に示すように、解析結果DB40は、車両B,Cの退出時刻の項目以外の項目にデータが格納された状態となる。   In addition, at the stage where the process of step S32 is performed, the analysis result DB 40 is in a state where data is stored in items other than the item of the exit time, as shown in FIG. If there is a time in which two vehicles (vehicles B and C) exist at the same time, step S32 is performed twice until the determination in step S34 described later is affirmed. As shown, the analysis result DB 40 is in a state where data is stored in items other than the items of the exit times of the vehicles B and C.

ステップS32の後、又はステップS30の判断が否定された後は、ステップS34に移行し、滞在時間予測部30が、退出時刻が記録されていない車両の退出予測時刻のうち最も遅い時刻が到来したか否かを判断する。なお、退出時刻が記録されていない車両の退出予測時刻が1つである場合(図12の場合)には、滞在時間予測部30は、当該退出予測時刻が到来したか否かを判断する。ここでの判断が否定された場合には、ステップS30に戻るが、肯定された場合には、ステップS36に移行する。   After step S32 or after the determination of step S30 is denied, the process proceeds to step S34, and the stay time prediction unit 30 has arrived the latest time among predicted exit times of vehicles for which no exit time is recorded. Determine whether or not. In addition, when there is one predicted exit time for a vehicle in which no exit time is recorded (in the case of FIG. 12), the stay time prediction unit 30 determines whether or not the predicted exit time has arrived. If the determination is negative, the process returns to step S30. If the determination is positive, the process proceeds to step S36.

ステップS36に移行すると、映像保存時間判定部32が、車両の退出予測時刻において撮像されたフレームを取得し、解析を行う。次いで、ステップS38では、映像保存時間判定部32は、フレームに車両が存在したか否かを判断する。   If transfering it to step S36, the image | video preservation | save time determination part 32 will acquire and analyze the flame | frame imaged in the vehicle leaving prediction time. Next, in step S38, the video storage time determination unit 32 determines whether there is a vehicle in the frame.

ステップS38の判断が否定された場合、すなわち車両が既に撮像されていない場合には、ステップS40に移行し、保存部34は、入場予測時刻から退出時刻(ここでは、退出予測時刻と同一時刻)の間の映像データを映像DB42に格納するとともに、現在時刻を解析結果DB40に記憶する。なお、図12の場合には、車両Aの退出時刻として車両Aの退出予測時刻と同一時刻が格納される。一方、図13の場合には、車両Cの退出時刻として車両Cの退出予測時刻と同一時刻が格納される。なお、車両Bの退出時刻については、車両Bの退出予測時刻と同一時刻を格納することとしてもよいし、映像保存時間判定部32がフレームを解析し続ける場合には、車両Bが撮像されなくなった実際の時刻を退出時刻としてもよい。その後は、図9の全処理を終了する。   If the determination in step S38 is negative, that is, if the vehicle has not been imaged, the process proceeds to step S40, and the storage unit 34 exits from the predicted entrance time (here, the same time as the predicted exit time). Is stored in the video DB 42 and the current time is stored in the analysis result DB 40. In the case of FIG. 12, the same time as the predicted exit time of the vehicle A is stored as the exit time of the vehicle A. On the other hand, in the case of FIG. 13, the same time as the predicted exit time of the vehicle C is stored as the exit time of the vehicle C. As for the exit time of the vehicle B, the same time as the predicted exit time of the vehicle B may be stored, and when the video storage time determination unit 32 continues to analyze the frame, the vehicle B is not captured. The actual time may be the exit time. Thereafter, all the processes in FIG. 9 are terminated.

一方、ステップS38の判断が肯定された場合、すなわちフレームに車両が存在していた場合には、ステップS42に移行し、滞在時間予測部30は、所定時間待機し、ステップS36に戻る。なお、ステップS42の処理は、動画データを残す時間帯を延長する処理であるといえる。なお、ステップS36に戻った後は、滞在時間予測部30は、所定時間経過後のフレームを取得し、解析を行う。そして、ステップS38の判断が否定された場合には、上記と同様にステップS40の処理を実行する。なお、ステップS40においては、図12の場合であれば、車両Aの退出時刻として車両Aの退出予測時刻に(ステップS42の実行回数)×(ステップS42の所定時間)を加算した時刻が格納される。一方、図13の場合には、車両Cの退出時刻として車両Cの退出予測時刻に(ステップS42の実行回数)×(ステップS42の所定時間)を加算した時刻が格納される。なお、車両Bの退出時刻については、車両Bの退出予測時刻と同一時刻を格納することとしてもよいし、映像保存時間判定部32がフレームを解析し続ける場合には、車両Bが撮像されなくなった実際の時刻を退出時刻としてもよい。その後は、図9の全処理を終了する。   On the other hand, if the determination in step S38 is affirmative, that is, if a vehicle is present in the frame, the process proceeds to step S42, the stay time prediction unit 30 waits for a predetermined time, and returns to step S36. In addition, it can be said that the process of step S42 is a process which extends the time slot | zone which leaves moving image data. In addition, after returning to step S36, the stay time estimation part 30 acquires the frame after predetermined time progress, and performs an analysis. If the determination in step S38 is negative, the process of step S40 is executed as described above. In step S40, in the case of FIG. 12, the time obtained by adding (the number of executions of step S42) × (predetermined time of step S42) to the predicted exit time of vehicle A is stored as the exit time of vehicle A. The On the other hand, in the case of FIG. 13, a time obtained by adding (the number of executions of step S42) × (predetermined time of step S42) to the predicted exit time of the vehicle C is stored as the exit time of the vehicle C. As for the exit time of the vehicle B, the same time as the predicted exit time of the vehicle B may be stored, and when the video storage time determination unit 32 continues to analyze the frame, the vehicle B is not captured. The actual time may be the exit time. Thereafter, all the processes in FIG. 9 are terminated.

ここで、図9の処理が終了する前に、2台以上の車両が同時に撮像される時間が存在した場合には、図4の車両B,Cのように、1つの映像ID(201401010001)に対して、2つの車両の滞在時間(タイムスタンプ)の情報が対応付けられる。一方、2台以上の車両が同時に撮像される時間が存在しなかった場合には、図4の車両Aのように、1つの映像IDに対して、1つの車両の滞在時間(タイムスタンプ)の情報が対応付けられる。図14には、映像ファイルと各車両のタイムスタンプの関係が模式的に示されている。図14に示すように、車両Bと車両Cが同時に撮像されている時間が存在する場合には、車両Bの入場予測時刻から車両Cの退出時刻までの動画データが1つの映像ファイルとして映像DB42に記憶され、解析結果DB40には、車両B,Cのタイムスタンプ(入場予測時刻と退出時刻)が記憶されることになる。   Here, if there is a time during which two or more vehicles are simultaneously imaged before the processing in FIG. 9 is completed, one video ID (201401010001) is displayed as in vehicles B and C in FIG. On the other hand, information on the stay time (time stamp) of two vehicles is associated. On the other hand, when there is no time for two or more vehicles to be imaged at the same time, as shown in vehicle A in FIG. Information is associated. FIG. 14 schematically shows the relationship between the video file and the time stamp of each vehicle. As shown in FIG. 14, when there is a time during which the vehicles B and C are simultaneously imaged, the video data from the predicted entry time of the vehicle B to the exit time of the vehicle C is converted into a video DB 42 as one video file. The time stamps (predicted entrance time and exit time) of the vehicles B and C are stored in the analysis result DB 40.

なお、出力部36は、解析結果DB40に蓄積されたデータと、映像DB42に蓄積されたデータを、適宜(例えば所定時間毎に)サーバ70に対して出力する。なお、出力部36がサーバに送信したデータは、解析結果DB40や映像DB42から削除するようにしてもよい。   Note that the output unit 36 outputs the data accumulated in the analysis result DB 40 and the data accumulated in the video DB 42 to the server 70 as appropriate (for example, every predetermined time). The data transmitted from the output unit 36 to the server may be deleted from the analysis result DB 40 or the video DB 42.

以上、詳細に説明したように、本実施形態によると、監視装置20は、道路等の動画を撮像する監視カメラ10から送信される動画データを受信し、画像入力部22が受信した動画データから同一の車両が撮像されている2枚のフレーム及びそれぞれの撮像時刻を抽出する画像入力部22と、抽出したフレームの少なくとも1枚からナンバープレート部分を抽出し、抽出した部分からナンバープレート情報(ナンバーの文字情報やナンバープレートの大きさ)を認識するプレート抽出・認識部26と、2枚のフレームから車両の移動方向及び移動速度を算出する車両速度算出部28と、撮像時刻、ナンバープレート情報、移動方向及び移動速度に基づいて、車両が監視カメラ10により撮像されていると予測される時間帯(滞在時間)を算出する滞在時間予測部30と、算出した時間帯(滞在時間)に対応する動画データをナンバー情報及び時間帯(滞在時間)とともに記憶する保存部34と、を備える。これにより、車両が監視カメラ10により撮像されている時間帯に絞って動画データを映像DB42やサーバ70に記憶することができるので、HDD96やサーバ70のHDD196の記憶容量を効率的に利用することができる。また、動画データは、車両のナンバー情報と車両の滞在時間の情報と関連付けられるため、動画データがどの車両を撮像したものであるかを判別しやすくすることができる。また、本実施形態では、車両の大きさを考慮することで、車両が撮像されている間(車両の少なくとも一部が撮像され始めてから車両の全てが撮像されなくなるまでの間)の時間を予測することができる。これにより、適切な時間範囲の動画データを保存することが可能である。   As described above in detail, according to the present embodiment, the monitoring device 20 receives moving image data transmitted from the monitoring camera 10 that captures moving images such as roads, and the moving image data received by the image input unit 22. An image input unit 22 that extracts two frames in which the same vehicle is imaged and the respective imaging times, and a license plate portion is extracted from at least one of the extracted frames, and license plate information (number The plate extraction / recognition unit 26 for recognizing the character information and the size of the license plate), the vehicle speed calculation unit 28 for calculating the moving direction and moving speed of the vehicle from the two frames, imaging time, license plate information, Based on the moving direction and moving speed, the time zone (stay time) in which the vehicle is predicted to be imaged by the monitoring camera 10 is calculated. That includes a stay time prediction unit 30, a storage unit 34 for storing the moving image data corresponding to the calculated time period (residence time) number information and the time zone with (residence time), the. Thereby, since moving image data can be memorize | stored in image | video DB42 or the server 70 focusing on the time slot | zone when the vehicle is imaged with the monitoring camera 10, the storage capacity of HDD196 of HDD96 or the server 70 can be utilized efficiently. Can do. Further, since the moving image data is associated with the vehicle number information and the vehicle stay time information, it is possible to easily determine which vehicle the moving image data is captured. Further, in the present embodiment, by considering the size of the vehicle, the time during which the vehicle is being imaged (from when at least a part of the vehicle starts to be imaged until all of the vehicle is not imaged) is predicted. can do. Thereby, it is possible to save moving image data in an appropriate time range.

また、本実施形態では、保存部34は、複数の車両それぞれが監視カメラ10に撮像されていると予測される時間帯(滞在時間)が重複している場合に、少なくともいずれかの時間帯(滞在時間)が含まれる範囲の動画データを、複数の車両それぞれのナンバープレート情報及びそれぞれの時間帯の情報とともに記憶する。このように、複数の車両が同時に撮像されている場合に、1つの動画データとして保存することから、車両ごとに複数の動画データを別々に保存する場合に比べ、効率的な保存が可能となる。   Further, in the present embodiment, the storage unit 34 has at least one of the time zones (when the time zone (stay time) predicted to be captured by the monitoring camera 10 is overlapping). The moving image data in a range including (stay time) is stored together with the license plate information of each of the plurality of vehicles and the information of the respective time zones. As described above, when a plurality of vehicles are captured at the same time, it is stored as a single moving image data, so that it is possible to efficiently store compared to a case where a plurality of moving image data is stored separately for each vehicle. .

また、本実施形態では、プレート抽出・認識部26が、ナンバープレートの大きさを特定する情報(文字の配置関係や大きさ関係などナンバープレートが大型、中型、小型のいずれであるかを示す情報)と、ナンバープレートに記載されている分類番号の上1桁の情報を認識し、滞在時間予測部30は、プレート抽出・認識部26が認識した情報に基づいて時間帯を算出する。これにより、車両の大きさを精度良く予測し、該予測結果に基づいて、滞在時間(車両が撮像されている時間)を精度よく算出することができる。   In the present embodiment, the plate extraction / recognition unit 26 specifies information for identifying the size of the license plate (information indicating whether the license plate is large, medium, or small, such as the arrangement relationship or size relationship of characters). ), And the first digit information of the classification number described in the license plate is recognized, and the stay time prediction unit 30 calculates the time zone based on the information recognized by the plate extraction / recognition unit 26. Thereby, the size of the vehicle can be accurately predicted, and the staying time (time during which the vehicle is imaged) can be accurately calculated based on the prediction result.

また、本実施形態では、映像保存時間判定部32は、車両が監視カメラ10により撮像されていると予測される時間帯の終了時刻に撮像されたフレームを確認し(S36)、当該車両が撮像されていた場合(S38:肯定)に、時間帯を延長する(S42)。これにより、予測した時間帯を超えて車両が監視カメラ10により撮像されている場合にも、車両が撮像されている間の動画データを保存することが可能となる。   In this embodiment, the video storage time determination unit 32 confirms a frame imaged at the end time of the time zone in which the vehicle is predicted to be imaged by the monitoring camera 10 (S36), and the vehicle imaged. If so (S38: Yes), the time zone is extended (S42). Thereby, even when the vehicle is imaged by the monitoring camera 10 beyond the predicted time zone, the moving image data while the vehicle is being imaged can be stored.

なお、上記実施形態では、ステップS42の処理が頻繁に繰り返される場合や、退出予測時刻と退出時刻との差分の平均が所定値以上になった場合には、図6の車両大きさテーブル44の数値を長く変更(補正)するようにしてもよい。また、ステップS38の判断が常に否定されるような場合には、ステップS38の判断が所定頻度で適度に肯定されるように図6の車両大きさテーブル44の数値を調整し、滞在時間として適切な時間が算出されるようにしてもよい。   In the above embodiment, when the process of step S42 is frequently repeated, or when the average of the difference between the predicted exit time and the exit time exceeds a predetermined value, the vehicle size table 44 of FIG. You may make it change (correct | amend) a numerical value long. If the determination in step S38 is always negative, the numerical value in the vehicle size table 44 in FIG. 6 is adjusted so that the determination in step S38 is moderately affirmed at a predetermined frequency, and appropriate as the stay time. An appropriate time may be calculated.

なお、上記実施形態では、監視装置20からサーバ70に対して各種データを送信する場合について説明したが、これに限らず、監視装置20が各種データを保持し続けてもよい。この場合、図1からサーバ70を省略してもよい。   In the above embodiment, the case where various types of data are transmitted from the monitoring device 20 to the server 70 has been described. However, the present invention is not limited to this, and the monitoring device 20 may continue to hold various types of data. In this case, the server 70 may be omitted from FIG.

なお、上記実施形態では、監視装置20が動画データの記憶する範囲を決定し、映像DB42に記憶したり、サーバ70に送信する場合について説明したがこれに限られるものではない。例えば、監視装置20は、解析結果DB40のデータを蓄積し、当該解析結果DB40のデータをサーバ70に送信することとし、サーバ70が、解析結果DB40に基づいて動画データの記憶する範囲を決定することとしてもよい。この場合、監視装置20とサーバ70を含んで動画像データ蓄積装置として機能する。   In the above-described embodiment, the case where the monitoring device 20 determines the range in which the moving image data is stored and stores it in the video DB 42 or transmits to the server 70 is described, but the present invention is not limited to this. For example, the monitoring device 20 accumulates the data of the analysis result DB 40 and transmits the data of the analysis result DB 40 to the server 70, and the server 70 determines a range in which the moving image data is stored based on the analysis result DB 40. It is good as well. In this case, the monitoring device 20 and the server 70 are included to function as a moving image data storage device.

なお、上記の処理機能は、コンピュータによって実現することができる。その場合、処理装置が有すべき機能の処理内容を記述したプログラムが提供される。そのプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体(ただし、搬送波は除く)に記録しておくことができる。   The above processing functions can be realized by a computer. In that case, a program describing the processing contents of the functions that the processing apparatus should have is provided. By executing the program on a computer, the above processing functions are realized on the computer. The program describing the processing contents can be recorded on a computer-readable recording medium (except for a carrier wave).

プログラムを流通させる場合には、例えば、そのプログラムが記録されたDVD(Digital Versatile Disc)、CD−ROM(Compact Disc Read Only Memory)などの可搬型記録媒体の形態で販売される。また、プログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することもできる。   When the program is distributed, for example, it is sold in the form of a portable recording medium such as a DVD (Digital Versatile Disc) or a CD-ROM (Compact Disc Read Only Memory) on which the program is recorded. It is also possible to store the program in a storage device of a server computer and transfer the program from the server computer to another computer via a network.

プログラムを実行するコンピュータは、例えば、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、自己の記憶装置に格納する。そして、コンピュータは、自己の記憶装置からプログラムを読み取り、プログラムに従った処理を実行する。なお、コンピュータは、可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することもできる。また、コンピュータは、サーバコンピュータからプログラムが転送されるごとに、逐次、受け取ったプログラムに従った処理を実行することもできる。   The computer that executes the program stores, for example, the program recorded on the portable recording medium or the program transferred from the server computer in its own storage device. Then, the computer reads the program from its own storage device and executes processing according to the program. The computer can also read the program directly from the portable recording medium and execute processing according to the program. Further, each time the program is transferred from the server computer, the computer can sequentially execute processing according to the received program.

上述した実施形態は本発明の好適な実施の例である。但し、これに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変形実施可能である。   The above-described embodiment is an example of a preferred embodiment of the present invention. However, the present invention is not limited to this, and various modifications can be made without departing from the scope of the present invention.

なお、以上の実施形態の説明に関して、更に以下の付記を開示する。
(付記1) 所定領域の動画像を撮像する撮像装置から送信される動画像データを受信する受信部と、
前記受信部が受信した前記動画像データから同一の車両が撮像されている複数枚のフレーム及びそれぞれの撮像時刻を抽出する抽出部と、
前記抽出部が抽出した前記複数枚のフレームのうちの少なくとも1枚からナンバープレートの部分を抽出し、抽出した部分からナンバープレート情報を認識するとともに、前記複数枚のフレームから前記車両の移動方向及び移動速度を算出する認識部と、
前記撮像時刻、前記ナンバープレート情報、前記移動方向及び前記移動速度に基づいて、前記車両が前記撮像装置により撮像されていると予測される時間帯を算出する算出部と、
前記算出部が算出した前記時間帯に対応する動画像データを前記ナンバープレート情報及び前記時間帯の情報とともに記憶する記憶部と、
を備える動画像データ蓄積装置。
(付記2) 前記記憶部は、複数の車両それぞれが前記撮像装置に撮像されていると予測される時間帯が重複している場合に、少なくともいずれかの時間帯が含まれる時間帯の動画像データを、前記複数の車両それぞれのナンバープレート情報及びそれぞれの時間帯の情報とともに記憶する、ことを特徴とする付記1に記載の動画像データ蓄積装置。
(付記3) 前記ナンバープレート情報は、前記ナンバープレートの大きさを特定する情報、及び前記ナンバープレートに記載されている分類番号の上1桁の情報、の少なくとも一方であり、
前記算出部は、前記ナンバープレート情報から特定した車両の大きさの情報に基づいて前記時間帯を算出することを特徴とする付記1又は2に記載の動画像データ蓄積装置。
(付記4) 前記記憶部は、通信回線を介して接続された外部の記憶装置に、前記算出部が算出した前記時間帯に対応する動画像データを前記ナンバープレート情報及び前記時間帯の情報とともに記憶することを特徴とする付記1〜3のいずれかに記載の動画像データ蓄積装置。
(付記5) 前記車両が前記撮像装置により撮像されていると予測される時間帯の終了時刻に撮像されたフレームを確認し、当該車両が撮像されていた場合に、前記時間帯を延長する延長部、を更に備える付記1〜4のいずれかに記載の動画像データ蓄積装置。
(付記6) 所定領域の動画像を撮像する撮像装置から送信される動画像データを受信し、
受信した前記動画像データから同一の車両が撮像されている複数枚のフレーム及びそれぞれの撮像時刻を抽出し、
抽出した前記複数枚のフレームのうちの少なくとも1枚からナンバープレートの部分を抽出し、抽出した部分からナンバープレート情報を認識するとともに、前記複数枚のフレームから前記車両の移動方向及び移動速度を算出し、
前記撮像時刻、前記ナンバープレート情報、前記移動方向及び前記移動速度に基づいて、前記車両が前記撮像装置により撮像されていると予測される時間帯を算出し、
算出した前記時間帯に対応する動画像データを前記ナンバープレート情報及び前記時間帯の情報とともに記憶する、
処理をコンピュータに実行させることを特徴とする動画像データ蓄積プログラム。
(付記7) 前記記憶する処理では、複数の車両それぞれが前記撮像装置に撮像されていると予測される時間帯が重複している場合に、少なくともいずれかの時間帯が含まれる時間帯の動画像データを、前記複数の車両それぞれのナンバープレート情報及びそれぞれの時間帯の情報とともに記憶する、ことを特徴とする付記6に記載の動画像データ蓄積プログラム。
(付記8) 前記ナンバープレート情報は、前記ナンバープレートの大きさを特定する情報、及び前記ナンバープレートに記載されている分類番号の上1桁の情報、の少なくとも一方であり、
前記時間帯を算出する処理では、前記ナンバープレート情報から特定した車両の大きさの情報に基づいて前記時間帯を算出することを特徴とする付記6又は7に記載の動画像データ蓄積プログラム。
(付記9) 前記記憶する処理では、通信回線を介して接続された外部の記憶装置に、算出した前記時間帯に対応する動画像データを前記ナンバープレート情報及び前記時間帯の情報とともに記憶することを特徴とする付記6〜8のいずれかに記載の動画像データ蓄積プログラム。
(付記10) 前記車両が前記撮像装置により撮像されていると予測される時間帯の終了時刻に撮像されたフレームを確認し、当該車両が撮像されていた場合に、前記時間帯を延長する、処理を前記コンピュータに更に実行させる付記6〜9のいずれかに記載の動画像データ蓄積プログラム。
(付記11) 所定領域の動画像を撮像する撮像装置から送信される動画像データを受信し、
受信した前記動画像データから同一の車両が撮像されている複数枚のフレーム及びそれぞれの撮像時刻を抽出し、
抽出した前記複数枚のフレームのうちの少なくとも1枚からナンバープレートの部分を抽出し、抽出した部分からナンバープレート情報を認識するとともに、前記複数枚のフレームから前記車両の移動方向及び移動速度を算出し、
前記撮像時刻、前記ナンバープレート情報、前記移動方向及び前記移動速度に基づいて、前記車両が前記撮像装置により撮像されていると予測される時間帯を算出し、
算出した前記時間帯に対応する動画像データを前記ナンバープレート情報及び前記時間帯の情報とともに記憶する、
処理をコンピュータが実行することを特徴とする動画像データ蓄積方法。
(付記12) 前記記憶する処理では、複数の車両それぞれが前記撮像装置に撮像されていると予測される時間帯が重複している場合に、少なくともいずれかの時間帯が含まれる時間帯の動画像データを、前記複数の車両それぞれのナンバープレート情報及びそれぞれの時間帯の情報とともに記憶する、ことを特徴とする付記11に記載の動画像データ蓄積方法。
(付記13) 前記ナンバープレート情報は、前記ナンバープレートの大きさを特定する情報、及び前記ナンバープレートに記載されている分類番号の上1桁の情報、の少なくとも一方であり、
前記時間帯を算出する処理では、前記ナンバープレート情報から特定した車両の大きさの情報に基づいて前記時間帯を算出することを特徴とする付記11又は12に記載の動画像データ蓄積方法。
(付記14) 前記記憶する処理では、通信回線を介して接続された外部の記憶装置に、算出した前記時間帯に対応する動画像データを前記ナンバープレート情報及び前記時間帯の情報とともに記憶することを特徴とする付記11〜13のいずれかに記載の動画像データ蓄積方法。
(付記15) 前記車両が前記撮像装置により撮像されていると予測される時間帯の終了時刻に撮像されたフレームを確認し、当該車両が撮像されていた場合に、前記時間帯を延長する、処理を前記コンピュータが更に実行する付記11〜14のいずれかに記載の動画像データ蓄積方法。
(付記16) 付記1〜5のいずれかに記載の動画像データ蓄積装置と、
前記動画像データ蓄積装置の記憶部が動画像データ、ナンバープレート情報及び時間帯情報を記憶する記憶装置を有する外部装置と、を備える動画像データ蓄積システム。
In addition, the following additional remarks are disclosed regarding description of the above embodiment.
(Additional remark 1) The receiving part which receives the moving image data transmitted from the imaging device which images the moving image of a predetermined area,
An extraction unit for extracting a plurality of frames in which the same vehicle is imaged from the moving image data received by the reception unit and respective imaging times;
Extracting a license plate portion from at least one of the plurality of frames extracted by the extraction unit, recognizing license plate information from the extracted portion, and moving the vehicle from the plurality of frames; A recognition unit for calculating the moving speed;
A calculation unit that calculates a time zone in which the vehicle is predicted to be imaged by the imaging device based on the imaging time, the license plate information, the moving direction, and the moving speed;
A storage unit for storing moving image data corresponding to the time zone calculated by the calculation unit together with the license plate information and the information on the time zone;
A moving image data storage device.
(Additional remark 2) The said memory | storage part is a moving image of the time slot | zone in which at least any one time slot | zone is included, when the time slot | zone where it is estimated that each of several vehicles is imaged by the said imaging device overlaps. The moving image data storage device according to appendix 1, wherein the data is stored together with license plate information and time zone information of each of the plurality of vehicles.
(Supplementary Note 3) The license plate information is at least one of information for specifying the size of the license plate and information on the first digit of the classification number described in the license plate.
The moving image data storage device according to appendix 1 or 2, wherein the calculation unit calculates the time zone based on information on a size of the vehicle specified from the license plate information.
(Supplementary Note 4) The storage unit stores the moving image data corresponding to the time zone calculated by the calculation unit together with the license plate information and the time zone information in an external storage device connected via a communication line. The moving image data storage device according to any one of appendices 1 to 3, wherein the moving image data storage device is stored.
(Additional remark 5) The extension which extends the said time slot | zone is confirmed when the frame imaged at the end time of the time slot | zone where it is estimated that the said vehicle is imaged with the said imaging device and the said vehicle was imaged. The moving image data storage device according to any one of appendices 1 to 4, further comprising:
(Appendix 6) Receiving moving image data transmitted from an imaging device that captures a moving image of a predetermined area;
Extracting a plurality of frames in which the same vehicle is imaged and the respective imaging times from the received moving image data,
The license plate portion is extracted from at least one of the extracted frames, the license plate information is recognized from the extracted portion, and the moving direction and speed of the vehicle are calculated from the plurality of frames. And
Based on the imaging time, the license plate information, the moving direction and the moving speed, calculate a time zone in which the vehicle is predicted to be imaged by the imaging device,
Store the moving image data corresponding to the calculated time zone together with the license plate information and the time zone information,
A moving image data storage program which causes a computer to execute processing.
(Additional remark 7) In the process to memorize | store, when the time slot | zone when it is estimated that each of several vehicles is imaged by the said imaging device overlaps, the moving image of the time slot | zone which contains at least any one time slot | zone The moving image data storage program according to appendix 6, wherein the image data is stored together with license plate information and time zone information of each of the plurality of vehicles.
(Appendix 8) The license plate information is at least one of information for specifying the size of the license plate and information on the first digit of the classification number described in the license plate.
The moving image data storage program according to appendix 6 or 7, wherein, in the process of calculating the time zone, the time zone is calculated based on information on a size of the vehicle specified from the license plate information.
(Supplementary Note 9) In the storing process, moving image data corresponding to the calculated time zone is stored together with the license plate information and the time zone information in an external storage device connected via a communication line. The moving image data storage program according to any one of appendices 6 to 8, characterized by:
(Additional remark 10) The frame imaged at the end time of the time zone in which the vehicle is predicted to be imaged by the imaging device is confirmed, and the time zone is extended when the vehicle is imaged. The moving image data storage program according to any one of appendices 6 to 9, further causing the computer to execute processing.
(Additional remark 11) The moving image data transmitted from the imaging device which images the moving image of a predetermined area are received,
Extracting a plurality of frames in which the same vehicle is imaged and the respective imaging times from the received moving image data,
The license plate portion is extracted from at least one of the extracted frames, the license plate information is recognized from the extracted portion, and the moving direction and speed of the vehicle are calculated from the plurality of frames. And
Based on the imaging time, the license plate information, the moving direction and the moving speed, calculate a time zone in which the vehicle is predicted to be imaged by the imaging device,
Store the moving image data corresponding to the calculated time zone together with the license plate information and the time zone information,
A moving image data storage method characterized in that a computer executes processing.
(Additional remark 12) In the process to memorize | store, when the time slot | zone where it is estimated that each of several vehicles are imaged by the said imaging device has overlapped, the moving image of the time slot | zone which contains at least any one time slot | zone 12. The moving image data storage method according to appendix 11, wherein image data is stored together with license plate information and time zone information of each of the plurality of vehicles.
(Additional remark 13) The said license plate information is at least one of the information which specifies the magnitude | size of the said license plate, and the first digit information of the classification number described in the said license plate,
13. The moving image data storage method according to appendix 11 or 12, wherein, in the process of calculating the time zone, the time zone is calculated based on vehicle size information specified from the license plate information.
(Supplementary Note 14) In the storing process, moving image data corresponding to the calculated time zone is stored together with the license plate information and the time zone information in an external storage device connected via a communication line. 14. The moving image data storage method according to any one of appendices 11 to 13, characterized by:
(Additional remark 15) The frame imaged at the end time of the time zone where the vehicle is predicted to be imaged by the imaging device is confirmed, and the time zone is extended when the vehicle is imaged. 15. The moving image data storage method according to any one of appendices 11 to 14, wherein the computer further executes processing.
(Supplementary Note 16) The moving image data storage device according to any one of Supplementary Notes 1 to 5,
A moving image data storage system comprising: a storage unit of the moving image data storage device; and an external device having a storage device for storing moving image data, license plate information, and time zone information.

10 監視カメラ(撮像装置)
20 監視装置(動画像データ蓄積装置)
22 画像入力部(受信部、抽出部)
26 プレート抽出・認識部(認識部の一部)
28 車両速度算出部(認識部の一部)
30 滞在時間予測部(算出部)
32 映像保存時間判定部(延長部)
34 保存部(記憶部)
70 サーバ(外部装置)
100 監視システム(動画像データ蓄積システム)
196 HDD(記憶装置)
10 Surveillance camera (imaging device)
20 Monitoring device (moving image data storage device)
22 Image input unit (receiver, extractor)
26 Plate extraction / recognition unit (part of recognition unit)
28 Vehicle speed calculation unit (part of recognition unit)
30 Stay time prediction unit (calculation unit)
32 Video preservation time judgment part (extension part)
34 Storage unit (storage unit)
70 server (external device)
100 Monitoring system (moving image data storage system)
196 HDD (storage device)

Claims (8)

所定領域の動画像を撮像する撮像装置から送信される動画像データを受信する受信部と、
前記受信部が受信した前記動画像データから同一の車両が撮像されている複数枚のフレーム及びそれぞれの撮像時刻を抽出する抽出部と、
前記抽出部が抽出した前記複数枚のフレームのうちの少なくとも1枚からナンバープレートの部分を抽出し、抽出した部分からナンバープレート情報を認識するとともに、前記複数枚のフレームから前記車両の移動方向及び移動速度を算出する認識部と、
前記撮像時刻、前記ナンバープレート情報、前記移動方向及び前記移動速度に基づいて、前記車両が前記撮像装置により撮像されていると予測される時間帯を算出する算出部と、
前記算出部が算出した前記時間帯に対応する動画像データを前記ナンバープレート情報及び前記時間帯の情報とともに記憶する記憶部と、
を備える動画像データ蓄積装置。
A receiving unit that receives moving image data transmitted from an imaging device that captures a moving image of a predetermined area;
An extraction unit for extracting a plurality of frames in which the same vehicle is imaged from the moving image data received by the reception unit and respective imaging times;
Extracting a license plate portion from at least one of the plurality of frames extracted by the extraction unit, recognizing license plate information from the extracted portion, and moving the vehicle from the plurality of frames; A recognition unit for calculating the moving speed;
A calculation unit that calculates a time zone in which the vehicle is predicted to be imaged by the imaging device based on the imaging time, the license plate information, the moving direction, and the moving speed;
A storage unit for storing moving image data corresponding to the time zone calculated by the calculation unit together with the license plate information and the information on the time zone;
A moving image data storage device.
前記記憶部は、複数の車両それぞれが前記撮像装置に撮像されていると予測される時間帯が重複している場合に、少なくともいずれかの時間帯が含まれる時間帯の動画像データを、前記複数の車両それぞれのナンバープレート情報及びそれぞれの時間帯の情報とともに記憶する、ことを特徴とする請求項1に記載の動画像データ蓄積装置。   The storage unit stores moving image data in a time zone that includes at least one of the time zones when the time zones in which each of the plurality of vehicles is predicted to be captured by the imaging device overlap. The moving image data storage device according to claim 1, wherein the moving image data storage device stores the license plate information of each of the plurality of vehicles and information of each time zone. 前記ナンバープレート情報は、前記ナンバープレートの大きさを特定する情報、及び前記ナンバープレートに記載されている分類番号の上1桁の情報、の少なくとも一方であり、
前記算出部は、前記ナンバープレート情報から特定した車両の大きさの情報に基づいて前記時間帯を算出することを特徴とする請求項1又は2に記載の動画像データ蓄積装置。
The license plate information is at least one of information for specifying the size of the license plate, and information on the first digit of the classification number described in the license plate,
The moving image data storage apparatus according to claim 1, wherein the calculation unit calculates the time zone based on information on a size of the vehicle specified from the license plate information.
前記記憶部は、通信回線を介して接続された外部の記憶装置に、前記算出部が算出した前記時間帯に対応する動画像データを前記ナンバープレート情報及び前記時間帯の情報とともに記憶することを特徴とする請求項1〜3のいずれか一項に記載の動画像データ蓄積装置。   The storage unit stores the moving image data corresponding to the time zone calculated by the calculation unit together with the license plate information and the time zone information in an external storage device connected via a communication line. The moving image data storage device according to claim 1, wherein the moving image data storage device is a storage device. 前記車両が前記撮像装置により撮像されていると予測される時間帯の終了時刻に撮像されたフレームを確認し、当該車両が撮像されていた場合に、前記時間帯を延長する延長部、を更に備える請求項1〜4のいずれか一項に記載の動画像データ蓄積装置。   An extension unit for confirming a frame imaged at an end time of a time zone in which the vehicle is predicted to be imaged by the imaging device, and extending the time zone when the vehicle is imaged; The moving image data storage device according to any one of claims 1 to 4. 所定領域の動画像を撮像する撮像装置から送信される動画像データを受信し、
受信した前記動画像データから同一の車両が撮像されている複数枚のフレーム及びそれぞれの撮像時刻を抽出し、
抽出した前記複数枚のフレームのうちの少なくとも1枚からナンバープレートの部分を抽出し、抽出した部分からナンバープレート情報を認識するとともに、前記複数枚のフレームから前記車両の移動方向及び移動速度を算出し、
前記撮像時刻、前記ナンバープレート情報、前記移動方向及び前記移動速度に基づいて、前記車両が前記撮像装置により撮像されていると予測される時間帯を算出し、
算出した前記時間帯に対応する動画像データを前記ナンバープレート情報及び前記時間帯の情報とともに記憶する、
処理をコンピュータに実行させることを特徴とする動画像データ蓄積プログラム。
Receiving moving image data transmitted from an imaging device that captures a moving image of a predetermined area;
Extracting a plurality of frames in which the same vehicle is imaged and the respective imaging times from the received moving image data,
The license plate portion is extracted from at least one of the extracted frames, the license plate information is recognized from the extracted portion, and the moving direction and speed of the vehicle are calculated from the plurality of frames. And
Based on the imaging time, the license plate information, the moving direction and the moving speed, calculate a time zone in which the vehicle is predicted to be imaged by the imaging device,
Store the moving image data corresponding to the calculated time zone together with the license plate information and the time zone information,
A moving image data storage program which causes a computer to execute processing.
所定領域の動画像を撮像する撮像装置から送信される動画像データを受信し、
受信した前記動画像データから同一の車両が撮像されている複数枚のフレーム及びそれぞれの撮像時刻を抽出し、
抽出した前記複数枚のフレームのうちの少なくとも1枚からナンバープレートの部分を抽出し、抽出した部分からナンバープレート情報を認識するとともに、前記複数枚のフレームから前記車両の移動方向及び移動速度を算出し、
前記撮像時刻、前記ナンバープレート情報、前記移動方向及び前記移動速度に基づいて、前記車両が前記撮像装置により撮像されていると予測される時間帯を算出し、
算出した前記時間帯に対応する動画像データを前記ナンバープレート情報及び前記時間帯の情報とともに記憶する、
処理をコンピュータが実行することを特徴とする動画像データ蓄積方法。
Receiving moving image data transmitted from an imaging device that captures a moving image of a predetermined area;
Extracting a plurality of frames in which the same vehicle is imaged and the respective imaging times from the received moving image data,
The license plate portion is extracted from at least one of the extracted frames, the license plate information is recognized from the extracted portion, and the moving direction and speed of the vehicle are calculated from the plurality of frames. And
Based on the imaging time, the license plate information, the moving direction and the moving speed, calculate a time zone in which the vehicle is predicted to be imaged by the imaging device,
Store the moving image data corresponding to the calculated time zone together with the license plate information and the time zone information,
A moving image data storage method characterized in that a computer executes processing.
請求項1〜5のいずれか一項に記載の動画像データ蓄積装置と、
前記動画像データ蓄積装置の記憶部が動画像データ、ナンバープレート情報及び時間帯情報を記憶する記憶装置を有する外部装置と、を備える動画像データ蓄積システム。
The moving image data storage device according to any one of claims 1 to 5,
A moving image data storage system comprising: a storage unit of the moving image data storage device; and an external device having a storage device for storing moving image data, license plate information, and time zone information.
JP2015051458A 2015-03-13 2015-03-13 Moving image data storage device, moving image data storage program, moving image data storage method, and moving image data storage system Active JP6443145B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015051458A JP6443145B2 (en) 2015-03-13 2015-03-13 Moving image data storage device, moving image data storage program, moving image data storage method, and moving image data storage system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015051458A JP6443145B2 (en) 2015-03-13 2015-03-13 Moving image data storage device, moving image data storage program, moving image data storage method, and moving image data storage system

Publications (2)

Publication Number Publication Date
JP2016170735A true JP2016170735A (en) 2016-09-23
JP6443145B2 JP6443145B2 (en) 2018-12-26

Family

ID=56983937

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015051458A Active JP6443145B2 (en) 2015-03-13 2015-03-13 Moving image data storage device, moving image data storage program, moving image data storage method, and moving image data storage system

Country Status (1)

Country Link
JP (1) JP6443145B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112133104A (en) * 2020-08-21 2020-12-25 浙江大华技术股份有限公司 Vehicle information detection method, device and system and storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001357402A (en) * 2000-06-12 2001-12-26 Hitachi Ltd Method and device for detecting vehicle
JP2002335478A (en) * 2001-05-07 2002-11-22 Ricoh Co Ltd Video recording reproducing system
JP2006332881A (en) * 2005-05-24 2006-12-07 Canon Inc Monitor photographing system, photographing method, computer program, and recording medium
JP2013182550A (en) * 2012-03-05 2013-09-12 Sumitomo Electric Ind Ltd Vehicle detection device, vehicle detection method and vehicle detection program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001357402A (en) * 2000-06-12 2001-12-26 Hitachi Ltd Method and device for detecting vehicle
JP2002335478A (en) * 2001-05-07 2002-11-22 Ricoh Co Ltd Video recording reproducing system
JP2006332881A (en) * 2005-05-24 2006-12-07 Canon Inc Monitor photographing system, photographing method, computer program, and recording medium
JP2013182550A (en) * 2012-03-05 2013-09-12 Sumitomo Electric Ind Ltd Vehicle detection device, vehicle detection method and vehicle detection program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112133104A (en) * 2020-08-21 2020-12-25 浙江大华技术股份有限公司 Vehicle information detection method, device and system and storage medium

Also Published As

Publication number Publication date
JP6443145B2 (en) 2018-12-26

Similar Documents

Publication Publication Date Title
JP4391839B2 (en) Shooting condition setting program, shooting condition setting method, and shooting condition setting apparatus
JP6554280B2 (en) Data processing apparatus, image processing method, and program
EP2923487B1 (en) Method and system for metadata extraction from master-slave cameras tracking system
JP2020061079A (en) Traffic violation vehicle identification system, server, and vehicle control program
CN110473406B (en) Search support system, search support device, and search support method
CN110781711A (en) Target object identification method and device, electronic equipment and storage medium
JP6489636B2 (en) Information collection device, traffic volume evaluation system, guidance facility, information collection method and program
WO2015098144A1 (en) Information processing device, information processing program, recording medium, and information processing method
CN111046212A (en) Traffic accident processing method and device and electronic equipment
US20220392233A1 (en) Traffic information providing method and device, and computer program stored in medium in order to execute method
JP2018169880A (en) Vehicle search system, license plate information accumulation device, and method
JP6443145B2 (en) Moving image data storage device, moving image data storage program, moving image data storage method, and moving image data storage system
CN110889971A (en) Intelligent vehicle finding method and device for parking lot
KR20090035798A (en) Store and search system and the method of the license plate images
CN110766101A (en) Method and device for determining movement track
CN110876090B (en) Video abstract playback method and device, electronic equipment and readable storage medium
CN109698900B (en) Data processing method, device and monitoring system
JP2008217432A (en) Traveling track specification device, traveling track specification system, computer program and traveling track specification method
KR101362962B1 (en) System for recognizing and searching the car number and method therefor
JP2023073535A (en) Display program and display method
CN104067606A (en) Camera, camera system, and self-diagnosis method
CN110876029B (en) Video abstract playback method and device, electronic equipment and readable storage medium
JP2014191763A (en) Device, system, program, and method for recognizing vehicle
JP5863180B2 (en) Video analysis processing device, video analysis processing method, and video analysis processing program
JP6267350B2 (en) Data processing apparatus, data processing system, data processing method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181030

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181031

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181112

R150 Certificate of patent or registration of utility model

Ref document number: 6443145

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150