JP6698002B2 - Information processing device and program - Google Patents

Information processing device and program Download PDF

Info

Publication number
JP6698002B2
JP6698002B2 JP2016212269A JP2016212269A JP6698002B2 JP 6698002 B2 JP6698002 B2 JP 6698002B2 JP 2016212269 A JP2016212269 A JP 2016212269A JP 2016212269 A JP2016212269 A JP 2016212269A JP 6698002 B2 JP6698002 B2 JP 6698002B2
Authority
JP
Japan
Prior art keywords
vehicle
moving image
image
information
specific
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016212269A
Other languages
Japanese (ja)
Other versions
JP2018073135A (en
Inventor
宇一郎 野澤
宇一郎 野澤
Original Assignee
サクサ株式会社
株式会社マイスター
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by サクサ株式会社, 株式会社マイスター filed Critical サクサ株式会社
Priority to JP2016212269A priority Critical patent/JP6698002B2/en
Publication of JP2018073135A publication Critical patent/JP2018073135A/en
Application granted granted Critical
Publication of JP6698002B2 publication Critical patent/JP6698002B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Television Signal Processing For Recording (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、情報処理装置及びプログラムに関する。   The present invention relates to an information processing device and a program.

従来、道路を走行する車両を撮像し、交通状況を監視したり特定の車両を検出したりする技術が提案されている。例えば特許文献1には、複数の自動車にテレビカメラと、該テレビカメラの画像から対向車あるいは先行車の車番を認識するための画像処理を行う車と、登録された特定車番と複数の自動車から送られてくる車番認識データとをサーチにより照合して、一致する車番認識データがある場合には、その時刻、絶対位置座標を用いて、特定車番の自動車の走行経路を追跡する技術が開示されている。   2. Description of the Related Art Conventionally, a technique has been proposed in which a vehicle traveling on a road is imaged to monitor a traffic situation or detect a specific vehicle. For example, in Patent Document 1, a plurality of automobiles have television cameras, a vehicle that performs image processing for recognizing an oncoming vehicle number or a preceding vehicle number from images of the television cameras, a registered specific vehicle number, and a plurality of registered vehicle numbers. By matching the vehicle number recognition data sent from the vehicle by searching, if there is a matching vehicle number recognition data, the time and absolute position coordinates are used to trace the travel route of the vehicle with the specific vehicle number. Techniques for doing so are disclosed.

特開平8−30892号公報JP-A-8-30892

しかし、複数の車両に設置された車載カメラが撮像した映像の撮像時刻が必ずしもいつも正しい情報であるという保証はない。そのため、異なる撮像装置で撮像された動画像の撮像時刻を合わせる技術が望まれている。   However, there is no guarantee that the image capturing times of the images captured by the onboard cameras installed in a plurality of vehicles are always correct information. Therefore, there is a demand for a technique for adjusting the image capturing time of moving images captured by different image capturing devices.

本発明はこれらの点に鑑みてなされたものであり、複数の車両に設置された車載カメラが撮像した映像の撮像時刻を合わせる技術を提供することを目的とする。   The present invention has been made in view of these points, and an object of the present invention is to provide a technique for adjusting the image capturing times of images captured by vehicle-mounted cameras installed in a plurality of vehicles.

本発明の第1の態様は、情報処理装置である。この装置は、車載カメラを搭載した複数の車両がそれぞれ撮像した複数の動画像を取得する画像取得部と、検索対象車両に関する車両情報の入力を受け付ける情報受付部と、前記複数の動画像のうち、撮像データ中において所定の構造物とともに前記車両情報が含まれる動画像である特定動画像を、少なくとも2つ抽出する特定画像抽出部と、前記特定動画像それぞれの撮像時間帯に基づいて、各特定画像の撮像時刻を補正する時刻補正部と、を備える。   A first aspect of the present invention is an information processing device. This apparatus includes an image acquisition unit that acquires a plurality of moving images captured by a plurality of vehicles equipped with on-vehicle cameras, an information reception unit that receives an input of vehicle information regarding a search target vehicle, and a plurality of moving images among the plurality of moving images. , A specific image extraction unit that extracts at least two specific moving images that are moving images that include the vehicle information together with a predetermined structure in the imaged data, and each of the specific moving images based on the image capturing time period A time correction unit that corrects the image capturing time of the specific image.

前記情報処理装置は、前記特定動画像のうち、撮像時間帯の正確性が保証されている基準動画像を抽出する基準画像抽出部をさらに備えてもよく、前記時刻補正部は、前記基準動画像の時刻情報を用いて、他の特定動画像の時刻を補正してもよい。   The information processing apparatus may further include a reference image extraction unit that extracts, from the specific moving image, a reference moving image whose accuracy in an imaging time zone is guaranteed, and the time correction unit may be configured to operate the reference moving image. You may correct the time of another specific moving image using the time information of an image.

前記情報処理装置は、前記特定動画像に撮像されている自動車ナンバー読み取り装置を抽出する特定装置抽出部をさらに備えてもよく、前記基準画像抽出部は、前記特定動画像のうち、前記自動車ナンバー読み取り装置がナンバーを読み取った車両の車載カメラが撮像した動画像を前記基準動画像として抽出してもよい。   The information processing device may further include a specific device extraction unit that extracts a vehicle number reading device captured in the specific moving image, and the reference image extraction unit may include the vehicle number in the specific moving image. You may extract the moving image which the vehicle-mounted camera of the vehicle which the reading device read the number imaged as the said reference moving image.

前記基準画像抽出部は、GPS(Global Positioning System)情報が付帯している特定動画像を、前記基準動画像として抽出してもよい。   The reference image extraction unit may extract a specific moving image accompanied by GPS (Global Positioning System) information as the reference moving image.

前記情報受付部は、前記車両情報として少なくとも自動車登録番号を受け付けてもよい。   The information receiving unit may receive at least an automobile registration number as the vehicle information.

`コンピュータに、車載カメラを搭載した複数の車両がそれぞれ撮像した複数の動画像を取得する機能と、検索対象車両に関する車両情報の入力を受け付ける機能と、前記複数の動画像のうち、撮像データ中において所定の構造物とともに前記車両情報が含まれる動画像である特定動画像を、少なくとも2つ抽出する機能と、前記特定動画像それぞれの撮像時間帯に基づいて、各特定画像の撮像時刻を補正する機能と、を実現させる。 ` A computer that acquires multiple moving images captured by multiple vehicles equipped with in-vehicle cameras, a function that accepts input of vehicle information related to the vehicle to be searched, and one of the multiple moving images In (1), a function of extracting at least two specific moving images that are moving images including the vehicle information together with a predetermined structure, and the image capturing time of each specific image is corrected based on the capturing time zone of each of the specific moving images. And the function to do.

本発明によれば、複数の車両に設置された車載カメラが撮像した映像の撮像時刻を合わせる技術を提供することができる。   Advantageous Effects of Invention According to the present invention, it is possible to provide a technique for adjusting the image capturing times of images captured by vehicle-mounted cameras installed in a plurality of vehicles.

第1の実施の形態に係る情報処理システムの概要を説明するための図である。It is a figure for explaining the outline of the information processing system concerning a 1st embodiment. 第1の実施の形態に係る情報処理装置の機能構成を模式的に示す図である。It is a figure which shows typically the functional structure of the information processing apparatus which concerns on 1st Embodiment. 第1の実施の形態に係る通信部が格納する動画像データベースのデータ構造を模式的に示す図である。It is a figure which shows typically the data structure of the moving image database which the communication part which concerns on 1st Embodiment stores. 重複画像抽出部が取得した各特定動画像の車両情報含有時間帯の一例を模式的に示す図である。It is a figure which shows typically an example of the vehicle information containing time zone of each specific moving image which the overlapping image extraction part acquired. 動画像のフレームの一例を模式的に示す図である。It is a figure which shows an example of the frame of a moving image typically. 第1の実施の形態に係る類比判定部が類似すると判定したフレームの撮像時刻を示す図である。It is a figure which shows the imaging time of the flame|frame which the analogical ratio determination part which concerns on 1st Embodiment determines with being similar. 第1の実施の形態に係る情報処理装置が実行する情報処理の流れを説明するためのフローチャートである。6 is a flowchart for explaining a flow of information processing executed by the information processing device according to the first embodiment. 第2の実施の形態に係る情報処理装置の機能構成を模式的に示す図である。It is a figure which shows typically the functional structure of the information processing apparatus which concerns on 2nd Embodiment. 第2の実施の形態に係る情報処理装置が実行する情報処理の流れを説明するためのフローチャートである。9 is a flowchart for explaining the flow of information processing executed by the information processing device according to the second embodiment.

<第1の実施の形態>
本発明の第1の実施の形態の概要を述べる。
図1は、第1の実施の形態に係る情報処理システムSの概要を説明するための図である。情報処理システムSは道路を走行する複数の車両Vに搭載された車載カメラが撮像した動画像を収集してその映像を解析することにより、検索対象の車両に関する情報を抽出する。この情報抽出を実行する情報処理装置1は、情報解析センター2内に設置されている。図1には第1車両V1から第9車両V9までの9台の車両Vが記載されているが、情報処理システムSが解析の対象とする動画像を撮像する車両Vは8台以下でも10台以上であってもよい。
<First Embodiment>
The outline of the first embodiment of the present invention will be described.
FIG. 1 is a diagram for explaining the outline of the information processing system S according to the first embodiment. The information processing system S extracts information about the vehicle to be searched by collecting moving images captured by the on-vehicle cameras mounted on the plurality of vehicles V traveling on the road and analyzing the images. The information processing device 1 that executes this information extraction is installed in the information analysis center 2. Although nine vehicles V from the first vehicle V1 to the ninth vehicle V9 are illustrated in FIG. 1, the number of vehicles V that captures a moving image to be analyzed by the information processing system S is 10 or less. It may be more than one.

車両Vに搭載された車載カメラが撮像した動画像は、いわゆる「ドライブレコーダ」の動画像である。情報処理装置1は、例えば各車両Vの運転者から匿名等を条件に任意で提供を受けることにより、動画像を収集する。以下、車載カメラが撮像した動画像を単に「動画像」と記載する。   The moving image captured by the vehicle-mounted camera mounted on the vehicle V is a so-called “drive recorder” moving image. The information processing apparatus 1 collects moving images by being arbitrarily provided, for example, by the driver of each vehicle V under conditions such as anonymity. Hereinafter, the moving image captured by the vehicle-mounted camera will be simply referred to as “moving image”.

図1において、符号Aで示す破線は第1車両V1の車載カメラの画角を示す。図1に示す例では、第1車両V1の動画像には、先行車である車両V3の映像、対向車である車両V4及び車両V6の映像、構造物3の映像が含まれる。ここで構造物3が特徴的な構造物であり一意に特定できるような場合には、そのような構造物3の映像が含まれる動画像が撮像された位置を特定するための有用な手がかりとなる。   In FIG. 1, the broken line indicated by reference symbol A indicates the angle of view of the vehicle-mounted camera of the first vehicle V1. In the example illustrated in FIG. 1, the moving image of the first vehicle V1 includes an image of the vehicle V3 that is the preceding vehicle, images of the vehicles V4 and V6 that are the oncoming vehicles, and an image of the structure 3. Here, when the structure 3 is a characteristic structure and can be uniquely specified, a useful clue for specifying the position at which the moving image including the image of the structure 3 is captured. Become.

また、例えば第8車両V8の動画像には、先行車である第7車両V7の映像の他、案内標識4の映像や信号機5の映像が含まれる。異なる案内標識4にはそれぞれ異なる地名や道路名が表示されているため、動画像に案内標識4の映像が含まれている場合、その動画像が撮像された位置を特定することができる。さらに信号機5の中には交差点名等が記載された標識を備えるものも存在する。そのような信号機5の映像が動画像に含まれている場合も、その動画像が撮像された位置を特定するための有用な手がかりとなる。   Further, for example, the moving image of the eighth vehicle V8 includes the image of the guide sign 4 and the image of the traffic light 5, in addition to the image of the seventh vehicle V7 that is the preceding vehicle. Since different place names and road names are displayed on different guide signs 4, when the video of the guide sign 4 is included in the moving image, the position where the moving image is captured can be specified. Further, some of the traffic signals 5 are provided with a sign in which an intersection name and the like are described. Even when the video of such a traffic light 5 is included in the moving image, it can be a useful clue for identifying the position where the moving image was captured.

さらに、道路によっては自動車ナンバー読取装置6(いわゆる「Nシステム」)が設置されていることがある。自動車ナンバー読取装置6は特定の場所にのみ設置されているため、動画像に自動車ナンバー読取装置6の映像が含まれている場合、その動画像が撮像された位置を特定するための有用な手がかりとなる。また自動車ナンバー読取装置6が車両Vの自動車登録番号(いわゆる「ナンバー」)を取得している場合には、その情報に基づいて車両Vが何時、何処を走行しているかを特定することができる。   Furthermore, an automobile number reading device 6 (so-called “N system”) may be installed on some roads. Since the vehicle number reading device 6 is installed only in a specific place, when the video of the vehicle number reading device 6 is included in the moving image, it is a useful clue for identifying the position where the moving image was captured. Becomes Further, when the vehicle number reading device 6 has acquired the vehicle registration number (so-called “number”) of the vehicle V, it is possible to specify when and where the vehicle V is traveling based on the information. .

近年のドライブレコーダの中には、GPS(Global Positioning System)をはじめとする衛星測位システム7と連動することができるものも存在する。このようなドライブレコーダの動画像は、撮像された場所及び時間に関する正確な情報が付帯されている。   Among recent drive recorders, there are those that can be linked with the satellite positioning system 7 such as GPS (Global Positioning System). The moving image of such a drive recorder is accompanied by accurate information on the place and time at which the image was taken.

一方で、衛星測位システム7と連動していないドライブレコーダの動画像は、撮像された時間の精度が保証された映像とは必ずしも言えない。なぜなら、ドライブレコーダの内部時計を正確に合わせるユーザもいれば、初期設定のまま不正確な時刻のままドライブレコーダを使用するユーザもいるからである。また、ドライブレコーダの使用開始時に時計を合わせたとしても、その後の時刻のずれまでは修正しないで使用するユーザもいるであろう。   On the other hand, the moving image of the drive recorder that is not linked with the satellite positioning system 7 cannot necessarily be said to be a video in which the accuracy of the captured time is guaranteed. This is because some users accurately set the internal clock of the drive recorder, and some users use the drive recorder with an incorrect time with the initial setting. Further, even if the clock is set at the start of use of the drive recorder, some users may use the drive recorder without correcting the time difference thereafter.

さらに、動画像に構造物3、案内標識4、又は信号機5のような特徴的なランドマークが含まれていない場合には、その動画像が撮像された場所を特定することが困難となる場合がある。   Furthermore, when the moving image does not include a characteristic landmark such as the structure 3, the guide sign 4, or the traffic light 5, it is difficult to specify the location where the moving image was captured. There is.

このように、情報処理装置1が提供を受けて蓄積する動画像は、付帯されている撮像時間帯及び撮像場所の情報の正確性が高いもの、撮像時間帯の正確性は高いが撮影場所は不確かであるもの、撮影場所の正確性は高いが撮影時間帯に信頼性が欠けるもの、及び撮像時間帯の信頼性が低くかつ撮影場所が不明なもの等が混在しうる。   As described above, the moving images that the information processing apparatus 1 receives and accumulates have high accuracy in the information of the accompanying imaging time zone and imaging location, and the accuracy of the imaging time zone is high, but the imaging location is There may be a mixture of uncertain ones, a highly accurate shooting location, but unreliable shooting time zones, and a low unreliable shooting time zone and an unknown shooting location.

第1の実施の形態に係る情報処理装置1は、検索対象車両に関する車両情報が含まれる動画像群をまず抽出する。ここで車両情報とは、「検索対象車両の自動車登録番号の全部又は一部」、又は「車種や色等の外観情報」のうち少なくともいずれか一方に関する情報である。   The information processing apparatus 1 according to the first embodiment first extracts a moving image group that includes vehicle information regarding a search target vehicle. Here, the vehicle information is information related to at least one of "all or a part of the vehicle registration number of the search target vehicle" or "appearance information such as vehicle type, color, etc."

情報処理装置1は、抽出した動画像群に付帯されている情報を利用して、各動画像の時刻情報を修正してその精度を向上させる。これにより、情報処理装置1は、検索対象車両の走行経路及び走行時間に関する情報の精度を向上することができる。
以下、第1の実施の形態に係る情報処理装置1についてより詳細に説明する。
The information processing device 1 corrects the time information of each moving image by using the information attached to the extracted moving image group to improve its accuracy. As a result, the information processing device 1 can improve the accuracy of information regarding the travel route and travel time of the search target vehicle.
Hereinafter, the information processing device 1 according to the first embodiment will be described in more detail.

図2は、第1の実施の形態に係る情報処理装置1の機能構成を模式的に示す図である。情報処理装置1は、通信部10、記憶部20、入力部30、出力部40、及び制御部50を備える。   FIG. 2 is a diagram schematically showing the functional configuration of the information processing device 1 according to the first embodiment. The information processing device 1 includes a communication unit 10, a storage unit 20, an input unit 30, an output unit 40, and a control unit 50.

通信部10はインターネット等の情報処理装置1の外部のネットワークと通信するための通信モジュールである。記憶部20はHDD(Hard Disk Drive)やSSD(Solid State Drive)等の大容量記憶装置、及びDRAM(Dynamic Random Access Memory)等の高速な揮発性メモリであり、情報処理装置1の記憶装置及び作業メモリとして機能する。   The communication unit 10 is a communication module for communicating with a network outside the information processing device 1 such as the Internet. The storage unit 20 is a large-capacity storage device such as a HDD (Hard Disk Drive) or SSD (Solid State Drive), and a high-speed volatile memory such as a DRAM (Dynamic Random Access Memory). Functions as a working memory.

入力部30は、キーボードやポインティングデバイス等を介して情報処理装置1のユーザからの入力を受け付ける入力用ユーザインタフェースである。また出力部40は、ディスプレイ等を介して情報処理装置1のユーザに情報を提供する出力用ユーザインタフェースである。   The input unit 30 is an input user interface that receives an input from the user of the information processing apparatus 1 via a keyboard, a pointing device, or the like. The output unit 40 is an output user interface that provides information to the user of the information processing device 1 via a display or the like.

制御部50は情報処理装置1のCPU(Central Processing Unit)であり、記憶部20に格納されたプログラムをメモリに読み出して実行することにより、画像取得部51、情報受付部52、特定画像抽出部53、重複画像抽出部54、時刻補正部55、パターン抽出部56、類比判定部57、及び基準画像抽出部58として機能する。   The control unit 50 is a CPU (Central Processing Unit) of the information processing device 1, and reads the program stored in the storage unit 20 into a memory and executes the program to obtain an image acquisition unit 51, an information reception unit 52, and a specific image extraction unit. 53, the overlapping image extraction unit 54, the time correction unit 55, the pattern extraction unit 56, the similarity determination unit 57, and the reference image extraction unit 58.

画像取得部51は、車載カメラを搭載した複数の車両Vがそれぞれ撮像した複数の動画像を、通信部10を介して取得する。画像取得部51は、取得した動画像を記憶部20に格納する。情報受付部52は、検索対象車両に関する車両情報の入力をユーザから受け付ける。   The image acquisition unit 51 acquires, via the communication unit 10, a plurality of moving images captured by a plurality of vehicles V equipped with an in-vehicle camera. The image acquisition unit 51 stores the acquired moving image in the storage unit 20. The information receiving unit 52 receives an input of vehicle information regarding the search target vehicle from the user.

特定画像抽出部53は、記憶部20に格納されている複数の動画像のうち、撮像データ中に車両情報を含む動画像である特定動画像を、少なくとも2つ抽出する。例えば情報受付部52がユーザから受け付けた車両情報が特定の自動車登録番号である場合、特定画像抽出部53は、記憶部20に格納されている複数の動画像のうち、ナンバープレートにその自動車登録番号が記載された車両が撮像されている動画像を特定動画像として抽出する。   The specific image extracting unit 53 extracts at least two specific moving images, which are moving images including vehicle information in the captured data, from the plurality of moving images stored in the storage unit 20. For example, when the vehicle information received from the user by the information reception unit 52 is a specific vehicle registration number, the specific image extraction unit 53 registers the vehicle on the license plate among the plurality of moving images stored in the storage unit 20. The moving image in which the vehicle with the number is captured is extracted as the specific moving image.

別の例として、情報受付部52がユーザから受け付けた車両情報が車の車種及び色(例えばX社製の赤いセダン)である場合、特定画像抽出部53は、記憶部20に格納されている複数の動画像のうち、車両情報で特定される車種及び色の車両が撮像されている動画像を特定動画像として抽出する。なお、特定画像抽出部53は、例えば文字列検索やパターンマッチング等の既知の画像処理技術を用いて実現できる。   As another example, when the vehicle information received by the information receiving unit 52 from the user is the vehicle type and color of the vehicle (for example, a red sedan manufactured by X company), the specific image extracting unit 53 is stored in the storage unit 20. A moving image in which a vehicle of a vehicle type and a color specified by vehicle information is captured is extracted as a specific moving image from a plurality of moving images. The specific image extraction unit 53 can be realized by using a known image processing technique such as character string search or pattern matching.

特定画像抽出部53は、動画像中に車両情報が含まれることを基準として動画像を抽出するが、動画像の撮像時間帯は考慮しない。このため、特定画像抽出部53が抽出した動画像の撮像時間帯に大きなギャップがあることも起こりうる。検索対象車両の走行経路及び走行時間に関する情報を取得するという観点から見ると、撮像時間帯に大きなギャップがある動画像ほど有用性が低下する。   The specific image extraction unit 53 extracts the moving image based on the fact that the moving image includes vehicle information, but does not consider the image capturing time zone of the moving image. Therefore, there may be a large gap in the image capturing time zone of the moving image extracted by the specific image extracting unit 53. From the viewpoint of acquiring information on the travel route and travel time of the search target vehicle, the usefulness of the moving image decreases as the imaging time period has a large gap.

そこで重複画像抽出部54は、特定画像抽出部53が抽出した特定動画像のうち、車両情報が含まれる時間帯が少なくとも一部において重複する特定動画像の組み合わせを取得する。   Therefore, the overlapping image extracting unit 54 acquires a combination of the specific moving images extracted by the specific image extracting unit 53, in which at least a part of the time period including the vehicle information overlaps.

図3は、第1の実施の形態に係る通信部10が格納する動画像データベースのデータ構造を模式的に示す図である。画像取得部51は、取得した動画像のそれぞれを一意に特定するための動画像ID(Identification)を各動画像に割り当てる。図3に示す動画像データベースの例では、動画像IDとしてM000001が割り当てられた動画像に関する情報が格納されている。   FIG. 3 is a diagram schematically showing the data structure of the moving image database stored in the communication unit 10 according to the first embodiment. The image acquisition unit 51 assigns a moving image ID (Identification) for uniquely identifying each of the acquired moving images to each moving image. In the example of the moving image database shown in FIG. 3, information about moving images to which M000001 is assigned as a moving image ID is stored.

動画像データベースは複数のデータフィールドを備えており、動画像の「撮影時間帯」を格納するデータフィールドも存在する。図3には、動画像IDがM000001で特定される動画像は、2016年1月23日午前4時56分12秒から同日の午後9時9分54秒まで撮影されたことが格納されている。また動画像データベースには動画像中に車両情報が含まれている時間帯を示す車両情報含有時間帯データフィールドも含まれる。図3には、動画像IDがM000001で特定される動画像は、2016年1月23日午後12時34分56秒から同日の午後13時6分23秒まで車両情報が含まれていることを示している。
なお、その他のデータフィールドに格納されるデータについては後述する。
The moving image database has a plurality of data fields, and there is also a data field for storing the "shooting time zone" of a moving image. In FIG. 3, the moving image identified by the moving image ID M000001 is stored that was taken from January 23, 2016 4:56:12 am to 9:09:54 pm on the same day. There is. The moving image database also includes a vehicle information containing time zone data field indicating a time zone in which vehicle information is included in the moving image. In FIG. 3, the moving image identified by the moving image ID M000001 includes vehicle information from 12:34:56 pm January 23, 2016 to 13:06:23 pm on the same day. Is shown.
The data stored in the other data fields will be described later.

重複画像抽出部54は、特定画像抽出部53が抽出した特定動画像それぞれの動画像IDに基づいて動画像データベースを参照することにより、各特定動画像において車両情報が含まれる時間帯を取得する。   The overlapping image extracting unit 54 refers to the moving image database on the basis of the moving image ID of each specific moving image extracted by the specific image extracting unit 53 to obtain the time zone in which the vehicle information is included in each specific moving image. ..

図4は、重複画像抽出部54が取得した各特定動画像の車両情報含有時間帯の一例を模式的に示す図である。図4は、特定画像抽出部53が動画像IDとしてそれぞれM00001、M00011、M00067、M00248、M00760、及びM01234で特定される動画像群を抽出した場合の例を示している。   FIG. 4 is a diagram schematically showing an example of the vehicle information containing time period of each specific moving image acquired by the overlapping image extracting unit 54. FIG. 4 shows an example in which the specific image extracting unit 53 extracts moving image groups specified by M00001, M00011, M00067, M00248, M00760, and M01234 as moving image IDs.

図4において横軸は時刻を示す。また太い実線は動画像中に車両情報が含まれている時間帯を示す。図4に示す例では、動画像IDがM01234で特定される動画像は、車両情報が含まれている時間帯が他の動画像と重複していない。これは、M01234で特定される動画像が、他の動画像とは全く異なる日時に撮像されたか、あるいはM01234で特定される動画像を生成した車載カメラの内部時計の時刻が不正確であったかのいずれかの場合が考えられる。   In FIG. 4, the horizontal axis represents time. A thick solid line indicates a time zone in which vehicle information is included in the moving image. In the example illustrated in FIG. 4, the moving image identified by the moving image ID M01234 does not overlap with other moving images in the time zone in which the vehicle information is included. This is because the moving image specified by M01234 was captured at a date and time completely different from other moving images, or the time of the internal clock of the vehicle-mounted camera that generated the moving image specified by M01234 was incorrect. Either case is possible.

そこで重複画像抽出部54は、特定画像抽出部53が抽出した動画像のうち、動画像IDがM01234で特定される動画像を除いて、それぞれM00001、M00011、M00067、M00248、及びM00760で特定される特定動画像の組み合わせを取得する。   Therefore, the duplicated image extraction unit 54 is specified by M00001, M00011, M00067, M00248, and M00760, respectively, in the moving images extracted by the specific image extraction unit 53, except for the moving image whose moving image ID is specified by M01234. Get a combination of specific moving images.

図5は、動画像のフレームの一例を模式的に示す図である。動画像は車載カメラが撮像した映像であるため、車載カメラを搭載する車両V自体は含まれない。図5に示す動画像の例では、先行車として第10車両V10及び第11車両V11が撮像されており、対向車として第12車両V12と第13車両V13とが撮像されている。   FIG. 5 is a diagram schematically showing an example of a frame of a moving image. Since the moving image is an image captured by the vehicle-mounted camera, the vehicle V itself equipped with the vehicle-mounted camera is not included. In the example of the moving image shown in FIG. 5, the 10th vehicle V10 and the 11th vehicle V11 are imaged as the preceding vehicles, and the 12th vehicle V12 and the 13th vehicle V13 are imaged as the oncoming vehicles.

ここで、検索対象車両が第11車両V11であると仮定する。この場合、図5に示す動画像を撮像した車載カメラを搭載する車両Vは第11車両V11と同じ車線を走行するため、動画像中に検索対象画像を含む時間は長くなる。これに対し、検索対象車両が第12車両V12であると仮定する。この場合、図5に示す動画像を撮像した車載カメラを搭載する車両Vは第12車両V12の対向車線を走行するため、動画像中に検索対象車両が映る時間はすれ違い時の短時間だけである。   Here, it is assumed that the search target vehicle is the eleventh vehicle V11. In this case, since the vehicle V equipped with the in-vehicle camera that captures the moving image shown in FIG. 5 travels in the same lane as the eleventh vehicle V11, the time period in which the search target image is included in the moving image becomes long. On the other hand, it is assumed that the search target vehicle is the twelfth vehicle V12. In this case, the vehicle V equipped with the vehicle-mounted camera that captures the moving image shown in FIG. 5 travels in the oncoming lane of the twelfth vehicle V12, and therefore the search target vehicle appears in the moving image only for a short time at the time of passing each other. is there.

例えば図4に示す例において、動画像IDがM00248で特定される動画像には、他の動画像と比べて、車両情報が含まれる時間が短い。これは、M00248で特定される動画像を撮像した車載カメラを搭載した車両が、検索対象車両の対向車であったことを示唆している。   For example, in the example shown in FIG. 4, the moving image whose moving image ID is identified by M00248 includes vehicle information for a shorter time than other moving images. This suggests that the vehicle equipped with the vehicle-mounted camera that captures the moving image identified by M00248 was an oncoming vehicle of the search target vehicle.

時刻補正部55は、組み合わせを構成する特定動画像それぞれの撮像時間帯に基づいて撮像時刻を補正する。より具体的には、まずパターン抽出部56は、特定動画像の各フレームの中から所定のパターンを抽出する。パターン抽出部56が特定動画像から抽出するパターンは、上述した車両情報の他、他の車両Vの情報、案内標識4や信号機5等の特定の構造物である。パターン抽出部56はさらに、特定動画像から車両情報を含む広域のパターンも抽出する。   The time correction unit 55 corrects the image capturing time based on the image capturing time zones of the specific moving images forming the combination. More specifically, the pattern extraction unit 56 first extracts a predetermined pattern from each frame of the specific moving image. The pattern extracted from the specific moving image by the pattern extraction unit 56 is not only the above-described vehicle information, but also information about another vehicle V, a specific structure such as the guide sign 4 and the traffic light 5. The pattern extraction unit 56 further extracts a wide area pattern including vehicle information from the specific moving image.

例えば図5に示す例において、第10車両V10が検索対象車両であるとする。このときパターン抽出部56は、第10車両V10及び先行車両や対向車両、遠方の山の形状等の風景、第10車両V10が走行する道路の曲がり具合等をパターンとして抽出する。   For example, in the example shown in FIG. 5, it is assumed that the tenth vehicle V10 is the search target vehicle. At this time, the pattern extraction unit 56 extracts, as a pattern, the tenth vehicle V10, the preceding vehicle and the oncoming vehicle, the landscape such as the shape of a distant mountain, and the degree of bend of the road on which the tenth vehicle V10 travels.

類比判定部57は、各特定動画像の中に存在する所定のパターンの組み合わせに基づいて、特定画像抽出部53が特定した組み合わせを構成する特定動画像を解析することにより、動画像が類似するか否かを判定する。すなわち、類比判定部57は、各特定動画像の中に存在する所定のパターンの組み合わせに基づいて、動画像が類似するか否かを判定する。   The analogy determination unit 57 analyzes the specific moving images forming the combination specified by the specific image extracting unit 53 based on the combination of the predetermined patterns existing in each specific moving image, so that the moving images are similar to each other. Or not. That is, the similarity determination unit 57 determines whether or not the moving images are similar based on the combination of the predetermined patterns existing in each specific moving image.

例えばパターン抽出部56が、ある特定動画像において、検索対象車両と他の車両Vとが、山岳地帯を背景として撮像されているフレームを抽出したとする。さらにパターン抽出部56が、別の特定動画像中に、同様の山岳地帯を背景として検索対象車両と他の車両Vとが撮像されているフレームを抽出したとする。この場合、類比判定部57は、両者のフレームが類似していると判定する。フレームが類似することは、そのフレームの撮影場所が同じであることを示唆する。   For example, it is assumed that the pattern extraction unit 56 extracts a frame in which a search target vehicle and another vehicle V are imaged with a mountain region as a background in a specific moving image. Further, it is assumed that the pattern extraction unit 56 extracts, in another specific moving image, a frame in which the vehicle to be searched and the other vehicle V are imaged against the background of the same mountainous area. In this case, the analogy determination unit 57 determines that both frames are similar. The similarity of the frames suggests that the shooting locations of the frames are the same.

図6は、第1の実施の形態に係る類比判定部57が類似すると判定したフレームの撮像時刻を示す図である。図6に示す例では、類比判定部57は、フレームAからフレームDまでの4つのフレームを類似すると判定している。またフレームAの撮像時刻は2016年1月23日8時00分であり、フレームBの撮像時刻は同日8時3分である。同様に、フレームCの撮像時刻は同日の7時50分であり、フレームDの撮像時刻は同日の8時8分である。   FIG. 6 is a diagram showing image capturing times of the frames determined to be similar by the analogy determination unit 57 according to the first embodiment. In the example shown in FIG. 6, the analogy determination unit 57 determines that the four frames from frame A to frame D are similar. The image capturing time of the frame A is 8:00 on January 23, 2016, and the image capturing time of the frame B is 8:3 on the same day. Similarly, the imaging time of frame C is 7:50 on the same day, and the imaging time of frame D is 8:8 on the same day.

時刻補正部55は、類似する特定動画像のフレームの撮像時刻に基づいて、各動画像の撮像時刻を補正する。時刻補正部55は、類比判定部57が類似すると判定した特定動画像のフレームは同時刻に撮像されたと仮定する。例えば図6の例では、フレームAからフレームDまでの4つのフレームは類似するため、時刻補正部55はこれらが同時刻に撮像されたという仮定する。しかしながら、図6に示す例において各フレームを含む特定動画像を撮像した車載カメラの内部時計が合っていないため、各フレームには異なる時刻情報が付帯されている。そこで時刻補正部55は、各フレームに付帯されている時刻情報の平均を、真の時刻と推定する。   The time correction unit 55 corrects the image capturing time of each moving image based on the image capturing time of the frame of the similar specific moving image. The time correction unit 55 assumes that the frames of the specific moving image determined by the analogy determination unit 57 to be similar are captured at the same time. For example, in the example of FIG. 6, the four frames from frame A to frame D are similar, so the time correction unit 55 assumes that they were imaged at the same time. However, in the example shown in FIG. 6, since the internal clock of the vehicle-mounted camera that has captured the specific moving image including each frame does not match, different time information is attached to each frame. Therefore, the time correction unit 55 estimates the average of the time information attached to each frame as the true time.

なお、時刻補正部55は、各フレームに付帯されている時刻情報の平均以外の他の統計情報を用いて時刻情報を推定してもよい。例えば時刻補正部55は、各フレームに付帯されている時刻情報の最頻値(モード)や中央値(メジアン)を真の時刻と推定してもよい。また、各フレームに付帯されている時刻情報の平均から最も外れている時刻を除いて、時刻情報を推定してもよい。   The time correction unit 55 may estimate the time information using statistical information other than the average of the time information attached to each frame. For example, the time correction unit 55 may estimate the mode (mode) or median (median) of the time information attached to each frame as the true time. Further, the time information may be estimated by excluding the time most deviated from the average of the time information attached to each frame.

図6に示す例では、フレームAからフレームDまでの4つのフレームの撮像時刻の平均は2016年1月23日8時2分である。そこで時刻補正部55は、各フレームの撮像時刻が平均時刻となるように、各特定動画像の撮像時刻の修正量を算出する。   In the example shown in FIG. 6, the average of the imaging times of the four frames from frame A to frame D is 8:2 on January 23, 2016. Therefore, the time correction unit 55 calculates the correction amount of the image capturing time of each specific moving image so that the image capturing time of each frame becomes the average time.

図6に示すように、フレームAの撮像時刻は8時0分であるから、時刻補正部55はフレームAを含む特定動画像の時刻修正量を+2分として算出する。時刻補正部55は、同様に、フレームBを含む特定動画像の時刻修正量を−1分として算出する。フレームC及びフレームDについても同様である。これにより、時刻補正部55は、各特定動画像が撮像された場所の絶対座標が不明であっても、各特定画像の時刻を合わせることができる。   As shown in FIG. 6, since the imaging time of the frame A is 8:00, the time correction unit 55 calculates the time adjustment amount of the specific moving image including the frame A as +2 minutes. Similarly, the time correction unit 55 calculates the time adjustment amount of the specific moving image including the frame B as -1 minute. The same applies to the frame C and the frame D. Accordingly, the time correction unit 55 can adjust the time of each specific image even if the absolute coordinates of the place where each specific moving image is captured are unknown.

ここで情報受付部52は、情報処理装置1のユーザから受け付ける車両情報として少なくとも自動車登録番号を受け付けるようにしてもよい。この場合、パターン抽出部56は、特定動画像の中から所定の構造物に加えて自動車登録番号の文字列を抽出する。これは例えば既知の文字認識技術を用いて実現できる。情報受付部52が車両情報として車種や色等の外観情報を取得する場合と比較して、検索対象車両の特定精度を向上することができる。   Here, the information receiving unit 52 may receive at least the vehicle registration number as the vehicle information received from the user of the information processing device 1. In this case, the pattern extraction unit 56 extracts the character string of the vehicle registration number in addition to the predetermined structure from the specific moving image. This can be achieved, for example, using known character recognition technology. Compared with the case where the information receiving unit 52 acquires appearance information such as vehicle type and color as vehicle information, it is possible to improve the identification accuracy of the search target vehicle.

[撮像時間帯の正確性が保証されている場合]
以上、情報処理装置1が各特定動画像の撮像時間帯の正確性が保証されていない場合について主に説明した。しかしながら、動画像の中には、その撮像時間帯の正確性が保証されているものもが存在することもある。以下では、特定画像の中に撮像時間帯の正確性が保証されている動画像が含まれる場合について説明する。
[When the accuracy of the imaging time zone is guaranteed]
Heretofore, the case has been mainly described where the information processing apparatus 1 does not guarantee the accuracy of the imaging time zone of each specific moving image. However, in some moving images, the accuracy of the image capturing time zone may be guaranteed. In the following, a case will be described in which the specific image includes a moving image whose accuracy in the imaging time zone is guaranteed.

「撮像時間帯の正確性が保証されている動画像」の一例としては、その動画像を撮像した車載カメラが、車両VのGPSと連動している場合である。一般にGPSが衛星測位システム7から受信するデータには正確な時刻情報が含まれている。このため、GPSと連動して動作する車載カメラが撮像した動画像に付帯されている時刻情報はその正確性が保証されている。このような撮像時間帯の正確性が保証されている動画像は、時刻補正部55が各特定動画像の撮影時刻を補正する際の基準動画像とすることができる。   An example of the “moving image in which the accuracy of the image pickup time zone is guaranteed” is a case where the vehicle-mounted camera that picks up the moving image is linked to the GPS of the vehicle V. Generally, the data that the GPS receives from the satellite positioning system 7 includes accurate time information. Therefore, the accuracy of the time information attached to the moving image captured by the vehicle-mounted camera that operates in conjunction with GPS is guaranteed. The moving image in which the accuracy of the imaging time zone is guaranteed can be used as the reference moving image when the time correction unit 55 corrects the shooting time of each specific moving image.

そこで基準画像抽出部58は、組み合わせを構成する特定動画像のうち、撮像時間帯の正確性が保証されている基準動画像を抽出する。より具体的には、基準画像抽出部58は、GPS情報が付帯している特定動画像を、基準動画像として抽出する。   Therefore, the reference image extraction unit 58 extracts, from the specific moving images forming the combination, the reference moving image in which the accuracy of the imaging time zone is guaranteed. More specifically, the reference image extracting unit 58 extracts the specific moving image accompanied by the GPS information as the reference moving image.

図3に示すように、動画像データベースには位置情報を格納するデータフィールドを備えている。図3に示す例では、動画像IDがM000001で特定される動画像にはGPS情報が含まれていることを示している。基準画像抽出部58は、動画像データベースを参照することにより、組み合わせを構成する特定動画像の中から基準動画像を抽出する。   As shown in FIG. 3, the moving image database has a data field for storing position information. In the example shown in FIG. 3, it is shown that the moving image identified by the moving image ID M000001 includes GPS information. The reference image extracting unit 58 extracts the reference moving image from the specific moving images forming the combination by referring to the moving image database.

時刻補正部55は、基準動画像の時刻情報を用いて、他の特定動画像の時刻を補正する。これにより、時刻補正部55は、各特定動画像の撮像時刻を正確に合わせるための修正量を算出することができる。   The time correction unit 55 uses the time information of the reference moving image to correct the time of another specific moving image. As a result, the time correction unit 55 can calculate the correction amount for accurately adjusting the imaging time of each specific moving image.

なお、図3に示すように、動画像データベースには時刻補正部55が算出した動画像の時刻を修正するための時刻修正情報を格納するデータフィールドも存在する。図3に示す動画像データベースの例では、動画像IDがM000001で特定される動画像にはGPS情報が含まれているため、時刻修正量は±0分が格納されている。すなわち、動画像IDがM000001で特定される動画像の撮像時刻は正確であることを示している。   As shown in FIG. 3, the moving image database also has a data field for storing time correction information for correcting the time of the moving image calculated by the time correction unit 55. In the example of the moving image database shown in FIG. 3, since the moving image identified by the moving image ID M000001 includes GPS information, the time adjustment amount of ±0 minutes is stored. That is, it is indicated that the capturing time of the moving image identified by the moving image ID M000001 is accurate.

動画像データベースには他にも、パターン抽出部56が抽出したパターン情報を格納するためのデータフィールドも存在する。パターン抽出部56がひとたび動画像を解析して見つけたパターンを動画像データベースに格納することにより、その後パターン抽出部56によるパターンマッチング処理を省略することができる。   The moving image database also has a data field for storing the pattern information extracted by the pattern extracting unit 56. The pattern extraction unit 56 stores the pattern found by analyzing the moving image once in the moving image database, so that the pattern matching process by the pattern extracting unit 56 can be omitted thereafter.

図7は、第1の実施の形態に係る情報処理装置1が実行する情報処理の流れを説明するためのフローチャートである。本フローチャートにおける処理は、例えば情報処理装置1を実現するコンピュータが起動したときに開始する。   FIG. 7 is a flowchart for explaining the flow of information processing executed by the information processing device 1 according to the first embodiment. The process in this flowchart is started, for example, when a computer that implements the information processing device 1 is started.

画像取得部51は、車載カメラを搭載した複数の車両Vがそれぞれ撮像した複数の動画像を取得する(S2)。画像取得部51は、取得した動画像を記憶部20に格納する(S4)。情報受付部52は、検索対象車両に関する車両情報の入力を受け付ける(S6)。   The image acquisition unit 51 acquires a plurality of moving images captured by a plurality of vehicles V equipped with vehicle-mounted cameras (S2). The image acquisition unit 51 stores the acquired moving image in the storage unit 20 (S4). The information receiving unit 52 receives input of vehicle information regarding the search target vehicle (S6).

特定画像抽出部53は、複数の動画像のうち、撮像データ中に車両情報を含む動画像である特定動画像を抽出する(S8)。重複画像抽出部54は、特定動画像のうち、車両情報が含まれる時間帯が少なくとも一部において重複する重複動画像群を取得する(S10)。   The specific image extraction unit 53 extracts, from the plurality of moving images, a specific moving image that is a moving image including vehicle information in the captured data (S8). The overlapping image extracting unit 54 acquires, from the specific moving images, a group of overlapping moving images in which the time period in which the vehicle information is included overlaps at least in part (S10).

類比判定部57は、重複動画像群を構成する動画像のうち、類似するフレームを含む類似動画像群を抽出する(S12)。基準画像抽出部58は、組み合わせを構成する特定動画像のうち、撮像時間帯の正確性が保証されている基準動画像の抽出を試みる。基準動画像がない場合(S14のNo)、時刻補正部55は、類比判定部57が類似すると判定した特定動画像のフレームに付帯されている時刻情報の平均を算出する(S16)。時刻補正部55は、算出した平均時刻に基づいて、時刻情報の修正値を算出する(S18)。   The similarity determination unit 57 extracts a similar moving image group including similar frames from the moving images forming the overlapping moving image group (S12). The reference image extracting unit 58 tries to extract a reference moving image of which the accuracy of the imaging time zone is guaranteed from the specific moving images forming the combination. When there is no reference moving image (No in S14), the time correction unit 55 calculates the average of the time information attached to the frames of the specific moving image determined to be similar by the analogy determination unit 57 (S16). The time correction unit 55 calculates the correction value of the time information based on the calculated average time (S18).

基準動画像がある場合(S14のYes)、時刻補正部55は、基準動画像の時刻情報を用いて、他の特定動画像の時刻情報の補正値を算出する(S20)。時刻補正部55が特定動画像の時刻情報の補正値を算出すると本フローチャートにおける処理は終了する。   When there is a reference moving image (Yes in S14), the time correction unit 55 uses the time information of the reference moving image to calculate the correction value of the time information of another specific moving image (S20). When the time correction unit 55 calculates the correction value of the time information of the specific moving image, the processing in this flowchart ends.

以上説明したように、第1の実施の形態に係る情報処理装置1によれば、複数の車両に設置された車載カメラが撮像した動画像の撮像時刻を合わせる技術を提供できる。
特に、各動画像に付帯されている撮像時刻が正確でない場合であっても、それら撮像時刻を統計的に処理することによって、撮像時刻の制度を高めることができる。
As described above, according to the information processing apparatus 1 according to the first embodiment, it is possible to provide a technique for adjusting the image capturing time of moving images captured by vehicle-mounted cameras installed in a plurality of vehicles.
In particular, even if the image capturing time attached to each moving image is not accurate, the accuracy of the image capturing time can be improved by statistically processing the image capturing times.

特に、情報処理装置1は各動画像に共通して映っている被写体に基づいて動画像が同じ場所で撮像されたか否かを判断するので、撮影場所の絶対位置が不明であっても各動画像の位置合わせをすることができる。各動画像の位置合わせをすることができるので、情報処理装置1は各動画像の時刻合わせをすることもできる。また、動画像にGPS情報が付帯されている場合には、GPS情報から得られる時刻情報に基づいて、情報処理装置1は各動画像の時刻を合わせることもできる。   In particular, since the information processing device 1 determines whether or not the moving image is captured at the same location based on the subject appearing in each moving image in common, even if the absolute position of the capturing location is unknown, each moving image is captured. The images can be aligned. Since the position of each moving image can be adjusted, the information processing apparatus 1 can also adjust the time of each moving image. When GPS information is attached to the moving image, the information processing device 1 can also adjust the time of each moving image based on the time information obtained from the GPS information.

第1の実施の形態に係る情報処理装置1は、各動画像の時刻を合わせることができるが、各動画像の撮像場所を特定するに至らない場合もありうる。しかしながら、情報処理装置1は多数の動画像の中から同一時間帯に検索対象車両が撮像されている動画像群を抽出できる点で、検索対象車両の走行経路を追跡に有用である。ある程度絞られた動画像であれば、情報処理装置1のユーザが目視で観察し、走行場所を特定できる場合もあるからである。   The information processing apparatus 1 according to the first embodiment can adjust the time of each moving image, but may not be able to specify the imaging location of each moving image. However, the information processing device 1 is useful for tracking the travel route of the search target vehicle in that it can extract a moving image group in which the search target vehicle is imaged in the same time zone from a large number of moving images. This is because, if the moving image is narrowed down to some extent, the user of the information processing device 1 may visually observe it to specify the traveling place in some cases.

<第2の実施の形態>
第1の実施の形態に係る情報処理装置1では、各特定動画像を「時刻」を基準として関連付ける場合について説明した。これに対し、第2の実施の形態に係る情報処理装置1は、各特定動画像をその動画像が撮像された場所の「絶対的な位置座標」を基準として関連付ける点で相違する。
以下、第2の実施の形態について説明するが、第1の実施の形態と共通する部分については、適宜省略又は簡略化して説明する。
<Second Embodiment>
In the information processing device 1 according to the first embodiment, a case has been described in which each specific moving image is associated with "time" as a reference. On the other hand, the information processing apparatus 1 according to the second embodiment is different in that each specific moving image is associated with the "absolute position coordinate" of the place where the moving image is captured as a reference.
Hereinafter, the second embodiment will be described, but the portions common to the first embodiment will be omitted or simplified as appropriate.

図8は、第2の実施の形態に係る情報処理装置1の機能構成を模式的に示す図である。第2の実施の形態に係る情報処理装置1は、第1の実施の形態に係る情報処理装置1と比較して、重複画像抽出部54を備えない点、及び特定装置抽出部59を備える点で相違する。また、第1の実施の形態に係る情報処理装置1と同様の構成であっても、第2の実施の形態に係る情報処理装置1においては、異なる動作をする場合もある。   FIG. 8 is a diagram schematically showing the functional configuration of the information processing device 1 according to the second embodiment. The information processing device 1 according to the second embodiment is different from the information processing device 1 according to the first embodiment in that it does not include the duplicate image extraction unit 54 and that the information processing device 1 includes the specific device extraction unit 59. It makes a difference. Even if the information processing apparatus 1 according to the first embodiment has the same configuration, the information processing apparatus 1 according to the second embodiment may operate differently.

特定画像抽出部53は、複数の動画像のうち、撮像データ中において所定の構造物とともに車両情報が含まれる動画像を、特定動画像として少なくとも2つ抽出する。なお、動画像中に含まれる車両情報や所定の構造物の特定は、パターン抽出部56が実行する。   The specific image extraction unit 53 extracts, as specific moving images, at least two moving images in which the vehicle information is included in the captured data together with the predetermined structure in the captured image. The pattern extracting unit 56 specifies the vehicle information and the predetermined structure included in the moving image.

ここで「所定の構造物」とは、その構造物が存在する場所の絶対的な位置座標を一意に特定することができる構造物である。所定の構造物の例としては、例えば上述した案内標識4や信号機5、自動車ナンバー読取装置6が挙げられる。また構造物3のうち特徴的な外観を持ち、一意に特定できる構造物3も所定の構造物となり得る。   Here, the "predetermined structure" is a structure capable of uniquely specifying the absolute position coordinates of the place where the structure exists. Examples of the predetermined structure include the guide sign 4, the traffic light 5, and the vehicle number reading device 6 described above, for example. Further, the structure 3 that has a characteristic appearance and can be uniquely identified can also be the predetermined structure.

類比判定部57は、特定画像抽出部53が抽出した特定画像のそれぞれから、所定の構造物と検索対象画像とが撮像されているフレームを抽出する。ここで所定の構造物は特定の場所に設置されているものであるから、異なる特定動画像のフレーム中に所定の構造物と検索対象画像とが撮像されている場合、それは同時刻に撮像されたと推定することができる。   The similarity determination unit 57 extracts, from each of the specific images extracted by the specific image extraction unit 53, a frame in which a predetermined structure and a search target image are captured. Here, since the predetermined structure is installed at a specific place, if the predetermined structure and the search target image are captured in different frames of a specific moving image, they are captured at the same time. It can be estimated that

そこで時刻補正部55は、所定の構造物と検索対象画像とが撮像されているフレームの撮像時刻に基づいて、各特定画像の撮像時刻を補正するための補正量を算出する。第2の実施の形態に係る類比判定部57は絶対的な位置座標が定まっている構造物を含むフレームを特定することにより、実施の形態に係る情報処理装置1のように風景等のパターンマッチング処理で類似するフレームを特定する場合よりも、特定精度を高めることができる。   Therefore, the time correction unit 55 calculates a correction amount for correcting the image capturing time of each specific image based on the image capturing time of the frame in which the predetermined structure and the search target image are captured. The analogy determination unit 57 according to the second embodiment identifies a frame including a structure whose absolute position coordinates are fixed, so that pattern matching of landscapes and the like is performed as in the information processing apparatus 1 according to the embodiment. The specifying accuracy can be improved as compared with the case where similar frames are specified in the processing.

時刻補正部55は、特定画像抽出部53が抽出した特定動画像に基準動画像が含まれる場合、すなわち、撮像時間帯の正確性が保証されている動画像が含まれる場合には、基準動画像の時刻情報を用いて、他の特定動画像の時刻を補正する。これにより、時刻補正部55は、特定動画像の時刻の修正精度を向上することができる。   When the specific moving image extracted by the specific image extracting unit 53 includes the reference moving image, that is, when the moving image in which the accuracy of the imaging time zone is guaranteed is included, the time correction unit 55 outputs the reference moving image. The time information of the image is used to correct the time of another specific moving image. As a result, the time correction unit 55 can improve the accuracy of correcting the time of the specific moving image.

ここで、自動車ナンバー読取装置6がナンバーを読み取った車両Vの車載カメラが撮像した動画像も、基準動画像となり得る。自動車ナンバー読取装置6は、ナンバーを含む車両Vの画像を、時刻情報とともに登録するからである。そこで特定装置抽出部59は、特定動画像に撮像されている自動車ナンバー読取装置6の抽出を試みる。基準画像抽出部58は、自動車ナンバー読取装置6の抽出に成功した特定動画像も基準動画像として抽出する。   Here, the moving image captured by the vehicle-mounted camera of the vehicle V in which the vehicle number reading device 6 has read the number can also be the reference moving image. This is because the vehicle number reading device 6 registers the image of the vehicle V including the number together with the time information. Therefore, the specific device extraction unit 59 tries to extract the vehicle number reading device 6 captured in the specific moving image. The reference image extraction unit 58 also extracts, as the reference moving image, the specific moving image that has been successfully extracted by the vehicle number reading device 6.

これにより、特定画像抽出部53が特定した全ての特定動画像にGPS情報が付帯していない場合であっても、いずれかの特定動画像を撮像した車載カメラを搭載した車両Vが自動車ナンバー読取装置6によって登録されている場合には、各特定動画像の時刻情報を正確に合わせることができる。   As a result, even if all the specific moving images identified by the specific image extracting unit 53 are not accompanied by GPS information, the vehicle V equipped with the in-vehicle camera that has captured one of the specific moving images reads the vehicle number. When registered by the device 6, the time information of each specific moving image can be accurately adjusted.

図9は、第2の実施の形態に係る情報処理装置1が実行する情報処理の流れを説明するためのフローチャートである。本フローチャートにおける処理は、例えば情報処理装置1を実現するコンピュータが起動したときに開始する。   FIG. 9 is a flowchart for explaining the flow of information processing executed by the information processing device 1 according to the second embodiment. The process in this flowchart is started, for example, when a computer that implements the information processing device 1 is started.

画像取得部51は、車載カメラを搭載した複数の車両Vがそれぞれ撮像した複数の動画像を取得する(S22)。画像取得部51は、取得した動画像を記憶部20に格納する(S24)。情報受付部52は、検索対象車両に関する車両情報の入力を受け付ける(S26)。特定画像抽出部53は、複数の動画像のうち、撮像データ中において所定の構造物とともに車両情報が含まれる動画像である特定動画像を抽出する(S28)。   The image acquisition unit 51 acquires a plurality of moving images captured by a plurality of vehicles V equipped with vehicle-mounted cameras (S22). The image acquisition unit 51 stores the acquired moving image in the storage unit 20 (S24). The information receiving unit 52 receives input of vehicle information regarding the search target vehicle (S26). The specific image extraction unit 53 extracts, from the plurality of moving images, a specific moving image that is a moving image including vehicle information together with a predetermined structure in the captured data (S28).

基準画像抽出部58は、組み合わせを構成する特定動画像のうち、撮像時間帯の正確性が保証されている基準動画像の抽出を試みる。基準動画像がない場合(S30のNo)、時刻補正部55は、類比判定部57が類似すると判定した特定動画像のフレームに付帯されている時刻情報の平均を算出する(S32)。時刻補正部55は、算出した平均時刻に基づいて、時刻情報の修正値を算出する(S34)。   The reference image extracting unit 58 tries to extract a reference moving image of which the accuracy of the imaging time zone is guaranteed from the specific moving images forming the combination. When there is no reference moving image (No in S30), the time correction unit 55 calculates the average of the time information attached to the frames of the specific moving image determined to be similar by the analogy determination unit 57 (S32). The time correction unit 55 calculates the correction value of the time information based on the calculated average time (S34).

基準動画像がある場合(S30のYes)、時刻補正部55は、基準動画像の時刻情報を用いて、他の特定動画像の時刻情報の補正値を算出する(S36)。時刻補正部55が特定動画像の時刻情報の補正値を算出すると本フローチャートにおける処理は終了する。   If there is a reference moving image (Yes in S30), the time correction unit 55 uses the time information of the reference moving image to calculate the correction value of the time information of another specific moving image (S36). When the time correction unit 55 calculates the correction value of the time information of the specific moving image, the processing in this flowchart ends.

以上説明したように、本発明の第2の実施の形態に係る情報処理装置1によれば、複数の車両に設置された車載カメラが撮像した映像の撮像時刻を合わせる技術を提供できる。   As described above, according to the information processing device 1 according to the second embodiment of the present invention, it is possible to provide a technique of adjusting the image capturing times of the images captured by the vehicle-mounted cameras installed in a plurality of vehicles.

特に、動画像に撮像されている構造物等の位置情報を基準に動画像を集めることにより、情報処理装置1は同一場所で撮像された動画像を精度よく集めることができる。   In particular, by collecting the moving images based on the position information of the structures or the like captured in the moving images, the information processing device 1 can collect the moving images captured at the same place with high accuracy.

以上、本発明を2つの実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。そのような変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   The present invention has been described above using the two embodiments, but the technical scope of the present invention is not limited to the scope described in the above embodiments. It is obvious to those skilled in the art that various changes or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiment added with such changes or improvements can be included in the technical scope of the present invention.

また、各実施の形態を任意に組み合わせることによって生じる新たな実施の形態も、本発明の技術的範囲に含まれる。例えば第1の実施の形態と第2の実施の形態とを組み合わせ、第1の実施の形態における基準画像の選定に自動車ナンバー読取装置6の情報を用いてもよい。このように、組み合わせによって生じる新たな実施の形態は、組み合わせ元の実施の形態の効果を合わせ持つ。   Further, a new embodiment that is created by arbitrarily combining the embodiments is also included in the technical scope of the present invention. For example, the information of the vehicle number reading device 6 may be used for selecting the reference image in the first embodiment by combining the first embodiment and the second embodiment. In this way, the new embodiment generated by the combination has the effects of the embodiment of the combination source.

1・・・情報処理装置
2・・・情報解析センター
3・・・構造物
4・・・案内標識
5・・・信号機
6・・・自動車ナンバー読取装置
7・・・衛星測位システム
10・・・通信部
20・・・記憶部
30・・・入力部
40・・・出力部
50・・・制御部
51・・・画像取得部
52・・・情報受付部
53・・・特定画像抽出部
54・・・重複画像抽出部
55・・・時刻補正部
56・・・パターン抽出部
57・・・類比判定部
58・・・基準画像抽出部
59・・・特定装置抽出部
S・・・情報処理システム
V・・・車両
1... Information processing device 2... Information analysis center 3... Structure 4... Guide sign 5... Traffic light 6... Vehicle number reading device 7... Satellite positioning system 10... Communication unit 20... Storage unit 30... Input unit 40... Output unit 50... Control unit 51... Image acquisition unit 52... Information reception unit 53... Specific image extraction unit 54. ..Duplicate image extraction unit 55...Time correction unit 56...Pattern extraction unit 57...Similarity determination unit 58...Reference image extraction unit 59...Specific device extraction unit S...Information processing system V...Vehicle

Claims (6)

車載カメラを搭載した複数の車両がそれぞれ撮像した複数の動画像を取得する画像取得部と、
検索対象車両に関する車両情報の入力を受け付ける情報受付部と、
前記複数の動画像のうち、撮像データ中において存在する場所の絶対的な位置座標を一意に特定することができる同一の構造物が共通に含まれるとともに前記車両情報が含まれる動画像である特定動画像を、少なくとも2つ抽出する特定画像抽出部と、
前記特定動画像それぞれの撮像時間帯に基づいて、各特定画像の撮像時刻を補正する時刻補正部と、
を備える、
情報処理装置。
An image acquisition unit that acquires a plurality of moving images respectively captured by a plurality of vehicles equipped with vehicle-mounted cameras,
An information reception unit that receives input of vehicle information regarding the search target vehicle,
Of the plurality of moving images, the same structure that can uniquely specify the absolute position coordinates of the place existing in the captured data is commonly included, and the moving image includes the vehicle information. A specific image extraction unit that extracts at least two moving images;
A time correction unit that corrects the imaging time of each specific image based on the imaging time zone of each of the specific moving images,
With
Information processing device.
前記特定動画像のうち、撮像時間帯の正確性が保証されている基準動画像を抽出する基準画像抽出部をさらに備え、
前記時刻補正部は、前記基準動画像の時刻情報を用いて、他の特定動画像の時刻を補正する、
請求項1に記載の情報処理装置。
The specific moving image further includes a reference image extracting unit that extracts a reference moving image whose accuracy in an imaging time zone is guaranteed,
The time correction unit corrects the time of another specific moving image by using the time information of the reference moving image,
The information processing apparatus according to claim 1.
前記特定動画像に撮像されている自動車ナンバー読み取り装置を抽出する特定装置抽出部をさらに備え、
前記基準画像抽出部は、前記特定動画像のうち、前記自動車ナンバー読み取り装置がナンバーを読み取った車両の車載カメラが撮像した動画像を前記基準動画像として抽出する、
請求項2に記載の情報処理装置。
Further comprising a specific device extraction unit for extracting the vehicle number reading device captured in the specific moving image,
The reference image extraction unit extracts, as the reference moving image, a moving image captured by an in-vehicle camera of a vehicle whose number is read by the vehicle number reading device, from the specific moving image.
The information processing apparatus according to claim 2.
前記基準画像抽出部は、GPS(Global Positioning System)情報が付帯している特定動画像を、前記基準動画像として抽出する、
請求項2又は3に記載の情報処理装置。
The reference image extracting unit extracts a specific moving image accompanied by GPS (Global Positioning System) information as the reference moving image,
The information processing device according to claim 2 or 3.
前記情報受付部は、前記車両情報として少なくとも自動車登録番号を受け付ける、
請求項1から4のいずれか一項に記載の情報処理装置。
The information receiving unit receives at least an automobile registration number as the vehicle information,
The information processing device according to any one of claims 1 to 4.
コンピュータに、車載カメラを搭載した複数の車両がそれぞれ撮像した複数の動画像を取得する機能と、
検索対象車両に関する車両情報の入力を受け付ける機能と、
前記複数の動画像のうち、撮像データ中において存在する場所の絶対的な位置座標を一意に特定することができる同一の構造物が共通に含まれるとともに前記車両情報が含まれる動画像である特定動画像を、少なくとも2つ抽出する機能と、
前記特定動画像それぞれの撮像時間帯に基づいて、各特定画像の撮像時刻を補正する機能と、
を実現させるプログラム。
A function of acquiring a plurality of moving images captured by a plurality of vehicles equipped with vehicle-mounted cameras in a computer,
A function that accepts input of vehicle information about the search target vehicle,
Among the plurality of moving image, the moving picture of the same structure can be uniquely identified absolute coordinates of where exist have you in imaging data includes the vehicle information as would fall in common A function to extract at least two specific moving images,
A function of correcting the imaging time of each specific image based on the imaging time zone of each of the specific moving images,
A program that realizes.
JP2016212269A 2016-10-28 2016-10-28 Information processing device and program Active JP6698002B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016212269A JP6698002B2 (en) 2016-10-28 2016-10-28 Information processing device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016212269A JP6698002B2 (en) 2016-10-28 2016-10-28 Information processing device and program

Publications (2)

Publication Number Publication Date
JP2018073135A JP2018073135A (en) 2018-05-10
JP6698002B2 true JP6698002B2 (en) 2020-05-27

Family

ID=62115380

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016212269A Active JP6698002B2 (en) 2016-10-28 2016-10-28 Information processing device and program

Country Status (1)

Country Link
JP (1) JP6698002B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7254000B2 (en) * 2019-08-02 2023-04-07 株式会社デンソーテン Image delivery device and method, and image delivery system

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011186785A (en) * 2010-03-09 2011-09-22 Nissin Electric Co Ltd Method for extracting vehicle passing through two or more points
JP5781795B2 (en) * 2011-03-14 2015-09-24 矢崎エナジーシステム株式会社 Drive recorder device
JP5962898B2 (en) * 2012-03-28 2016-08-03 日本電気株式会社 Driving evaluation system, driving evaluation method, and driving evaluation program
JP2014044692A (en) * 2012-08-29 2014-03-13 Toyoda Gosei Co Ltd Drive recorder system
JP6175846B2 (en) * 2013-03-27 2017-08-09 富士通株式会社 Vehicle tracking program, server device, and vehicle tracking method
US20140376778A1 (en) * 2013-06-25 2014-12-25 Zf Friedrichshafen Ag License plate recognition system and location forecasting
JP6193912B2 (en) * 2015-04-24 2017-09-06 株式会社パイ・アール Drive recorder

Also Published As

Publication number Publication date
JP2018073135A (en) 2018-05-10

Similar Documents

Publication Publication Date Title
Choi et al. KAIST multi-spectral day/night data set for autonomous and assisted driving
CN107563419B (en) Train positioning method combining image matching and two-dimensional code
US9880010B2 (en) Method of and arrangement for mapping range sensor data on image sensor data
US9129163B2 (en) Detecting common geographic features in images based on invariant components
US20130147661A1 (en) System and method for optical landmark identification for gps error correction
US11430199B2 (en) Feature recognition assisted super-resolution method
JP6759175B2 (en) Information processing equipment and information processing system
JP2012185011A (en) Mobile position measuring apparatus
JP2012127896A (en) Mobile object position measurement device
KR101569354B1 (en) Method and Apparatus for Error Correction of Global Navigation Satellite System Signal using Imaging Sensor
JP6278791B2 (en) Vehicle position detection device, vehicle position detection method, vehicle position detection computer program, and vehicle position detection system
Cao et al. Camera to map alignment for accurate low-cost lane-level scene interpretation
CN110998684B (en) Image collection system, image collection method, image collection device, and recording medium
US20100040289A1 (en) Load Sign Recognition Apparatus and Load Sign Recognition Method
KR101442703B1 (en) GPS terminal and method for modifying location position
CN102447886A (en) Visualizing video within existing still images
JP2007078409A (en) Object positioning system
JP2012208525A (en) Stationary object map generation device
JP2007178223A (en) Feature recognition device
Pepperell et al. Towards persistent visual navigation using smart
Gloudemans et al. So you think you can track?
JP6698002B2 (en) Information processing device and program
CN112424568A (en) System and method for constructing high-definition map
JP6916975B2 (en) Sign positioning system and program
JP2018073134A (en) Information processing device and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180919

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181106

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20181227

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190806

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191001

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200331

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200427

R150 Certificate of patent or registration of utility model

Ref document number: 6698002

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150