JP6427650B1 - 追跡装置及び追跡プログラム - Google Patents
追跡装置及び追跡プログラム Download PDFInfo
- Publication number
- JP6427650B1 JP6427650B1 JP2017223641A JP2017223641A JP6427650B1 JP 6427650 B1 JP6427650 B1 JP 6427650B1 JP 2017223641 A JP2017223641 A JP 2017223641A JP 2017223641 A JP2017223641 A JP 2017223641A JP 6427650 B1 JP6427650 B1 JP 6427650B1
- Authority
- JP
- Japan
- Prior art keywords
- time window
- frames
- tracking
- frame
- window frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/254—Analysis of motion involving subtraction of images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/97—Determining parameters from multiple pictures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30242—Counting objects in image
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
【解決手段】抽出部21は、映像データを構成する複数のフレームの連続する一部のフレームを時間窓フレームとして、隣り合う時間窓フレームに1つ以上のフレームが重複して含まれるように、映像データから複数の時間窓フレームを抽出する。追跡部22は、各時間窓フレームを対象として、対象の時間窓フレームに対して対象物の追跡を行い、追跡結果を生成する。統合部23は、各時間窓フレームを対象として生成された各追跡結果を、他の時間窓フレームと重複して含まれるフレームに基づき統合して、統合結果を生成する。
【選択図】図1
Description
逐次対応付け方式は、最新の追跡結果だけを保持しておき、新らたにフレームから検出された対象物についての入力データが得られると、最新の追跡結果に対応付けを行い追跡結果を更新する方式である。非特許文献1には、逐次対応付け方式について記載されている。
全体最適化方式は、全ての入力データを保持しておき、新たにフレームから検出された対象物についての入力データが得られると、全体を最適化して追跡結果を更新する方式である。非特許文献2には、全体最適化方式について記載されている。
この発明は、逐次対応付け方式の課題を解決しつつ、全体最適化方式と比べてメモリの消費量を減らすことを可能にすることを目的とする。
映像データを構成する複数のフレームの連続する一部のフレームを時間窓フレームとして、隣り合う時間窓フレームに1つ以上のフレームが重複して含まれるように、前記映像データから複数の時間窓フレームを抽出する抽出部と、
前記抽出部によって抽出された各時間窓フレームを対象として、対象の時間窓フレームに対して対象物の追跡を行い、追跡結果を生成する追跡部と、
前記追跡部によって前記各時間窓フレームを対象として生成された各追跡結果を、他の時間窓フレームと重複して含まれるフレームに基づき統合して、統合結果を生成する統合部と
を備える。
前記追跡部は、前記対象の時間窓フレームを構成する各フレームで検出された対象物の、前記対象の時間窓フレームを構成するフレーム間における対応関係を示す追跡結果を生成し、
前記統合部は、複数のフレームに含まれる各フレーム間について前記各追跡結果が示す同一の対応関係の数をカウントして、カウントされた数に基づき、前記各フレーム間における前記対象物の対応関係を特定することにより、前記各追跡結果を統合する。
前記統合部は、前記他の時間窓フレームと重複して含まれるフレームのうち基準フレームで検出された対象物を基準として、前記各追跡結果が示す対応関係のうち少なくとも一部分を接続することにより、前記各追跡結果を統合する。
映像データを構成する複数のフレームの連続する一部のフレームを時間窓フレームとして、隣り合う時間窓フレームに1つ以上のフレームが重複して含まれるように、前記映像データから複数の時間窓フレームを抽出する抽出処理と、
前記抽出処理によって抽出された各時間窓フレームを対象として、対象の時間窓フレームに対して対象物の追跡を行い、追跡結果を生成する物体追跡処理と、
前記物体追跡処理によって前記各時間窓フレームを対象として生成された各追跡結果を、他の時間窓フレームと重複して含まれるフレームに基づき統合して、統合結果を生成する結果統合処理と
をコンピュータに実行させる。
***構成の説明***
図1を参照して、実施の形態1に係る追跡装置10の構成を説明する。
追跡装置10は、プロセッサ11と、メモリ12と、ストレージ13と、通信インタフェース14とのハードウェアを備える。プロセッサ11は、信号線を介して他のハードウェアと接続され、これら他のハードウェアを制御する。
追跡装置10は、通信インタフェース14を介して、撮影装置141と、表示装置142とに接続されている。
ストレージ13には、追跡装置10の各機能構成要素の機能を実現するプログラムが格納されている。このプログラムは、プロセッサ11によりメモリ12に読み込まれ、プロセッサ11によって実行される。これにより、追跡装置10の各機能構成要素の機能が実現される。
図2から図7を参照して、実施の形態1に係る追跡装置10の動作を説明する。
実施の形態1に係る追跡装置10の動作は、実施の形態1に係る追跡方法に相当する。また、実施の形態1に係る追跡装置10の動作は、実施の形態1に係る追跡プログラムの処理に相当する。
(図2のステップS1:抽出処理)
抽出部21は、通信インタフェース14を介して、撮影装置141から映像データ30を取得する。抽出部21は、映像データ30を構成する複数のフレーム31の連続する一部のフレーム31を時間窓フレーム32として、映像データ30から複数の時間窓フレーム32を抽出する。この際、抽出部21は、隣り合う時間窓フレーム32に1つ以上のフレーム31が重複して含まれるように、映像データ30から複数の時間窓フレーム32を抽出する。そして、抽出部21は、抽出された各時間窓フレーム32をメモリ12に書き込む。
実施の形態1では、抽出部21は、2つ以上の連続する時間窓フレーム32に、追跡対象とする2つ以上の連続する全てのフレーム31の組が重複して含まれるように、複数の時間窓フレーム32を抽出する。
図3では、抽出部21は、連続する4つのフレーム31を1つの時間窓フレーム32としている。そして、抽出部21は、1つのフレーム31ずつずらしながら、複数の時間窓フレーム32を抽出している。これにより、隣り合う時間窓フレーム32に3つのフレーム31が重複して含まれる。
追跡部22は、ステップS1で抽出された各時間窓フレーム32を対象として、対象の時間窓フレーム32に対して人等の対象物33の追跡を行い、追跡結果34を生成する。対象物33は、人に限らず、鞄等の物体であってもよい。
具体的には、追跡部22は、対象の時間窓フレーム32をメモリ12から読み出す。追跡部22は、対象の時間窓フレーム32を構成する各フレーム31で検出された対象物33の、対象の時間窓フレーム32を構成するフレーム31間における対応関係を示す追跡結果34を生成する。例えば、追跡部22は、対象の時間窓フレーム32を構成する各フレーム31から検出された対象物33の情報を入力として、既存の全体最適化方式のアルゴリズムを用いて、追跡結果34を生成する。既存の全体最適化方式のアルゴリズムとしては、非特許文献2に記載されたアルゴリズムを用いることができる。追跡部22は、生成された追跡結果34をメモリ12に書き込む。
追跡部22は、時間窓フレーム32Aと、時間窓フレーム32Bと、時間窓フレーム32Cといった各時間窓フレーム32を対象として、対象物33の追跡を行う。この際、追跡部22は、対象の時間窓フレーム32を構成する各フレーム31から検出された対象物33の情報を入力とする。例えば、時間窓フレーム32Aが対象の時間窓フレーム32である場合には、フレーム31(1)から検出された対象物33と、フレーム31(2)から検出された対象物33と、フレーム31(3)から検出された対象物33と、フレーム31(4)から検出された対象物33とが入力とされる。
そして、追跡部22は、既存の全体最適化方式のアルゴリズムを用いて、対象の時間窓フレーム32を構成する各フレーム31で検出された対象物33の、対象の時間窓フレーム32を構成するフレーム31間における対応関係を特定する。図4では、時間窓フレーム32Aで追跡て特定された、対応する対象物33を表すノード間にエッジが描かれている。これにより、時間窓フレーム32毎に追跡結果34が得られる。
統合部23は、ステップS2で各時間窓フレーム32を対象として生成された各追跡結果34をメモリ12から読み出す。統合部23は、読み出された各追跡結果34を統合して、統合結果35を生成する。この際、統合部23は、他の時間窓フレーム32と重複して含まれるフレーム31に基づき、追跡結果34を統合する。そして、統合部23は、生成された統合結果35を通信インタフェース14を介して表示装置142に出力する。
具体的には、統合部23は、映像データ30を構成する複数のフレーム31に含まれる各フレーム31間について、各追跡結果34が示す同一の対応関係の数をカウントする。統合部23は、カウントされた数に基づき、各フレーム31間における対象物33の対応関係を特定する。これにより、結果的に、各追跡結果34が統合される。
統合部23は、各追跡結果34が示す同一の対応関係の数を投票数として、投票数が多い対応関係を優先的に採用する。これにより、統合部23は、映像データ30を構成する複数のフレーム31に含まれる各フレーム31間における対象物33の対応関係を特定する。
例えば、フレーム31(3)における対象物33と、フレーム31(4)における対象物33との対応関係は、時間窓フレーム32Aを対象として生成された追跡結果34Aと、時間窓フレーム32Bを対象として生成された追跡結果34Bと、時間窓フレーム32Cを対象として生成された追跡結果34Cとで示されている。そこで、統合部23は、追跡結果34Aと追跡結果34Bと追跡結果34Cとを参照して、投票数が最も多い対応関係を優先的に採用する。
具体例としては、フレーム31(3)における対象物33s及び対象物33tと、フレーム31(4)における対象物33u及び対象物33vとについては、対象物33sと対象物33uとが2度対応付けされ、対象物33sと対象物33vとが1度対応付けされ、対象物33tと対象物33uとが1度対応付けされ、対象物33tと対象物33vとが2度対応付けされている。そこで、統合部23は、投票数が最も多い対応関係である、対象物33sと対象物33uとの対応付けと、対象物33tと対象物33vとの対応付けとを採用する。これにより、フレーム31(3)における対象物33s及び対象物33tと、フレーム31(4)における対象物33u及び対象物33vとの対応付けが決定される。
(図6のステップS11:対象選択処理)
統合部23は、遷移先が決定されておらず、かつ、遷移先の候補がある対象物33を選択する。
遷移先が決定されていないとは、時間的に後のフレーム31で検出された対象物33と対応付けがされていないという意味である。例えば、図7に示すように、フレーム31(2)における対象物33xは、フレーム31(2)よりも時間的に前のフレーム31(1)の対象物33yとは対応付けされている。しかし、対象物33xは、フレーム31(2)よりも時間的に後のフレーム31(3)又はフレーム31(4)の対象物33とは対応付けされていない。したがって、対象物33xは、遷移先が決定されていない対象物33である。
遷移先の候補があるとは、図2のステップS2で生成されたいずれかの追跡結果34で、時間的に後のフレーム31で検出された対象物33と対応付けがされているという意味である。例えば、フレーム31(2)における対象物33xは、時間窓フレーム32Aについての追跡結果34でフレーム31(2)よりも時間的に後のフレーム31(3)の対象物33zと接続されているとする。この場合、対象物33xは、遷移先の候補がある対象物33である。
統合部23は、ステップS11で選択された対象物33についての遷移先を決定する。
具体的には、統合部23は、図2のステップS2で生成された各追跡結果34における、選択された対象物33についての遷移先の候補を特定する。統合部23は、特定された遷移先の候補毎に、いくつの追跡結果34で遷移先になっているかをカウントする。ここでカウントされた数が投票数である。統合部23は、投票数が最も多かった遷移先の候補を、選択された対象物33についての遷移先に決定する。
なお、投票数が同じ遷移先の候補が複数ある場合には、何らかのルールに従い、いずれかの遷移先の候補が選択されるようにしておけばよい。
統合部23は、遷移先が決定されておらず、かつ、遷移先の候補がある対象物33が残っているか否かを判定する。
統合部23は、残っている場合には処理をステップS11に戻す。一方、統合部23は、残っていない場合には処理を終了する。
以上のように、実施の形態1に係る追跡装置10は、時間窓フレーム32毎に追跡結果34を生成し、各追跡結果34を統合して統合結果35を生成する。
これにより、各時間窓フレーム32についての追跡結果34では、逐次対応付け方式の課題が解決されている。そして、時間窓フレーム32毎に処理を行うことで、映像データ30全体について処理を行う場合に比べてメモリ12の消費量を減らすことができる。
<変形例1>
実施の形態1では、図2のステップS3で統合部23は、投票数が最も多い対応関係を優先的に採用した。しかし、図2のステップS3で統合部23は、投票数が最も多い対応関係ではなく、得票率が最も高い対応関係を優先的に採用してもよい。得票率は、投票数を投票機会の数で除した値である。投票機会の数とは、対応関係が選択される可能性がある回数である。
連続する2つのフレーム31が重複して含まれる時間窓フレーム32の数よりも、連続する3つ以上のフレーム31が重複して含まれる時間窓フレーム32の数の方が少ない。例えば、図3に示すように、連続する4つのフレーム31を1つの時間窓フレーム32とし、1つのフレーム31ずつずらしながら時間窓フレーム32が抽出されるとする。この場合、連続する2つのフレーム31が重複して含まれる時間窓フレーム32は3つであるが、連続する3つ以上のフレーム31が重複して含まれる時間窓フレーム32は2つである。
そのため、対象物33がフレーム31を飛び越して対応付けされる場合の投票数を、対象物33がフレーム31を飛び越さずに対応付けされる場合の投票数と比べてしまうと、適切な結果が得られない可能性がある。そこで、投票数に代えて得票数を用いて、対応関係を特定する。
実施の形態1では、図2のステップS1で抽出部21は、映像データ30から一度に複数の時間窓フレーム32を抽出した。しかし、抽出部21は、基準数の新たなフレーム31が得られる度に、新たな時間窓フレーム32を抽出してもよい。そして、新たな時間窓フレーム32が抽出されると、抽出された時間窓フレーム32を用いて図2のステップS2以降の処理が実行されてもよい。
図3に示す例であれば、新たに1つのフレーム31が得られると、新たに1つの時間窓フレーム32を抽出できる。そこで、抽出部21は、新たに1つのフレーム31が得られる度に、新たに1つの時間窓フレーム32を抽出してもよい。もちろん、抽出部21は、1つのフレーム31が得られる度に時間窓フレーム32を抽出するのではなく、2つ以上のある数のフレーム31が得られる度に、新たな時間窓フレーム32を抽出してもよい。
この場合、既に追跡結果34の生成に使用された時間窓フレーム32のみに関するフレーム31はメモリ12から削除してもよい。例えば、図4に示す例であれば、時間窓フレーム32Aについての追跡結果34が生成されてしまえば、フレーム31(1)はメモリ12から削除されてもよい。
また、統合結果35の生成に利用されない追跡結果34についてもメモリ12から削除してもよい。例えば、図4に示す例であれば、フレーム31(3)とフレーム31(4)との対応関係が特定されてしまえば、時間窓フレーム32Aについての追跡結果34は使用されない。したがって、時間窓フレーム32Aについての追跡結果34はメモリ12から削除されてもよい。
これにより、メモリ12の消費量を減らすことができる。
実施の形態1では、2つ以上の時間窓フレーム32に全てのフレーム31の組が重複して含まれるように複数の時間窓フレーム32を抽出するとした。しかし、多数決で決定することを考慮すると、3つ以上の時間窓フレーム32に全てのフレーム31の組が重複して含まれるように複数の時間窓フレーム32を抽出する方が望ましい。
できるだけ多くの時間窓フレーム32に全てのフレーム31の組が重複して含まれるようにした方が、追跡の精度を高くすることができる。但し、多くの時間窓フレーム32に全てのフレーム31の組が重複して含まれるようにするほど、メモリ12の消費量は多くなる。
実施の形態1では、各機能構成要素がソフトウェアで実現された。しかし、変形例4として、各機能構成要素はハードウェアで実現されてもよい。この変形例4について、実施の形態1と異なる点を説明する。
各機能構成要素がハードウェアで実現される場合には、追跡装置10は、プロセッサ11とメモリ12とストレージ13とに代えて、電子回路15を備える。電子回路15は、各機能構成要素と、メモリ12と、ストレージ13との機能とを実現する専用の回路である。
各機能構成要素を1つの電子回路15で実現してもよいし、各機能構成要素を複数の電子回路15に分散させて実現してもよい。
変形例5として、一部の各機能構成要素がハードウェアで実現され、他の各機能構成要素がソフトウェアで実現されてもよい。
実施の形態2は、追跡結果34の統合方法が実施の形態1と異なる。実施の形態2では、この異なる点を説明し、同一の点については説明を省略する。
図2と、図10から図11とを参照して、実施の形態2に係る追跡装置10の動作を説明する。
実施の形態2に係る追跡装置10の動作は、実施の形態2に係る追跡方法に相当する。また、実施の形態2に係る追跡装置10の動作は、実施の形態2に係る追跡プログラムの処理に相当する。
ステップS1からステップS2の処理は、実施の形態1と同じである。
統合部23は、他の時間窓フレーム32と重複して含まれるフレーム31のうち基準フレーム36で検出された対象物を基準として、各追跡結果34が示す対応関係のうち少なくとも一部分を接続することにより、各追跡結果34を統合する。
図10では、図3に示す例のように、連続する4つのフレーム31を1つの時間窓フレーム32とし、1つのフレーム31ずつずらしながら、複数の時間窓フレーム32が抽出された場合を想定している。
統合部23は、対象の時間窓フレーム32と、対象の時間窓フレーム32の1つ前の時間窓フレーム32とで重複して含まれる特定の位置のフレーム31を基準フレーム36とする。また、統合部23は、対象の時間窓フレーム32における基準フレーム36の1つ後のフレーム31を特定フレーム37とする。統合部23は、対象の時間窓フレーム32における基準フレーム36と特定フレーム37との間の対応関係を、統合結果35における基準フレーム36と特定フレーム37との間の対応関係として採用する。
例えば、図10の(A)に示すように、時間窓フレーム32Aが対象の時間窓フレーム32であるとする。また、時間窓フレーム32の前から2番目のフレーム31が基準フレーム36であるとする。この場合、フレーム31(2)が基準フレーム36である。そのため、フレーム31(2)の1つ後ろのフレーム31(3)が特定フレーム37である。したがって、時間窓フレーム32Aにおけるフレーム31(2)とフレーム31(3)との対応関係が、統合結果35におけるフレーム31(2)とフレーム31(3)との対応関係になる。
次に、図10の(B)に示すように、時間窓フレーム32Bが対象の時間窓フレーム32になったとする。この場合、フレーム31(3)が基準フレーム36である。そのため、フレーム31(3)の1つ後ろのフレーム31(4)が特定フレーム37である。したがって、時間窓フレーム32Bにおけるフレーム31(3)とフレーム31(4)との対応関係が、統合結果35におけるフレーム31(3)とフレーム31(4)との対応関係になる。
その結果、図10の(C)に示すように、統合結果35におけるフレーム31(2)からフレーム31(4)までの対応関係が得られる。つまり、基準フレーム36で検出された対象物を基準として、対象の時間窓フレーム32についての追跡結果34と、1つ前の時間窓フレーム32についての追跡結果34とが接続される。
(図11のステップS21:時間窓フレーム選択処理)
統合部23は、過去に対象として選択されていない時間窓フレーム32を、対象の時間窓フレーム32として選択する。例えば、統合部23は、時系列に前の時間窓フレーム32から順に対象の時間窓フレーム32として選択すればよい。
統合部23は、ステップS21で選択された対象の時間窓フレーム32から基準フレーム36を特定する。基準フレーム36の位置は、予め決められているものとする。基準フレーム36は、例えば、時間窓フレーム32の中央のフレーム31である。時間窓フレーム32に含まれるフレーム31が偶数個である場合には、中央のフレーム31は2つあるので、基準フレーム36は、その2つのフレーム31のいずれかである。
統合部23は、基準フレーム36の後のフレーム31を特定フレーム37として特定する。
統合部23は、ステップS21で選択された対象の時間窓フレーム32における基準フレーム36と特定フレーム37との対応関係を、統合結果35における基準フレーム36と特定フレーム37として特定する。
統合部23は、過去に対象として選択されていない時間窓フレーム32が残っているか否かを判定する。
統合部23は、残っている場合には処理をステップS21に戻す。一方、統合部23は、残っていない場合には処理を終了する。
以上のように、実施の形態2に係る追跡装置10は、時間窓フレーム32と重複して含まれるフレーム31のうち基準フレーム36で検出された対象物を基準として、各追跡結果34が示す対応関係のうち少なくとも一部分を接続することにより、各追跡結果34を統合する。
これにより、実施の形態1よりも少ない計算量で追跡結果34を統合することが可能である。
<変形例6>
実施の形態2では、図3に示す例のように、1つのフレーム31ずつずらしながら、複数の時間窓フレーム32が抽出された場合を想定した。しかし、複数のフレーム31ずつずらしながら、複数の時間窓フレーム32が抽出されてもよい。より正確には、隣り合う時間窓フレーム32で、少なくとも1つのフレーム31が重複していればよい。
図12に示すように、N個のフレーム31ずつずらしながら、複数の時間窓フレーム32が抽出されているとする。Nは2以上の整数である。この場合には、統合部23は、対象の時間窓フレーム32における基準フレーム36のN個後のフレーム31を特定フレーム37とする。統合部23は、対象の時間窓フレーム32における基準フレーム36から特定フレーム37までの対応関係を、統合結果35における基準フレーム36から特定フレーム37までの対応関係として採用する。
しかし、隣り合う時間窓フレーム32で重複するフレーム31の数を減らすと、追跡の精度が低くなる可能性がある。例えば、図14に示すように、ある時間窓フレーム32に含まれるフレーム31で、映像データ30に入ってきたばかりの対象物33と、映像データ30からすぐに出ていく対象物33とについては、精度よく追跡できない可能性がある。これは、時間窓フレーム32においてその対象物33が検出されたフレーム31の数が少ないため、図2のステップS2の処理でその対象物33が正しく対応付けされない可能性が高くなるためである。
Claims (8)
- 映像データを構成する複数のフレームの連続する一部のフレームを時間窓フレームとして、隣り合う時間窓フレームに1つ以上のフレームが重複して含まれるように、前記映像データから複数の時間窓フレームを抽出する抽出部と、
前記抽出部によって抽出された各時間窓フレームを対象として、対象の時間窓フレームに対して対象物の追跡を行い、追跡結果を生成する追跡部と、
前記追跡部によって前記各時間窓フレームを対象として生成された各追跡結果を、他の時間窓フレームと重複して含まれるフレームに基づき統合して、統合結果を生成する統合部と
を備える追跡装置。 - 前記抽出部は、2つ以上の連続する時間窓フレームに2つ以上の連続するフレームが重複して含まれるように、前記複数の時間窓フレームを抽出し、
前記追跡部は、前記対象の時間窓フレームを構成する各フレームで検出された対象物の、前記対象の時間窓フレームを構成するフレーム間における対応関係を示す追跡結果を生成し、
前記統合部は、複数のフレームに含まれる各フレーム間について前記各追跡結果が示す同一の対応関係の数をカウントして、カウントされた数に基づき、前記各フレーム間における前記対象物の対応関係を特定することにより、前記各追跡結果を統合する
請求項1に記載の追跡装置。 - 前記統合部は、前記各追跡結果が示す同一の対応関係の数を投票数として、前記投票数が多い対応関係を優先的に採用することにより、前記複数のフレームに含まれる各フレーム間における前記対象物の対応関係を特定する
請求項2に記載の追跡装置。 - 前記統合部は、前記各追跡結果が示す同一の対応関係の数を投票数として、その対応関係が選択される可能性がある回数で前記投票数を除した得票率が高い対応関係を優先して採用することにより、前記複数のフレームに含まれる各フレーム間における前記対象物の対応関係を特定する
請求項2に記載の追跡装置。 - 前記追跡部は、前記対象の時間窓フレームを構成する各フレームで検出された対象物の、前記対象の時間窓フレームを構成するフレーム間における対応関係を示す追跡結果を生成し、
前記統合部は、前記他の時間窓フレームと重複して含まれるフレームのうち基準フレームで検出された対象物を基準として、前記各追跡結果が示す対応関係のうち少なくとも一部分を接続することにより、前記各追跡結果を統合する
請求項1に記載の追跡装置。 - 前記統合部は、前記他の時間窓フレームと重複して含まれるフレームのうち、中央のフレームを前記基準フレームとする
請求項5に記載の追跡装置。 - 前記抽出部は、1フレームずつずらしながら、連続する基準数のフレームを含む前記時間窓フレームを抽出する
請求項1から6までのいずれか1項に記載の追跡装置。 - 映像データを構成する複数のフレームの連続する一部のフレームを時間窓フレームとして、隣り合う時間窓フレームに1つ以上のフレームが重複して含まれるように、前記映像データから複数の時間窓フレームを抽出する抽出処理と、
前記抽出処理によって抽出された各時間窓フレームを対象として、対象の時間窓フレームに対して対象物の追跡を行い、追跡結果を生成する物体追跡処理と、
前記物体追跡処理によって前記各時間窓フレームを対象として生成された各追跡結果を、他の時間窓フレームと重複して含まれるフレームに基づき統合して、統合結果を生成する結果統合処理と
をコンピュータに実行させる追跡プログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017223641A JP6427650B1 (ja) | 2017-11-21 | 2017-11-21 | 追跡装置及び追跡プログラム |
PCT/JP2018/031573 WO2019102674A1 (ja) | 2017-11-21 | 2018-08-27 | 追跡装置及び追跡プログラム |
GB2006426.7A GB2581692B (en) | 2017-11-21 | 2018-08-27 | Tracking apparatus and tracking program |
US16/834,502 US11295457B2 (en) | 2017-11-21 | 2020-03-30 | Tracking apparatus and computer readable medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017223641A JP6427650B1 (ja) | 2017-11-21 | 2017-11-21 | 追跡装置及び追跡プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6427650B1 true JP6427650B1 (ja) | 2018-11-21 |
JP2019095974A JP2019095974A (ja) | 2019-06-20 |
Family
ID=64394765
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017223641A Active JP6427650B1 (ja) | 2017-11-21 | 2017-11-21 | 追跡装置及び追跡プログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US11295457B2 (ja) |
JP (1) | JP6427650B1 (ja) |
GB (1) | GB2581692B (ja) |
WO (1) | WO2019102674A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7414456B2 (ja) * | 2019-10-11 | 2024-01-16 | 日立造船株式会社 | 情報処理装置、同一性判定方法、および同一性判定プログラム |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1084525A (ja) * | 1996-02-05 | 1998-03-31 | Texas Instr Inc <Ti> | ビデオに索引をつける方法 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6892193B2 (en) * | 2001-05-10 | 2005-05-10 | International Business Machines Corporation | Method and apparatus for inducing classifiers for multimedia based on unified representation of features reflecting disparate modalities |
US8363115B2 (en) * | 2005-08-10 | 2013-01-29 | Nxp, B.V. | Method and device for digital image stabilization |
JP4984728B2 (ja) | 2006-08-07 | 2012-07-25 | パナソニック株式会社 | 被写体照合装置および被写体照合方法 |
WO2008078736A1 (ja) | 2006-12-27 | 2008-07-03 | Nec Corporation | 同一性判定装置、同一性判定方法および同一性判定用プログラム |
JP4874150B2 (ja) | 2007-03-30 | 2012-02-15 | セコム株式会社 | 移動物体追跡装置 |
JP5063567B2 (ja) | 2008-11-28 | 2012-10-31 | セコム株式会社 | 移動物体追跡装置 |
JP5147761B2 (ja) | 2009-03-02 | 2013-02-20 | セコム株式会社 | 画像監視装置 |
JP5919665B2 (ja) | 2011-07-19 | 2016-05-18 | 日本電気株式会社 | 情報処理装置、物体追跡方法および情報処理プログラム |
JP6218102B2 (ja) | 2013-03-19 | 2017-10-25 | 日本電気株式会社 | 情報処理システム、情報処理方法及びプログラム |
JP6304473B2 (ja) | 2013-04-23 | 2018-04-04 | 日本電気株式会社 | 画像処理システム、画像処理方法及びプログラム |
JP6406251B2 (ja) | 2013-07-17 | 2018-10-17 | 日本電気株式会社 | 物体追跡装置、物体追跡方法および物体追跡プログラム |
JP6476746B2 (ja) | 2014-10-27 | 2019-03-06 | 株式会社Gsユアサ | 蓄電素子、電源モジュール及び蓄電素子の製造方法 |
GB201601143D0 (en) * | 2016-01-21 | 2016-03-09 | Oxehealth Ltd | Method and apparatus for health and safety monitoring of a subject in a room |
-
2017
- 2017-11-21 JP JP2017223641A patent/JP6427650B1/ja active Active
-
2018
- 2018-08-27 GB GB2006426.7A patent/GB2581692B/en active Active
- 2018-08-27 WO PCT/JP2018/031573 patent/WO2019102674A1/ja active Application Filing
-
2020
- 2020-03-30 US US16/834,502 patent/US11295457B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1084525A (ja) * | 1996-02-05 | 1998-03-31 | Texas Instr Inc <Ti> | ビデオに索引をつける方法 |
Non-Patent Citations (3)
Title |
---|
北澤 仁志、小野澤 晃: ""移動物体の軌跡に基づく最小数のキーフレーム選択手法"", 情報処理学会論文誌, vol. 45, no. 3, JPN6018039612, 15 March 2004 (2004-03-15), JP, pages 942 - 950 * |
菅谷 保之、外2名: ""複数運動ビデオデータベースHopkins155の誤追除去"", 情報処理学会 研究報告 コンピュータビジョンとイメージメディア(CVIM), vol. 2013, no. 2, JPN6018039608, 23 May 2013 (2013-05-23), JP, pages 1 - 8 * |
須藤 智、外4名: "動画像処理によるロボカップのシーン解析 Scene Analysis of Robocup Game by using image Processing", AI CHALLENGE 研究会(第10回), JPN6018039609, 24 June 2000 (2000-06-24), JP, pages 36 - 41 * |
Also Published As
Publication number | Publication date |
---|---|
US11295457B2 (en) | 2022-04-05 |
US20200226767A1 (en) | 2020-07-16 |
GB202006426D0 (en) | 2020-06-17 |
WO2019102674A1 (ja) | 2019-05-31 |
GB2581692B (en) | 2021-03-24 |
GB2581692A (en) | 2020-08-26 |
JP2019095974A (ja) | 2019-06-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10600191B2 (en) | System and method for tracking multiple objects | |
CN110378966B (zh) | 车路协同相机外参标定方法、装置、设备及存储介质 | |
US11055878B2 (en) | Person counting method and person counting system | |
US20140126830A1 (en) | Information processing device, information processing method, and program | |
KR101969623B1 (ko) | 병렬 검출과 추적, 및/또는 그룹화된 피처 모션 시프트 추적을 이용한 얼굴 인식 | |
US10614312B2 (en) | Method and apparatus for determining signature actor and identifying video based on probability of appearance of signature actor | |
US20160379088A1 (en) | Apparatus and method for creating an image recognizing program having high positional recognition accuracy | |
US20170323149A1 (en) | Rotation invariant object detection | |
US9946645B2 (en) | Information processing apparatus and memory control method | |
US20130322758A1 (en) | Image processing apparatus, image processing method, and program | |
US20160048977A1 (en) | Method and Device for Detecting Face, and Non-Transitory Computer-Readable Recording Medium for Executing the Method | |
JP6427650B1 (ja) | 追跡装置及び追跡プログラム | |
US9171227B2 (en) | Apparatus and method extracting feature information of a source image | |
KR102086042B1 (ko) | 영상 처리 장치 및 방법 | |
Eusse et al. | A flexible ASIP architecture for connected components labeling in embedded vision applications | |
US11189038B2 (en) | Tracking apparatus and computer readable medium | |
US10713808B2 (en) | Stereo matching method and system using rectangular window | |
CN112581500A (zh) | 用于在目标跟踪中匹配行人和人脸的方法和装置 | |
CN112183484A (zh) | 一种图像处理方法、装置、设备以及存储介质 | |
KR101826463B1 (ko) | 동영상의 시간 축을 동기화하기 위한 방법 및 장치 | |
CN114341946A (zh) | 识别方法、装置、电子设备及存储介质 | |
JP6412625B1 (ja) | カウント装置及びカウントプログラム | |
US20230112822A1 (en) | Character recognition method, character recognition device and non-transitory computer readable medium | |
JP2017084365A (ja) | 背景画像モデルの初期化装置、方法、及び画像処理装置 | |
CN113587916B (zh) | 实时稀疏视觉里程计、导航方法以及*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180524 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181016 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181029 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6427650 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |