JP6427650B1 - 追跡装置及び追跡プログラム - Google Patents

追跡装置及び追跡プログラム Download PDF

Info

Publication number
JP6427650B1
JP6427650B1 JP2017223641A JP2017223641A JP6427650B1 JP 6427650 B1 JP6427650 B1 JP 6427650B1 JP 2017223641 A JP2017223641 A JP 2017223641A JP 2017223641 A JP2017223641 A JP 2017223641A JP 6427650 B1 JP6427650 B1 JP 6427650B1
Authority
JP
Japan
Prior art keywords
time window
frames
tracking
frame
window frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017223641A
Other languages
English (en)
Other versions
JP2019095974A (ja
Inventor
孝之 瀬光
孝之 瀬光
尭理 中尾
尭理 中尾
領 菊池
領 菊池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Mitsubishi Electric Information Systems Corp
Original Assignee
Mitsubishi Electric Corp
Mitsubishi Electric Information Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp, Mitsubishi Electric Information Systems Corp filed Critical Mitsubishi Electric Corp
Priority to JP2017223641A priority Critical patent/JP6427650B1/ja
Priority to PCT/JP2018/031573 priority patent/WO2019102674A1/ja
Priority to GB2006426.7A priority patent/GB2581692B/en
Application granted granted Critical
Publication of JP6427650B1 publication Critical patent/JP6427650B1/ja
Publication of JP2019095974A publication Critical patent/JP2019095974A/ja
Priority to US16/834,502 priority patent/US11295457B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】映像データ中の対象物を追跡する追跡技術における、逐次対応付け方式の課題を解決しつつ、全体最適化方式と比べてメモリの消費量を減らすことを可能にする。
【解決手段】抽出部21は、映像データを構成する複数のフレームの連続する一部のフレームを時間窓フレームとして、隣り合う時間窓フレームに1つ以上のフレームが重複して含まれるように、映像データから複数の時間窓フレームを抽出する。追跡部22は、各時間窓フレームを対象として、対象の時間窓フレームに対して対象物の追跡を行い、追跡結果を生成する。統合部23は、各時間窓フレームを対象として生成された各追跡結果を、他の時間窓フレームと重複して含まれるフレームに基づき統合して、統合結果を生成する。
【選択図】図1

Description

この発明は、映像データに映っている対象物を追跡する技術に関する。
監視カメラといった撮影装置によって取得された映像データに映っている人等の対象物を追跡する追跡技術がある。追跡技術では、映像データを構成する複数のフレームから検出された対象物について、フレーム間での対応関係が特定され、対象物が追跡される。
追跡技術には、逐次対応付け方式と全体最適化方式とがある。
逐次対応付け方式は、最新の追跡結果だけを保持しておき、新らたにフレームから検出された対象物についての入力データが得られると、最新の追跡結果に対応付けを行い追跡結果を更新する方式である。非特許文献1には、逐次対応付け方式について記載されている。
全体最適化方式は、全ての入力データを保持しておき、新たにフレームから検出された対象物についての入力データが得られると、全体を最適化して追跡結果を更新する方式である。非特許文献2には、全体最適化方式について記載されている。
Babenko, Boris, Ming−Hsuan Yang, and Serge Belongie. "Visual tracking with online multiple instance learning." Computer Vision and Pattern Recognition, 2009. CVPR 2009. IEEE Conference on. IEEE, 2009. Pirsiavash, Hamed, Deva Ramanan, and Charless C. Fowlkes. "Globally−optimal greedy algorithms for tracking a variable number of objects." Computer Vision and Pattern Recognition (CVPR), 2011 IEEE Conference on. IEEE, 2011.
逐次対応付け方式は、オクルージョン又は未検出が発生した場合に、追跡が途切れてしまうという課題がある。また、逐次対応付け方式は、ある時に間違って対応付けをしてしまうと、その間違いが修正されることがないという課題がある。一方、全体最適化方式は、逐次対応付け方式の課題は解決されているものの、メモリの消費量が多いという課題がある。
この発明は、逐次対応付け方式の課題を解決しつつ、全体最適化方式と比べてメモリの消費量を減らすことを可能にすることを目的とする。
この発明に係る追跡装置は、
映像データを構成する複数のフレームの連続する一部のフレームを時間窓フレームとして、隣り合う時間窓フレームに1つ以上のフレームが重複して含まれるように、前記映像データから複数の時間窓フレームを抽出する抽出部と、
前記抽出部によって抽出された各時間窓フレームを対象として、対象の時間窓フレームに対して対象物の追跡を行い、追跡結果を生成する追跡部と、
前記追跡部によって前記各時間窓フレームを対象として生成された各追跡結果を、他の時間窓フレームと重複して含まれるフレームに基づき統合して、統合結果を生成する統合部と
を備える。
前記抽出部は、2つ以上の連続する時間窓フレームに2つ以上の連続するフレームが重複して含まれるように、前記複数の時間窓フレームを抽出し、
前記追跡部は、前記対象の時間窓フレームを構成する各フレームで検出された対象物の、前記対象の時間窓フレームを構成するフレーム間における対応関係を示す追跡結果を生成し、
前記統合部は、複数のフレームに含まれる各フレーム間について前記各追跡結果が示す同一の対応関係の数をカウントして、カウントされた数に基づき、前記各フレーム間における前記対象物の対応関係を特定することにより、前記各追跡結果を統合する。
前記統合部は、前記各追跡結果が示す同一の対応関係の数を投票数として、前記投票数が多い対応関係を優先的に採用することにより、前記複数のフレームに含まれる各フレーム間における前記対象物の対応関係を特定する。
前記統合部は、前記各追跡結果が示す同一の対応関係の数を投票数として、その対応関係が選択される可能性がある回数で前記投票数を除した得票率が高い対応関係を優先して採用することにより、前記複数のフレームに含まれる各フレーム間における前記対象物の対応関係を特定する。
前記追跡部は、前記対象の時間窓フレームを構成する各フレームで検出された対象物の、前記対象の時間窓フレームを構成するフレーム間における対応関係を示す追跡結果を生成し、
前記統合部は、前記他の時間窓フレームと重複して含まれるフレームのうち基準フレームで検出された対象物を基準として、前記各追跡結果が示す対応関係のうち少なくとも一部分を接続することにより、前記各追跡結果を統合する。
前記統合部は、前記他の時間窓フレームと重複して含まれるフレームのうち、中央のフレームを前記基準フレームとする。
前記抽出部は、1フレームずつずらしながら、連続する基準数のフレームを含む前記時間窓フレームを抽出する。
この発明に係る追跡プログラムは、
映像データを構成する複数のフレームの連続する一部のフレームを時間窓フレームとして、隣り合う時間窓フレームに1つ以上のフレームが重複して含まれるように、前記映像データから複数の時間窓フレームを抽出する抽出処理と、
前記抽出処理によって抽出された各時間窓フレームを対象として、対象の時間窓フレームに対して対象物の追跡を行い、追跡結果を生成する物体追跡処理と、
前記物体追跡処理によって前記各時間窓フレームを対象として生成された各追跡結果を、他の時間窓フレームと重複して含まれるフレームに基づき統合して、統合結果を生成する結果統合処理と
をコンピュータに実行させる。
この発明では、時間窓フレーム毎に追跡結果を生成し、各追跡結果を統合して統合結果を生成する。これにより、逐次対応付け方式の課題を解決しつつ、全体最適化方式と比べてメモリの消費量を減らすことが可能である。
実施の形態1に係る追跡装置10の構成図。 実施の形態1に係る追跡装置10の全体的な処理のフローチャート。 実施の形態1に係る時間窓フレーム32の説明図。 実施の形態1に係る追跡処理の説明図。 実施の形態1に係る統合処理の説明図。 実施の形態1に係る統合処理のフローチャート。 実施の形態1に係る遷移先の説明図。 変形例1に係る統合処理の説明図。 変形例4に係る追跡装置10の構成図。 実施の形態2に係る統合処理の説明図。 実施の形態2に係る統合処理のフローチャート。 変形例6に係る時間窓フレーム32の説明図。 変形例6に係る時間窓フレーム32の説明図。 変形例6に係る追跡精度が悪くなるケースの説明図。
実施の形態1.
***構成の説明***
図1を参照して、実施の形態1に係る追跡装置10の構成を説明する。
追跡装置10は、プロセッサ11と、メモリ12と、ストレージ13と、通信インタフェース14とのハードウェアを備える。プロセッサ11は、信号線を介して他のハードウェアと接続され、これら他のハードウェアを制御する。
プロセッサ11は、プロセッシングを行うIC(Integrated Circuit)である。プロセッサ11は、具体例としては、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、GPU(Graphics Processing Unit)である。
メモリ12は、データを一時的に記憶する記憶装置である。メモリ12は、具体例としては、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)である。
ストレージ13は、データを保管する記憶装置である。ストレージ13は、具体例としては、HDD(Hard Disk Drive)である。また、ストレージ13は、SD(登録商標,Secure Digital)メモリカード、CF(CompactFlash,登録商標)、NANDフラッシュ、フレキシブルディスク、光ディスク、コンパクトディスク、ブルーレイ(登録商標)ディスク、DVD(Digital Versatile Disk)といった可搬記録媒体であってもよい。
通信インタフェース14は、外部の装置と通信するためのインタフェースである。通信インタフェース14は、具体例としては、Ethernet(登録商標)、USB(Universal Serial Bus)、HDMI(登録商標,High−Definition Multimedia Interface)のポートである。
追跡装置10は、通信インタフェース14を介して、撮影装置141と、表示装置142とに接続されている。
追跡装置10は、機能構成要素として、抽出部21と、追跡部22と、統合部23とを備える。追跡装置10の各機能構成要素の機能はソフトウェアにより実現される。
ストレージ13には、追跡装置10の各機能構成要素の機能を実現するプログラムが格納されている。このプログラムは、プロセッサ11によりメモリ12に読み込まれ、プロセッサ11によって実行される。これにより、追跡装置10の各機能構成要素の機能が実現される。
図1では、プロセッサ11は、1つだけ示されていた。しかし、プロセッサ11は、複数であってもよく、複数のプロセッサ11が、各機能を実現するプログラムを連携して実行してもよい。
***動作の説明***
図2から図7を参照して、実施の形態1に係る追跡装置10の動作を説明する。
実施の形態1に係る追跡装置10の動作は、実施の形態1に係る追跡方法に相当する。また、実施の形態1に係る追跡装置10の動作は、実施の形態1に係る追跡プログラムの処理に相当する。
図2を参照して、実施の形態1に係る追跡装置10の全体的な処理を説明する。
(図2のステップS1:抽出処理)
抽出部21は、通信インタフェース14を介して、撮影装置141から映像データ30を取得する。抽出部21は、映像データ30を構成する複数のフレーム31の連続する一部のフレーム31を時間窓フレーム32として、映像データ30から複数の時間窓フレーム32を抽出する。この際、抽出部21は、隣り合う時間窓フレーム32に1つ以上のフレーム31が重複して含まれるように、映像データ30から複数の時間窓フレーム32を抽出する。そして、抽出部21は、抽出された各時間窓フレーム32をメモリ12に書き込む。
実施の形態1では、抽出部21は、2つ以上の連続する時間窓フレーム32に、追跡対象とする2つ以上の連続する全てのフレーム31の組が重複して含まれるように、複数の時間窓フレーム32を抽出する。
図3を参照して具体的に説明する。
図3では、抽出部21は、連続する4つのフレーム31を1つの時間窓フレーム32としている。そして、抽出部21は、1つのフレーム31ずつずらしながら、複数の時間窓フレーム32を抽出している。これにより、隣り合う時間窓フレーム32に3つのフレーム31が重複して含まれる。
(図2のステップS2:追跡処理)
追跡部22は、ステップS1で抽出された各時間窓フレーム32を対象として、対象の時間窓フレーム32に対して人等の対象物33の追跡を行い、追跡結果34を生成する。対象物33は、人に限らず、鞄等の物体であってもよい。
具体的には、追跡部22は、対象の時間窓フレーム32をメモリ12から読み出す。追跡部22は、対象の時間窓フレーム32を構成する各フレーム31で検出された対象物33の、対象の時間窓フレーム32を構成するフレーム31間における対応関係を示す追跡結果34を生成する。例えば、追跡部22は、対象の時間窓フレーム32を構成する各フレーム31から検出された対象物33の情報を入力として、既存の全体最適化方式のアルゴリズムを用いて、追跡結果34を生成する。既存の全体最適化方式のアルゴリズムとしては、非特許文献2に記載されたアルゴリズムを用いることができる。追跡部22は、生成された追跡結果34をメモリ12に書き込む。
図4を参照して具体的に説明する。図4では、横軸が時間を表し、縦軸が空間を表している。図4では、横軸に沿って各フレーム31で検出された対象物33が並べられており、縦軸方向の位置が対象物33の位置を表している。
追跡部22は、時間窓フレーム32Aと、時間窓フレーム32Bと、時間窓フレーム32Cといった各時間窓フレーム32を対象として、対象物33の追跡を行う。この際、追跡部22は、対象の時間窓フレーム32を構成する各フレーム31から検出された対象物33の情報を入力とする。例えば、時間窓フレーム32Aが対象の時間窓フレーム32である場合には、フレーム31(1)から検出された対象物33と、フレーム31(2)から検出された対象物33と、フレーム31(3)から検出された対象物33と、フレーム31(4)から検出された対象物33とが入力とされる。
そして、追跡部22は、既存の全体最適化方式のアルゴリズムを用いて、対象の時間窓フレーム32を構成する各フレーム31で検出された対象物33の、対象の時間窓フレーム32を構成するフレーム31間における対応関係を特定する。図4では、時間窓フレーム32Aで追跡て特定された、対応する対象物33を表すノード間にエッジが描かれている。これにより、時間窓フレーム32毎に追跡結果34が得られる。
(図2のステップS3:統合処理)
統合部23は、ステップS2で各時間窓フレーム32を対象として生成された各追跡結果34をメモリ12から読み出す。統合部23は、読み出された各追跡結果34を統合して、統合結果35を生成する。この際、統合部23は、他の時間窓フレーム32と重複して含まれるフレーム31に基づき、追跡結果34を統合する。そして、統合部23は、生成された統合結果35を通信インタフェース14を介して表示装置142に出力する。
具体的には、統合部23は、映像データ30を構成する複数のフレーム31に含まれる各フレーム31間について、各追跡結果34が示す同一の対応関係の数をカウントする。統合部23は、カウントされた数に基づき、各フレーム31間における対象物33の対応関係を特定する。これにより、結果的に、各追跡結果34が統合される。
図5を参照して具体的に説明する。
統合部23は、各追跡結果34が示す同一の対応関係の数を投票数として、投票数が多い対応関係を優先的に採用する。これにより、統合部23は、映像データ30を構成する複数のフレーム31に含まれる各フレーム31間における対象物33の対応関係を特定する。
例えば、フレーム31(3)における対象物33と、フレーム31(4)における対象物33との対応関係は、時間窓フレーム32Aを対象として生成された追跡結果34Aと、時間窓フレーム32Bを対象として生成された追跡結果34Bと、時間窓フレーム32Cを対象として生成された追跡結果34Cとで示されている。そこで、統合部23は、追跡結果34Aと追跡結果34Bと追跡結果34Cとを参照して、投票数が最も多い対応関係を優先的に採用する。
具体例としては、フレーム31(3)における対象物33s及び対象物33tと、フレーム31(4)における対象物33u及び対象物33vとについては、対象物33sと対象物33uとが2度対応付けされ、対象物33sと対象物33vとが1度対応付けされ、対象物33tと対象物33uとが1度対応付けされ、対象物33tと対象物33vとが2度対応付けされている。そこで、統合部23は、投票数が最も多い対応関係である、対象物33sと対象物33uとの対応付けと、対象物33tと対象物33vとの対応付けとを採用する。これにより、フレーム31(3)における対象物33s及び対象物33tと、フレーム31(4)における対象物33u及び対象物33vとの対応付けが決定される。
図6を参照して、実施の形態1に係る統合処理(図2のステップS3)を説明する。
(図6のステップS11:対象選択処理)
統合部23は、遷移先が決定されておらず、かつ、遷移先の候補がある対象物33を選択する。
遷移先が決定されていないとは、時間的に後のフレーム31で検出された対象物33と対応付けがされていないという意味である。例えば、図7に示すように、フレーム31(2)における対象物33xは、フレーム31(2)よりも時間的に前のフレーム31(1)の対象物33yとは対応付けされている。しかし、対象物33xは、フレーム31(2)よりも時間的に後のフレーム31(3)又はフレーム31(4)の対象物33とは対応付けされていない。したがって、対象物33xは、遷移先が決定されていない対象物33である。
遷移先の候補があるとは、図2のステップS2で生成されたいずれかの追跡結果34で、時間的に後のフレーム31で検出された対象物33と対応付けがされているという意味である。例えば、フレーム31(2)における対象物33xは、時間窓フレーム32Aについての追跡結果34でフレーム31(2)よりも時間的に後のフレーム31(3)の対象物33zと接続されているとする。この場合、対象物33xは、遷移先の候補がある対象物33である。
(図6のステップS12:決定処理)
統合部23は、ステップS11で選択された対象物33についての遷移先を決定する。
具体的には、統合部23は、図2のステップS2で生成された各追跡結果34における、選択された対象物33についての遷移先の候補を特定する。統合部23は、特定された遷移先の候補毎に、いくつの追跡結果34で遷移先になっているかをカウントする。ここでカウントされた数が投票数である。統合部23は、投票数が最も多かった遷移先の候補を、選択された対象物33についての遷移先に決定する。
なお、投票数が同じ遷移先の候補が複数ある場合には、何らかのルールに従い、いずれかの遷移先の候補が選択されるようにしておけばよい。
(図6のステップS13:終了判定処理)
統合部23は、遷移先が決定されておらず、かつ、遷移先の候補がある対象物33が残っているか否かを判定する。
統合部23は、残っている場合には処理をステップS11に戻す。一方、統合部23は、残っていない場合には処理を終了する。
なお、以上に説明した方法では、例えば、映像データ30の先頭のフレーム31については、1つの時間窓フレーム32にだけ含まれる。このような例外的に1つの時間窓フレーム32にだけしか含まれないフレーム31については、1つの時間窓フレーム32における対応関係を採用すればよい。
***実施の形態1の効果***
以上のように、実施の形態1に係る追跡装置10は、時間窓フレーム32毎に追跡結果34を生成し、各追跡結果34を統合して統合結果35を生成する。
これにより、各時間窓フレーム32についての追跡結果34では、逐次対応付け方式の課題が解決されている。そして、時間窓フレーム32毎に処理を行うことで、映像データ30全体について処理を行う場合に比べてメモリ12の消費量を減らすことができる。
また、実施の形態1に係る追跡装置10は、各時間窓フレーム32についての追跡結果34から得られる投票数によって対応関係を特定する。これにより、映像データ30全体として適切な統合結果35を得ることが可能である。
***他の構成***
<変形例1>
実施の形態1では、図2のステップS3で統合部23は、投票数が最も多い対応関係を優先的に採用した。しかし、図2のステップS3で統合部23は、投票数が最も多い対応関係ではなく、得票率が最も高い対応関係を優先的に採用してもよい。得票率は、投票数を投票機会の数で除した値である。投票機会の数とは、対応関係が選択される可能性がある回数である。
図8に示すように、追跡結果34において、対象物33がフレーム31を飛び越して対応付けされる場合がある。図8では、フレーム31(2)の対象物33と、フレーム31(4)の対象物33とが対応付けされている。つまり、あるフレーム31で検出された対象物33が、次のフレーム31で検出された対象物33ではなく、2つ以上後のフレーム31で検出された対象物33と対応付けされる場合がある。
連続する2つのフレーム31が重複して含まれる時間窓フレーム32の数よりも、連続する3つ以上のフレーム31が重複して含まれる時間窓フレーム32の数の方が少ない。例えば、図3に示すように、連続する4つのフレーム31を1つの時間窓フレーム32とし、1つのフレーム31ずつずらしながら時間窓フレーム32が抽出されるとする。この場合、連続する2つのフレーム31が重複して含まれる時間窓フレーム32は3つであるが、連続する3つ以上のフレーム31が重複して含まれる時間窓フレーム32は2つである。
そのため、対象物33がフレーム31を飛び越して対応付けされる場合の投票数を、対象物33がフレーム31を飛び越さずに対応付けされる場合の投票数と比べてしまうと、適切な結果が得られない可能性がある。そこで、投票数に代えて得票数を用いて、対応関係を特定する。
図3に示す例であれば、対象物33がフレーム31を飛び越さずに対応付けされる場合の得票率は、投票数を3で除した値である。この“3”は、投票機会の数であり、連続する2つのフレーム31が重複して含まれる時間窓フレーム32の数である。同様に、対象物33がフレーム31を1つ飛び越して対応付けされる場合の得票率は、投票数を2で除した値である。この“2”は、投票機会の数であり、連続する3つのフレーム31が重複して含まれる時間窓フレーム32の数である。
<変形例2>
実施の形態1では、図2のステップS1で抽出部21は、映像データ30から一度に複数の時間窓フレーム32を抽出した。しかし、抽出部21は、基準数の新たなフレーム31が得られる度に、新たな時間窓フレーム32を抽出してもよい。そして、新たな時間窓フレーム32が抽出されると、抽出された時間窓フレーム32を用いて図2のステップS2以降の処理が実行されてもよい。
図3に示す例であれば、新たに1つのフレーム31が得られると、新たに1つの時間窓フレーム32を抽出できる。そこで、抽出部21は、新たに1つのフレーム31が得られる度に、新たに1つの時間窓フレーム32を抽出してもよい。もちろん、抽出部21は、1つのフレーム31が得られる度に時間窓フレーム32を抽出するのではなく、2つ以上のある数のフレーム31が得られる度に、新たな時間窓フレーム32を抽出してもよい。
この場合、既に追跡結果34の生成に使用された時間窓フレーム32のみに関するフレーム31はメモリ12から削除してもよい。例えば、図4に示す例であれば、時間窓フレーム32Aについての追跡結果34が生成されてしまえば、フレーム31(1)はメモリ12から削除されてもよい。
また、統合結果35の生成に利用されない追跡結果34についてもメモリ12から削除してもよい。例えば、図4に示す例であれば、フレーム31(3)とフレーム31(4)との対応関係が特定されてしまえば、時間窓フレーム32Aについての追跡結果34は使用されない。したがって、時間窓フレーム32Aについての追跡結果34はメモリ12から削除されてもよい。
これにより、メモリ12の消費量を減らすことができる。
<変形例3>
実施の形態1では、2つ以上の時間窓フレーム32に全てのフレーム31の組が重複して含まれるように複数の時間窓フレーム32を抽出するとした。しかし、多数決で決定することを考慮すると、3つ以上の時間窓フレーム32に全てのフレーム31の組が重複して含まれるように複数の時間窓フレーム32を抽出する方が望ましい。
できるだけ多くの時間窓フレーム32に全てのフレーム31の組が重複して含まれるようにした方が、追跡の精度を高くすることができる。但し、多くの時間窓フレーム32に全てのフレーム31の組が重複して含まれるようにするほど、メモリ12の消費量は多くなる。
また、変形例2で説明したように新たなフレーム31が得られる度に新たな時間窓フレーム32を抽出する場合、1つの時間窓フレーム32に含まれるフレーム31の数を多くすると、結果が得られるのが遅くなる。
<変形例4>
実施の形態1では、各機能構成要素がソフトウェアで実現された。しかし、変形例4として、各機能構成要素はハードウェアで実現されてもよい。この変形例4について、実施の形態1と異なる点を説明する。
図9を参照して、変形例4に係る追跡装置10の構成を説明する。
各機能構成要素がハードウェアで実現される場合には、追跡装置10は、プロセッサ11とメモリ12とストレージ13とに代えて、電子回路15を備える。電子回路15は、各機能構成要素と、メモリ12と、ストレージ13との機能とを実現する専用の回路である。
電子回路15としては、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ロジックIC、GA(Gate Array)、ASIC(Application Specific Integrated Circuit)、FPGA(Field−Programmable Gate Array)が想定される。
各機能構成要素を1つの電子回路15で実現してもよいし、各機能構成要素を複数の電子回路15に分散させて実現してもよい。
<変形例5>
変形例5として、一部の各機能構成要素がハードウェアで実現され、他の各機能構成要素がソフトウェアで実現されてもよい。
プロセッサ11とメモリ12とストレージ13と電子回路15とを処理回路という。つまり、各機能構成要素の機能は、処理回路により実現される。
実施の形態2.
実施の形態2は、追跡結果34の統合方法が実施の形態1と異なる。実施の形態2では、この異なる点を説明し、同一の点については説明を省略する。
***動作の説明***
図2と、図10から図11とを参照して、実施の形態2に係る追跡装置10の動作を説明する。
実施の形態2に係る追跡装置10の動作は、実施の形態2に係る追跡方法に相当する。また、実施の形態2に係る追跡装置10の動作は、実施の形態2に係る追跡プログラムの処理に相当する。
図2を参照して、実施の形態2に係る追跡装置10の全体的な処理を説明する。
ステップS1からステップS2の処理は、実施の形態1と同じである。
(図2のステップS3:統合処理)
統合部23は、他の時間窓フレーム32と重複して含まれるフレーム31のうち基準フレーム36で検出された対象物を基準として、各追跡結果34が示す対応関係のうち少なくとも一部分を接続することにより、各追跡結果34を統合する。
図10を参照して具体的に説明する。
図10では、図3に示す例のように、連続する4つのフレーム31を1つの時間窓フレーム32とし、1つのフレーム31ずつずらしながら、複数の時間窓フレーム32が抽出された場合を想定している。
統合部23は、対象の時間窓フレーム32と、対象の時間窓フレーム32の1つ前の時間窓フレーム32とで重複して含まれる特定の位置のフレーム31を基準フレーム36とする。また、統合部23は、対象の時間窓フレーム32における基準フレーム36の1つ後のフレーム31を特定フレーム37とする。統合部23は、対象の時間窓フレーム32における基準フレーム36と特定フレーム37との間の対応関係を、統合結果35における基準フレーム36と特定フレーム37との間の対応関係として採用する。
例えば、図10の(A)に示すように、時間窓フレーム32Aが対象の時間窓フレーム32であるとする。また、時間窓フレーム32の前から2番目のフレーム31が基準フレーム36であるとする。この場合、フレーム31(2)が基準フレーム36である。そのため、フレーム31(2)の1つ後ろのフレーム31(3)が特定フレーム37である。したがって、時間窓フレーム32Aにおけるフレーム31(2)とフレーム31(3)との対応関係が、統合結果35におけるフレーム31(2)とフレーム31(3)との対応関係になる。
次に、図10の(B)に示すように、時間窓フレーム32Bが対象の時間窓フレーム32になったとする。この場合、フレーム31(3)が基準フレーム36である。そのため、フレーム31(3)の1つ後ろのフレーム31(4)が特定フレーム37である。したがって、時間窓フレーム32Bにおけるフレーム31(3)とフレーム31(4)との対応関係が、統合結果35におけるフレーム31(3)とフレーム31(4)との対応関係になる。
その結果、図10の(C)に示すように、統合結果35におけるフレーム31(2)からフレーム31(4)までの対応関係が得られる。つまり、基準フレーム36で検出された対象物を基準として、対象の時間窓フレーム32についての追跡結果34と、1つ前の時間窓フレーム32についての追跡結果34とが接続される。
図11を参照して、実施の形態2に係る統合処理(図2のステップS3)を説明する。
(図11のステップS21:時間窓フレーム選択処理)
統合部23は、過去に対象として選択されていない時間窓フレーム32を、対象の時間窓フレーム32として選択する。例えば、統合部23は、時系列に前の時間窓フレーム32から順に対象の時間窓フレーム32として選択すればよい。
(図11のステップS22:対象フレーム特定処理)
統合部23は、ステップS21で選択された対象の時間窓フレーム32から基準フレーム36を特定する。基準フレーム36の位置は、予め決められているものとする。基準フレーム36は、例えば、時間窓フレーム32の中央のフレーム31である。時間窓フレーム32に含まれるフレーム31が偶数個である場合には、中央のフレーム31は2つあるので、基準フレーム36は、その2つのフレーム31のいずれかである。
統合部23は、基準フレーム36の後のフレーム31を特定フレーム37として特定する。
(図11のステップS23:対応特定処理)
統合部23は、ステップS21で選択された対象の時間窓フレーム32における基準フレーム36と特定フレーム37との対応関係を、統合結果35における基準フレーム36と特定フレーム37として特定する。
(図11のステップS24:終了判定処理)
統合部23は、過去に対象として選択されていない時間窓フレーム32が残っているか否かを判定する。
統合部23は、残っている場合には処理をステップS21に戻す。一方、統合部23は、残っていない場合には処理を終了する。
***実施の形態2の効果***
以上のように、実施の形態2に係る追跡装置10は、時間窓フレーム32と重複して含まれるフレーム31のうち基準フレーム36で検出された対象物を基準として、各追跡結果34が示す対応関係のうち少なくとも一部分を接続することにより、各追跡結果34を統合する。
これにより、実施の形態1よりも少ない計算量で追跡結果34を統合することが可能である。
***他の構成***
<変形例6>
実施の形態2では、図3に示す例のように、1つのフレーム31ずつずらしながら、複数の時間窓フレーム32が抽出された場合を想定した。しかし、複数のフレーム31ずつずらしながら、複数の時間窓フレーム32が抽出されてもよい。より正確には、隣り合う時間窓フレーム32で、少なくとも1つのフレーム31が重複していればよい。
図12に示すように、N個のフレーム31ずつずらしながら、複数の時間窓フレーム32が抽出されているとする。Nは2以上の整数である。この場合には、統合部23は、対象の時間窓フレーム32における基準フレーム36のN個後のフレーム31を特定フレーム37とする。統合部23は、対象の時間窓フレーム32における基準フレーム36から特定フレーム37までの対応関係を、統合結果35における基準フレーム36から特定フレーム37までの対応関係として採用する。
図13に示すように、隣り合う時間窓フレーム32で1つのフレーム31だけが重複しているとする。この場合には、統合部23は、前の時間窓フレーム32と重複している対象の時間窓フレーム32における最前のフレーム31を基準フレーム36とし、対象の時間窓フレーム32における最後のフレーム31を特定フレーム37とする。統合部23は、対象の時間窓フレーム32における基準フレーム36から特定フレーム37までの対応関係を、統合結果35における基準フレーム36から特定フレーム37までの対応関係として採用する。
以上のように、隣り合う時間窓フレーム32で重複するフレーム31の数を減らすことにより、少ない計算量で追跡結果34を統合することが可能である。
しかし、隣り合う時間窓フレーム32で重複するフレーム31の数を減らすと、追跡の精度が低くなる可能性がある。例えば、図14に示すように、ある時間窓フレーム32に含まれるフレーム31で、映像データ30に入ってきたばかりの対象物33と、映像データ30からすぐに出ていく対象物33とについては、精度よく追跡できない可能性がある。これは、時間窓フレーム32においてその対象物33が検出されたフレーム31の数が少ないため、図2のステップS2の処理でその対象物33が正しく対応付けされない可能性が高くなるためである。
10 追跡装置、11 プロセッサ、12 メモリ、13 ストレージ、14 通信インタフェース、15 電子回路、21 抽出部、22 追跡部、23 統合部、30 映像データ、31 フレーム、32 時間窓フレーム、33 対象物、34 追跡結果、35 統合結果、36 基準フレーム、37 特定フレーム、141 撮影装置、142 表示装置。

Claims (8)

  1. 映像データを構成する複数のフレームの連続する一部のフレームを時間窓フレームとして、隣り合う時間窓フレームに1つ以上のフレームが重複して含まれるように、前記映像データから複数の時間窓フレームを抽出する抽出部と、
    前記抽出部によって抽出された各時間窓フレームを対象として、対象の時間窓フレームに対して対象物の追跡を行い、追跡結果を生成する追跡部と、
    前記追跡部によって前記各時間窓フレームを対象として生成された各追跡結果を、他の時間窓フレームと重複して含まれるフレームに基づき統合して、統合結果を生成する統合部と
    を備える追跡装置。
  2. 前記抽出部は、2つ以上の連続する時間窓フレームに2つ以上の連続するフレームが重複して含まれるように、前記複数の時間窓フレームを抽出し、
    前記追跡部は、前記対象の時間窓フレームを構成する各フレームで検出された対象物の、前記対象の時間窓フレームを構成するフレーム間における対応関係を示す追跡結果を生成し、
    前記統合部は、複数のフレームに含まれる各フレーム間について前記各追跡結果が示す同一の対応関係の数をカウントして、カウントされた数に基づき、前記各フレーム間における前記対象物の対応関係を特定することにより、前記各追跡結果を統合する
    請求項1に記載の追跡装置。
  3. 前記統合部は、前記各追跡結果が示す同一の対応関係の数を投票数として、前記投票数が多い対応関係を優先的に採用することにより、前記複数のフレームに含まれる各フレーム間における前記対象物の対応関係を特定する
    請求項2に記載の追跡装置。
  4. 前記統合部は、前記各追跡結果が示す同一の対応関係の数を投票数として、その対応関係が選択される可能性がある回数で前記投票数を除した得票率が高い対応関係を優先して採用することにより、前記複数のフレームに含まれる各フレーム間における前記対象物の対応関係を特定する
    請求項2に記載の追跡装置。
  5. 前記追跡部は、前記対象の時間窓フレームを構成する各フレームで検出された対象物の、前記対象の時間窓フレームを構成するフレーム間における対応関係を示す追跡結果を生成し、
    前記統合部は、前記他の時間窓フレームと重複して含まれるフレームのうち基準フレームで検出された対象物を基準として、前記各追跡結果が示す対応関係のうち少なくとも一部分を接続することにより、前記各追跡結果を統合する
    請求項1に記載の追跡装置。
  6. 前記統合部は、前記他の時間窓フレームと重複して含まれるフレームのうち、中央のフレームを前記基準フレームとする
    請求項5に記載の追跡装置。
  7. 前記抽出部は、1フレームずつずらしながら、連続する基準数のフレームを含む前記時間窓フレームを抽出する
    請求項1から6までのいずれか1項に記載の追跡装置。
  8. 映像データを構成する複数のフレームの連続する一部のフレームを時間窓フレームとして、隣り合う時間窓フレームに1つ以上のフレームが重複して含まれるように、前記映像データから複数の時間窓フレームを抽出する抽出処理と、
    前記抽出処理によって抽出された各時間窓フレームを対象として、対象の時間窓フレームに対して対象物の追跡を行い、追跡結果を生成する物体追跡処理と、
    前記物体追跡処理によって前記各時間窓フレームを対象として生成された各追跡結果を、他の時間窓フレームと重複して含まれるフレームに基づき統合して、統合結果を生成する結果統合処理と
    をコンピュータに実行させる追跡プログラム。
JP2017223641A 2017-11-21 2017-11-21 追跡装置及び追跡プログラム Active JP6427650B1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017223641A JP6427650B1 (ja) 2017-11-21 2017-11-21 追跡装置及び追跡プログラム
PCT/JP2018/031573 WO2019102674A1 (ja) 2017-11-21 2018-08-27 追跡装置及び追跡プログラム
GB2006426.7A GB2581692B (en) 2017-11-21 2018-08-27 Tracking apparatus and tracking program
US16/834,502 US11295457B2 (en) 2017-11-21 2020-03-30 Tracking apparatus and computer readable medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017223641A JP6427650B1 (ja) 2017-11-21 2017-11-21 追跡装置及び追跡プログラム

Publications (2)

Publication Number Publication Date
JP6427650B1 true JP6427650B1 (ja) 2018-11-21
JP2019095974A JP2019095974A (ja) 2019-06-20

Family

ID=64394765

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017223641A Active JP6427650B1 (ja) 2017-11-21 2017-11-21 追跡装置及び追跡プログラム

Country Status (4)

Country Link
US (1) US11295457B2 (ja)
JP (1) JP6427650B1 (ja)
GB (1) GB2581692B (ja)
WO (1) WO2019102674A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7414456B2 (ja) * 2019-10-11 2024-01-16 日立造船株式会社 情報処理装置、同一性判定方法、および同一性判定プログラム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1084525A (ja) * 1996-02-05 1998-03-31 Texas Instr Inc <Ti> ビデオに索引をつける方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6892193B2 (en) * 2001-05-10 2005-05-10 International Business Machines Corporation Method and apparatus for inducing classifiers for multimedia based on unified representation of features reflecting disparate modalities
US8363115B2 (en) * 2005-08-10 2013-01-29 Nxp, B.V. Method and device for digital image stabilization
JP4984728B2 (ja) 2006-08-07 2012-07-25 パナソニック株式会社 被写体照合装置および被写体照合方法
WO2008078736A1 (ja) 2006-12-27 2008-07-03 Nec Corporation 同一性判定装置、同一性判定方法および同一性判定用プログラム
JP4874150B2 (ja) 2007-03-30 2012-02-15 セコム株式会社 移動物体追跡装置
JP5063567B2 (ja) 2008-11-28 2012-10-31 セコム株式会社 移動物体追跡装置
JP5147761B2 (ja) 2009-03-02 2013-02-20 セコム株式会社 画像監視装置
JP5919665B2 (ja) 2011-07-19 2016-05-18 日本電気株式会社 情報処理装置、物体追跡方法および情報処理プログラム
JP6218102B2 (ja) 2013-03-19 2017-10-25 日本電気株式会社 情報処理システム、情報処理方法及びプログラム
JP6304473B2 (ja) 2013-04-23 2018-04-04 日本電気株式会社 画像処理システム、画像処理方法及びプログラム
JP6406251B2 (ja) 2013-07-17 2018-10-17 日本電気株式会社 物体追跡装置、物体追跡方法および物体追跡プログラム
JP6476746B2 (ja) 2014-10-27 2019-03-06 株式会社Gsユアサ 蓄電素子、電源モジュール及び蓄電素子の製造方法
GB201601143D0 (en) * 2016-01-21 2016-03-09 Oxehealth Ltd Method and apparatus for health and safety monitoring of a subject in a room

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1084525A (ja) * 1996-02-05 1998-03-31 Texas Instr Inc <Ti> ビデオに索引をつける方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
北澤 仁志、小野澤 晃: ""移動物体の軌跡に基づく最小数のキーフレーム選択手法"", 情報処理学会論文誌, vol. 45, no. 3, JPN6018039612, 15 March 2004 (2004-03-15), JP, pages 942 - 950 *
菅谷 保之、外2名: ""複数運動ビデオデータベースHopkins155の誤追除去"", 情報処理学会 研究報告 コンピュータビジョンとイメージメディア(CVIM), vol. 2013, no. 2, JPN6018039608, 23 May 2013 (2013-05-23), JP, pages 1 - 8 *
須藤 智、外4名: "動画像処理によるロボカップのシーン解析 Scene Analysis of Robocup Game by using image Processing", AI CHALLENGE 研究会(第10回), JPN6018039609, 24 June 2000 (2000-06-24), JP, pages 36 - 41 *

Also Published As

Publication number Publication date
US11295457B2 (en) 2022-04-05
US20200226767A1 (en) 2020-07-16
GB202006426D0 (en) 2020-06-17
WO2019102674A1 (ja) 2019-05-31
GB2581692B (en) 2021-03-24
GB2581692A (en) 2020-08-26
JP2019095974A (ja) 2019-06-20

Similar Documents

Publication Publication Date Title
US10600191B2 (en) System and method for tracking multiple objects
CN110378966B (zh) 车路协同相机外参标定方法、装置、设备及存储介质
US11055878B2 (en) Person counting method and person counting system
US20140126830A1 (en) Information processing device, information processing method, and program
KR101969623B1 (ko) 병렬 검출과 추적, 및/또는 그룹화된 피처 모션 시프트 추적을 이용한 얼굴 인식
US10614312B2 (en) Method and apparatus for determining signature actor and identifying video based on probability of appearance of signature actor
US20160379088A1 (en) Apparatus and method for creating an image recognizing program having high positional recognition accuracy
US20170323149A1 (en) Rotation invariant object detection
US9946645B2 (en) Information processing apparatus and memory control method
US20130322758A1 (en) Image processing apparatus, image processing method, and program
US20160048977A1 (en) Method and Device for Detecting Face, and Non-Transitory Computer-Readable Recording Medium for Executing the Method
JP6427650B1 (ja) 追跡装置及び追跡プログラム
US9171227B2 (en) Apparatus and method extracting feature information of a source image
KR102086042B1 (ko) 영상 처리 장치 및 방법
Eusse et al. A flexible ASIP architecture for connected components labeling in embedded vision applications
US11189038B2 (en) Tracking apparatus and computer readable medium
US10713808B2 (en) Stereo matching method and system using rectangular window
CN112581500A (zh) 用于在目标跟踪中匹配行人和人脸的方法和装置
CN112183484A (zh) 一种图像处理方法、装置、设备以及存储介质
KR101826463B1 (ko) 동영상의 시간 축을 동기화하기 위한 방법 및 장치
CN114341946A (zh) 识别方法、装置、电子设备及存储介质
JP6412625B1 (ja) カウント装置及びカウントプログラム
US20230112822A1 (en) Character recognition method, character recognition device and non-transitory computer readable medium
JP2017084365A (ja) 背景画像モデルの初期化装置、方法、及び画像処理装置
CN113587916B (zh) 实时稀疏视觉里程计、导航方法以及***

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180524

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181016

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181029

R150 Certificate of patent or registration of utility model

Ref document number: 6427650

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250