JP2016507834A - ターゲットオブジェクトをトラッキングし、検出するためのシステムおよび方法 - Google Patents

ターゲットオブジェクトをトラッキングし、検出するためのシステムおよび方法 Download PDF

Info

Publication number
JP2016507834A
JP2016507834A JP2015553807A JP2015553807A JP2016507834A JP 2016507834 A JP2016507834 A JP 2016507834A JP 2015553807 A JP2015553807 A JP 2015553807A JP 2015553807 A JP2015553807 A JP 2015553807A JP 2016507834 A JP2016507834 A JP 2016507834A
Authority
JP
Japan
Prior art keywords
tracking
video frame
detection
subset
current video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP2015553807A
Other languages
English (en)
Other versions
JP2016507834A5 (ja
Inventor
ガオ、ダシャン
ジョン、シン
キ、インヨン
ビ、ニン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2016507834A publication Critical patent/JP2016507834A/ja
Publication of JP2016507834A5 publication Critical patent/JP2016507834A5/ja
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

ターゲットオブジェクトを検出し、トラッキングするための方法について説明する。本方法は、前のビデオフレームと現在ビデオフレームとを比較することによって現在ビデオフレームのための動きベーストラッキングを実施することを含む。本方法は、トラッキングされたパラメータに基づいて現在ビデオフレーム中でオブジェクト検出を選択的に実施することをも含む。

Description

関連出願
[0001]本出願は、「TRACKING AND DETECTING A TARGET OBJECT」について、2013年1月22日に出願された、米国仮特許出願第61/755,443号と、「SMOOTHING JITTER IN MOTION TRACKING RESULTS」について、2013年6月14日に出願された、米国仮特許出願第61/835,385号とに関し、それらの優先権を主張する。
[0002]本開示は、一般に電子デバイスに関する。より詳細には、本開示は、ターゲットオブジェクトをトラッキングし、検出するためのシステムおよび方法に関する。
[0003]最近の数十年で、電子デバイスの使用が一般的になった。特に、電子技術の進歩は、ますます複雑で有用になる電子デバイスのコストを低減した。コスト低減および消費者需要により、電子デバイスが現代社会において事実上ユビキタスであるほど電子デバイスの使用が激増した。電子デバイスの使用が拡大するにつれて、電子デバイスの新しい改善された特徴に対する需要も拡大した。より詳細には、新しい機能を実施する、および/あるいはより高速に、より効率的に、またはより高品質で機能を実施する、電子デバイスがしばしば求められる。
[0004]いくつかの電子デバイス(たとえば、カメラ、ビデオカムコーダ、デジタルカメラ、セルラーフォン、スマートフォン、コンピュータ、テレビジョンなど)は画像をキャプチャまたは利用する。たとえば、デジタルカメラがデジタル画像をキャプチャし得る。
[0005]電子デバイスの新しいおよび/または改善された特徴がしばしば求められる。この説明からわかるように、電子デバイスの新しいおよび/または改善された特徴を追加するシステムおよび方法が有益であり得る。
[0006]ターゲットオブジェクトをトラッキングし、検出するための電子デバイスを示すブロック図。 [0007]オブジェクトトラッキングおよび検出モジュールを示すブロック図。 [0008]図2Aのシステム内のいくつかの構成要素がプロセッサによって実装されることを示す図。 [0009]動きベーストラッキングとオブジェクト検出とを実施するための方法を示す流れ図。 [0010]動きベーストラッキングを実施するための方法を示す流れ図。 [0011]フォワードバックワードエラー(forward-backward error)に基づいて動きベーストラッキングにおけるトラッキングエラーを推定する方法を示す流れ図。 [0012]オブジェクト検出を実施するための方法を示す流れ図。 [0013]本システムおよび方法とともに使用され得る異なるウィンドウサイズを示すブロック図。 [0014]オブジェクトトラッキングおよび検出モジュールの別の可能な構成を示すブロック図。 [0015]平滑化モジュールを示すブロック図。 [0016]動きトラッキング結果中のジッタを平滑化するための方法を示す流れ図。 [0017]電子デバイス/ワイヤレスデバイス内に含まれ得るいくつかの構成要素を示す図。
[0018]ターゲットオブジェクトを検出し、トラッキングするための方法について説明する。本方法は、前のビデオフレームと現在ビデオフレームとを比較することによって現在ビデオフレームのための動きベーストラッキングを実施することを含む。本方法は、トラッキングされたパラメータに基づいて現在ビデオフレーム中でオブジェクト検出を選択的に実施することをも含む。
[0019]トラッキングされたパラメータは、ターゲットオブジェクトが現在ビデオフレーム中にある可能性に相当するトラッキング信頼性値(tracking confidence value)であり得る。オブジェクト検出を選択的に実施することは、トラッキング信頼性値がトラッキングしきい値よりも小さいかまたはそれに等しいとき、現在ビデオフレームに対するオブジェクト検出を実施することを含み得る。オブジェクト検出を選択的に実施することは、トラッキング信頼性値がトラッキングしきい値よりも大きいとき、現在ビデオフレームに対するオブジェクト検出をスキップすることをも含み得る。オブジェクト検出は動きベーストラッキングに連続して実施され得る。トラッキングされたパラメータは領域でもあり得る。トラッキングされたパラメータはウィンドウロケーションでもあり得る。トラッキングされたパラメータはウィンドウサイズでもあり得る。トラッキングされたパラメータはスケールレベルでもあり得る。本方法は、ターゲットオブジェクトを定義する入力をタッチスクリーンにおいて受信することをも含み得る。
[0020]オブジェクト検出を選択的に実施することは、前のビデオフレーム中のウィンドウの第1のサブセットを選択することを含み得る。オブジェクト検出を選択的に実施することは、ターゲットオブジェクトについてウィンドウの第1のサブセットのみを探索することをも含み得る。オブジェクト検出を選択的に実施することは、ウィンドウの第1のサブセット中の各選択されたウィンドウについて、ウィンドウサイズのサブセットを選択することをも含み得る。オブジェクト検出を選択的に実施することは、ウィンドウの第1のサブセット中の各ウィンドウについてウィンドウサイズのサブセットのみを探索することをも含み得る。ウィンドウの第1のサブセットを選択することは、乱数発生器に基づいてウィンドウの第1のサブセットをランダムに選択することを含み得る。
[0021]本方法は、現在ビデオフレーム中のウィンドウの第2のサブセットを選択することをさらに含み得る。ウィンドウの第2のサブセットのサイズは、ターゲットオブジェクトが前のビデオフレーム中で検出されたかどうかに基づき得る。ウィンドウの第1のサブセットからウィンドウの第2のサブセットへのサイズの増加は、ターゲットオブジェクトが前のビデオフレーム中で検出されなかった場合よりも、ターゲットオブジェクトが前のビデオフレーム中で検出された場合により高いことがある。
[0022]本方法は、後のフレーム中で選択されるウィンドウの割合を増加させることをも含み得る。選択されるウィンドウの割合の増加は一様または非一様であり得る。選択されるウィンドウの割合は、検出およびトラッキング信頼性値が検出およびトラッキング信頼性しきい値を上回るとき、少なくとも60%であり得る。検出およびトラッキング信頼性しきい値は、0.6、0.65、0.7、0.75、0.8および0.85のうちの1つであり得る。
[0023]本方法は、検出およびトラッキング信頼性値に基づいて、次のビデオフレーム中でターゲットオブジェクトを検出する試みのために探索範囲を狭くすることをも含み得る。探索範囲を狭くすることは、現在ビデオフレームのための検出およびトラッキング信頼性値が検出およびトラッキングしきい値よりも大きいとき、低減された探索空間から探索のためのウィンドウロケーションを選択することをも含み得る。現在ビデオフレームのための検出およびトラッキング信頼性値は、ターゲットオブジェクトが現在ビデオフレーム中で検出され、トラッキングされた可能性を示す、0から1の間の実数であり得る。探索範囲を狭くすることは、現在ビデオフレームのための検出およびトラッキング信頼性値が検出およびトラッキングしきい値よりも小さいかまたはそれに等しいとき、探索空間全体から探索のためのウィンドウロケーションを選択することをも含み得る。
[0024]また、ターゲットオブジェクトを検出し、トラッキングするための装置について説明する。本装置は、前のビデオフレームと現在ビデオフレームとを比較することによって現在ビデオフレームのための動きベーストラッキングを実施するための手段を含む。本装置は、トラッキングされたパラメータに基づいて現在ビデオフレーム中でオブジェクト検出を選択的に実施するための手段をも含む。
[0025]また、ターゲットオブジェクトを検出し、トラッキングするための電子デバイスについて説明する。本電子デバイスは、プロセッサと、プロセッサと電子通信しているメモリとを含む。本電子デバイスは、メモリに記憶された命令をも含む。命令は、前のビデオフレームと現在ビデオフレームとを比較することによって現在ビデオフレームのための動きベーストラッキングを実施するように実行可能である。命令は、トラッキングされたパラメータに基づいて現在ビデオフレーム中でオブジェクト検出を選択的に実施するようにも実行可能である。
[0026]また、ターゲットオブジェクトを検出し、トラッキングするためのコンピュータプログラム製品について説明する。本コンピュータプログラム製品は、命令をその上に有する非一時的コンピュータ可読媒体を含む。命令は、電子デバイスに、前のビデオフレームと現在ビデオフレームとを比較することによって現在ビデオフレームのための動きベーストラッキングを実施することを行わせるためのコードを含む。命令は、電子デバイスに、トラッキングされたパラメータに基づいて現在ビデオフレーム中でオブジェクト検出を選択的に実施することを行わせるためのコードをも含む。
[0027]モバイルプラットフォーム(たとえば、タブレット、電話)からのカメラを使用してある画像内のまたはその画像内の当該のユーザ定義領域内のオブジェクトをトラッキングすることは困難であり得る。リアルタイム性能(約30フレーム毎秒(fps))が必要とされ得る。いくつかの構成は、ロバストなトラッキングを得るために、オプティカルフローベーストラッカーの出力と画像コンテンツベース検出器の出力とを組み合わせ得る。しかしながら、既存のアルゴリズムの計算(computation)は、モバイルプラットフォームがリアルタイム性能を達成するには法外であり得る。
[0028]本システムおよび方法は、トラッキングおよび検出アルゴリズムの速度を改善するために以下の技法、すなわち、(1)各フレームにおいて可能な検出ウィンドウの一部分を使用することと(たとえば、ウィンドウ位置をランダムに選択する)、(2)前の検出されたターゲットサイズに近いオブジェクト検出のための数個の空間スケールのみを選択することと、(3)前のトラッキングの信頼性値に基づいて、オブジェクトを部分的に探索することまたは画像全体を探索することのいずれかを決定することと、(4)前のトラッキング結果に基づいて検出ウィンドウの数を動的に調整することと、(5)トラッカーとオブジェクト検出器とを並列に実行する代わりに、最初にトラッカーを適用することはあまり計算コストが高くないので、それを行うことと、(6)トラッカーの信頼性があるしきい値よりも低いときのみ、オブジェクト検出器を実行することとを実装し得る。技術的利点の1つは、ターゲットオブジェクトをトラッキングおよび/または検出するために使用される計算を低減することである。
[0029]本明細書で使用する「トラッキングする」という用語およびそれの変形態は、動きベースであり、特定のオブジェクトを識別しない、プロセスを指す。たとえば、オブジェクトトラッキングおよび検出モジュールが、フレームごとに動きをトラッキングし、(たとえば、カメラがパンしている場合の)電子デバイスの移動またはフレームごとのオブジェクトの移動に基づいて、ターゲットオブジェクトのロケーション、サイズまたはフレームを決定し得る。「検出する」という用語およびそれの変形態は、たとえば、フレームの一部分を参照画像と比較することによって、ターゲットオブジェクトを識別することを試みるプロセスを指す。たとえば、オブジェクトトラッキングおよび検出モジュールは、ターゲットオブジェクトを識別する試みにおいて、キャプチャされたフレームの部分を(ターゲットオブジェクトの)参照画像と比較し得る。一例では、検出は、ターゲットがもはやトラッキングされ得ないときに(たとえば、オブジェクトが視野外に出る場合に)使用され得る。動きベーストラッキングとオブジェクト検出とを実施するシステムおよび方法について以下でさらに詳細に説明する。
[0030]図1は、ターゲットオブジェクトをトラッキングし、検出するための電子デバイス102を示すブロック図である。電子デバイス102は、ワイヤレス通信デバイス、モバイルデバイス、移動局、加入者局、クライアント、クライアント局、ユーザ機器(UE)、遠隔局、アクセス端末、モバイル端末、端末、ユーザ端末、加入者ユニットなどと呼ばれることもある。電子デバイスの例としては、ラップトップまたはデスクトップコンピュータ、セルラーフォン、スマートフォン、ワイヤレスモデム、電子リーダー、タブレットデバイス、ゲームシステムなどがある。これらのデバイスのうちのいくつかは、1つまたは複数の業界規格に従って動作し得る。
[0031]スマートフォンまたはタブレットコンピュータなど、電子デバイス102はカメラを含み得る。カメラは、画像センサー114と、光学システム118の視野内に位置するオブジェクトの画像を画像センサー114上に合焦させる光学システム118(たとえば、レンズ)とを含み得る。電子デバイス102は、カメラソフトウェアアプリケーションとディスプレイスクリーンとをも含み得る。カメラアプリケーションが動作しているとき、光学システム118の視野内に位置するオブジェクトの画像は画像センサー114によって記録され得る。画像センサー114によって記録されている画像はディスプレイスクリーン上に表示され得る。これらの画像は、所与の時間において、光学システム118の視野内に位置するオブジェクトがディスプレイスクリーン上に表示されるように、比較的高いフレームレートにおいて高速に連続して表示され得る。本システムおよび方法について、キャプチャされたビデオフレームに関して説明するが、本明細書で説明する技法は任意のデジタル画像に対して使用され得る。したがって、ビデオフレームおよびデジタル画像という用語は本明細書では互換的に使用され得る。
[0032]カメラアプリケーションのユーザインターフェース120が、ディスプレイスクリーン上に表示されている1つまたは複数のオブジェクトがトラッキングされることを可能にし得る。電子デバイスのユーザは、トラッキングされるべきである(1つまたは複数の)オブジェクトを選択することを可能にされ得る。さらに、(1つまたは複数の)選択されたオブジェクトは、オブジェクトを後で検出するための参照として使用され得る。
[0033]一構成では、ディスプレイは、たとえば、指、スタイラスまたは他のツールによる、物理的タッチからの入力を受信するタッチスクリーン116である。タッチスクリーン116は、トラッキングされるべきターゲットオブジェクトを定義するタッチ入力を受信し得る。たとえば、電子デバイス102が、当該の動物を含む自然のシーンをキャプチャしている場合、ユーザは、必要な場合、その動物がトラッキングまたは検出されるべきであるという要望を示すバウンディングボックス(bounding box)をその動物の周りに描き得る。ターゲットオブジェクトは任意の好適な方法で選択され得る。たとえば、トラッキング、検出、または両方が行われるべきであるターゲットオブジェクトを選択するために、顔認識、歩行者認識などが使用され得る。一構成では、複数のオブジェクトがトラッキングされ得る。ユーザインターフェース120は、たとえば、1つまたは複数のターゲットオブジェクトを選択する(すなわち、定義する)ために、ユーザがオブジェクトトラッキングおよび検出モジュール104と対話することを可能にし得る。
[0034]電子デバイス102は、ビデオフレーム中の選択されたオブジェクトをトラッキングし、および/またはそのオブジェクトを検出するための、オブジェクトトラッキングおよび検出モジュール104を含み得る。オブジェクトトラッキングおよび検出モジュール104は、1つまたは複数のオブジェクトをトラッキングするための動きトラッカー(motion tracker)106を含み得る。動きトラッカー106は、前のビデオフレームと現在ビデオフレームとの間でターゲットオブジェクトのロケーションおよび/またはロケーションの変化を推定するために、フレームごとに画像(たとえば、ビデオフレーム)上の点の動きをトラッキングするために動きベースであり得る。
[0035]オブジェクトトラッキングおよび検出モジュール104は、ビデオフレーム上のオブジェクトを検出するためのオブジェクト検出器108をも含み得る。オブジェクト検出器108は、現在ビデオフレームの全部または一部分を、(たとえば、ビデオフレームのシーケンス中の)キャプチャされた前のビデオフレーム112の選択されたオブジェクトまたは部分と比較することによって、オブジェクトを検出するために、動きベースモデルではなく、オブジェクトモデルを使用し得る。オブジェクト検出器108は、ビデオフレーム内の複数のオブジェクトを検出するために使用され得る。
[0036]オブジェクトトラッキングおよび検出モジュール104はメモリバッファ110をも含み得る。メモリバッファ110は、1つまたは複数のキャプチャされたフレームと、キャプチャされたビデオフレームに関連するデータとを記憶し得る。一例では、メモリバッファ110は前のキャプチャされたビデオフレーム112を記憶し得る。オブジェクトトラッキングおよび検出モジュール104は、動きベーストラッキングおよび/またはオブジェクト検出を実施する際に、キャプチャされた前のビデオフレーム112に関してメモリバッファ110から与えられたデータを使用し得る。ターゲットオブジェクトをより正確にトラッキングおよび/または検出するように動きベーストラッキングおよびオブジェクト検出を調整するために、メモリバッファ110からのフィードバックを介してデータが動きトラッカー106またはオブジェクト検出器108に与えられ得る。たとえば、メモリバッファ110は、オブジェクトをトラッキングまたは検出するときにオブジェクトのロケーションとサイズとをより正確に特定するために使用され得る1つまたは複数のパラメータを動きトラッカー106とオブジェクト検出器108とに与えるために、ロケーションおよびウィンドウサイズデータを動きトラッカー106とオブジェクト検出器108とに与え得る。
[0037]上述のように、電子デバイス102は動きベーストラッキングを実施し得る。動きベーストラッキングは様々な方法を使用して実施され得る。一例では、トラッキングはメジアンフロー方法(median flow method)によって実施され、その方法では、動きトラッカーは、画像のペアIt、It+1(たとえば、ビデオフレーム)とバウンディングボックスβtとを受け付け、バウンディングボックスβt+1を出力する。点のセットが、バウンディングボックスβt内の矩形格子上で初期化され得、ItとIt+1との間のスパース動きフロー(sparse motion flow)を生成するためにそれらの点をトラッキングする。点予測の品質が推定され得、各点がエラーを割り当てられ得る。最悪の予測の一部分(たとえば、50%)はフィルタで除去され得、残りの予測は、全バウンディングボックスの変位を推定するために使用される。動きトラッカー106は、電子デバイス102によってキャプチャされた各ビデオフレームに対する動きベーストラッキングを実施し得る。同様の方法では、動きベーストラッキングは、1つまたは複数の勾配(たとえば、x勾配およびy勾配)を計算する(calculate)ことと、時間勾配を計算するためにフレームのペア間の差を使用することと、現在ビデオフレーム内のターゲットオブジェクトを正確にトラッキングするために複数の勾配値を使用することとによって実施され得る。動きベーストラッキングに関するさらなる詳細が以下で与えられる。
[0038]動きベーストラッキングを実施するとき、動きトラッカー106は、動きトラッキング方法の計算または推定された精度に基づいてトラッキング信頼性値を決定し得る。いくつかの構成では、トラッキング信頼性値は、ターゲットオブジェクトが現在ビデオフレームまたはそのビデオフレームの定義されたウィンドウ内に入る可能性または確率に対応する0から1の間の実数であり得る。トラッキング信頼性値はトラッキングしきい値と比較され得る。トラッキング信頼性値がトラッキングしきい値よりも大きい場合、ターゲットオブジェクトが現在ビデオフレーム内で見つけられる可能性は高いことがある。代替的に、トラッキング信頼性値がトラッキングしきい値よりも小さいかまたはそれに等しい場合、ターゲットオブジェクトが現在ビデオフレーム内で見つけられる可能性は低いかまたは不確実であることがある。トラッキング信頼性値を決定するための様々な方法が使用され得る。一構成では、トラッキング信頼性値は、現在ビデオフレーム中のトラッキングされたウィンドウ(たとえば、トラッキングパッチウィンドウ)と、前にキャプチャされたビデオフレームからの前に記憶された画像パッチとの間の正規化相互相関(NCC:normalized cross correlation)を計算することによって決定される。トラッキング信頼性値を決定することに関するさらなる詳細が以下で与えられる。
[0039]電子デバイス102はオブジェクト検出をも実施し得る。オブジェクト検出は様々な方法を使用して実施され得る。一構成では、オブジェクト検出はスライディングウィンドウ方法(sliding window method)を使用して実施され、その方法では、ターゲットオブジェクトが現在ビデオフレーム中で、あるいは現在ビデオフレームの特定のウィンドウまたはウィンドウのサブセット内で見つけられるかどうかを決定するために、ビデオフレーム内のウィンドウの複数のサブセットのコンテンツが閲覧される。すべての可能なウィンドウロケーションおよびサイズの全部またはサブセットがビデオフレーム中で探索され得る。たとえば、各ウィンドウはデータのピクセルに対応し得、オブジェクト検出器108は、ターゲットオブジェクトが特定のウィンドウまたはサブウィンドウ内にある信頼性のレベル(たとえば、バイナリインジケータ)を決定するために、データのピクセルを使用して1つまたは複数の計算を実施し得る。1つまたは複数のウィンドウに関連する信頼性のレベルに基づいて、検出器信頼性値が現在ビデオフレームのために取得され得る。さらに、オブジェクト検出の精度または効率を増加させるために追加の技法が使用され得る。これらの技法のうちのいくつかについて以下で説明する。
[0040]いくつかの構成では、動きトラッカー106とオブジェクト検出器108は、並列にではなく連続的に動作し得る。たとえば、電子デバイス102は、選択されたオブジェクト(たとえば、ターゲットオブジェクト)の動きベーストラッキングを実施し、連続的に、トラッキングされたパラメータに基づいて、選択されたオブジェクトのオブジェクト検出を実施し得る。一構成では、電子デバイス102は、現在ビデオフレームに対する動きベーストラッキングを実施し得る。電子デバイス102は、次いで、トラッキングされたパラメータに基づいて現在フレームに対するオブジェクト検出を実施し得る。一構成では、トラッキングされたパラメータは、信頼性値としきい値との間の比較に基づき得る。たとえば、トラッキング信頼性値がトラッキングしきい値を下回る場合、電子デバイス102はオブジェクト検出を実施し得る。代替的に、トラッキング信頼性値がトラッキングしきい値を上回る場合、電子デバイス102は、現在ビデオフレームのためのオブジェクト検出をスキップし、現在ビデオフレームの動きトラッキング結果に基づいて次のビデオフレームに対する動きベーストラッキングを実施することを続け得る。言い換えれば、オブジェクト検出は、動きベーストラッキングがあまり良好でなく、たとえば、トラッキング信頼性値がトラッキングしきい値を下回るときのみ、実施され得る。オブジェクト検出が実施されるかどうかおよび/またはどのように実施されるかを考慮するとき、他のトラッキングされたパラメータが使用され得る。トラッキングされたパラメータの例としては、ターゲットオブジェクトの領域、ウィンドウロケーション、ウィンドウサイズ、スケールレベル、ターゲットサイズ、トラッキングおよび/または検出信頼性値、あるいはターゲットオブジェクトの効率的なトラッキングおよび/または検出を可能にするために使用され得る他のパラメータがあり得る。
[0041]トラッキングされたパラメータに基づいて動きベーストラッキングとオブジェクト検出とを連続的に実施することは、電子デバイス102が、広範な計算を実施することなしにビデオフレーム内のターゲットオブジェクトをトラッキングおよび/または検出することを可能にし得る。詳細には、動きベーストラッキングはオブジェクト検出よりも計算集約的でないことがあるので、電子デバイス102はオブジェクト検出を実施することをスキップし得、ここで、現在ビデオフレーム内のターゲットオブジェクトを正確にトラッキングするために動きベーストラッキングが使用され得る。たとえば、電子デバイス102が、トラッキング信頼性値が特定のターゲットしきい値を超えることを決定した場合、電子デバイス102は、現在ビデオフレーム内のターゲットオブジェクトのロケーションまたは存在を正確に決定するために、現在ビデオフレームに対してオブジェクト検出が必要とされないことを決定し得る。さらに、オブジェクト検出は多くの場合有益であり得るので、電子デバイス102は、トラッキングしきい値との比較に基づいて動きベーストラッキングが不十分である場合、ターゲットオブジェクトをより正確に検出するかまたはオブジェクト検出を実施するために、オブジェクト検出が使用され得る場合を決定し得る。
[0042]いくつかの構成では、現在ビデオフレームに対するオブジェクト検出をスキップするのではなく、メモリバッファ110によって与えられる動きベーストラッキングの結果および/または追加情報が、オブジェクト検出を実施するプロセスを狭くするかまたは調整するために使用され得る。たとえば、ターゲットオブジェクトが、動きベーストラッキング方法を使用して正確にトラッキングされ得ない場合、電子デバイス102は、依然として、動きベーストラッキングを介して与えられたパラメータがない場合よりも少ない計算能力を使用してオブジェクトをより正確に検出するためにオブジェクト検出中に使用され得る、ターゲットオブジェクトに関連するロケーション、ウィンドウスケールまたは他のトラッキングされたパラメータに関する情報を推定または取得し得る。したがって、動きベーストラッキングが、トラッキングしきい値を超えるトラッキング信頼性値を与えない場合でも、動きベーストラッキングの結果は、その後オブジェクト検出を実施するときに使用され得る。
[0043]図2Aは、オブジェクトトラッキングおよび検出モジュール204を示すブロック図である。オブジェクトトラッキングおよび検出モジュール204は、電子またはワイヤレスデバイス内に実装され得る。オブジェクトトラッキングおよび検出モジュール204は、オプティカルフローモジュール226とトラッキング信頼性値228とを有する動きトラッカー206を含み得る。オブジェクトトラッキングおよび検出モジュール204は、スキャナロケータ230と、スキャナスケーラ236と、分類器238と、検出信頼性値240とを有するオブジェクト検出器208をも含み得る。メモリバッファ210は、動きトラッカー206とオブジェクト検出器208とに与えられ得るキャプチャされた前のビデオフレーム212に関連するデータを記憶し得る。オブジェクトトラッキングおよび検出モジュール204、動きトラッカー206、オブジェクト検出器208ならびにメモリバッファ210は、図1に関して上記で説明したオブジェクトトラッキングおよび検出モジュール104、動きトラッカー106、オブジェクト検出器108ならびにメモリバッファ110の構成であり得る。
[0044]動きトラッカー206は、現在ビデオフレーム(N)224に対する動きベーストラッキングを実施するために使用され得る。たとえば、前のビデオフレーム(N−1)222および現在ビデオフレーム(N)224が(たとえば、電子デバイスによって)受信され得る。前のビデオフレーム(N−1)222は、ビデオフレームのシーケンス中の現在ビデオフレーム(N)224の直前にくることがある。追加のビデオフレームがオブジェクトトラッキングおよび検出モジュール204によって取得され、処理され得る。前のビデオフレーム(N−1)222は動きトラッカー206に与えられ得る。さらに、メモリバッファ210は、本明細書ではキャプチャされた前のビデオフレーム212と呼ぶ、前のビデオフレーム(N−1)222に関連するデータを記憶し得る。いくつかの構成では、メモリバッファ210は、電子デバイスから(たとえば、カメラから)前のビデオフレーム(N−1)222に関する情報を直接取得し得る。メモリバッファ210はまた、融合モジュール(fusion module)260から前のビデオフレーム(N−1)222に関するトラッキング結果を取得し得、トラッキング結果は、オブジェクトが前のビデオフレーム(N−1)222中のどこでトラッキングおよび/または検出されたかを指定し得る。前のビデオフレーム(N−1)222または他の前にキャプチャされたビデオフレームに関するこの情報はメモリバッファ210に記憶され得る。
[0045]動きトラッカー206は、その後ビデオフレームのシーケンス中の現在ビデオフレーム(N)224を受信し得る。動きトラッカー206は、(たとえば、メモリバッファ210から与えられた情報を使用して)現在ビデオフレーム(N)224を前のビデオフレーム(N−1)222と比較し得る。動きトラッカー206は、オプティカルフローモジュール226を使用して現在ビデオフレーム(N)224上のオブジェクトの動きをトラッキングし得る。オプティカルフローモジュール226は、現在ビデオフレーム(N)224上のオブジェクトの動きベーストラッキングを実施するためのハードウェアおよび/またはソフトウェアを含み得る。前のビデオフレーム(N−1)222と現在ビデオフレーム(N)224とを比較することによって、動きトラッカー206は、ターゲットオブジェクトが現在ビデオフレーム(N)224中にある可能性に関連するトラッキング信頼性値228を決定し得る。一例では、トラッキング信頼性値は、ターゲットオブジェクトが現在ビデオフレーム(N)224または現在ビデオフレーム(N)224内のウィンドウ内にある確実性の割合に基づく(たとえば、0から1の間の)実数である。
[0046]オブジェクト検出器208は、現在ビデオフレーム(N)224上のオブジェクトを検出するために使用され得る。たとえば、オブジェクト検出器208は、ビデオフレームのシーケンス中の現在ビデオフレーム(N)224を受信し得る。オブジェクト検出器208は、トラッキングされたパラメータに基づいて現在ビデオフレーム(N)224に対するオブジェクト検出を実施し得る。トラッキングされたパラメータは、ターゲットオブジェクトが正確にトラッキングされている可能性に相当するトラッキング信頼性値228を含み得る。より詳細には、トラッキングされたパラメータは、トラッキング信頼性値228とトラッキングしきい値250との比較を含み得る。トラッキングされたパラメータは、メモリバッファ210から与えられた情報をも含み得る。オブジェクトを検出するときに使用され得るトラッキングされたパラメータのいくつかの例としては、領域、ウィンドウロケーション、ウィンドウサイズ、またはオブジェクト検出を実施するときにパラメータとしてオブジェクト検出器208によって使用され得る他の情報がある。
[0047]オブジェクト検出器208はスキャナロケータ230を含み得る。スキャナロケータ230は、ウィンドウロケーションセレクタ232とランダマイザ234とを含み得る。ウィンドウロケーションセレクタ232は、ビデオフレーム内の複数のウィンドウを選択し得る。たとえば、ビデオフレームが、関連するロケーションとサイズとを各々がもつ、複数のウィンドウを含み得る。一構成では、各ビデオフレームは、ビデオフレーム中の総ピクセルの一部分を各々が含む、複数の(たとえば、約10,000個の)重複ウィンドウに分割される。代替的に、任意の好適な数のウィンドウがあり得、それらは重複しないことがある。スキャナロケータ230内のウィンドウロケーションセレクタ232は、ターゲットオブジェクトをそれの中で識別することを試みるための、ウィンドウのロケーションを選択し得る。ランダマイザ234は、オブジェクトを検出するために異なるサイズおよびロケーションのウィンドウをランダムに選択し得る。いくつかの構成では、ランダマイザ234は、ビデオフレーム内のウィンドウをランダムに選択する。代替的に、ランダマイザ234は、1つまたは複数のファクタに基づいてウィンドウをより正確に選択し得る。たとえば、ランダマイザ234は、オブジェクトがたいがい位置するところの領域、サイズまたは概略的なロケーションに基づいてウィンドウの選択を限定し得る。この情報は、メモリバッファ210を介して取得され得、または、完全に依拠されるのに十分正確ではないが、オブジェクト検出を実施するときに役立つ情報を与え得る、動きベーストラッキングを介して取得され得る。したがって、ランダマイザ234は、探索すべき複数のウィンドウをランダムに選択し得るが、ウィンドウの選択は、オブジェクト検出器208に与えられた情報に基づいて狭くされ、したがって完全にランダムであるとは限らない。
[0048]オブジェクト検出器208は、あるサイズのウィンドウを引き出すかまたは選択するために使用され得る、スキャナスケーラ236をも含み得る。ウィンドウサイズは、オブジェクトを検出すること、または画像が特定のウィンドウ内にあるかどうかを検出するためにウィンドウの選択を元の画像と比較することを行うとき、ウィンドウのサイズを狭くするためにスキャナロケータ230によって使用され得る。スキャナスケーラ236は、オブジェクトを定義するときに初めにあるサイズまたはスケールレベルの1つまたは複数のウィンドウを選択するか、あるいは、代替的に、メモリバッファ210から与えられた情報に基づいて、あるサイズまたはスケールレベルの1つまたは複数のウィンドウを引き出し得る。
[0049]分類器238は、ターゲットオブジェクトの一部または全部が特定のウィンドウ中で見つけられたかどうかを決定するために使用され得る。いくつかの構成では、分類器238は、ターゲットオブジェクトが特定のウィンドウまたはサブウィンドウ内で検出されたかどうかを示すために各ウィンドウについてバイナリ値を生成し得る。この分類(たとえば、バイナリ分類)は、オブジェクト検出器208によって探索された各ウィンドウについて実施され得る。詳細には、分類器238は、オブジェクトがそれの中で検出された各ウィンドウについてバイナリ1を生成し、オブジェクトがそれの中で検出されなかった各ウィンドウについてバイナリ0を生成し得る。1と0の数または組合せに基づいて、オブジェクト検出器208は、ターゲットオブジェクトが現在ビデオフレーム(N)224内に存在する可能性を示す検出信頼性値240を決定し得る。いくつかの構成では、検出信頼性値240は、オブジェクトが正確に検出された割合または確率を示す0から1の間の実数である。
[0050]オブジェクト検出器208は、領域、ターゲットサイズ、ウィンドウサイズ、スケールレベル、ウィンドウロケーションおよび1つまたは複数の信頼性値を含む、様々なトラッキングされたパラメータに従ってオブジェクト検出を実施し得る。ビデオフレームのウィンドウまたはウィンドウのサブセットが探索され、オブジェクト検出器208が、各探索されたウィンドウについてバイナリ値を取得すると、オブジェクト検出器208は、最高の信頼性を有する現在ビデオフレーム上のウィンドウサイズならびにロケーションまたは領域を決定し得る。このロケーションおよびウィンドウサイズは、ターゲットオブジェクトをより正確にトラッキングおよび/または検出するために後のトラッキングおよび検出において使用され得る。
[0051]上述のように、様々な方法が、ターゲットオブジェクトを検出する際にオブジェクト検出器208によって使用され得る。一構成では、ターゲットオブジェクトを検出することは、あらゆる可能なウィンドウロケーションおよびあらゆる可能なウィンドウサイズにおいてウィンドウのためにバイナリ分類を実施することを含み得る。しかしながら、あらゆる可能なウィンドウを探索することはリソース集約的である。したがって、別の構成では、オブジェクト検出器は、ビデオフレーム中のすべての可能なウィンドウではなく、ウィンドウロケーションおよびサイズのサブセットを探索し得る。たとえば、オブジェクト検出器208は、すべての可能なウィンドウの1%を探索し得る。次いで、検出が不成功である(たとえば、検出信頼性値240が検出しきい値252よりも小さい)場合、後のキャプチャされたフレーム中でウィンドウロケーションのより高い割合、たとえば、2%が探索され得る。探索されるウィンドウロケーションの割合におけるステップは、一様、非一様、遅いまたは速いことがあり、すなわち、連続フレームが、1%、2%、3%、4%または1%、2%、4%、8%を有し得る。一構成では、探索されるフレームの割合は、高い検出信頼性値に応答して極めて高く(たとえば、80%、90%、100%)、すなわち、ターゲットオブジェクトが次のビデオフレームであることを保証するように、設定され得る。たとえば、探索されるフレームの割合は、検出およびトラッキングしきい値を超える検出およびトラッキング信頼性値に応答して少なくとも80%にジャンプし得る。代替的に、その割合は、60%、70%、90%などにジャンプし得る。さらに、検出およびトラッキングしきい値のための任意の好適な値、たとえば、0.6、0.65、0.7、0.75、0.8、0.85などが使用され得る。さらに、探索されるウィンドウの割合は、ランダマイザ(乱数発生器)に基づいて、ランダムに決定され得、たとえば、1%から15%の間のウィンドウのランダム割合が、キャプチャされたフレーム中で探索され得る。すべてのウィンドウロケーションのサブセットを探索することによって、オブジェクト検出は、電子デバイスにおけるより少数のリソースを使用し得る。
[0052]さらに、本システムおよび方法は、各ロケーションについてウィンドウサイズのサブセットを探索し得る。各ウィンドウサイズは、本明細書ではスケールレベルと呼ぶことがあり、各スケールレベルは特定のウィンドウサイズに対応する。たとえば、20個の可能なスケールレベルがあり得る。すべての20個のスケールレベルを探索するのではなく、スケールレベルまたはウィンドウサイズのサブセットが各ウィンドウロケーションにおいて探索され得る。
[0053]本システムおよび方法は、探索されるウィンドウロケーションおよびサイズを調整するためにメモリバッファ210からのフィードバックをも使用し得る。言い換えれば、ターゲットオブジェクトがそれの中で正常に検出および/またはトラッキングされた、最後のキャプチャされたビデオフレームのロケーションおよびサイズが、現在ビデオフレーム(N)224を探索するための開始点として使用され得る。たとえば、ターゲットオブジェクトが最近のビデオフレーム中で検出され、トラッキングされた(すなわち、最近のキャプチャされたビデオフレームのための検出およびトラッキング信頼性値256が検出およびトラッキングしきい値を上回る)場合、スキャナロケータは、最近のフレームに関連するロケーションおよびサイズにおいて、現在のキャプチャされたフレームを探索し始め得る。たとえば、ターゲットオブジェクトが、光学システムの視野外に移動するかまたはある距離を置いて消える場合、ターゲットオブジェクトは、ターゲットオブジェクトが光学システムの視野を出たかまたはある距離を置いて消えたときと同じサイズにおいて再び現れる可能性が高いことがある。したがって、あるサイズまたはある範囲のサイズが、オブジェクト検出を実施するときに後のビデオフレーム中のターゲットオブジェクトを検出するために予測され得る。
[0054]さらに、キャプチャされたビデオフレーム(N)224中で探索されるウィンドウロケーションおよびウィンドウサイズの探索範囲が、最近のビデオフレーム(たとえば、前のビデオフレーム(N−1)222)中のターゲットオブジェクトに関連するウィンドウロケーションおよびウィンドウサイズと同様のものに限定され得る。本明細書で使用する「探索範囲」という用語は、ビデオフレーム中のターゲットオブジェクトを検出および/またはトラッキングするときに利用され得る候補ウィンドウロケーションまたは候補ウィンドウサイズ(または両方)のセットを指す。たとえば、探索されるウィンドウロケーションのサブセットは、ターゲットオブジェクトが最近のビデオフレーム中のどこで見つけられたかに基づいて現在ビデオフレーム(N)224の一部分、たとえば、現在ビデオフレーム(N)224の4半分または半分のうちの1つ内から選択され得る。言い換えれば、探索空間は、ターゲットオブジェクトが最後にトラッキングまたは検出されたところの近くに限定され得る。同様に、各ウィンドウロケーションについて探索されるフレームのサイズは、ターゲットにされたオブジェクトが最近のビデオフレーム中のそれの中で見つけられた、ウィンドウのサイズに基づいて限定され得る。たとえば、オブジェクトが、8のスケールレベルをもつウィンドウを使用して最近のフレーム中で検出された場合、スキャナスケーラ236は、8プラスまたはマイナス3の現在ビデオフレーム(N)224のためのウィンドウスケールレベルのみ、すなわち、スケールレベル5〜11を選択し得る。これは、さらに、低い確率の探索をなくし、オブジェクト検出の効率を増加させ得る。代替的に、最近の(非現在)ビデオフレームがターゲットオブジェクトを検出しなかった(すなわち、最近のビデオフレームのための検出およびトラッキング信頼性値256が検出およびトラッキングしきい値を下回る)場合、オブジェクト検出器208は、探索される探索空間(ウィンドウロケーション)を拡大し得、たとえば、画像のより広い範囲または全画像が探索を受け得る。
[0055]オブジェクトトラッキングおよび検出モジュール204は、単一のウィンドウを形成するために複数のウィンドウをマージするための融合モジュール260を含み得る。初めに2つの信頼性値、すなわち、オブジェクト検出器208からの検出信頼性値240および動きトラッカー206からのトラッキング信頼性値225がある。融合モジュール260は、2つの信頼性値を組み合わせて(たとえば、より大きい信頼性値を選んで)検出およびトラッキング信頼性値256にし得る。検出およびトラッキング信頼性値256は、ターゲットオブジェクトがビデオフレーム上で識別されたかどうかを示し得る。一構成では、検出およびトラッキング信頼性値256は0から1の間の実数であり得、ただし、0は、ターゲットオブジェクトが特定のビデオフレーム中で識別された、最低の可能な信頼性を示し、1は、ターゲットオブジェクトが特定のビデオフレーム中で識別された、最高の可能な信頼性を示す。言い換えれば、検出およびトラッキング信頼性値256は、ターゲットオブジェクトが見つけられた可能性の全体的指示として働き得る。さらに、検出およびトラッキング信頼性値256は、次のビデオフレーム中で探索すべきウィンドウロケーション、ウィンドウサイズまたはウィンドウの割合を決定するために使用されるパラメータであり得る。融合モジュール260は、現在ビデオフレーム(N)224に関する情報をメモリバッファ210に与えるために使用され得る。一例では、融合モジュール260は、トラッキングされたウィンドウ242に関する情報(たとえば、ウィンドウロケーション244、ウィンドウサイズ246など)と検出およびトラッキング信頼性値256とをメモリバッファ210に与え得る。融合モジュール260は、組み合わされたトラッキング結果(たとえば、バウンディングボックス)を形成することと、検出およびトラッキング信頼性値256を計算することとを行うために、動きトラッカー206およびオブジェクト検出器208からのトラッキング結果(たとえば、バウンディングボックス)を使用し得る。
[0056]メモリバッファ210は、前のビデオフレーム(N−1)222、現在ビデオフレーム(N)224または他のキャプチャされたビデオフレームに関連する1つまたは複数の値を記憶し得る。一構成では、メモリバッファ210は、前のビデオフレーム(N−1)222に対応する情報を含み得る、キャプチャされた前のビデオフレーム212を記憶する。キャプチャされた前のビデオフレーム212は、各ウィンドウ242についてロケーション244と、ウィンドウサイズ246と、(たとえば、分類器238からの)バイナリ決定248とを含む、1つまたは複数のウィンドウ242に関する情報を含み得る。キャプチャされた前のビデオフレーム212は、トラッキングしきい値250と、検出しきい値252と、検出およびトラッキングしきい値254とをも含み得る。トラッキングしきい値250は、258において、トラッキング信頼性レベルがトラッキングしきい値250よりも大きいかどうかを決定するために、動きトラッカー206またはオブジェクトトラッキングおよび検出モジュール上の回路(たとえば、信頼性レベル比較器)に与えられ得る。検出しきい値252は、検出信頼性値240が検出しきい値252よりも大きいかどうかを決定するために、オブジェクト検出器208またはオブジェクトトラッキングおよび検出モジュール204上の他の回路に与えられ得る。検出およびトラッキングしきい値254は、トラッキングしきい値250と検出しきい値252とに基づく組み合わされた値であり得る。検出およびトラッキングしきい値254は、動きベーストラッキングとオブジェクト検出とのための組み合わされた信頼性値を決定するために検出およびトラッキング信頼性値256と比較され得る。しきい値の各々は、ターゲットオブジェクトがビデオフレーム内に位置する可能性に基づき得る。オブジェクトトラッキングおよび検出モジュール204は、特定の検出およびトラッキング信頼性値256が取得されるまで、現在ビデオフレーム(N)224に対する動きベーストラッキングおよび/または検出を実施し得る。さらに、動きベーストラッキングおよびオブジェクト検出は、複数のビデオフレームのシーケンス中の各ビデオフレームに対して実施され得る。
[0057]動きベーストラッキングおよびオブジェクト検出を実施することは、動きベーストラッキングの後に、トラッキングされたパラメータに基づくオブジェクト検出を連続的に実施することを含み得る。特に、本システムおよび方法は、2ステップトラッキングおよび検出手法を実装し得る。動きベーストラッキングが、使用されるオブジェクト検出としての実際のオブジェクト識別ではなく、シーンの相対的動きに基づくので、動きベーストラッキングは、電子デバイスにおいて、オブジェクト検出を実施することほどリソース集約的でないことがある。したがって、オブジェクト検出器208の代わりに動きトラッカー206を使用することがより効率的であり得、ここで、ターゲットオブジェクトが、オブジェクト検出をも実施することなしに正確にトラッキングされ得る。
[0058]したがって、オブジェクト検出器208と並列に動きトラッカー206を使用するのではなく、オブジェクトトラッキングおよび検出モジュール204は、動きトラッカー206が不十分である場合にオブジェクト検出器208を使用するにすぎず、すなわち、動きトラッキングとオブジェクト検出は(実施されるとしても)並列にではなく連続的に実施される。トラッキングがそれに対して実施された各ビデオフレームについて、動きトラッカー206は、ターゲットオブジェクトが現在ビデオフレーム(N)224中にある可能性を示す0から1の間の実数であり得る、トラッキング信頼性値228を生成し得る。
[0059]2ステップトラッキングおよび検出手法の一構成では、動きトラッカー206は、最初に現在ビデオフレーム(N)224に対する動きベーストラッキングを実施し得る。動きトラッカー206は、動きベーストラッキングプロセスに基づいてトラッキング信頼性値228を決定し得る。トラッキング信頼性値228とメモリバッファ210によって与えられたトラッキングしきい値250とを使用して、オブジェクトトラッキングおよび検出モジュール204内の回路(たとえば、信頼性レベル比較器)は、258において、トラッキング信頼性値228がトラッキングしきい値250を超えるかどうかを決定し得る。トラッキング信頼性値228がトラッキングしきい値250よりも大きい場合、オブジェクトトラッキングおよび検出モジュール204は、オブジェクト検出を実施することをスキップし、出力262を生成するために融合モジュール260にトラッキング結果を与え得る。出力262は、ターゲットオブジェクトが現在ビデオフレーム(N)224内にあるという指示を含み得る。さらに、出力262は、ターゲットオブジェクトに関する追加情報を含み得る。
[0060]トラッキング信頼性値228がトラッキングしきい値250を超えない場合、オブジェクト検出器208は、その後現在ビデオフレーム(N)224に対するオブジェクト検出を実施し得る。オブジェクト検出は、現在ビデオフレーム(N)224内のウィンドウの全部またはサブセットに対して実施され得る。オブジェクト検出器208は、動きベーストラッキングの結果および/またはメモリバッファ210から与えられた情報に基づいて、ウィンドウ、ウィンドウサイズのサブセット、または他の検出基準をも選択し得る。オブジェクト検出は、オブジェクト検出器208に与えられた1つまたは複数のトラッキングされたパラメータに基づいて多少ロバストなプロセスを使用して実施され得る。オブジェクト検出器208は、検出信頼性値240を決定し、検出信頼性値240を検出しきい値252と比較し得る。検出信頼性値240が検出しきい値252を上回る場合、オブジェクト検出器208は、出力262を生成するために融合モジュール260に検出結果を与え得る。その出力は、ターゲットオブジェクトが現在ビデオフレーム(N)224内にあるという指示を含み、および/または検出されたオブジェクトに関する追加情報を含み得る。
[0061]代替的に、検出信頼性値240が検出しきい値252よりも小さいかまたはそれに等しい場合、オブジェクト検出器208は、現在ビデオフレーム(N)224内のより大きい数のウィンドウを探索することなど、よりロバストな方法を使用してオブジェクト検出を再び実施し得る。オブジェクト検出器208は、満足な検出信頼性値240が取得されるまで、オブジェクト検出のプロセスを繰り返し得る。満足な検出信頼性値240が取得され、その結果、現在ビデオフレーム内のターゲットオブジェクトが識別されると、オブジェクトトラッキングおよび検出モジュール204は、次のビデオフレームに対するトラッキングおよび検出を実施するために使用され得る。
[0062]図2Bに、図2Aのシステム内のいくつかの構成要素がプロセッサ264によって実装されることを示す。図2Aに示されているように、オブジェクトトラッキングおよび検出モジュール204はプロセッサ264によって実装され得る。異なるプロセッサが、異なる構成要素を実装するために使用され得る(たとえば、あるプロセッサは動きトラッカー206を実装し得、別のプロセッサはオブジェクト検出器208を実装するために使用され得、また別のプロセッサはメモリバッファ210を実装するために使用され得る)。
[0063]図3は、動きベーストラッキングとオブジェクト検出とを実施するための方法300を示す流れ図である。方法300は、電子デバイス102、たとえば、オブジェクトトラッキングおよび検出モジュール104によって実装され得る。電子デバイス102は、302において、前のビデオフレーム(N−1)222と現在ビデオフレーム(N)224とを比較することによって現在ビデオフレーム(N)224のための動きベーストラッキングを実施する。オブジェクトをトラッキングすることは、画像のペア間で点をトラッキングすることによってメジアンフロー方法を使用して実施され得る。動きベーストラッキングの他の方法も使用され得る。さらに、動きベーストラッキングは、メモリバッファ110を介して与えられたキャプチャされた前のビデオフレーム112に関する情報を使用して現在ビデオフレーム(N)224のために実施され得る。
[0064]電子デバイス102は、304において、トラッキング信頼性値228を決定する。トラッキング信頼性値228は、ターゲットオブジェクトが正確にトラッキングされた可能性または確実性を示し得る。電子デバイス102は、306において、トラッキング信頼性値228がトラッキングしきい値250よりも大きいかどうかを決定し得る。トラッキング信頼性値228がトラッキングしきい値250よりも大きい場合、電子デバイス102は、308において、次のビデオフレームのための動きベーストラッキングを実施する。さらに、電子デバイス102は、動きベーストラッキングの結果に基づいて現在ビデオフレームに対するオブジェクト検出を実施することをスキップし得る。言い換えれば、オブジェクト検出は、動きベーストラッキングがあまり良好でないときのみ、すなわち、トラッキング信頼性値がトラッキングしきい値よりも大きくない場合、現在ビデオフレームのために実施され得る。しかしながら、トラッキング信頼性値228がトラッキングしきい値250よりも大きくない場合、電子デバイス102は、310において、現在ビデオフレーム(N)224のためのオブジェクト検出を実施する。電子デバイス102は、動きベーストラッキングに連続してオブジェクト検出を実施し得る。いくつかの構成では、オブジェクト検出は、より高い検出信頼性値240を取得するために、異なるロバストネスを用いて複数回実施され得る。
[0065]図4は、動きベーストラッキングを実施するための方法400を示す流れ図である。方法400は、電子デバイス102、たとえば、オブジェクトトラッキングおよび検出モジュール104によって実装され得る。電子デバイス102は、402において、バウンディングボックスを使用してターゲットオブジェクトを識別する。402においてオブジェクトを識別することは、タッチスクリーン116、または当該のオブジェクトがそれで選択される他の入力方法を使用して、手動で実施され得る。複数のオブジェクトが同様の方法で識別され得る。さらに、トラッキングされるべきオブジェクトを識別するために他の入力方法が使用され得る。一例では、オブジェクトは、ターゲットオブジェクトの周りにバウンディングボックスを手動で描くことによって識別される。
[0066]電子デバイス102は、404において、バウンディングボックス内の格子上の点を初期化する。格子上の点は、バウンディングボックス全体にわたって一様に離間され得る。さらに、406において、2つの画像(たとえば、前のビデオフレーム(N−1)222と現在ビデオフレーム(N)224)間で格子上の点をトラッキングする。一例では、それらの点は、画像間のスパース動きフローを生成するルーカス−カナデ(Lucas-Kanade)トラッカーによってトラッキングされる。電子デバイス102は、408において、2つの画像(たとえば、前のビデオフレーム(N−1)222と現在ビデオフレーム(N)224)間のトラッキングエラーを推定する。408においてトラッキングエラーを推定することは、トラッキングされた点の各点にエラー値を割り当てることを含み得る。さらに、408においてトラッキングエラーを推定することは、たとえば、フォワードバックワードエラーと、正規化相互相関(NCC)と、2乗差分和とを含む、様々な方法を使用して実施され得る。推定されたトラッキングエラーは、トラッキング信頼性値228を取得し、最終的に、ターゲットオブジェクトが現在ビデオフレーム(N)224中にある可能性を決定するために、使用され得る。一構成では、トラッキング信頼性値228は、現在ビデオフレーム(N)224中のトラッキングされたウィンドウと前のビデオフレーム(N−1)222中のトラッキングされたウィンドウとの間の正規化相互相関(NCC)を計算することによって取得され得る。トラッキングエラーは、図5に関して以下でより詳細に説明するフォワードバックワードエラー推定を含む、追加の技法をも使用して推定され得る。さらに、電子デバイス102は、410において、範囲外の点予測をフィルタで除去する。たとえば、電子デバイスは、最悪の予測の50%をフィルタで除去し得る。残りの予測は、バウンディングボックスの変位を推定するために使用され得る。
[0067]電子デバイス102は、412において、バウンディングボックスを更新する。412においてバウンディングボックスを更新することは、更新されたバウンディングボックスが次のビデオフレームのための新しいバウンディングボックスになるように、実施され得る。動きベーストラッキングプロセスは、次いで次のビデオフレームのために繰り返され得、または、トラッキング信頼性値がトラッキングしきい値250よりも小さいかまたはそれに等しい場合、動きベーストラッキングプロセスは、ターゲットオブジェクトが正確にトラッキングされ得るまで、次のビデオフレームのために中止され得る。いくつかの構成では、現在ビデオフレーム(N)224のための動きベーストラッキングが満足な結果を与えない場合、電子デバイスは、ターゲットオブジェクトの位置を特定する際に信頼性のより高いレベルを取得するために現在ビデオフレーム(N)224に対するオブジェクト検出を実施し得る。いくつかの構成では、動きベーストラッキングが満足な結果を生成することができない場合(たとえば、ターゲットオブジェクトがビデオフレームの範囲外に移動したとき)、オブジェクト検出は、ターゲットオブジェクトが検出されるまで、いずれかの後のビデオフレームに対して実施され得る。
[0068]図5は、フォワードバックワードエラーに基づいて動きベーストラッキングにおけるトラッキングエラーを推定する方法500を示す流れ図である。方法500は電子デバイス102(たとえば、オブジェクトトラッキングおよび検出モジュール104)によって実装され得る。いくつかの構成では、電子デバイス102は、トラッキングされたウィンドウ間の正規化相互相関(NCC)を計算し得る。正規化相互相関(NCC)は、トラッキング信頼性値228を決定するために使用され得る。電子デバイス102は、正規化相互相関(NCC)を補足する様々なトラッキングエラー推定技法(たとえば、フォワードバックワードエラー、2乗差分和)をも使用し得る。フォワードバックワードエラー推定を使用する一例では、電子デバイス102は、502において、フォワード軌道を決定するために前のビデオフレーム(N−1)222と現在ビデオフレーム(N)224との間でフォワードトラッキングを実施する。フォワードトラッキングは、k個のステップ前方の画像をトラッキングすることを含み得る。得られたフォワード軌道は(xt,xt+1,...,xt+k)に等しいことがあり、ただし、xtは時間的点ロケーションであり、kは画像のシーケンスの長さを示す。電子デバイス102は、504において、バックワード軌道を決定するために現在ビデオフレーム(N)224と前のビデオフレーム(N−1)222との間でバックワードトラッキングを実施する。得られたバックワード軌道は(
Figure 2016507834

Figure 2016507834
,...,
Figure 2016507834
)に等しいことがあり、ただし、
Figure 2016507834
である。
[0069]電子デバイス102は、506において、フォワード軌道とバックワード軌道との間のフォワードバックワードエラーを決定する。フォワードバックワードエラーは、フォワード軌道とバックワード軌道との間の距離として定義され得る。さらに、様々な距離が軌道比較のために定義され得る。一構成では、検証軌道の初期点と終了点との間のユークリッド距離が、フォワードバックワードエラーを決定するときに使用され得る。一構成では、フォワードバックワードエラーは、トラッキング信頼性値228を決定するために使用され得る、トラッキングエラーとして使用され得る。
[0070]図6は、オブジェクト検出を実施するための方法600を示す流れ図である。方法600は電子デバイス102(たとえば、オブジェクトトラッキングおよび検出モジュール104)によって実装され得る。電子デバイス102は、602において、現在ビデオフレーム(N)224中のウィンドウロケーションおよびサイズのサブセットを探索することによって現在ビデオフレーム(N)224に対するオブジェクト検出および動きベーストラッキングを実施する。
[0071]電子デバイス102は、604において、検出およびトラッキング信頼性値256を決定する。検出およびトラッキング信頼性値256は、ターゲットオブジェクトが現在ビデオフレーム(N)224中でまたは特定のウィンドウ内で見つけられるかどうかの信頼性のレベルを与え得る。電子デバイス102は、606において、検出および信頼性値256が検出およびトラッキングしきい値254よりも大きいかどうかをも決定し得る。検出および信頼性値が検出およびトラッキングしきい値254よりも大きい場合、電子デバイス102は、608において、次のビデオフレーム中のウィンドウおよびサイズのサブセット(たとえば、同じサブセット)を使用して次のビデオフレームに対するオブジェクト検出を実施する。代替的に、検出および信頼性値256が検出およびトラッキングしきい値254よりも小さい場合、電子デバイス102は、610において、次のビデオフレーム中のウィンドウロケーションおよびサイズのより大きいサブセットを使用して次のビデオフレームに対するオブジェクト検出を実施する。いくつかの構成では、信頼性値256が検出およびトラッキングしきい値254よりも小さい場合、電子デバイス102は、610において、次のビデオフレームの探索空間全体および/またはすべてのウィンドウを使用して次のビデオフレームに対するオブジェクト検出を実施する。
[0072]図7は、本システムおよび方法とともに使用され得る異なるウィンドウサイズ766を有する画像ウィンドウ700を示すブロック図である。詳細には、図7は、10個の可能なウィンドウサイズ766a〜jのセットを示している。各ウィンドウサイズはスケールレベル(たとえば、1〜10)に対応し得る。本明細書では矩形として示されているが、探索されるウィンドウは任意の形状、たとえば、正方形、矩形、円形、楕円、ユーザ定義されたものなどであり得る。さらに、任意の数、たとえば、5つ、15個、20個、30個などのウィンドウサイズまたはスケールレベルが利用可能であり得る。
[0073]上記で説明したように、探索範囲は、特定のロケーションのために使用されるウィンドウサイズのサブセットによって示され得、たとえば、現在ビデオフレーム(N)224中で探索されるウィンドウサイズは、最近のフレーム中のターゲットオブジェクトに関連するウィンドウロケーションおよびウィンドウサイズと同様のものに限定され得る。たとえば、フィードバックなしに、オブジェクト検出器208は、各選択されたウィンドウロケーションについてすべての10個のウィンドウサイズを探索し得る。しかしながら、オブジェクトが、第5のウィンドウサイズ766eをもつウィンドウを使用して最近の(非現在)ビデオフレーム中で検出された場合、スキャナスケーラ236は、5プラスまたはマイナス3の現在キャプチャされたフレームのためのウィンドウサイズのみ、すなわち、ウィンドウサイズ2〜8を選択し得る。言い換えれば、第1のウィンドウサイズ766a、第9のウィンドウサイズ766iおよび第10のウィンドウサイズ766jをもつウィンドウは、最近または前のビデオフレーム(N−1)222からのフィードバックに基づいて探索されないことがある。これは、さらに、低い確率の探索をなくし、オブジェクト検出の効率を増加させ得る。言い換えれば、最近のビデオフレームからのフィードバックを使用することは、実施される計算を低減するのに役立ち得る。代替的に、最近のビデオフレームがターゲットオブジェクトを検出しなかった(すなわち、最近のキャプチャされたフレームのための検出およびトラッキング信頼性値256が検出およびトラッキングしきい値254よりも小さい)場合、オブジェクト検出器208は、サイズレベルのサブセットを使用することによって探索範囲を限定しないことがある。
[0074]図8は、オブジェクトトラッキングおよび検出モジュール804の別の可能な構成を示すブロック図である。図8に示されたオブジェクトトラッキングおよび検出モジュール804は、図2に示されたオブジェクトトラッキングおよび検出モジュール204と同様のモジュールを含み、同様の機能を実施し得る。詳細には、図8に示されたオブジェクト検出器808、動きトラッカー806、スキャナロケータ830、ウィンドウロケーションセレクタ832、ランダマイザ834、スキャナスケーラ836、分類器838、融合モジュール860、メモリバッファ810、キャプチャされた前のビデオフレーム812、ウィンドウ842、ロケーション844、サイズ846、バイナリ決定848、トラッキングしきい値850、検出しきい値852、検出およびトラッキングしきい値854、検出信頼性値840、トラッキング信頼性値828、ならびに検出およびトラッキング信頼性値856は、図2に示されたオブジェクト検出器208、動きトラッカー206、スキャナロケータ230、ウィンドウロケーションセレクタ232、ランダマイザ234、スキャナスケーラ236、分類器238、融合モジュール260、メモリバッファ210、キャプチャされた前のビデオフレーム212、ウィンドウ242、ロケーション244、サイズ246、バイナリ決定248、トラッキングしきい値250、検出しきい値252、検出およびトラッキングしきい値254、検出信頼性値240、トラッキング信頼性値228、ならびに検出およびトラッキング信頼性値256に対応し、それらと同様の機能を有し得る。
[0075]さらに、オブジェクトトラッキングおよび検出モジュール804は、ターゲットの動きとトラッキングエラーとによるジッタリング影響を低減するために使用される平滑化モジュール861を含み得る。言い換えれば、平滑化モジュール861は、トラッキング結果を平滑化し、探索ウィンドウが、ロケーション(x,y)844とサイズ(幅、高さ)846の両方においてより滑らかな軌道を有することを引き起こす。平滑化モジュール861は、単純な移動平均(MA:moving average)フィルタまたは自動回帰(AR:auto regression)フィルタであり得る。ロケーション844のための平滑化程度とサイズ846のための平滑化程度は異なり得る。カルマンフィルタなど、予測フィルタもロケーション844の平滑化に好適であり得る。
[0076]一構成では、融合モジュール860は、バウンディングボックスによって表され得る、動きトラッキングとオブジェクト検出との組み合わされた結果を出力し得る。このバウンディングボックスは、平滑化モジュール861によって平滑化されたロケーション情報とサイズ情報の両方を含み得る。したがって、平滑化モジュール861は、非平滑化されたロケーション863と非平滑化されたサイズ865とを入力として受信し、平滑化されたロケーション867と平滑化されたサイズ869とを出力し得る。
[0077]図9は、平滑化モジュール961を示すブロック図である。平滑化モジュール961は、ターゲットの動きとトラッキングエラーとによるジッタリング影響を低減するために使用され得、すなわち、したがって、トラッキング結果(バウンディングボックス)は、ロケーション(x,y)とサイズ(幅、高さ)の両方においてより滑らかな軌道を有する。一構成では、ロケーション平滑化フィルタ971とサイズ平滑化フィルタ973は、非平滑化されたロケーション963と非平滑化されたサイズ965とを入力として受信し、平滑化されたロケーション967と平滑化されたサイズ969とを出力するために、自動回帰(AR)モデルを使用して実装される。
[0078]自動回帰(AR)モデルでは、Xが、平滑化されるべき変数であり、ロケーションまたはサイズのいずれかであると仮定されたい。さらに、X’をオブジェクトトラッカーによるXの出力とする。この構成では、時間tにおけるXの平滑化されたフィルタ処理Xtが、式(1)に従って表され得る。
Figure 2016507834
上式で、X’tは、時間tにおけるXのトラッカー出力であり、Xt-1は、時間t−1におけるXの平滑化された結果であり、W(0≦W≦1)は、平滑化効果を制御する平滑化重みである。たとえば、X’tは、現在ビデオフレームのために選択されたウィンドウロケーションまたはウィンドウサイズであり得、Xt-1は、前のビデオフレームのために使用されたウィンドウロケーションまたはウィンドウサイズであり得る。
[0079]異なる平滑化重みWが、ロケーション平滑化フィルタ971とサイズ平滑化フィルタ973とのために使用され得る。たとえば、一実装形態では、ウィンドウロケーションに対してより少ない平滑化効果があるが、ウィンドウサイズに対してより強い平滑化効果があるように、Wlocation=0.8およびWsize=0.4である。平滑化重みのこの選択は、より少ないトラッキング遅延とより少ないジッタリングの両方をもたらすことになる。
[0080]さらに、平滑化重みのその選択はまた、検出およびトラッキング信頼性値856があるしきい値(たとえば、検出およびトラッキングしきい値854)を下回るときに低減され得る。これは、潜在的トラッキングまたは検出エラーが高いとき、より強いフィルタ処理を引き起こし得る。たとえば、低いトラッキング信頼性に応答して(たとえば、検出およびトラッキング信頼性値856が検出およびトラッキングしきい値854を下回る)、ロケーションのための平滑化重みおよびサイズのための平滑化重みは、それぞれWlocation=0.65およびWsize=0.2に設定され得る。言い換えれば、重みの一方または両方が減少され得、これは、ウィンドウロケーションおよびサイズ選択が、現在ビデオフレームのウィンドウロケーションおよびサイズよりも、前のビデオフレームのウィンドウロケーションおよびサイズにより重度に頼ることを引き起こし得る。
[0081]さらに、重み付けは、検出およびトラッキング信頼性値856ではなく、トラッキング信頼性値828または検出信頼性値840に基づき得る。たとえば、平滑化重みWlocationおよびWsizeは、トラッキング信頼性値828がトラッキングしきい値850を下回ったことに応答して減少され得、すなわち、より強いフィルタ処理が、不十分な動きトラッキングに応答して使用され得る。代替的に、平滑化重みは、検出信頼性値840が検出しきい値852を下回ったことに応答して減少され得、すなわち、より強いフィルタ処理が、不十分なオブジェクト検出に応答して使用され得る。
[0082]別の構成では、カルマンフィルタ処理が、ウィンドウロケーションを平滑化するために使用され得る。そのような構成では、フィルタ処理は式(2)〜(7)に従って定義され得る。
Figure 2016507834
Figure 2016507834
[0083]上式で、zkは、xkの観測値または測定値であり、xkは、
Figure 2016507834
によって定義される真の状態であり、ただし、(x,y)は、バウンディングボックス中心ロケーションであり、(
Figure 2016507834

Figure 2016507834
)は、各方向における速度である。さらに、xk-1は、時間k−1における前の状態である。さらに、状態遷移モデルFk、および観測モデルHは、それぞれ式(4)〜(5)によって定義され得る。
Figure 2016507834
Figure 2016507834
[0084]上式で、Δtは調節可能パラメータである。さらに、wkは、式(6)に従って共分散Q(すなわち、wk≒N(0,Q))を用いたゼロ平均多変量正規分布(zero mean multivariate normal distribution)から引き出されると仮定されるプロセス雑音である。
Figure 2016507834
[0085]上式で、σ1は調節可能パラメータである。同様に、wkは、式(7)に従って共分散R(すなわち、vk≒N(0,R))を用いたゼロ平均ガウス白色雑音(zero mean Gaussian white noise)であると仮定される観測雑音である。
Figure 2016507834
[0086]上式で、σ2は調節可能パラメータである。
[0087]図10は、動きトラッキング結果中のジッタを平滑化するための方法1000を示す流れ図である。方法1000は、電子デバイス102、たとえば、電子デバイス102中のオブジェクトトラッキングおよび検出モジュール804によって実施され得る。電子デバイス102は、1002において、現在ビデオフレームに関連する1つまたは複数のウィンドウロケーションと1つまたは複数のウィンドウサイズとを決定し、たとえば、非平滑化されたロケーション863と非平滑化されたサイズ865とを決定する。電子デバイス102はまた、1004において、1つまたは複数の平滑化されたウィンドウロケーション867と1つまたは複数の平滑化されたウィンドウサイズ869とを生成するために1つまたは複数のウィンドウロケーションと1つまたは複数のウィンドウサイズとをフィルタ処理する。たとえば、これは、移動平均フィルタ、自動回帰フィルタまたはカルマンフィルタを使用することを含み得る。一構成では、低いトラッキング信頼性に応答して(たとえば、検出およびトラッキング信頼性値856が検出およびトラッキングしきい値854を下回る)、ロケーションのための平滑化重みおよびサイズのための平滑化重みは低減され得る。代替的に、平滑化重みは、検出信頼性値840またはトラッキング信頼性値828に基づいて低減され得る。また、電子デバイスは、1つまたは複数の平滑化されたウィンドウロケーション867と1つまたは複数の平滑化されたサイズ869とによって定義された1つまたは複数のウィンドウを使用して現在ビデオフレーム224内のターゲットオブジェクトを検出し得る。
[0088]図11に、電子デバイス/ワイヤレスデバイス1102内に含まれ得るいくつかの構成要素を示す。電子デバイス/ワイヤレスデバイス1102は、図1に示された電子デバイス102など、アクセス端末、移動局、ユーザ機器(UE)、基地局、アクセスポイント、ブロードキャスト送信機、ノードB、発展型ノードBなどであり得る。電子デバイス/ワイヤレスデバイス1102はプロセッサ1103を含む。プロセッサ1103は、汎用シングルまたはマルチチップマイクロプロセッサ(たとえば、ARM)、専用マイクロプロセッサ(たとえば、デジタル信号プロセッサ(DSP))、マイクロコントローラ、プログラマブルゲートアレイなどであり得る。プロセッサ1103は中央処理ユニット(CPU)と呼ばれることがある。電子デバイス/ワイヤレスデバイス1102中に単一のプロセッサ1103のみが示されているが、代替構成では、プロセッサの組合せ(たとえば、ARMとDSP)が使用され得る。
[0089]電子デバイス/ワイヤレスデバイス1102はまた、メモリ1105を含む。メモリ1105は、電子情報を記憶することが可能な任意の電子的構成要素であり得る。メモリ1105は、ランダムアクセスメモリ(RAM)、読取り専用メモリ(ROM)、磁気ディスク記憶媒体、光記憶媒体、RAM中のフラッシュメモリデバイス、プロセッサに含まれるオンボードメモリ、EPROMメモリ、EEPROM(登録商標)メモリ、レジスタなど、およびそれらの組合せとして実施され得る。
[0090]データ1107aおよび命令1109aがメモリ1105に記憶され得る。命令1109aは、本明細書で開示する方法を実装するようにプロセッサ1103によって実行可能であり得る。命令1109aを実行することは、メモリ1105に記憶されたデータの使用を含み得る。プロセッサ1103が命令1109を実行すると、命令1109bの様々な部分がプロセッサ1103上にロードされ得、様々ないくつかのデータ1107bがプロセッサ1103上にロードされ得る。
[0091]電子デバイス/ワイヤレスデバイス1102はまた、電子デバイス/ワイヤレスデバイス1102との間での信号の送信および受信を可能にするために、送信機1111と受信機1113とを含み得る。送信機1111と受信機1113とはトランシーバ1115と総称されることがある。複数のアンテナ1117a〜bはトランシーバ1115に電気的に結合され得る。電子デバイス/ワイヤレスデバイス1102はまた、複数の送信機、複数の受信機、複数のトランシーバおよび/または追加のアンテナ(図示せず)を含み得る。
[0092]電子デバイス/ワイヤレスデバイス1102はデジタル信号プロセッサ(DSP)1121を含み得る。電子デバイス/ワイヤレスデバイス1102はまた、通信インターフェース1123を含み得る。通信インターフェース1123は、ユーザが電子デバイス/ワイヤレスデバイス1102と対話することを可能にし得る。
[0093]電子デバイス/ワイヤレスデバイス1102の様々な構成要素は、電力バス、制御信号バス、ステータス信号バス、データバスなどを含み得る、1つまたは複数のバスによって互いに結合され得る。明快のために、図11では様々なバスはバスシステム1119として示されている。
[0094]本明細書で説明した技法は、直交多重化方式に基づく通信システムを含む様々な通信システムに使用され得る。そのような通信システムの例としては、直交周波数分割多元接続(OFDMA)システム、シングルキャリア周波数分割多元接続(SC−FDMA)システムなどがある。OFDMAシステムは、全システム帯域幅を複数の直交サブキャリアに区分する変調技法である、直交周波数分割多重化(OFDM)を利用する。これらのサブキャリアは、トーン、ビンなどと呼ばれることもある。OFDMでは、各サブキャリアは独立してデータで変調され得る。SC−FDMAシステムは、システム帯域幅にわたって分散されたサブキャリア上で送信するためのインターリーブFDMA(IFDMA)、隣接するサブキャリアのブロック上で送信するための局所FDMA(LFDMA)、または隣接するサブキャリアの複数のブロック上で送信するための拡張FDMA(EFDMA)を利用し得る。概して、変調シンボルは、OFDMでは周波数領域で、SC−FDMAでは時間領域で送られる。
[0095]本開示によれば、電子デバイス中の、回路が、前のビデオフレームと現在ビデオフレームとを比較することによって現在ビデオフレームのための動きベーストラッキングを実施するように適応され得る。同じ回路、異なる回路、あるいは同じまたは異なる回路の第2のセクションが、トラッキングされたパラメータに基づいて現在ビデオフレーム中でオブジェクト検出を実施するように適応され得る。第2のセクションは、有利には、第1のセクションに結合され得、または、第2のセクションは、第1のセクションと同じ回路で実施され得る。さらに、同じ回路、異なる回路、あるいは同じまたは異なる回路の第3のセクションが、上記で説明した機能を与える(1つまたは複数の)回路または(1つまたは複数の)回路の(1つまたは複数の)セクションの構成を制御するように適応され得る。
[0096]「決定」という用語は、多種多様なアクションを包含し、したがって、「決定」は、計算(calculating)、計算(computing)、処理、導出、調査、ルックアップ(たとえば、テーブル、データベースまたは別のデータ構造でのルックアップ)、確認などを含むことができる。また、「決定」は、受信(たとえば、情報を受信すること)、アクセス(たとえば、メモリ中のデータにアクセスすること)などを含むことができる。また、「決定」は、解決、選択、選定、確立などを含むことができる。
[0097]「に基づいて」という句は、別段に明示されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という句は、「のみに基づいて」と「に少なくとも基づいて」の両方を表す。
[0098]「プロセッサ」という用語は、汎用プロセッサ、中央処理ユニット(CPU)、マイクロプロセッサ、デジタル信号プロセッサ(DSP)、コントローラ、マイクロコントローラ、状態機械などを包含するものと広く解釈されたい。いくつかの状況下では、「プロセッサ」は、特定用途向け集積回路(ASIC)、プログラマブル論理デバイス(PLD)、フィールドプログラマブルゲートアレイ(FPGA)などを指すことがある。「プロセッサ」という用語は、処理デバイスの組合せ、たとえば、DSPとマイクロプロセッサとの組合せ、複数のマイクロプロセッサ、DSPコアと連携する1つまたは複数のマイクロプロセッサ、あるいは他のそのような構成を指すことがある。
[0099]「メモリ」という用語は、電子情報を記憶することが可能な任意の電子的構成要素を包含するものと広く解釈されたい。メモリという用語は、ランダムアクセスメモリ(RAM)、読取り専用メモリ(ROM)、不揮発性ランダムアクセスメモリ(NVRAM)、プログラマブル読取り専用メモリ(PROM)、消去可能プログラマブル読取り専用メモリ(EPROM)、電気的消去可能PROM(EEPROM)、フラッシュメモリ、磁気または光学データストレージ、レジスタなど、様々なタイプのプロセッサ可読媒体を指すことがある。プロセッサがメモリから情報を読み取り、および/または情報をメモリに書き込むことができる場合、メモリはプロセッサと電子通信していると言われる。プロセッサに一体化されたメモリは、プロセッサと電子通信している。
[00100]「命令」および「コード」という用語は、任意のタイプの(1つまたは複数の)コンピュータ可読ステートメントを含むものと広く解釈されたい。たとえば、「命令」および「コード」という用語は、1つまたは複数のプログラム、ルーチン、サブルーチン、関数、プロシージャなどを指すことがある。「命令」および「コード」は、単一のコンピュータ可読ステートメントまたは多くのコンピュータ可読ステートメントを備え得る。
[00101]本明細書で説明した機能は、ハードウェアによって実行されているソフトウェアまたはファームウェアで実装され得る。機能は、1つまたは複数の命令としてコンピュータ可読媒体上に記憶され得る。「コンピュータ可読媒体」または「コンピュータプログラム製品」という用語は、コンピュータまたはプロセッサによってアクセスされ得る任意の有形記憶媒体を指す。限定ではなく例として、コンピュータ可読媒体は、RAM、ROM、EEPROM、CD−ROMまたは他の光ディスクストレージ、磁気ディスクストレージまたは他の磁気ストレージデバイス、あるいは命令またはデータ構造の形態の所望のプログラムコードを搬送または記憶するために使用され得、コンピュータによってアクセスされ得る、任意の他の媒体を備え得る。本明細書で使用するディスク(disk)およびディスク(disc)は、コンパクトディスク(disc)(CD)、レーザーディスク(登録商標)(disc)、光ディスク(disc)、デジタル多用途ディスク(disc)(DVD)、フロッピー(登録商標)ディスク(disk)およびBlu−ray(登録商標)ディスク(disc)を含み、ディスク(disk)は、通常、データを磁気的に再生し、ディスク(disc)は、データをレーザーで光学的に再生する。コンピュータ可読媒体は有形で非一時的であり得ることに留意されたい。「コンピュータプログラム製品」という用語は、コンピューティングデバイスまたはプロセッサによって実行、処理または計算され得るコードまたは命令(たとえば、「プログラム」)と組み合わせたコンピューティングデバイスまたはプロセッサを指す。本明細書で使用する「コード」という用語は、コンピューティングデバイスまたはプロセッサによって実行可能であるソフトウェア、命令、コードまたはデータを指すことがある。
[00102]ソフトウェアまたは命令はまた、伝送媒体を介して送信され得る。たとえば、ソフトウェアが、同軸ケーブル、光ファイバーケーブル、ツイストペア、デジタル加入者回線(DSL)、または赤外線、無線、およびマイクロ波などのワイヤレス技術を使用して、ウェブサイト、サーバ、または他のリモートソースから送信される場合、同軸ケーブル、光ファイバーケーブル、ツイストペア、DSL、または赤外線、無線、およびマイクロ波などのワイヤレス技術は、伝送媒体の定義に含まれる。
[00103]本明細書で開示する方法は、説明した方法を達成するための1つまたは複数のステップまたはアクションを備える。本方法のステップおよび/またはアクションは、特許請求の範囲から逸脱することなく互いに交換され得る。言い換えれば、本明細書で説明した方法の適切な動作のためにステップまたはアクションの特定の順序が必要とされない限り、特定のステップおよび/またはアクションの順序および/または使用は、特許請求の範囲を逸脱することなく修正され得る。
[00104]さらに、図3〜図6および図11によって示されたものなど、本明細書で説明した方法および技法を実施するためのモジュールおよび/または他の適切な手段は、デバイスによってダウンロードおよび/または他の方法で取得され得ることを諒解されたい。たとえば、デバイスは、本明細書で説明した方法を実施するための手段の転送を可能にするために、サーバに結合され得る。代替的に、本明細書で説明した様々な方法は、記憶手段をデバイスに結合するかまたは与えるときにデバイスが様々な方法を獲得し得るように、記憶手段(たとえば、ランダムアクセスメモリ(RAM)、読取り専用メモリ(ROM)、コンパクトディスク(disc)(CD)またはフロッピーディスク(disk)などの物理的記憶媒体など)によって提供され得る。
[00105]特許請求の範囲は、上記に示した正確な構成および構成要素に限定されないことを理解されたい。特許請求の範囲から逸脱することなく、本明細書で説明したシステム、方法、および装置の構成、動作および詳細において、様々な修正、変更および変形が行われ得る。
[00105]特許請求の範囲は、上記に示した正確な構成および構成要素に限定されないことを理解されたい。特許請求の範囲から逸脱することなく、本明細書で説明したシステム、方法、および装置の構成、動作および詳細において、様々な修正、変更および変形が行われ得る。
以下に本願発明の当初の特許請求の範囲に記載された発明を付記する。
[C1]
ターゲットオブジェクトを検出し、トラッキングするための方法であって、
前のビデオフレームと現在ビデオフレームとを比較することによって前記現在ビデオフレームのための動きベーストラッキングを実施することと、
トラッキングされたパラメータに基づいて前記現在ビデオフレーム中でオブジェクト検出を選択的に実施することと
を備える、方法。
[C2]
前記トラッキングされたパラメータは、前記ターゲットオブジェクトが前記現在ビデオフレーム中にある可能性に相当するトラッキング信頼性値である、C1に記載の方法。
[C3]
オブジェクト検出を選択的に実施することは、前記トラッキング信頼性値がトラッキングしきい値よりも小さいかまたはそれに等しいとき、前記現在ビデオフレームに対するオブジェクト検出を実施することを備える、C2に記載の方法。
[C4]
オブジェクト検出を選択的に実施することは、前記トラッキング信頼性値がトラッキングしきい値よりも大きいとき、前記現在ビデオフレームに対するオブジェクト検出をスキップすることを備える、C2に記載の方法。
[C5]
前記オブジェクト検出は前記動きベーストラッキングに連続して実施される、C1に記載の方法。
[C6]
前記トラッキングされたパラメータは領域である、C1に記載の方法。
[C7]
前記トラッキングされたパラメータはウィンドウロケーションである、C1に記載の方法。
[C8]
前記トラッキングされたパラメータはウィンドウサイズである、C1に記載の方法。
[C9]
前記トラッキングされたパラメータはスケールレベルである、C1に記載の方法。
[C10]
前記ターゲットオブジェクトを定義する入力をタッチスクリーンにおいて受信することをさらに備える、C1に記載の方法。
[C11]
オブジェクト検出を選択的に実施することは、
前記前のビデオフレーム中のウィンドウの第1のサブセットを選択することと、
前記ターゲットオブジェクトについてウィンドウの前記第1のサブセットのみを探索することと
を備える、C1に記載の方法。
[C12]
オブジェクト検出を選択的に実施することは、
ウィンドウの前記第1のサブセット中の各選択されたウィンドウについて、ウィンドウサイズのサブセットを選択することと、
ウィンドウの前記第1のサブセット中の各ウィンドウについてウィンドウサイズの前記サブセットのみを探索することと
をさらに備える、C11に記載の方法。
[C13]
前記選択することは、乱数発生器に基づいてウィンドウの前記第1のサブセットをランダムに選択することを備える、C11に記載の方法。
[C14]
前記現在ビデオフレーム中のウィンドウの第2のサブセットを選択することをさらに備え、ここにおいて、ウィンドウの前記第2のサブセットのサイズは、前記ターゲットオブジェクトが前記前のビデオフレーム中で検出されたかどうかに基づく、C11に記載の方法。
[C15]
ウィンドウの前記第1のサブセットからウィンドウの前記第2のサブセットへのサイズの増加は、前記ターゲットオブジェクトが前記前のビデオフレーム中で検出されなかった場合よりも、前記ターゲットオブジェクトが前記前のビデオフレーム中で検出された場合により高い、C14に記載の方法。
[C16]
後のフレーム中で選択されるウィンドウの割合を増加させることをさらに備える、C11に記載の方法。
[C17]
選択されるウィンドウの前記割合の増加が一様または非一様である、C16に記載の方法。
[C18]
選択されるウィンドウの割合は、検出およびトラッキング信頼性値が検出およびトラッキング信頼性しきい値を上回るとき、少なくとも60%である、C16に記載の方法。
[C19]
前記検出およびトラッキング信頼性しきい値は、0.6、0.65、0.7、0.75、0.8および0.85のうちの1つである、C18に記載の方法。
[C20]
検出およびトラッキング信頼性値に基づいて、次のビデオフレーム中で前記ターゲットオブジェクトを検出する試みのために探索範囲を狭くすることをさらに備える、C1に記載の方法。
[C21]
探索範囲を狭くすることは、前記現在ビデオフレームのための前記検出およびトラッキング信頼性値が検出およびトラッキングしきい値よりも大きいとき、低減された探索空間から探索のためのウィンドウロケーションを選択することをさらに備える、C20に記載の方法。
[C22]
前記現在ビデオフレームのための前記検出およびトラッキング信頼性値は、前記ターゲットオブジェクトが前記現在ビデオフレーム中で検出され、トラッキングされた可能性を示す、0から1の間の実数である、C21に記載の方法。
[C23]
探索範囲を狭くすることは、前記現在ビデオフレームのための検出およびトラッキング信頼性値が検出およびトラッキングしきい値よりも小さいかまたはそれに等しいとき、探索空間全体から探索のためのウィンドウロケーションを選択することをさらに備える、C20に記載の方法。
[C24]
ターゲットオブジェクトを検出し、トラッキングするための装置であって、
前のビデオフレームと現在ビデオフレームとを比較することによって前記現在ビデオフレームのための動きベーストラッキングを実施するための手段と、
トラッキングされたパラメータに基づいて前記現在ビデオフレーム中でオブジェクト検出を選択的に実施するための手段と
を備える、装置。
[C25]
前記トラッキングされたパラメータは、前記ターゲットオブジェクトが前記現在ビデオフレーム中にある可能性に相当するトラッキング信頼性値である、C24に記載の装置。
[C26]
オブジェクト検出を選択的に実施するための前記手段は、前記トラッキング信頼性値がトラッキングしきい値よりも小さいかまたはそれに等しいとき、前記現在ビデオフレームに対するオブジェクト検出を実施するための手段を備える、C25に記載の装置。
[C27]
オブジェクト検出を選択的に実施するための前記手段は、前記トラッキング信頼性値がトラッキングしきい値よりも大きいとき、前記現在ビデオフレームに対するオブジェクト検出をスキップするための手段を備える、C25に記載の装置。
[C28]
前記オブジェクト検出は前記動きベーストラッキングに連続して実施される、C24に記載の装置。
[C29]
前記トラッキングされたパラメータは領域である、C24に記載の装置。
[C30]
前記トラッキングされたパラメータはウィンドウロケーションである、C24に記載の装置。
[C31]
前記トラッキングされたパラメータはウィンドウサイズである、C24に記載の装置。
[C32]
前記トラッキングされたパラメータはスケールレベルである、C24に記載の装置。
[C33]
前記ターゲットオブジェクトを定義する入力をタッチスクリーンにおいて受信するための手段をさらに備える、C24に記載の装置。
[C34]
オブジェクト検出を選択的に実施するための前記手段は、
前記前のビデオフレーム中のウィンドウの第1のサブセットを選択するための手段と、
前記ターゲットオブジェクトについてウィンドウの前記第1のサブセットのみを探索するための手段と
を備える、C24に記載の装置。
[C35]
オブジェクト検出を選択的に実施するための前記手段は、
ウィンドウの前記第1のサブセット中の各選択されたウィンドウについて、ウィンドウサイズのサブセットを選択するための手段と、
ウィンドウの前記第1のサブセット中の各ウィンドウについてウィンドウサイズの前記サブセットのみを探索するための手段と
をさらに備える、C34に記載の装置。
[C36]
選択するための前記手段は、乱数発生器に基づいてウィンドウの前記第1のサブセットをランダムに選択するための手段を備える、C34に記載の装置。
[C37]
前記現在ビデオフレーム中のウィンドウの第2のサブセットを選択するための手段をさらに備え、ここにおいて、ウィンドウの前記第2のサブセットのサイズは、前記ターゲットオブジェクトが前記前のビデオフレーム中で検出されたかどうかに基づく、C34に記載の装置。
[C38]
ウィンドウの前記第1のサブセットからウィンドウの前記第2のサブセットへのサイズの増加は、前記ターゲットオブジェクトが前記前のビデオフレーム中で検出されなかった場合よりも、前記ターゲットオブジェクトが前記前のビデオフレーム中で検出された場合により高い、C37に記載の装置。
[C39]
後のフレーム中で選択されるウィンドウの割合を増加させるための手段をさらに備える、C34に記載の装置。
[C40]
選択されるウィンドウの前記割合の増加が一様または非一様である、C39に記載の装置。
[C41]
選択されるウィンドウの割合は、検出およびトラッキング信頼性値が検出およびトラッキング信頼性しきい値を上回るとき、少なくとも60%である、C39に記載の装置。
[C42]
前記検出およびトラッキング信頼性しきい値は、0.6、0.65、0.7、0.75、0.8および0.85のうちの1つである、C41に記載の装置。
[C43]
検出およびトラッキング信頼性値に基づいて、次のビデオフレーム中で前記ターゲットオブジェクトを検出する試みのために探索範囲を狭くするための手段をさらに備える、C24に記載の装置。
[C44]
探索範囲を狭くするための前記手段は、前記現在ビデオフレームのための前記検出およびトラッキング信頼性値が検出およびトラッキングしきい値よりも大きいとき、低減された探索空間から探索のためのウィンドウロケーションを選択するための手段をさらに備える、C43に記載の装置。
[C45]
前記現在ビデオフレームのための前記検出およびトラッキング信頼性値は、前記ターゲットオブジェクトが前記現在ビデオフレーム中で検出され、トラッキングされた可能性を示す、0から1の間の実数である、C44に記載の装置。
[C46]
探索範囲を狭くするための前記手段は、前記現在ビデオフレームのための検出およびトラッキング信頼性値が検出およびトラッキングしきい値よりも小さいかまたはそれに等しいとき、探索空間全体から探索のためのウィンドウロケーションを選択するための手段をさらに備える、C43に記載の装置。
[C47]
ターゲットオブジェクトを検出し、トラッキングするための電子デバイスであって、
プロセッサと、
前記プロセッサと電子通信しているメモリと、
メモリに記憶された命令と
を備え、前記命令は、
前のビデオフレームと現在ビデオフレームとを比較することによって前記現在ビデオフレームのための動きベーストラッキングを実施することと、
トラッキングされたパラメータに基づいて前記現在ビデオフレーム中でオブジェクト検出を選択的に実施することと
を実行可能とする、電子デバイス。
[C48]
前記トラッキングされたパラメータは、前記ターゲットオブジェクトが前記現在ビデオフレーム中にある可能性に相当するトラッキング信頼性値である、C47に記載の電子デバイス。
[C49]
オブジェクト検出を選択的に実施することを実行可能とする前記命令は、前記トラッキング信頼性値がトラッキングしきい値よりも小さいかまたはそれに等しいとき、前記現在ビデオフレームに対するオブジェクト検出を実施することを実行可能とする命令を備える、C48に記載の電子デバイス。
[C50]
オブジェクト検出を選択的に実施することを実行可能とする前記命令は、前記トラッキング信頼性値がトラッキングしきい値よりも大きいとき、前記現在ビデオフレームに対するオブジェクト検出をスキップすることを実行可能とする命令を備える、C48に記載の電子デバイス。
[C51]
前記オブジェクト検出は前記動きベーストラッキングに連続して実施される、C47に記載の電子デバイス。
[C52]
オブジェクト検出を選択的に実施することを実行可能とする前記命令は、
前記前のビデオフレーム中のウィンドウの第1のサブセットを選択することと、
前記ターゲットオブジェクトについてウィンドウの前記第1のサブセットのみを探索することと
を実行可能とする命令を備える、C47に記載の電子デバイス。
[C53]
オブジェクト検出を選択的に実施することを実行可能とする前記命令は、
ウィンドウの前記第1のサブセット中の各選択されたウィンドウについて、ウィンドウサイズのサブセットを選択することと、
ウィンドウの前記第1のサブセット中の各ウィンドウについてウィンドウサイズの前記サブセットのみを探索することと
を実行可能とする命令を備える、C52に記載の電子デバイス。
[C54]
選択することは、乱数発生器に基づいてウィンドウの前記第1のサブセットをランダムに選択することを備える、C52に記載の電子デバイス。
[C55]
検出およびトラッキング信頼性値に基づいて、次のビデオフレーム中で前記ターゲットオブジェクトを検出する試みのために探索範囲を狭くすることを実行可能な命令をさらに備える、C47に記載の電子デバイス。
[C56]
命令をその上に有する非一時的コンピュータ可読媒体を備える、ターゲットオブジェクトを検出し、トラッキングするためのコンピュータプログラム製品であって、前記命令は、
電子デバイスに、前のビデオフレームと現在ビデオフレームとを比較することによって前記現在ビデオフレームのための動きベーストラッキングを実施することを行わせるためのコードと、
前記電子デバイスに、トラッキングされたパラメータに基づいて前記現在ビデオフレーム中でオブジェクト検出を選択的に実施することを行わせるためのコードと
を備える、コンピュータプログラム製品。
[C57]
前記トラッキングされたパラメータは、前記ターゲットオブジェクトが前記現在ビデオフレーム中にある可能性に相当するトラッキング信頼性値である、C56に記載のコンピュータプログラム製品。
[C58]
前記電子デバイスに、オブジェクト検出を選択的に実施することを行わせるための前記コードは、前記電子デバイスに、前記トラッキング信頼性値がトラッキングしきい値よりも小さいかまたはそれに等しいとき、前記現在ビデオフレームに対するオブジェクト検出を実施することを行わせるためのコードを備える、C57に記載のコンピュータプログラム製品。
[C59]
前記電子デバイスに、オブジェクト検出を選択的に実施することを行わせるための前記コードは、前記電子デバイスに、前記トラッキング信頼性値がトラッキングしきい値よりも大きいとき、前記現在ビデオフレームに対するオブジェクト検出をスキップすることを行わせるためのコードを備える、C57に記載のコンピュータプログラム製品。
[C60]
前記オブジェクト検出は前記動きベーストラッキングに連続して実施される、C56に記載のコンピュータプログラム製品。
[C61]
前記電子デバイスに、オブジェクト検出を選択的に実施することを行わせるための前記コードは、
前記電子デバイスに、前記前のビデオフレーム中のウィンドウの第1のサブセットを選択することを行わせるためのコードと、
前記電子デバイスに、前記ターゲットオブジェクトについてウィンドウの前記第1のサブセットのみを探索することを行わせるためのコードと
を備える、C56に記載のコンピュータプログラム製品。
[C62]
前記電子デバイスに、オブジェクト検出を選択的に実施することを行わせるための前記コードは、
前記電子デバイスに、ウィンドウの前記第1のサブセット中の各選択されたウィンドウについて、ウィンドウサイズのサブセットを選択することを行わせるためのコードと、
前記電子デバイスに、ウィンドウの前記第1のサブセット中の各ウィンドウについてウィンドウサイズの前記サブセットのみを探索することを行わせるためのコードと
を備える、C61に記載のコンピュータプログラム製品。
[C63]
前記電子デバイスに、選択することを行わせるための前記コードが、前記電子デバイスに、乱数発生器に基づいてウィンドウの前記第1のサブセットをランダムに選択することを行わせるためのコードを備える、C61に記載のコンピュータプログラム製品。
[C64]
前記命令は、前記電子デバイスに、検出およびトラッキング信頼性値に基づいて、次のビデオフレーム中で前記ターゲットオブジェクトを検出する試みのために探索範囲を狭くすることを行わせるためのコードをさらに備える、C56に記載のコンピュータプログラム製品。

Claims (64)

  1. ターゲットオブジェクトを検出し、トラッキングするための方法であって、
    前のビデオフレームと現在ビデオフレームとを比較することによって前記現在ビデオフレームのための動きベーストラッキングを実施することと、
    トラッキングされたパラメータに基づいて前記現在ビデオフレーム中でオブジェクト検出を選択的に実施することと
    を備える、方法。
  2. 前記トラッキングされたパラメータは、前記ターゲットオブジェクトが前記現在ビデオフレーム中にある可能性に相当するトラッキング信頼性値である、請求項1に記載の方法。
  3. オブジェクト検出を選択的に実施することは、前記トラッキング信頼性値がトラッキングしきい値よりも小さいかまたはそれに等しいとき、前記現在ビデオフレームに対するオブジェクト検出を実施することを備える、請求項2に記載の方法。
  4. オブジェクト検出を選択的に実施することは、前記トラッキング信頼性値がトラッキングしきい値よりも大きいとき、前記現在ビデオフレームに対するオブジェクト検出をスキップすることを備える、請求項2に記載の方法。
  5. 前記オブジェクト検出は前記動きベーストラッキングに連続して実施される、請求項1に記載の方法。
  6. 前記トラッキングされたパラメータは領域である、請求項1に記載の方法。
  7. 前記トラッキングされたパラメータはウィンドウロケーションである、請求項1に記載の方法。
  8. 前記トラッキングされたパラメータはウィンドウサイズである、請求項1に記載の方法。
  9. 前記トラッキングされたパラメータはスケールレベルである、請求項1に記載の方法。
  10. 前記ターゲットオブジェクトを定義する入力をタッチスクリーンにおいて受信することをさらに備える、請求項1に記載の方法。
  11. オブジェクト検出を選択的に実施することは、
    前記前のビデオフレーム中のウィンドウの第1のサブセットを選択することと、
    前記ターゲットオブジェクトについてウィンドウの前記第1のサブセットのみを探索することと
    を備える、請求項1に記載の方法。
  12. オブジェクト検出を選択的に実施することは、
    ウィンドウの前記第1のサブセット中の各選択されたウィンドウについて、ウィンドウサイズのサブセットを選択することと、
    ウィンドウの前記第1のサブセット中の各ウィンドウについてウィンドウサイズの前記サブセットのみを探索することと
    をさらに備える、請求項11に記載の方法。
  13. 前記選択することは、乱数発生器に基づいてウィンドウの前記第1のサブセットをランダムに選択することを備える、請求項11に記載の方法。
  14. 前記現在ビデオフレーム中のウィンドウの第2のサブセットを選択することをさらに備え、ここにおいて、ウィンドウの前記第2のサブセットのサイズは、前記ターゲットオブジェクトが前記前のビデオフレーム中で検出されたかどうかに基づく、請求項11に記載の方法。
  15. ウィンドウの前記第1のサブセットからウィンドウの前記第2のサブセットへのサイズの増加は、前記ターゲットオブジェクトが前記前のビデオフレーム中で検出されなかった場合よりも、前記ターゲットオブジェクトが前記前のビデオフレーム中で検出された場合により高い、請求項14に記載の方法。
  16. 後のフレーム中で選択されるウィンドウの割合を増加させることをさらに備える、請求項11に記載の方法。
  17. 選択されるウィンドウの前記割合の増加が一様または非一様である、請求項16に記載の方法。
  18. 選択されるウィンドウの割合は、検出およびトラッキング信頼性値が検出およびトラッキング信頼性しきい値を上回るとき、少なくとも60%である、請求項16に記載の方法。
  19. 前記検出およびトラッキング信頼性しきい値は、0.6、0.65、0.7、0.75、0.8および0.85のうちの1つである、請求項18に記載の方法。
  20. 検出およびトラッキング信頼性値に基づいて、次のビデオフレーム中で前記ターゲットオブジェクトを検出する試みのために探索範囲を狭くすることをさらに備える、請求項1に記載の方法。
  21. 探索範囲を狭くすることは、前記現在ビデオフレームのための前記検出およびトラッキング信頼性値が検出およびトラッキングしきい値よりも大きいとき、低減された探索空間から探索のためのウィンドウロケーションを選択することをさらに備える、請求項20に記載の方法。
  22. 前記現在ビデオフレームのための前記検出およびトラッキング信頼性値は、前記ターゲットオブジェクトが前記現在ビデオフレーム中で検出され、トラッキングされた可能性を示す、0から1の間の実数である、請求項21に記載の方法。
  23. 探索範囲を狭くすることは、前記現在ビデオフレームのための検出およびトラッキング信頼性値が検出およびトラッキングしきい値よりも小さいかまたはそれに等しいとき、探索空間全体から探索のためのウィンドウロケーションを選択することをさらに備える、請求項20に記載の方法。
  24. ターゲットオブジェクトを検出し、トラッキングするための装置であって、
    前のビデオフレームと現在ビデオフレームとを比較することによって前記現在ビデオフレームのための動きベーストラッキングを実施するための手段と、
    トラッキングされたパラメータに基づいて前記現在ビデオフレーム中でオブジェクト検出を選択的に実施するための手段と
    を備える、装置。
  25. 前記トラッキングされたパラメータは、前記ターゲットオブジェクトが前記現在ビデオフレーム中にある可能性に相当するトラッキング信頼性値である、請求項24に記載の装置。
  26. オブジェクト検出を選択的に実施するための前記手段は、前記トラッキング信頼性値がトラッキングしきい値よりも小さいかまたはそれに等しいとき、前記現在ビデオフレームに対するオブジェクト検出を実施するための手段を備える、請求項25に記載の装置。
  27. オブジェクト検出を選択的に実施するための前記手段は、前記トラッキング信頼性値がトラッキングしきい値よりも大きいとき、前記現在ビデオフレームに対するオブジェクト検出をスキップするための手段を備える、請求項25に記載の装置。
  28. 前記オブジェクト検出は前記動きベーストラッキングに連続して実施される、請求項24に記載の装置。
  29. 前記トラッキングされたパラメータは領域である、請求項24に記載の装置。
  30. 前記トラッキングされたパラメータはウィンドウロケーションである、請求項24に記載の装置。
  31. 前記トラッキングされたパラメータはウィンドウサイズである、請求項24に記載の装置。
  32. 前記トラッキングされたパラメータはスケールレベルである、請求項24に記載の装置。
  33. 前記ターゲットオブジェクトを定義する入力をタッチスクリーンにおいて受信するための手段をさらに備える、請求項24に記載の装置。
  34. オブジェクト検出を選択的に実施するための前記手段は、
    前記前のビデオフレーム中のウィンドウの第1のサブセットを選択するための手段と、
    前記ターゲットオブジェクトについてウィンドウの前記第1のサブセットのみを探索するための手段と
    を備える、請求項24に記載の装置。
  35. オブジェクト検出を選択的に実施するための前記手段は、
    ウィンドウの前記第1のサブセット中の各選択されたウィンドウについて、ウィンドウサイズのサブセットを選択するための手段と、
    ウィンドウの前記第1のサブセット中の各ウィンドウについてウィンドウサイズの前記サブセットのみを探索するための手段と
    をさらに備える、請求項34に記載の装置。
  36. 選択するための前記手段は、乱数発生器に基づいてウィンドウの前記第1のサブセットをランダムに選択するための手段を備える、請求項34に記載の装置。
  37. 前記現在ビデオフレーム中のウィンドウの第2のサブセットを選択するための手段をさらに備え、ここにおいて、ウィンドウの前記第2のサブセットのサイズは、前記ターゲットオブジェクトが前記前のビデオフレーム中で検出されたかどうかに基づく、請求項34に記載の装置。
  38. ウィンドウの前記第1のサブセットからウィンドウの前記第2のサブセットへのサイズの増加は、前記ターゲットオブジェクトが前記前のビデオフレーム中で検出されなかった場合よりも、前記ターゲットオブジェクトが前記前のビデオフレーム中で検出された場合により高い、請求項37に記載の装置。
  39. 後のフレーム中で選択されるウィンドウの割合を増加させるための手段をさらに備える、請求項34に記載の装置。
  40. 選択されるウィンドウの前記割合の増加が一様または非一様である、請求項39に記載の装置。
  41. 選択されるウィンドウの割合は、検出およびトラッキング信頼性値が検出およびトラッキング信頼性しきい値を上回るとき、少なくとも60%である、請求項39に記載の装置。
  42. 前記検出およびトラッキング信頼性しきい値は、0.6、0.65、0.7、0.75、0.8および0.85のうちの1つである、請求項41に記載の装置。
  43. 検出およびトラッキング信頼性値に基づいて、次のビデオフレーム中で前記ターゲットオブジェクトを検出する試みのために探索範囲を狭くするための手段をさらに備える、請求項24に記載の装置。
  44. 探索範囲を狭くするための前記手段は、前記現在ビデオフレームのための前記検出およびトラッキング信頼性値が検出およびトラッキングしきい値よりも大きいとき、低減された探索空間から探索のためのウィンドウロケーションを選択するための手段をさらに備える、請求項43に記載の装置。
  45. 前記現在ビデオフレームのための前記検出およびトラッキング信頼性値は、前記ターゲットオブジェクトが前記現在ビデオフレーム中で検出され、トラッキングされた可能性を示す、0から1の間の実数である、請求項44に記載の装置。
  46. 探索範囲を狭くするための前記手段は、前記現在ビデオフレームのための検出およびトラッキング信頼性値が検出およびトラッキングしきい値よりも小さいかまたはそれに等しいとき、探索空間全体から探索のためのウィンドウロケーションを選択するための手段をさらに備える、請求項43に記載の装置。
  47. ターゲットオブジェクトを検出し、トラッキングするための電子デバイスであって、
    プロセッサと、
    前記プロセッサと電子通信しているメモリと、
    メモリに記憶された命令と
    を備え、前記命令は、
    前のビデオフレームと現在ビデオフレームとを比較することによって前記現在ビデオフレームのための動きベーストラッキングを実施することと、
    トラッキングされたパラメータに基づいて前記現在ビデオフレーム中でオブジェクト検出を選択的に実施することと
    を実行可能とする、電子デバイス。
  48. 前記トラッキングされたパラメータは、前記ターゲットオブジェクトが前記現在ビデオフレーム中にある可能性に相当するトラッキング信頼性値である、請求項47に記載の電子デバイス。
  49. オブジェクト検出を選択的に実施することを実行可能とする前記命令は、前記トラッキング信頼性値がトラッキングしきい値よりも小さいかまたはそれに等しいとき、前記現在ビデオフレームに対するオブジェクト検出を実施することを実行可能とする命令を備える、請求項48に記載の電子デバイス。
  50. オブジェクト検出を選択的に実施することを実行可能とする前記命令は、前記トラッキング信頼性値がトラッキングしきい値よりも大きいとき、前記現在ビデオフレームに対するオブジェクト検出をスキップすることを実行可能とする命令を備える、請求項48に記載の電子デバイス。
  51. 前記オブジェクト検出は前記動きベーストラッキングに連続して実施される、請求項47に記載の電子デバイス。
  52. オブジェクト検出を選択的に実施することを実行可能とする前記命令は、
    前記前のビデオフレーム中のウィンドウの第1のサブセットを選択することと、
    前記ターゲットオブジェクトについてウィンドウの前記第1のサブセットのみを探索することと
    を実行可能とする命令を備える、請求項47に記載の電子デバイス。
  53. オブジェクト検出を選択的に実施することを実行可能とする前記命令は、
    ウィンドウの前記第1のサブセット中の各選択されたウィンドウについて、ウィンドウサイズのサブセットを選択することと、
    ウィンドウの前記第1のサブセット中の各ウィンドウについてウィンドウサイズの前記サブセットのみを探索することと
    を実行可能とする命令を備える、請求項52に記載の電子デバイス。
  54. 選択することは、乱数発生器に基づいてウィンドウの前記第1のサブセットをランダムに選択することを備える、請求項52に記載の電子デバイス。
  55. 検出およびトラッキング信頼性値に基づいて、次のビデオフレーム中で前記ターゲットオブジェクトを検出する試みのために探索範囲を狭くすることを実行可能な命令をさらに備える、請求項47に記載の電子デバイス。
  56. 命令をその上に有する非一時的コンピュータ可読媒体を備える、ターゲットオブジェクトを検出し、トラッキングするためのコンピュータプログラム製品であって、前記命令は、
    電子デバイスに、前のビデオフレームと現在ビデオフレームとを比較することによって前記現在ビデオフレームのための動きベーストラッキングを実施することを行わせるためのコードと、
    前記電子デバイスに、トラッキングされたパラメータに基づいて前記現在ビデオフレーム中でオブジェクト検出を選択的に実施することを行わせるためのコードと
    を備える、コンピュータプログラム製品。
  57. 前記トラッキングされたパラメータは、前記ターゲットオブジェクトが前記現在ビデオフレーム中にある可能性に相当するトラッキング信頼性値である、請求項56に記載のコンピュータプログラム製品。
  58. 前記電子デバイスに、オブジェクト検出を選択的に実施することを行わせるための前記コードは、前記電子デバイスに、前記トラッキング信頼性値がトラッキングしきい値よりも小さいかまたはそれに等しいとき、前記現在ビデオフレームに対するオブジェクト検出を実施することを行わせるためのコードを備える、請求項57に記載のコンピュータプログラム製品。
  59. 前記電子デバイスに、オブジェクト検出を選択的に実施することを行わせるための前記コードは、前記電子デバイスに、前記トラッキング信頼性値がトラッキングしきい値よりも大きいとき、前記現在ビデオフレームに対するオブジェクト検出をスキップすることを行わせるためのコードを備える、請求項57に記載のコンピュータプログラム製品。
  60. 前記オブジェクト検出は前記動きベーストラッキングに連続して実施される、請求項56に記載のコンピュータプログラム製品。
  61. 前記電子デバイスに、オブジェクト検出を選択的に実施することを行わせるための前記コードは、
    前記電子デバイスに、前記前のビデオフレーム中のウィンドウの第1のサブセットを選択することを行わせるためのコードと、
    前記電子デバイスに、前記ターゲットオブジェクトについてウィンドウの前記第1のサブセットのみを探索することを行わせるためのコードと
    を備える、請求項56に記載のコンピュータプログラム製品。
  62. 前記電子デバイスに、オブジェクト検出を選択的に実施することを行わせるための前記コードは、
    前記電子デバイスに、ウィンドウの前記第1のサブセット中の各選択されたウィンドウについて、ウィンドウサイズのサブセットを選択することを行わせるためのコードと、
    前記電子デバイスに、ウィンドウの前記第1のサブセット中の各ウィンドウについてウィンドウサイズの前記サブセットのみを探索することを行わせるためのコードと
    を備える、請求項61に記載のコンピュータプログラム製品。
  63. 前記電子デバイスに、選択することを行わせるための前記コードが、前記電子デバイスに、乱数発生器に基づいてウィンドウの前記第1のサブセットをランダムに選択することを行わせるためのコードを備える、請求項61に記載のコンピュータプログラム製品。
  64. 前記命令は、前記電子デバイスに、検出およびトラッキング信頼性値に基づいて、次のビデオフレーム中で前記ターゲットオブジェクトを検出する試みのために探索範囲を狭くすることを行わせるためのコードをさらに備える、請求項56に記載のコンピュータプログラム製品。
JP2015553807A 2013-01-22 2014-01-15 ターゲットオブジェクトをトラッキングし、検出するためのシステムおよび方法 Ceased JP2016507834A (ja)

Applications Claiming Priority (9)

Application Number Priority Date Filing Date Title
US201361755443P 2013-01-22 2013-01-22
US61/755,443 2013-01-22
US201361835391P 2013-06-14 2013-06-14
US201361835385P 2013-06-14 2013-06-14
US61/835,391 2013-06-14
US61/835,385 2013-06-14
US13/951,731 US9852511B2 (en) 2013-01-22 2013-07-26 Systems and methods for tracking and detecting a target object
US13/951,731 2013-07-26
PCT/US2014/011724 WO2014116485A1 (en) 2013-01-22 2014-01-15 Systems and methods for tracking and detecting a target object

Publications (2)

Publication Number Publication Date
JP2016507834A true JP2016507834A (ja) 2016-03-10
JP2016507834A5 JP2016507834A5 (ja) 2017-02-09

Family

ID=51207701

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015553807A Ceased JP2016507834A (ja) 2013-01-22 2014-01-15 ターゲットオブジェクトをトラッキングし、検出するためのシステムおよび方法

Country Status (6)

Country Link
US (1) US9852511B2 (ja)
EP (1) EP2948926A1 (ja)
JP (1) JP2016507834A (ja)
KR (1) KR20150110697A (ja)
CN (1) CN104937638A (ja)
WO (1) WO2014116485A1 (ja)

Families Citing this family (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10638221B2 (en) 2012-11-13 2020-04-28 Adobe Inc. Time interval sound alignment
US9165373B2 (en) 2013-03-11 2015-10-20 Adobe Systems Incorporated Statistics of nearest neighbor fields
US9129399B2 (en) * 2013-03-11 2015-09-08 Adobe Systems Incorporated Optical flow with nearest neighbor field fusion
US9031345B2 (en) 2013-03-11 2015-05-12 Adobe Systems Incorporated Optical flow accounting for image haze
US9025822B2 (en) 2013-03-11 2015-05-05 Adobe Systems Incorporated Spatially coherent nearest neighbor fields
US9342759B1 (en) * 2013-03-14 2016-05-17 Hrl Laboratories, Llc Object recognition consistency improvement using a pseudo-tracklet approach
US9536137B2 (en) 2013-03-26 2017-01-03 Megachips Corporation Object detection apparatus
DE102013227101B3 (de) * 2013-12-23 2015-05-21 Trimble Jena Gmbh Optisches System zur Nachverfolgung eines Ziels
WO2015186341A1 (ja) 2014-06-03 2015-12-10 日本電気株式会社 画像処理システム、画像処理方法及びプログラム記憶媒体
US9646389B2 (en) * 2014-08-26 2017-05-09 Qualcomm Incorporated Systems and methods for image scanning
KR101982258B1 (ko) * 2014-09-19 2019-05-24 삼성전자주식회사 오브젝트 검출 방법 및 오브젝트 검출 장치
US9665804B2 (en) * 2014-11-12 2017-05-30 Qualcomm Incorporated Systems and methods for tracking an object
US9684830B2 (en) * 2014-11-14 2017-06-20 Intel Corporation Automatic target selection for multi-target object tracking
US9449230B2 (en) 2014-11-26 2016-09-20 Zepp Labs, Inc. Fast object tracking framework for sports video recognition
JP2016127377A (ja) * 2014-12-26 2016-07-11 カシオ計算機株式会社 画像処理装置及び画像処理方法、画像再生装置及び画像再生方法、並びにプログラム
JP6655878B2 (ja) * 2015-03-02 2020-03-04 キヤノン株式会社 画像認識方法及び装置、プログラム
US9811732B2 (en) 2015-03-12 2017-11-07 Qualcomm Incorporated Systems and methods for object tracking
EP3280976B1 (en) 2015-04-10 2019-11-20 Robert Bosch GmbH Object position measurement with automotive camera using vehicle motion data
US9703175B2 (en) 2015-07-02 2017-07-11 Qualcomm Incorporated Systems and methods for autofocus trigger
US10586102B2 (en) * 2015-08-18 2020-03-10 Qualcomm Incorporated Systems and methods for object tracking
CN105608711A (zh) * 2016-01-18 2016-05-25 华东理工大学 基于局部敏感直方图的视频动态目标追踪提取方法
US9910247B2 (en) * 2016-01-21 2018-03-06 Qualcomm Incorporated Focus hunting prevention for phase detection auto focus (AF)
CN106056102A (zh) * 2016-07-01 2016-10-26 哈尔滨工业大学 基于视频图像分析的道路车型分类方法
US10115005B2 (en) 2016-08-12 2018-10-30 Qualcomm Incorporated Methods and systems of updating motion models for object trackers in video analytics
JP6776719B2 (ja) * 2016-08-17 2020-10-28 富士通株式会社 移動体群検出プログラム、移動体群検出装置、及び移動体群検出方法
CN107818573B (zh) * 2016-09-12 2020-10-02 杭州海康威视数字技术股份有限公司 一种目标跟踪方法及装置
CN106650668A (zh) * 2016-12-27 2017-05-10 上海葡萄纬度科技有限公司 一种实时检测可移动目标物的方法及***
US10671881B2 (en) 2017-04-11 2020-06-02 Microsoft Technology Licensing, Llc Image processing system with discriminative control
KR101877232B1 (ko) * 2017-05-29 2018-07-12 국방과학연구소 영상 유사도 및 추적 지점 변화량 기반의 영상 추적기 시스템 및 그의 추적 안정도 판별 방법
CN108537822B (zh) * 2017-12-29 2020-04-21 西安电子科技大学 基于加权置信度估计的运动目标跟踪方法
CN108447080B (zh) * 2018-03-02 2023-05-23 哈尔滨工业大学深圳研究生院 基于分层数据关联和卷积神经网络的目标跟踪方法、***和存储介质
WO2020070792A1 (ja) * 2018-10-02 2020-04-09 日本電気株式会社 船舶検出システム、方法およびプログラム
KR102031503B1 (ko) * 2018-11-23 2019-11-08 유니셈(주) 다중 객체 검출 시스템 및 방법
US10829114B2 (en) 2019-02-06 2020-11-10 Ford Global Technologies, Llc Vehicle target tracking
JP7184161B2 (ja) * 2019-03-27 2022-12-06 日本電気株式会社 物体追跡装置、制御方法、及びプログラム
CN111836102B (zh) * 2019-04-23 2023-03-24 杭州海康威视数字技术股份有限公司 视频帧的分析方法和装置
EP3739503B1 (en) * 2019-05-14 2023-10-25 Nokia Technologies Oy Video processing
EP3750842B1 (de) 2019-06-11 2021-10-20 Siemens Aktiengesellschaft Verladen einer last mit einem kransystem
EP4066087A1 (fr) 2019-11-03 2022-10-05 ST37 Sport et Technologie Procede et systeme de caracterisation d'un mouvement d'une entite en mouvement
KR102261881B1 (ko) * 2019-11-29 2021-06-04 연세대학교 산학협력단 스킵 코드를 이용한 효율적인 객체 검출 방법 및 장치
CN111028346B (zh) * 2019-12-23 2023-10-10 北京奇艺世纪科技有限公司 一种视频对象的重建方法和装置
CN113066101A (zh) * 2019-12-30 2021-07-02 阿里巴巴集团控股有限公司 数据处理方法及装置、图像处理方法及装置
CN111401228B (zh) * 2020-03-13 2023-12-19 中科创达软件股份有限公司 视频目标标注方法、装置及电子设备
CN111401229B (zh) * 2020-03-13 2023-09-19 中科创达软件股份有限公司 视觉小目标自动标注方法、装置及电子设备
CN111479062B (zh) * 2020-04-15 2021-09-28 上海摩象网络科技有限公司 目标对象的跟踪框显示方法、设备及手持相机
CN111667504B (zh) * 2020-04-23 2023-06-20 广州多益网络股份有限公司 一种人脸追踪方法、装置及设备
CN113727009B (zh) * 2020-05-25 2022-11-08 杭州海康威视数字技术股份有限公司 跟踪显示方法、装置和存储介质
CN111543926B (zh) * 2020-06-12 2024-01-12 王冬 一种胸腹腔镜擦拭器械
CN113934291A (zh) * 2020-07-13 2022-01-14 华为技术有限公司 一种运动参数获取方法及装置、电子设备、存储介质
CN111951296B (zh) * 2020-08-28 2022-07-08 福州大学 一种目标跟踪方法及装置
CN112333539B (zh) * 2020-10-21 2022-04-15 清华大学 移动通信网络下的视频实时目标检测方法、终端及服务器
CN112561956B (zh) * 2020-11-25 2023-04-28 中移(杭州)信息技术有限公司 视频目标跟踪方法、装置、电子设备及存储介质
CN113808159A (zh) * 2021-01-04 2021-12-17 北京沃东天骏信息技术有限公司 一种目标跟踪方法和装置
CN113298852A (zh) * 2021-07-27 2021-08-24 第六镜科技(北京)有限公司 目标跟踪方法、装置、电子设备及计算机可读存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007183256A (ja) * 2005-12-08 2007-07-19 Topcon Corp 画像処理装置及びその方法
JP2009253505A (ja) * 2008-04-03 2009-10-29 Sony Corp 画像信号処理装置、画像信号処理方法、およびプログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5594469A (en) * 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
AUPR676201A0 (en) 2001-08-01 2001-08-23 Canon Kabushiki Kaisha Video feature tracking with loss-of-track detection
US20050196015A1 (en) * 2004-03-02 2005-09-08 Trw Automotive U.S. Llc Method and apparatus for tracking head candidate locations in an actuatable occupant restraining system
JP4274233B2 (ja) 2006-11-30 2009-06-03 ソニー株式会社 撮影装置、画像処理装置、および、これらにおける画像処理方法ならびに当該方法をコンピュータに実行させるプログラム
KR101247147B1 (ko) * 2007-03-05 2013-03-29 디지털옵틱스 코포레이션 유럽 리미티드 디지털 영상 획득 장치에서의 얼굴 탐색 및 검출
US7756296B2 (en) * 2007-03-27 2010-07-13 Mitsubishi Electric Research Laboratories, Inc. Method for tracking objects in videos using forward and backward tracking
CN101163280B (zh) 2007-11-26 2012-01-04 中国联合网络通信集团有限公司 一种实现虚拟网互通的***及方法
JP2010039788A (ja) * 2008-08-05 2010-02-18 Toshiba Corp 画像処理装置及びその方法並びに画像処理プログラム
MX2012009579A (es) 2010-02-19 2012-10-01 Toshiba Kk Sistema de rastreo de objetos en movimiento y metodo de rastreo de objetos en movimiento.
US8280112B2 (en) 2010-03-31 2012-10-02 Disney Enterprises, Inc. System and method for predicting object location
WO2011161307A1 (en) 2010-06-23 2011-12-29 Nokia Corporation Method, apparatus and computer program product for tracking face portion
JP2012203613A (ja) 2011-03-25 2012-10-22 Sony Corp 画像処理装置および方法、記録媒体並びにプログラム
US9785861B2 (en) 2011-08-10 2017-10-10 Umoove Services Ltd. Method for optimizing size and position of a search window of a tracking system
JP5886616B2 (ja) * 2011-11-30 2016-03-16 キヤノン株式会社 物体検出装置、物体検出装置の制御方法、およびプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007183256A (ja) * 2005-12-08 2007-07-19 Topcon Corp 画像処理装置及びその方法
JP2009253505A (ja) * 2008-04-03 2009-10-29 Sony Corp 画像信号処理装置、画像信号処理方法、およびプログラム

Also Published As

Publication number Publication date
KR20150110697A (ko) 2015-10-02
US20140205141A1 (en) 2014-07-24
EP2948926A1 (en) 2015-12-02
CN104937638A (zh) 2015-09-23
US9852511B2 (en) 2017-12-26
WO2014116485A1 (en) 2014-07-31

Similar Documents

Publication Publication Date Title
US11538232B2 (en) Tracker assisted image capture
JP2016507834A (ja) ターゲットオブジェクトをトラッキングし、検出するためのシステムおよび方法
CN107851318B (zh) 用于对象跟踪的***和方法
US9811732B2 (en) Systems and methods for object tracking
CN109035304B (zh) 目标跟踪方法、介质、计算设备和装置
EP3186780B1 (en) System and method for image scanning
KR20180056685A (ko) 비 장애물 영역 검출을 위한 시스템 및 방법
CN106331723B (zh) 一种基于运动区域分割的视频帧率上变换方法及***
US10600190B2 (en) Object detection and tracking method and system for a video
KR101885839B1 (ko) 객체추적을 위한 특징점 선별 장치 및 방법
CN110766725B (zh) 模板图像的更新、目标跟踪方法及装置、电子设备及介质
US20220366691A1 (en) Object detection
CN104933688B (zh) 一种数据处理方法及电子设备
CN113838097A (zh) 摄像机镜头角度偏离检测方法、装置及存储介质
JP2016504698A (ja) 画像を処理するためのシステムおよび方法
JP5643147B2 (ja) 動きベクトル検出装置、動きベクトル検出方法及び動きベクトル検出プログラム
CN117576167B (zh) 多目标跟踪方法、多目标跟踪装置及计算机存储介质

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161219

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180116

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180328

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180417

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180612

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180626

A045 Written measure of dismissal of application

Free format text: JAPANESE INTERMEDIATE CODE: A045

Effective date: 20181030