JP7253441B2 - 追跡装置及び情報処理プログラム - Google Patents
追跡装置及び情報処理プログラム Download PDFInfo
- Publication number
- JP7253441B2 JP7253441B2 JP2019089209A JP2019089209A JP7253441B2 JP 7253441 B2 JP7253441 B2 JP 7253441B2 JP 2019089209 A JP2019089209 A JP 2019089209A JP 2019089209 A JP2019089209 A JP 2019089209A JP 7253441 B2 JP7253441 B2 JP 7253441B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- tracking
- determined
- processor
- determination
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/292—Multi-camera tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/50—Network services
- H04L67/535—Tracking the activity of the user
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/029—Location-based management or tracking services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
- Alarm Systems (AREA)
- Studio Devices (AREA)
Description
しかしながら、カメラで撮影された画像は、カメラから人物までの距離の情報をほとんど含んでおらず、その情報を考慮しない追跡となっていた。このため、人物の移動軌跡を詳細に検出するには至っていなかった。
このような事情から、人物等の対象物の移動をより高精度に追跡できることが望まれていた。
図1は実施形態に係る追跡装置1の要部回路構成を示すブロック図である。
追跡装置1は、店舗100の売場101を撮影するように設けられた複数のインテリジェントカメラ102による人物103の検出結果に基づいて、当該人物103の売場101での行動を追跡する。
プロセッサ11は、上記コンピュータの中枢部分に相当する。プロセッサ11は、オペレーティングシステム、ミドルウェア及びアプリケーションプログラム等の情報処理プログラムに従って、追跡装置1としての各種の機能を実現するための情報処理を実行する。
伝送路15は、アドレスバス、データバス及び制御信号線等を含み、接続されている各部の間で授受されるデータや制御信号を伝送する。
プロセッサ11は、人物103の追跡を行うべき状態にあるときには、メインメモリ12又は補助記憶ユニット13に記憶された情報処理プログラムに従って、以下に説明する情報処理(以下、追跡処理と称する)を行う。なおプロセッサ11は、追跡処理を、複数のインテリジェントカメラ102のそれぞれに関して個別に実行する。
ACT1としてプロセッサ11は、メインメモリ12又は補助記憶ユニット13に記憶される追跡データを初期化する。追跡データは、一人の人物103に関連付けられ、その人物103についての1つのインテリジェントカメラ102での検出結果に基づいて判定される位置の経時変化を表す。
図3に示すように追跡データは、フィールドF1,F2,F3,F4を含む。また追跡データは、フィールドF5以降のフィールドを含む場合もある。
フィールドF1には、当該追跡データが関連付けられた人物103を後述する追跡処理の対象者として識別するための対象者コードがセットされる。フィールドF2には、位置判定に用いられたインテリジェントカメラ102を識別するためのカメラコードがセットされる。フィールドF3には、位置を判定した時刻を表す時刻データがセットされる。フィールドF4には、フィールドF3にセットされた時刻データが表す判定時刻における対象者の位置を表す位置データがセットされる。かくして追跡データは、フィールドF3,F4の2つのフィールドが一組となって、1つの位置の判定結果を表す。フィールドF5以降には、2つ一組のフィールドが追加され得る。そして一組の2つのフィールドには、フィールドF 3,F4と同様に、時刻データ及び位置データがセットされる。
プロセッサ11は、ACT11においては例えば、予め定められたルールに従って、他の追跡データのフィールドF1にセットされている対象コードとは異なるように対象者コードを選定し、フィールドF1にセットする。またプロセッサ11は、インテリジェントカメラ102のうちの1つに予め割り当てられているカメラコードをフィールドF2にセットする。そしてプロセッサ11は、フィールドF3以降をクリアする。
図4はインテリジェントカメラ102における認識エリアの判定の様子を示す図である。
一例としてインテリジェントカメラ102は、動画のフレームFR1の中で人物103の頭部として認識した領域を内包する矩形のエリアを認識エリアAR1とする。そしてインテリジェントカメラ102は、フレームFR1の左上の角を原点PO1とする2次元座標系における認識エリアAR1の左上の角の位置PO2を表すX座標及びY座標と、認識エリアのX方向のドット数(以下、Xサイズと称する)AX1及びY方向のドット数(以下、Yサイズと称する)AY1とを含んだデータを領域データとする。なお、一例としてインテリジェントカメラ102は、X座標及びY座標を、原点PO1からの左方向及び下方向へのドット数LX1,LY1として表す。また一例としてインテリジェントカメラ102は、認識エリアを判定した時刻を表す時刻データを検出データに含める。
ACT3としてプロセッサ11は、検出データに含まれた領域データで特定される領域の中心を人物103が検出された検出位置として判定する。プロセッサ11は例えば、図4に示す認識エリアAR1に関しては、
CX1=(LX1+AX1/2)
CY1=(LY1+AY1/2)
として求まるCX1,CY1をX座標及びY座標とする位置を検出位置として判定する。
図5は図4のように判定された認識エリアAR1に対して判定した検出位置PO3を示す図である。なお、検出位置は、認識エリアに対して予め定められた関係を持った位置であればよい。例えば、位置PO2をそのまま検出位置としてもよい。
ここでインテリジェントカメラ102は、内蔵する光学系により、2次元に配列された多数の撮像素子のうちの中央に位置する撮像素子に撮影中心方向から到来する光を入射し、その周りの撮像素子に撮影中心方向とは別のそれぞれ異なる方向から到来する光を入射することで、ある程度の画角をもって撮影するものとなっている。このため、検出位置PO3のフレームFR1の中心位置PO4との距離が大きい程、撮影中心方向と検出位置PO3の方向とがなす角度が大きくなる。そして当該距離と当該角度の大きさとの関係は、インテリジェントカメラ102の光学的な特性によって定まっている。
X1=DI1・sinθV2・cosθH2+X2
Y1=DI1・sinθV2・sinθH2+Y2
Z1=DI1・cosθV2+Z2
かくして情報処理プログラムに基づく情報処理をプロセッサ11が実行することによって、プロセッサ11を中枢部分とするコンピュータは第1の位置判定手段として機能する。
√{(X1c-X1p)2+(Y1c-Y1p)2+(Z1c-Z1p)2}/ΔT
つまり、この例で求める移動速度は、連続する2回の位置判定で判定される2つの検出位置の間を人物103が移動した際の平均の移動速度である。
つまり、今回の検出位置PO3に関して測定された距離を用いず、代わりに前回測定された距離を用いる。そして、今回の検出位置PO3に関して判定した上下角θV2及び方位角θH2はそのまま用いる。これは、上下角θV2及び方位角θH2が、人物が実際に動画に映り込んだ位置に基づくために精度が高いのに対して、ステレオカメラ方式及びToF方式による距離測定は、条件により誤差が大きくなることがあるためである。このため、移動速度が異常となる原因は、距離の誤測定である確率が高いのであり、このような誤測定の結果である可能性の高い距離を用いないことによって、追跡の精度を向上できる可能性がある。
ACT11としてプロセッサ11は、追跡データを更新する。プロセッサ11は例えば、今回の検出データに含まれた時刻データをセットしたフィールドと、ACT10を実行した場合にはACT10にて得たグローバル座標を、またACT10をパスした場合にはACT6で得たグローバル座標を、位置データとしてセットしたフィールドとを含むように追跡データを更新する。かくして情報処理プログラムに基づく情報処理をプロセッサ11が実行することによって、プロセッサ11を中枢部分とするコンピュータは追跡データを生成する生成手段として機能する。
ACT12としてプロセッサ11は、ACT3を前回実行した際に判定した検出位置PO3が辺縁領域内であるか否かを確認する。辺縁領域は、図4に示すようにフレームFR1の変縁部に予め定められた領域である。そしてプロセッサ11は、前回の検出位置PO3が辺縁領域外であったならばNOと判定し、そのままACT2に戻る。つまりプロセッサ11はACT2及びACT12としては、前回の検出位置PO3が辺縁領域外であるならば、単に検出データが取り込まれるのを待ち受ける。
ACT13としてプロセッサ11は、検出データが取り込まれない状態で制限時間が経過したか否かを確認する。そしてプロセッサ11は、制限時間が経過していないならばNOと判定し、そのままACT2に戻る。かくしてプロセッサ11は、前回の検出位置PO3が辺縁領域内であったならば、検出データが取り込まれるか、あるいは制限時間が経過するのを待ち受ける。そしてプロセッサ11は、検出データが取り込まれない状態のまま予め定められた制限時間が経過したならば、ACT13にてNOと判定し、ACT14へと進む。
図6はプロセッサ11による補正処理のフローチャートである。
√{(X1A-X1B)2+(Y1A-Y1B)2+(Z1A-Z1B)2}
図7における検出位置PO3-A及び第2の検出位置PO3-Bはいずれも、認識エリアAR1-A,AR1-Bが頭部に対してずれて判定されているために、理想的な検出位置PO3-Iからずれている。
図8は互いにすれ違う2人の人物103-A,103-Bに関して2つのインテリジェントカメラ102で判定された検出位置の違いの一例を表す図である。なお、2つのインテリジェントカメラ102は、別々の方向から人物103-A、103-Bをそれぞれ撮影するのであるが、図8は便宜的に同一の条件で設置されたインテリジェントカメラ102から人物103-A,103-Bを撮影した場合の検出位置PO3-A,PO3-Bの違いを表している。
図8に示すように、別々の2人の人物103に関してはそもそも別々の位置に存在しており、頭部どうしは通常は十分に離れているので、検出位置PO3-A,PO3-Bは互いに大きく離れる。
ACT23としてプロセッサ11は、上記の判定した距離が予め定められた誤差範囲内であるか否かを確認する。なお、誤差範囲は、インテリジェントカメラ102の性能などを考慮して、適宜に定められればよい。そしてプロセッサ11は、誤差範囲内であるためにYESと判定したならば、ACT24へと進む。
X1=X1S+(X1L-X1S)/2
Y1=Y1S+(Y1L-Y1S)/2
Z1=Z1S+(Z1L-Z1S)/2
ACT27としてプロセッサ11は、第1及び第2の追跡データのそれぞれのフィールドF1にセットされた対象者コードを一致させる。プロセッサ11は例えば、第1及び第2の追跡データの一方のフィールドF1にセットされた対象者コードを、他方のフィールドF1にセットされた対象者コードに変更する。より具体的にはプロセッサ11は例えば、フィールドF3にセットされた時刻データがより新しい時刻を表す追跡データのフィールドF1にセットされている対象者コードを、他方の追跡データのフィールドF1にセットされている対象者コードに書き替える。あるいはプロセッサ11は、第1及び第2の追跡データのそれぞれのフィールドF1に、第1及び第2の追跡データを含む全ての追跡データのフィールドF1にセットされている対象者コードとは異なる新しい対象者コードをセットしてもよい。
図9はインテリジェントカメラ102による撮影範囲の形成状況の一例を模式的に示す平面図である。
図9では図1に示すグローバル座標系におけるXY平面を表す。そして図9は、4つのインテリジェントカメラ102により売場101を撮影する例である。なおここでは、4つのインテリジェントカメラ102の区別を容易とするために、符号として102A,102B,102C,102Dを用いることとする。
図10は追跡領域の形成状況を表す図である。
追跡領域AR11は、インテリジェントカメラ102A,102Cを用いる追跡領域である。追跡領域AR12は、インテリジェントカメラ102B,102Cを用いる追跡領域である。追跡領域AR13は、インテリジェントカメラ102A,102Dを用いる追跡領域である。追跡領域AR14は、インテリジェントカメラ102B,102Dを用いる追跡領域である。
インテリジェントカメラ102Aに関する追跡処理にてプロセッサ11は、図11に示す追跡データTD11を生成している。この例では、対象者コードは「OB11」とされている。またインテリジェントカメラ102Aのカメラコードは「CA1」である。人物103の位置は座標(X1、Y1,Z1)であるが、誤差を含んで座標(X11,Y11,Z11)と判定されている。時刻TI1における位置の判定は、インテリジェントカメラ102Aに関する追跡処理での最初の判定であるため、座標(X11,Y11,Z11)はフィールドF4にセットされている。
追跡データTD12,TD22においては、それぞれのフィールドF4が、座標(X11,Y11,Z11)と座標(X12,Y12,Z12)との中間的な位置としての座標(X13,Y13,Z13)に変更されている。また追跡データTD22のフィールドF1は、追跡データTD12のフィールドF1にセットされている対象者コードである「OB11」に変更されている。
このため、時刻TI2に関しては、インテリジェントカメラ102Cに関する追跡処理及びインテリジェントカメラ102Bに関する追跡処理によってそれぞれの追跡処理に関する追跡データに位置の判定結果が追加される。
インテリジェントカメラ102Cに関する追跡処理にてプロセッサ11は、人物103の移動に伴って、図11に示す追跡データTD22に更に複数組のフィールドを追加しており、その最後の2つのフィールドFm,Fnに、時刻TI2を表す時刻データと、時刻TI2に関して判定した座標とをセットして、追跡データTD23としている。時刻TI2における人物103の位置は座標(X2、Y2,Z2)であるが、誤差を含んで座標(X21,Y21,Z21)と判定されている。
追跡データTD24においてはフィールドFnが、また追跡データTD32においてはフィールドF4が、座標(X21,Y21,Z21)と座標(X22,Y22,Z22)との中間的な位置としての座標(X23,Y23,Z23)に変更されている。また追跡データTD32のフィールドF1は、追跡データTD24のフィールドF1にセットされている対象者コードである「OB11」に変更されている。
さらに、2つのインテリジェントカメラ102により同一の人物103が同時に検出された場合には、2つの検出データから第1の実施形態の情報処理によりそれぞれ判定した2つのグローバル座標を考慮して追跡データを補正する。かくして、上記のように精度よく判定しても残る誤差を補償して、より精度のよい位置判定が行える。
なお、別々の人物103の位置が同時に判定される場合には、それぞれの人物103に関しての追跡データの補正は行われず、対象者コードの統一もなされないため、それら複数の追跡データに基づいて、当該の別々の人物103の個別の行動を識別できる。
このようにして、複数のインテリジェントカメラ102を用いて同時に判定された複数の位置が、いずれも同一の人物103に関するか、それとも別々の複数の人物103に関するかを管理可能となる。つまり、複数の追跡データは、同時刻に関して誤差範囲内として判定された複数の位置の判定結果に基づいて当該時刻における同一の対象物に関する位置を判定し、かつ同時刻に関して誤差範囲外として判定された複数の位置の判定結果に基づいて当該時刻におけるそれぞれ別々の対象物に関する位置を判定した結果を表していることになる。かくして情報処理プログラムに基づく情報処理をプロセッサ11が実行することによって、プロセッサ11を中枢部分とするコンピュータは第2の位置判定手段として機能していることになる。
図6中のACT24及びACT25は、省略してもよい。
(1) 第1及び第2の追跡データのそれぞれのフィールドF1にセットされた対象者コードを互いに関連付けて表した管理データを生成してもよい。
(2) 第1の追跡データのフィールドF1にセットされた対象者コードをセットした新たなフィールドを第2の追跡データに追加し、第2の追跡データのフィールドF1にセットされた対象者コードをセットした新たなフィールドを第1の追跡データに追加してもよい。
Claims (6)
- 施設内での設置位置及び撮影中心方向がそれぞれ既知である複数のカメラから、当該カメラによる撮影画像内で対象物が映り込んでいる領域を特定する領域データと、予め定められた基準位置から前記対象物までの距離を特定する距離データとをそれぞれ取得する取得手段と、
前記取得手段により取得された前記領域データに基づいて、前記カメラからの前記対象物の方向と前記撮影中心方向とのずれ量を判定する処理を、前記複数のカメラのそれぞれに関して行う向き判定手段と、
前記カメラの設置位置及び撮影中心方向と、前記向き判定手段により判定された前記ずれ量と、前記取得手段により取得された前記距離データとに基づいて、前記対象物の前記施設内での位置を判定する処理を、前記複数のカメラのそれぞれに関して行う第1の位置判定手段と、
前記第1の位置判定手段により同時刻に関して予め定められた誤差範囲内として判定された複数の位置の判定結果に基づいて当該時刻における同一の対象物に関する位置を判定し、前記第1の位置判定手段により同時刻に関して予め定められた誤差範囲外として判定された複数の位置の判定結果に基づいて当該時刻におけるそれぞれ別々の対象物に関する位置を判定する第2の位置判定手段と、
を具備した追跡装置。 - 前記第2の位置判定手段による判定結果を時系列に表した追跡データを生成する生成手段、
をさらに備える請求項1に記載の追跡装置。 - 前記第1の位置判定手段は、前記施設内に定められた3次元座標系における座標として、前記対象物としての人物の頭部の位置を判定する、
請求項1又は請求項2に記載の追跡装置。 - 前記距離データが異常であることを検出する検出手段、
をさらに備え、
前記第1の位置判定手段は、前記検出手段により異常があることが検出された前記距離データに基づかずに、当該距離データとともに前記取得手段により取得された前記領域データに基づいて前記向き判定手段により判定されたずれ量に基づく位置の判定を行う
請求項1乃至請求項3のいずれか一項に記載の追跡装置。 - 前記取得手段は、複数の前記カメラから前記領域データと前記距離データとを取得し、
前記向き判定手段は、前記取得手段により複数の前記領域データのそれぞれに基づいて複数の前記ずれ量を判定し、
前記第1の位置判定手段は、前記複数のカメラのそれぞれの設置位置及び撮影中心方向と、前記向き判定手段により判定された複数の前記ずれ量と、前記取得手段により取得された前記複数の距離データとに基づいて、前記対象物の位置を複数判定し、さらにこれら複数の位置の中間的な位置として前記対象物の前記施設内での位置を判定する、
請求項1乃至請求項4のいずれか一項に記載の追跡装置。 - 追跡装置に備えられたコンピュータを、
施設内での設置位置及び撮影中心方向がそれぞれ既知である複数のカメラから、当該カメラによる撮影画像内で対象物が映り込んでいる領域を特定する領域データと、予め定められた基準位置から前記対象物までの距離を特定する距離データとをそれぞれ取得する取得手段と、
前記取得手段により取得された前記領域データに基づいて、前記カメラからの前記対象物の方向と前記撮影中心方向とのずれ量を判定する処理を、前記複数のカメラのそれぞれに関して行う向き判定手段と、
前記カメラの設置位置及び撮影中心方向と、前記向き判定手段により判定された前記ずれ量と、前記取得手段により取得された前記距離データとに基づいて、前記対象物の前記施設内での位置を判定する処理を、前記複数のカメラのそれぞれに関して行う第1の位置判定手段と、
前記第1の位置判定手段により同時刻に関して予め定められた誤差範囲内として判定された複数の位置の判定結果に基づいて当該時刻における同一の対象物に関する位置を判定し、前記第1の位置判定手段により同時刻に関して予め定められた誤差範囲外として判定された複数の位置の判定結果に基づいて当該時刻におけるそれぞれ別々の対象物に関する位置を判定する第2の位置判定手段と、
して機能させるための情報処理プログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019089209A JP7253441B2 (ja) | 2019-05-09 | 2019-05-09 | 追跡装置及び情報処理プログラム |
US16/813,667 US11228654B2 (en) | 2019-05-09 | 2020-03-09 | Tracking device, tracking method, and tracking system |
CN202010175798.9A CN111915656A (zh) | 2019-05-09 | 2020-03-13 | 追踪装置及信息处理方法、可读存储介质、电子设备 |
EP20169189.6A EP3736734A1 (en) | 2019-05-09 | 2020-04-10 | Tracking device, tracking method and tracking system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019089209A JP7253441B2 (ja) | 2019-05-09 | 2019-05-09 | 追跡装置及び情報処理プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020184733A JP2020184733A (ja) | 2020-11-12 |
JP7253441B2 true JP7253441B2 (ja) | 2023-04-06 |
Family
ID=70285580
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019089209A Active JP7253441B2 (ja) | 2019-05-09 | 2019-05-09 | 追跡装置及び情報処理プログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US11228654B2 (ja) |
EP (1) | EP3736734A1 (ja) |
JP (1) | JP7253441B2 (ja) |
CN (1) | CN111915656A (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7115502B2 (ja) | 2020-03-23 | 2022-08-09 | トヨタ自動車株式会社 | 物体状態識別装置、物体状態識別方法及び物体状態識別用コンピュータプログラムならびに制御装置 |
JP7388971B2 (ja) | 2020-04-06 | 2023-11-29 | トヨタ自動車株式会社 | 車両制御装置、車両制御方法及び車両制御用コンピュータプログラム |
JP7359735B2 (ja) * | 2020-04-06 | 2023-10-11 | トヨタ自動車株式会社 | 物体状態識別装置、物体状態識別方法及び物体状態識別用コンピュータプログラムならびに制御装置 |
CN113518214B (zh) * | 2021-05-25 | 2022-03-15 | 上海哔哩哔哩科技有限公司 | 全景视频数据处理方法及装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011217229A (ja) | 2010-04-01 | 2011-10-27 | Victor Co Of Japan Ltd | 撮像装置および表示方法 |
US20140064560A1 (en) | 2007-07-03 | 2014-03-06 | Pivotal Vision, Llc | Motion-validating remote monitoring system |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004297478A (ja) | 2003-03-27 | 2004-10-21 | Fuji Photo Film Co Ltd | デジタルカメラ |
JP4677737B2 (ja) | 2004-06-01 | 2011-04-27 | 沖電気工業株式会社 | 防犯支援システム |
JP5158386B2 (ja) * | 2010-06-22 | 2013-03-06 | 株式会社アイティーティー | 単一カメラによる画像計測処理装置,画像計測処理方法および画像計測処理プログラム |
JP5727969B2 (ja) * | 2012-06-15 | 2015-06-03 | 株式会社東芝 | 位置推定装置、方法、及びプログラム |
KR20160091316A (ko) | 2013-11-27 | 2016-08-02 | 울트라덴트 프로덕츠, 인코포레이티드 | 물리적 위치들 간 비디오 대화 |
JP6668942B2 (ja) | 2016-05-23 | 2020-03-18 | 富士通株式会社 | 撮影制御装置、プログラム及び方法 |
CN107168520B (zh) * | 2017-04-07 | 2020-12-18 | 北京小鸟看看科技有限公司 | 基于单目摄像头的追踪方法、vr设备和vr头戴设备 |
US11765323B2 (en) | 2017-05-26 | 2023-09-19 | Calumino Pty Ltd. | Apparatus and method of location determination in a thermal imaging system |
JP6734994B2 (ja) * | 2017-06-23 | 2020-08-05 | 株式会社日立製作所 | ステレオ計測装置及びシステム |
CN107588777B (zh) | 2017-09-27 | 2020-01-17 | 京东方科技集团股份有限公司 | 室内定位*** |
-
2019
- 2019-05-09 JP JP2019089209A patent/JP7253441B2/ja active Active
-
2020
- 2020-03-09 US US16/813,667 patent/US11228654B2/en active Active
- 2020-03-13 CN CN202010175798.9A patent/CN111915656A/zh active Pending
- 2020-04-10 EP EP20169189.6A patent/EP3736734A1/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140064560A1 (en) | 2007-07-03 | 2014-03-06 | Pivotal Vision, Llc | Motion-validating remote monitoring system |
JP2011217229A (ja) | 2010-04-01 | 2011-10-27 | Victor Co Of Japan Ltd | 撮像装置および表示方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111915656A (zh) | 2020-11-10 |
JP2020184733A (ja) | 2020-11-12 |
EP3736734A1 (en) | 2020-11-11 |
US20200358863A1 (en) | 2020-11-12 |
US11228654B2 (en) | 2022-01-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7253441B2 (ja) | 追跡装置及び情報処理プログラム | |
CN110807350B (zh) | 用于面向扫描匹配的视觉slam的***和方法 | |
US10542219B2 (en) | Information collecting apparatus, information collecting system and information collecting method | |
US7496471B2 (en) | Surveying apparatus and method of analyzing measuring data | |
WO2018142900A1 (ja) | 情報処理装置、データ管理装置、データ管理システム、方法、及びプログラム | |
US11143511B2 (en) | On-vehicle processing device | |
US20220012509A1 (en) | Overhead-view image generation device, overhead-view image generation system, and automatic parking device | |
US10499038B2 (en) | Method and system for recalibrating sensing devices without familiar targets | |
KR20110122022A (ko) | 지도 생성 장치 및 방법 | |
JP5205366B2 (ja) | 移動可能領域抽出装置、移動可能領域抽出システム、移動可能領域抽出方法、およびプログラム | |
JP6217373B2 (ja) | 動作判定方法、動作判定装置および動作判定プログラム | |
US9091821B2 (en) | Device and method of focusing on points of objects | |
JP5445069B2 (ja) | 3次元位置計測装置および3次元位置計測方法 | |
JP7253440B2 (ja) | 追跡装置及び情報処理プログラム | |
US11039114B2 (en) | Method for determining distance information from images of a spatial region | |
US20220292713A1 (en) | Information processing apparatus, information processing method, and storage medium | |
WO2020021596A1 (ja) | 車両位置推定装置および車両位置推定方法 | |
KR102555269B1 (ko) | 전방향 영상센서 및 관성측정센서의 자세추정 융합 방법 및 시스템 | |
CN113343907B (zh) | 障碍物检测方法、障碍物检测模组及自移动设备 | |
US20240206729A1 (en) | Reflexive eye movement evaluation device, reflexive eye movement evaluation system, and reflexive eye movement evaluation method | |
JP7409163B2 (ja) | 定置センサ較正装置、および、定置センサ較正方法 | |
JP2019020218A (ja) | データ間引き装置、測量装置、測量システム及びデータ間引き方法 | |
CN115661055A (zh) | 一种物体尺寸测量方法、装置、***及可读存储介质 | |
CN117519164A (zh) | 可移动机器人的导航方法及可移动机器人 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220422 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20230104 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230215 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230228 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230327 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7253441 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |