JP2009089365A - 物体追跡の方法 - Google Patents

物体追跡の方法 Download PDF

Info

Publication number
JP2009089365A
JP2009089365A JP2008216178A JP2008216178A JP2009089365A JP 2009089365 A JP2009089365 A JP 2009089365A JP 2008216178 A JP2008216178 A JP 2008216178A JP 2008216178 A JP2008216178 A JP 2008216178A JP 2009089365 A JP2009089365 A JP 2009089365A
Authority
JP
Japan
Prior art keywords
image
covariance matrix
road surface
prediction
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008216178A
Other languages
English (en)
Other versions
JP4751429B2 (ja
Inventor
Mirko Meuter
ミルコ・モイター
Uri Lurgel
ウリ・ユールゲル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Delphi Technologies Inc
Original Assignee
Delphi Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Delphi Technologies Inc filed Critical Delphi Technologies Inc
Publication of JP2009089365A publication Critical patent/JP2009089365A/ja
Application granted granted Critical
Publication of JP4751429B2 publication Critical patent/JP4751429B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

【課題】自動車から、動いている物体、特に歩行者を認識し追跡する。
【解決手段】環境の画像が、一定の時間間隔でカメラ装置によってカメラ装置20の視野範囲内で撮影され、追跡対象の動いている物体に対応する画素が、画像処理システムを活用して識別される。これら物体のそれぞれについて、物体が道路面に接する空間点の画像座標内の投影を表す画素が抽出される。道路面内の対応する空間点の運動は、道路面内の空間点の位置と道路面内の関係速度とを成分とする少なくとも4次元の状態ベクトルを使用する状態推定器によって追跡され、状態推定器による運動の追跡は、状態ベクトル毎に予測を生成する段階と、この予測を、適した投影方程式を介して画像座標に変換する段階と、この予測に予想される誤差を、共分散行列によって画像座標内で計算する段階と、この予測を、より最近の画像内で抽出された画素と比較して、更新する段階、を含んでいる。
【選択図】図1

Description

本発明は、動いている物体を認識し追跡するための方法である、いわゆる追跡方法に関する。より正確には、自動車から、動いている物体、特に歩行者、を認識し追跡するための方法に関する。これに関連して、自動車にはカメラ装置が配置され、これによって、カメラ装置の視野範囲の画素を備えている環境の画像が撮影される。
物体を追跡するためのこの種の方法、いわゆる追跡方法は広く知られている。用途も、自動車産業部門では既に知られており、そこでは、歩行者又は自転車に乗っている人や他の乗物を追跡しその動きを予測するのに追跡方法が使用され、切迫した衝突が早い段階で予測できるようになっている。切迫した衝突、特に歩行者との衝突の場合、運転者支援システムを介して車両にブレーキを掛け、又は適した安全装置を起動させることもできる。代替的又は追加的に、警報信号を発して運転者に警告を与えることもできる。
これに関連して、このような用途で問題なのは、追跡される物体、例えば歩行者のみならず、車両に固定されているカメラも動いているということである。それら2つの動きが重なり合い、カメラ装置によって順に撮影された2つの画像の間の合成された動きをモデル化するのは難しい。動いているカメラの支援の下に満足のいく物体追跡方法を提供するのは以前は不可能であった。一方で、従来の処理で実現し得る予測の品質はしばしば満足できるものでないことがあり、また他方では、カメラによって撮影された画像をリアルタイムで評価するには比較的大きな電算処理能力を必要とする。
Pascal Fua Vincent Lepetitの論文"Monocular model-based 3d-tracking of rigid object:A survey", Foundations and trends in computer graphics and vision, Vol. 1, No. 1 (2005), 189
従って、本発明の基本的な目的は、計算の労力をできる限り軽減しながら信頼できる結果を生み出すことに着眼した、冒頭に掲げた類の方法を提供することである。
この目的は、本発明に基づき、特許請求の範囲の請求項1に記載の方法により達成される。
画像処理システムを活用して、追跡対象の動いている各物体に対応するそれら画素が、撮影された画像内で識別される。次いで、これら物体のそれぞれについて、追跡される物体が道路面に接するその空間点の画像座標内の投影を表す画素が抽出される。互いに接近して配置された複数の画素の群も、当然ながら抽出することができる。それら選択された画素は、例えば、道路を横断中の歩行者の足に3次元空間内で対応している。道路面内の対応する空間点の動きは、道路面内の空間点の位置x、yと道路面内の関係速度v、vを成分とする少なくとも4次元の状態ベクトルを使用する状態推定器によって、追跡される。
本発明による方法では、従って、例えば、追跡されるのは3次元運動ではなく、道路面内の1つ又はそれ以上の空間点の運動だけである。物体追跡に要する計算の労力は、これにより大幅に軽減することができる。また、道路面内に限って動かない物体は自動的に篩い落とされる。自動車に用いる場合に追跡することが理に適っている物体、即ち、歩行者、自転車に乗っている人、及び所望のあらゆる乗物は、常に、実質的に道路面内を動くことから、計算能力は、この篩い落としにより理に適ったやり方で節約される。即ち、鳥や風にそよぐ枝などの様な、本視点から見て関心対象外の動く物体の追跡に計算能力を使うことが、物体認識に更なる労苦を払うこと無しに、回避される。
本発明による方法に使用される状態推定器は、予測補正構造を有している。最初に、状態ベクトル毎に予測が生成される。この予測は、適した投影方程式を介して画像座標に変換され、予想される誤差が、共分散行列によって、画像座標内の予測毎に計算される。続いて、予測は、より最近の画像内で抽出された画素と比較され、更新される。
方法段階は、追跡される物体を分類する本発明による方法に概ね従っている。この分類方法は、追跡前、即ち物体追跡前に、既に実行することもできる。物体の分類には、物体追跡より多くの計算能力を必要とするので、やはり、最初に未知の物体を追跡し、その後、追跡された物体だけを分類するほうがより好都合である。例えば、追跡された物体が歩行者であるか否かを認識できるようにする分類法は文献に詳しく記述されており、本発明の主題ではないので、分類については以下の記述でそれ以上詳しくは触れない。
本発明の好都合な実施形態は、従属請求項並びに以下の記述から理解頂けるであろう。
状態推定器としては、追跡処理が、いわゆる隠れマルコフモデルと同様の構造を有していることを前提とする再帰的状態推定器を使用するのが望ましい。状態は、一次マルコフ連鎖に基づいて挙動し、それぞれの最新の状態のみに従属すること、及び、何時放出される測定値も、それぞれの現在の状態のみに従属することを前提としている。
カルマンフィルタ、特に無香カルマンフィルタの使用が特に好都合であることが証明されている。空間点の画像面への投影は、線形方程式では記述できないので、非線形システムの状態も推定できるカルマンフィルタの変形のみを考慮することができる。而して、例えば、拡張形カルマンフィルタを使用することができる。拡張形カルマンフィルタは、システム方程式の線形化に基づいており、従って、サンプリング間隔が短い場合にのみ信頼できる推定器である。拡張形カルマンフィルタを使用した際に生じる情報損失は、予測の際に、予測毎に複数の代表的状態ベクトルを使用することで軽減することができる。無香カルマンフィルタはこのことを利用しており、試験された無香カルマンフィルタでは良好な成果を得ることができた。しかしながら、代わりに、粒子フィルタ、シグマ点カルマンフィルタ、又はその他適したフィルタの使用も考えられる。
状態推定器は、状態ベクトルの推定値を計算するのに、線形システム方程式を使用するのが望ましい。計算は、これによって簡素化される。
その様な線形システム方程式は、例えば、状態ベクトルの変化を、速度v、vを有する道路面内の空間点の位置x、yの均一運動としてモデル化することができる。追跡される空間点の均一運動はモデル化が簡単なので、計算は、妥当な労力で実施することができる。歩行者又は車両は、少なくとも比較的短い時間枠内では一般的に大凡均一な速度で動くので、画像撮影間隔を十分に短くすれば、その様なシステム方程式で良好な結果が得られる。
更に車両の並進と回転も考慮することができる。車両の並進と回転は、概ねとにかく車両で利用できる速度センサ及びヨーレートセンサのセンサデータから求められる。これに関連して、回転は求められたヨーレートwから直接導き出され、一方、並進は、車両がvを車両の速度として半径r=v/wの円の縁を移動していると仮定して計算することができる。移動方向への車両並進成分txと移動方向を横切る方向への車両並進成分tyは、tx=r*sin(w*dt)と、ty=r*(1−cos(w*dt))より、回転に基づいて計算することができる。回転と並進は、当然ながら、別のやり方で求めること又はこの目的の異なるセンサを使用することも一般に可能である。
並進と回転を計算上考慮するのは、状態ベクトルx、y、v、vを、車両、従ってカメラ装置と共に動く座標系に変換することで行うことができる。この座標系の原点は、道路面内のカメラ装置の高さ位置に在り、座標系の軸は移動方向に向いている。よって、この場合のシステム方程式は、追跡される空間点の均一な運動と、車両に関して固定されている座標系への座標変換から成り、後者で車両の回転と並進を勘定に入れている。
この手順では、車両自体の運動を別途勘定に入れていないモデルに比較して、更に正確な予測が得られる。
本発明の好適な実施形態によれば、抽出された画素について、画像へ投影する際に各画素上に投影された視界内の空間点を含んでいる指向性ビームが求められる。従って、カメラはピンホールカメラとしてモデル化される。すると、カメラ装置の外因的及び内因的パラメータを使用しながら、物体が道路面に接する視覚ビーム上の空間点を、逆投影を介して求めることができる。
予測状態ベクトルを空間座標から画像座標に変換することのできる反転投影は、道路面を画像面に投影することに対応している。道路面から画像面へのこの投影は、ピンホールカメラモデルを使用して同様にモデル化されるのが望ましい。投影と逆投影は非線形なので、既に言及したように、非線形システムに適した状態推定器を使用するべきである。その様な投影の数学的詳細については、Pascal Fua Vincent Lepetitの論文“Monocular model-based 3d-tracking of rigid object: A survey”, Foundations and trends in computer graphics and vision, Vol. 1, No. 1 (2005), 189を参照されたい。
状態ベクトルx、v、y、vの予想される誤差に対応する第1共分散行列は2つの項で構成されるのが望ましい。これに関連して、第1項は、状態推定器のシステム方程式及びそれまでの段階で計算された共分散行列に従属し、一方、第2項は、付加白色加速ノイズをモデル化したノイズ行列Qである。
画像座標で予想される誤差に対応する第2共分散行列は、状態ベクトルの共分散行列から計算することができる。この目的で、状態ベクトルの共分散行列は、先ず、適した変換、望ましくは無香変換を活用して画像空間へ変換される。この変数部分に、定ノイズ共分散行列が加えられる。この手続きによって、道路面の画像面への投影は非線形であることから、ワールド座標内でノイズが一定であるからといって結果的に画像座標でノイズが一定になるというわけではないという事実が、勘定に入れられる。画像座標での誤差が大きくなるほど、追跡される物体はカメラ装置に接近している。
本発明の別の主題は、コンピュータプログラムであって、コンピュータ又は相応の電算装置で実行されるときに、本発明による方法を実行するためのプログラミングコード手段を備えている、コンピュータプログラムである。
更に、コンピュータプログラムがコンピュータ又は相応の電算装置で実行されるときに、本発明による方法を実行するための、コンピュータ読取可能データ担体上に記憶されているプログラミングコード手段を有するコンピュータプログラム製品も、本発明の主題である。
これに関連して、コンピュータは、本方法を実行することができる任意の所望のデータ処理装置と理解されている。それらは、具体的には、本方法を全体的又は部分的に実行するのに使用できるデジタル信号プロセッサ及び/又はマイクロプロセッサを有している。
最後に、本発明の主題は、動いている物体、特に歩行者を、自動車から認識し追跡するための装置であって、画像を撮影するために自動車に配置されているカメラ装置と、上で説明した方法を実行するために作られたデータ処理装置を備えている装置である。
本発明のこの他の好都合な実施形態は、従属請求項、詳細な説明、及び図面に説明されている。
以下、一例として添付図面を参照しながら、本発明について説明する。
図面は、それぞれ概略図で示している。
図1は、車両天井内張の前方領域に取り付けられたカメラ装置20を有する自動車10を示している。カメラ装置20は、カメラ装置の視野範囲の画素を備えている環境の画像を撮影する。それには、指向性ビーム25で示される歩行者30が含まれている。
車両10と歩行者30の両方が動く空間が、3つの座標軸x、y、zにより測られており、x−y面(z=0)は道路面に対応している。カメラ装置20は、道路面より高さh分だけ上方に在る。
画像処理システムを活用して、追跡される歩行者30に対応する画素u、vが、撮影画像内で識別される。次いで、追跡される物体が道路面に接するその空間点の画像座標内の投影を表す画素u、vが、この歩行者30について抽出される。
図2は、画像座標u、v、w(w=0)における空間x、y、zからの投影を示している。カメラ装置20は、ピンホールカメラとしてモデル化されている。投影の際に画像上で各画素u、v上に投影された、視野範囲内の空間点x、y、zを含んでいる指向性ビーム25は、而して、各画素u、v毎に存在している。各画素u、vに実際に対応している照準光線25上の空間点x、y、zは、具体的にはカメラ装置20の高さhも含めカメラ装置20の外因的及び内因的パラメータを使用して逆投影を介して求めることができる。
道路面内の対応する空間点x、yの運動は、道路面内の空間点の位置x、y及び道路面内の関係速度v、vを成分とする4次元状態ベクトルを使用する状態推定器によって追跡される。
従って、道路面内では、空間点x、yの2次元運動だけが追跡される。空間点x、yが、追跡アルゴリズム実行中に、道路面を越えてz方向に動けば、本発明による方法ではそれ以上追跡できない。歩行者と車両は実質的には車両面内を動くことから、歩行者でも車両でもあり得ない、動いている物体はこのやり方で篩い落とされる。
状態ベクトルx、y、v、vに関する予測は、無香カルマンフィルタを活用して生成される。
先ず、フィルタが初期化される。この目的のために、画像面内の初期誤差が推定され、無香変換を活用して変換される。変換の結果を使用して、共分散行列の位置誤差の項が初期化される。x及びy方向の速度の分散の項は、定数値で初期化され、それは位置誤差から統計学的に独立していると見なされている。また、空間点は初期には動かないものと想定されている(v=v=0)。
次いで、状態ベクトルの変化が、速度v、vを有する空間点の位置x、yの均一な運動としてモデル化される。
車両の並進と回転は、ヨーレートセンサと速度センサを活用して測定され、図3に示すように、状態ベクトルを予測するためのシステム方程式に送り込まれる。
状態ベクトルx、y、v、vが、座標系x、yから、車両と共に、従ってカメラ装置と共に動く座標系x、yに変換される。この座標系x、yの原点は、道路面内のカメラ装置20の高さの位置に在り、座標系x、yの軸xは、移動方向に向いている。システム方程式は、而して、追跡される空間点x、yの均一な運動と、図3に示す車両に関して固定されている座標系x、yへの座標変換とで構成され、前記座標変換は、時間t−1から時間tの間に起こった車両10の回転と並進を勘定に入れたものである。
状態ベクトルx、v、y、vの予測で予想される誤差は、第1共分散行列によって計算される。対応する共分散行列は、状態推定器のシステム方程式に従属する第1項と、付加白色加速ノイズをモデル化したノイズ行列とで構成されている。
状態ベクトルx、y、v、vに対する予測は、非線形投影方程式を介して画座標u、vに変換される。
画座標で予想される誤差に対応する第2共分散行列は、状態ベクトルの共分散行列から計算される。この目的のために、状態ベクトルの共分散行列は、先ず、無香変換を活用して画像空間に変換される。この変数部分に定ノイズ共分散行列が加えられる。
続いて、画素の予測が、より最近の画像内で抽出された画素と比較され、更新される。
状態ベクトルの更新値と、画像座標内で予想される誤差に対応する共分散行列は、これで、次のシステム状態の推定に向けた新たな実行のための基礎を形成する。
カメラ装置を有する自動車と歩行者である。 空間点の画像面への投影を説明する図である。 座標変換を説明する図である。
符号の説明
10 自動車
20 カメラ装置
25 指向性ビーム、照準光線
30 歩行者
h カメラの高さ
u、v 画素
x、y 空間点
、y 座標系
、v 速度
x、y、v、v 状態ベクトル

Claims (14)

  1. カメラ装置(20)が配置されている自動車(10)から、動いている物体、特に歩行者(30)を認識し追跡するための方法であって、
    画素(u,v)を含んでいる環境の画像が、一定の時間間隔でカメラ装置(20)によってカメラ装置(20)の視野範囲内で撮影され、
    追跡対象の動いている各物体に対応する画素(u,v)が、画像処理システムを活用して識別され、これら物体(30)のそれぞれについて、前記物体(30)が道路面に接するその空間点(x、y)の画像座標内の投影を表す画素(u、v)が抽出され、
    前記道路面内の前記対応する空間点(x、y)の運動は、前記道路面内の前記空間点の位置(x、y)及び前記道路面内の関係速度(v、v)を成分とする少なくとも4次元の状態ベクトル(x、y、v、v)を使用する状態推定器によって追跡される、方法において
    前記状態推定器による前記運動の追跡は、
    状態ベクトル(x、y、v、v)毎に予測を生成する段階と、
    この予測を、適した投影方程式を介して画像座標(u、v)に変換する段階と、
    この予測に予想される誤差を、共分散行列によって、画像座標(u、v)内で計算する段階と、
    この予測を、より最近の画像内で抽出された前記画素(u、v)と比較して、更新する段階と、を含んでいる、方法。
  2. 前記投影方程式は、ピンホールカメラを使用して計算された前記画像面への前記道路面の投影に対応していることを特徴とする、請求項1に記載の方法。
  3. 非線形システムの状態の推定に適しているカルマンフィルタ、特に無香カルマンフィルタが、前記状態推定器として使用されていることを特徴とする、請求項1又は2に記載の方法。
  4. 前記状態推定器は、前記状態ベクトル(x、y、v、v)の推定値を計算するために線形システム方程式を使用することを特徴とする、上記請求項の何れかに記載の方法。
  5. 前記システム方程式は、前記速度(v、v)を有する前記道路面内の追跡される空間点(x、y)の均一な運動、並びに、前記車両(10)の並進と回転を勘定に入れた項で構成されていることを特徴とする、請求項4に記載の方法。
  6. 前記車両(10)の前記並進と前記回転は、センサデータ、特に速度センサ及びヨーレートセンサのデータから求められることを特徴とする、請求項5に記載の方法。
  7. 前記車両(10)の前記並進と前記回転は、前記車両に関して固定されている座標系(x、y)への座標変換を介して勘定に入れられることを特徴とする、請求項5又は6に記載の方法。
  8. 前記抽出された画素(u、v)について、前記画像上で前記各画素(u、v)上に投影された前記視野範囲内の空間点(x、y、z)を含んでいる指向性ビーム(25)が求められ、前記物体(30)が前記道路面に接する前記照準光線(25)上の空間点(x、y)が、前記カメラ装置のカメラパラメータを使用して求められることを特徴とする、上記請求項の何れかに記載の方法。
  9. 前記状態ベクトル(x、y、v、v)の共分散行列は、システム方程式とそれまでの段階で計算された共分散行列に従属する項と、ノイズ行列とで構成され、前記ノイズ行列は付加白色加速ノイズをモデル化したものであることを特徴とする、上記請求項の何れかに記載の方法。
  10. 画像座標で予想される前記誤差に対応する前記共分散行列は、定ノイズ共分散行列と可変共分散行列とで構成され、この可変共分散行列は、適した変換、特に無香変換によって、前記状態ベクトルの共分散行列から計算されることを特徴とする、請求項9に記載の方法。
  11. 状態推定器として使用されるフィルタ、特に無香カルマンフィルタは、前記画像面内の初期誤差を推定し、前記無香変換を活用して前記道路面に変換し、この変換の結果を使用して前記共分散行列の位置誤差の項を初期化する、という手順で初期化され、一方、前記x及びy方向の前記速度の前記分散の項は、定数値を使って初期化され、前記位置誤差から統計学的に独立していると見なされていることを特徴とする、上記請求項の何れかに記載の方法。
  12. コンピュータプログラムであって、コンピュータ又は相応の電算装置で実行されるときに、請求項1から11の何れかに記載の方法を実行するためのプログラムコード手段を有する、コンピュータプログラム。
  13. コンピュータプログラム製品であって、コンピュータプログラムがコンピュータ又は相応の電算装置で実行されるときに、請求項1から11の何れかに記載の方法を実行するための、コンピュータ読取可能データ担体上に記憶されているプログラムコード手段を有する、コンピュータプログラム製品。
  14. 自動車(10)から、動いている物体、特に歩行者(30)、を認識し追跡するための装置において、撮像のために前記自動車(10)に配置されたカメラ装置(20)を有し、請求項1から11の何れかに記載の方法を実行するために作られたデータ処理装置を有している、装置。
JP2008216178A 2007-09-20 2008-08-26 物体追跡の方法 Expired - Fee Related JP4751429B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP07018503A EP2043045B1 (de) 2007-09-20 2007-09-20 Verfahren zur Objektverfolgung
EP07018503.8 2007-09-20

Publications (2)

Publication Number Publication Date
JP2009089365A true JP2009089365A (ja) 2009-04-23
JP4751429B2 JP4751429B2 (ja) 2011-08-17

Family

ID=38698214

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008216178A Expired - Fee Related JP4751429B2 (ja) 2007-09-20 2008-08-26 物体追跡の方法

Country Status (4)

Country Link
US (1) US8055020B2 (ja)
EP (1) EP2043045B1 (ja)
JP (1) JP4751429B2 (ja)
AT (1) ATE523864T1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011065338A (ja) * 2009-09-16 2011-03-31 Toyota Central R&D Labs Inc 対象物追跡装置及びプログラム
JP2013503079A (ja) * 2009-08-31 2013-01-31 トヨタ モーター ヨーロッパ ナームロゼ フェンノートシャップ/ソシエテ アノニム 乗物又は交通の制御方法及びシステム
WO2019009486A1 (en) * 2017-07-07 2019-01-10 Samsung Electronics Co., Ltd. OPTICAL MONITORING SYSTEM AND METHOD
JP2019091031A (ja) * 2017-11-16 2019-06-13 キヤノン株式会社 レンズ制御装置、及びその制御方法
JP2019220054A (ja) * 2018-06-22 2019-12-26 本田技研工業株式会社 行動予測装置及び自動運転装置
WO2021199286A1 (ja) * 2020-03-31 2021-10-07 日本電気株式会社 オブジェクト追跡装置、オブジェクト追跡方法、および記録媒体
JPWO2022091620A1 (ja) * 2020-10-28 2022-05-05

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2569411T3 (es) 2006-05-19 2016-05-10 The Queen's Medical Center Sistema de seguimiento de movimiento para imágenes adaptativas en tiempo real y espectroscopia
JP5469894B2 (ja) * 2008-07-05 2014-04-16 株式会社トプコン 測量装置及び自動追尾方法
JP5469899B2 (ja) * 2009-03-31 2014-04-16 株式会社トプコン 自動追尾方法及び測量装置
US10187617B2 (en) * 2010-06-30 2019-01-22 Tata Consultancy Services Limited Automatic detection of moving object by using stereo vision technique
JP5554261B2 (ja) 2011-02-24 2014-07-23 アルパイン株式会社 立体物検出装置および立体物検出方法
EP2747641A4 (en) 2011-08-26 2015-04-01 Kineticor Inc METHOD, SYSTEMS AND DEVICES FOR SCAN INTERNAL MOTION CORRECTION
US10657694B2 (en) * 2012-10-15 2020-05-19 Tangible Play, Inc. Activity surface detection, display and enhancement of a virtual scene
US9158389B1 (en) 2012-10-15 2015-10-13 Tangible Play, Inc. Virtualization of tangible interface objects
US9305365B2 (en) 2013-01-24 2016-04-05 Kineticor, Inc. Systems, devices, and methods for tracking moving targets
US10327708B2 (en) 2013-01-24 2019-06-25 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US9717461B2 (en) 2013-01-24 2017-08-01 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
CN105392423B (zh) 2013-02-01 2018-08-17 凯内蒂科尔股份有限公司 生物医学成像中的实时适应性运动补偿的运动追踪***
CN106572810A (zh) 2014-03-24 2017-04-19 凯内蒂科尔股份有限公司 去除医学成像扫描的预期运动校正的***、方法和装置
WO2016014718A1 (en) 2014-07-23 2016-01-28 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US9943247B2 (en) 2015-07-28 2018-04-17 The University Of Hawai'i Systems, devices, and methods for detecting false movements for motion correction during a medical imaging scan
WO2017071143A1 (en) 2015-10-30 2017-05-04 SZ DJI Technology Co., Ltd. Systems and methods for uav path planning and control
CN107209854A (zh) 2015-09-15 2017-09-26 深圳市大疆创新科技有限公司 用于支持顺畅的目标跟随的***和方法
US10949656B2 (en) * 2015-09-29 2021-03-16 Sony Corporation Information processing apparatus and information processing method
CN108697367A (zh) 2015-11-23 2018-10-23 凯内蒂科尓股份有限公司 用于在医学成像扫描期间跟踪并补偿患者运动的***、装置和方法
DE102016114168A1 (de) * 2016-08-01 2018-02-01 Connaught Electronics Ltd. Verfahren zum Erfassen eines Objekts in einem Umgebungsbereich eines Kraftfahrzeugs mit Vorhersage der Bewegung des Objekts, Kamerasystem sowie Kraftfahrzeug
CN106781692B (zh) * 2016-12-01 2020-09-04 东软集团股份有限公司 车辆碰撞预警的方法、装置及***
KR102313026B1 (ko) 2017-04-11 2021-10-15 현대자동차주식회사 차량 및 차량 후진 시 충돌방지 보조 방법
EP3854187A4 (en) 2018-09-17 2022-09-28 Tangible Play, Inc. DISPLAY POSITIONING SYSTEM
CN112507885B (zh) * 2020-12-10 2023-07-21 国网江西省电力有限公司南昌供电分公司 一种巡线无人机识别侵扰的方法
CN113721633B (zh) * 2021-09-09 2023-10-17 南京工业大学 一种基于行人轨迹预测的移动机器人路径规划方法
CN114518753B (zh) * 2022-01-25 2024-06-07 华南理工大学 一种基于预设性能控制的无人艇视觉伺服控制方法
CN117032068B (zh) * 2023-07-24 2024-02-27 苏州福斯特万电子科技有限公司 一种点胶机控制方法、装置、设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08122432A (ja) * 1994-10-20 1996-05-17 Honda Motor Co Ltd 移動体の検出装置
JP2003288602A (ja) * 2002-03-28 2003-10-10 Toshiba Corp 画像処理装置及びその方法
JP2005311691A (ja) * 2004-04-21 2005-11-04 Toyota Central Res & Dev Lab Inc 物体検出装置及び方法
JP2007148615A (ja) * 2005-11-25 2007-06-14 I Transport Lab Co Ltd 周辺車両運動状態推定装置、自車運動状態推定装置、自車および周辺車両運動状態推定装置およびプログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2845473B2 (ja) * 1989-02-13 1999-01-13 繁 安藤 動画像の運動、非運動領域検出装置
US5638116A (en) * 1993-09-08 1997-06-10 Sumitomo Electric Industries, Ltd. Object recognition apparatus and method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08122432A (ja) * 1994-10-20 1996-05-17 Honda Motor Co Ltd 移動体の検出装置
JP2003288602A (ja) * 2002-03-28 2003-10-10 Toshiba Corp 画像処理装置及びその方法
JP2005311691A (ja) * 2004-04-21 2005-11-04 Toyota Central Res & Dev Lab Inc 物体検出装置及び方法
JP2007148615A (ja) * 2005-11-25 2007-06-14 I Transport Lab Co Ltd 周辺車両運動状態推定装置、自車運動状態推定装置、自車および周辺車両運動状態推定装置およびプログラム

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013503079A (ja) * 2009-08-31 2013-01-31 トヨタ モーター ヨーロッパ ナームロゼ フェンノートシャップ/ソシエテ アノニム 乗物又は交通の制御方法及びシステム
JP2011065338A (ja) * 2009-09-16 2011-03-31 Toyota Central R&D Labs Inc 対象物追跡装置及びプログラム
WO2019009486A1 (en) * 2017-07-07 2019-01-10 Samsung Electronics Co., Ltd. OPTICAL MONITORING SYSTEM AND METHOD
US10304207B2 (en) 2017-07-07 2019-05-28 Samsung Electronics Co., Ltd. System and method for optical tracking
JP2019091031A (ja) * 2017-11-16 2019-06-13 キヤノン株式会社 レンズ制御装置、及びその制御方法
JP7305332B2 (ja) 2017-11-16 2023-07-10 キヤノン株式会社 レンズ制御装置、及びその制御方法
JP7125286B2 (ja) 2018-06-22 2022-08-24 本田技研工業株式会社 行動予測装置及び自動運転装置
JP2019220054A (ja) * 2018-06-22 2019-12-26 本田技研工業株式会社 行動予測装置及び自動運転装置
WO2021199286A1 (ja) * 2020-03-31 2021-10-07 日本電気株式会社 オブジェクト追跡装置、オブジェクト追跡方法、および記録媒体
JPWO2021199286A1 (ja) * 2020-03-31 2021-10-07
JP7355227B2 (ja) 2020-03-31 2023-10-03 日本電気株式会社 オブジェクト追跡装置、オブジェクト追跡方法、およびプログラム
WO2022091620A1 (ja) * 2020-10-28 2022-05-05 京セラ株式会社 物体追跡装置及び物体追跡方法
JPWO2022091620A1 (ja) * 2020-10-28 2022-05-05
JP7425223B2 (ja) 2020-10-28 2024-01-30 京セラ株式会社 物体追跡装置及び物体追跡方法

Also Published As

Publication number Publication date
EP2043045A1 (de) 2009-04-01
ATE523864T1 (de) 2011-09-15
US20090080701A1 (en) 2009-03-26
JP4751429B2 (ja) 2011-08-17
EP2043045B1 (de) 2011-09-07
US8055020B2 (en) 2011-11-08

Similar Documents

Publication Publication Date Title
JP4751429B2 (ja) 物体追跡の方法
JP5782088B2 (ja) 歪みのあるカメラ画像を補正するシステム及び方法
CN107914708B (zh) 后方障碍物检测和距离估算
JP5016022B2 (ja) 多重3次元ワーピングに基づく物体運動検出システムおよび方法とこのようなシステムを備えた車両
JP4899424B2 (ja) 物体検出装置
Chandra et al. Robusttp: End-to-end trajectory prediction for heterogeneous road-agents in dense traffic with noisy sensor inputs
CN107845290B (zh) 交叉路口警报方法、处理***、交叉路口警报***及车辆
JP5251800B2 (ja) 対象物追跡装置及びプログラム
US20230110116A1 (en) Advanced driver assist system, method of calibrating the same, and method of detecting object in the same
US11042999B2 (en) Advanced driver assist systems and methods of detecting objects in the same
JP5023186B2 (ja) 3dワーピング手法と固有対象物運動(pom)の検出の組み合わせに基づく対象物の動き検出システム
JP7297172B2 (ja) 物体の拡大状態を追跡するためのシステムおよび方法
JP2010198552A (ja) 運転状況監視装置
JP6543313B2 (ja) 移動体用画像生成記録表示装置及びプログラム
CN112166434A (zh) 运行辅助方法、控制单元、运行辅助***和工作设备
Mallik et al. Real-time Detection and Avoidance of Obstacles in the Path of Autonomous Vehicles Using Monocular RGB Camera
WO2022098516A1 (en) Systems and methods for radar false track mitigation with camera
JP5388059B2 (ja) 背景画像推定に基づく物体検出方法及び物体検出装置
US11645364B2 (en) Systems and methods for object detection using stereovision information
Hasanujjaman et al. Autonomous vehicle driving in harsh weather: Adaptive fusion alignment modeling and analysis
JP3951734B2 (ja) 車両用外界認識装置
JP7117169B2 (ja) 物体検出方法及び物体検出装置
US12050661B2 (en) Systems and methods for object detection using stereovision information
Moonjarin et al. Automated overtaking assistance system: a real-time approach using deep learning techniques
JP2023053681A (ja) 距離推定装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100607

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20100902

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20100907

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110421

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110520

R150 Certificate of patent or registration of utility model

Ref document number: 4751429

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140527

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees