JP2011047882A5 - - Google Patents

Download PDF

Info

Publication number
JP2011047882A5
JP2011047882A5 JP2009198348A JP2009198348A JP2011047882A5 JP 2011047882 A5 JP2011047882 A5 JP 2011047882A5 JP 2009198348 A JP2009198348 A JP 2009198348A JP 2009198348 A JP2009198348 A JP 2009198348A JP 2011047882 A5 JP2011047882 A5 JP 2011047882A5
Authority
JP
Japan
Prior art keywords
target
data fusion
correction information
passive sensor
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009198348A
Other languages
Japanese (ja)
Other versions
JP2011047882A (en
JP5542393B2 (en
Filing date
Publication date
Application filed filed Critical
Priority to JP2009198348A priority Critical patent/JP5542393B2/en
Priority claimed from JP2009198348A external-priority patent/JP5542393B2/en
Publication of JP2011047882A publication Critical patent/JP2011047882A/en
Publication of JP2011047882A5 publication Critical patent/JP2011047882A5/ja
Application granted granted Critical
Publication of JP5542393B2 publication Critical patent/JP5542393B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

次いで、予測処理が実行される(ステップST102)。すなわち、パッシブセンサ処理部2は、前回観測時のステップST103において算出された目標の平滑とその共分散行列に基づいて、目標の予測とその共分散行列を算出する。 Next, a prediction process is executed (step ST102). That is, the passive sensor processing unit 2 calculates a target predicted value and its covariance matrix based on the target smooth value and its covariance matrix calculated in step ST103 at the previous observation.

次いで、平滑処理(航跡出力)が実行される(ステップST103)。すなわち、パッシブセンサ処理部2は、パッシブセンサ1からの目標の観測値と、ステップST102において算出された目標の予測とその共分散行列に基づいて、新たな目標の平滑とその共分散行列を算出する。 Next, smoothing processing (wake output) is executed (step ST103). That is, the passive sensor processing unit 2 creates a new target smooth value and its covariance matrix based on the target observed value from the passive sensor 1, the target predicted value calculated in step ST102, and its covariance matrix. Is calculated.

次に、パッシブセンサ処理部2で行われる処理内容について、詳細に説明する。目標の運動モデルを以下のように定義する。

Figure 2011047882
Next, the processing content performed by the passive sensor processing unit 2 will be described in detail. The target motion model is defined as follows.
Figure 2011047882

上述したステップST102においては、前回観測時の平滑処理の結果を用いて、以下の式で表される予測処理が実施される。なお、以下において、ハットxは「x(^)」と表記する。

Figure 2011047882
In step ST102 described above, a prediction process represented by the following equation is performed using the result of the smoothing process at the previous observation. In the following, the hat x is expressed as “x (^)”.
Figure 2011047882

また、第3の発明は、目標の角度を測定して観測値として出力するパッシブセンサからの観測値を入力して目標の航跡を算出するパッシブセンサ処理部と、アクティブセンサからの観測値を入力して目標の航跡を算出するアクティブセンサ処理部からの航跡と前記パッシブセンサ処理部からの航跡とが同一目標を示していると判定した場合にこれら2つの航跡のデータ融合を行ってデータ融合航跡として出力するデータ融合部と、前記パッシブセンサ処理部に補正情報を出力する補正情報算出部を備える目標追跡装置であって、前記補正情報算出部は、前記データ融合部からのデータ融合航跡に基づいて、補正情報として、前記パッシブセンサの位置における目標のバイアス誤差を算出して制御入力として出力し、前記パッシブセンサ処理部は、前記補正情報算出部から出力される制御入力に基づいて、目標の予測を算出することを特徴とする。 In addition, the third aspect of the invention inputs the observation value from the passive sensor that calculates the target track by inputting the observation value from the passive sensor that measures the target angle and outputs it as the observation value, and inputs the observation value from the active sensor If the wake from the active sensor processing unit that calculates the wake of the target and the wake from the passive sensor processing unit are determined to indicate the same target, the data fusion of these two wakes is performed. A target tracking device comprising: a data fusion unit that outputs a correction information; and a correction information calculation unit that outputs correction information to the passive sensor processing unit, wherein the correction information calculation unit is based on a data fusion track from the data fusion unit As a correction information, a target bias error at the position of the passive sensor is calculated and output as a control input, and the passive sensor processing unit , On the basis of the control input outputted from the correction information calculating unit, and calculates the predicted value of the target.

また、第4の発明は、目標の角度を測定して観測値として出力するパッシブセンサからの観測値を入力して目標の航跡を算出するパッシブセンサ処理部と、アクティブセンサからの観測値を入力して目標の航跡を算出するアクティブセンサ処理部からの航跡と前記パッシブセンサ処理部からの航跡とが同一目標を示していると判定した場合にこれら2つの航跡のデータ融合を行ってデータ融合航跡として出力するデータ融合部と、前記パッシブセンサ処理部に補正情報を出力する補正情報算出部を備える目標追跡装置であって、前記補正情報算出部は、前記データ融合部からのデータ融合航跡、または、前記データ融合部からのデータ融合航跡とデータ融合航跡に対応し前記アクティブセンサ処理部から出力されるプロセス雑音共分散行列を含む目標航跡に基づいて、補正情報として、前記パッシブセンサの位置における目標のバイアス誤差を算出して制御入力として出力し、かつ、前記パッシブセンサから目標までの距離を算出し、または、前記パッシブセンサの位置における目標のプロセス雑音共分散行列を算出し、前記パッシブセンサ処理部は、前記補正情報算出部から出力される制御入力に基づいて、目標の予測を算出し、かつ、前記補正情報算出部で算出された目標までの距離に基づいて算出されたプロセス雑音共分散行列、または、前記補正情報算出部で算出されたプロセス雑音共分散行列に基づいて、目標の航跡を算出することを特徴とする。 In addition, the fourth aspect of the invention inputs the observation value from the passive sensor that calculates the target track by inputting the observation value from the passive sensor that measures the target angle and outputs it as the observation value, and inputs the observation value from the active sensor If the wake from the active sensor processing unit that calculates the wake of the target and the wake from the passive sensor processing unit are determined to indicate the same target, the data fusion of these two wakes is performed. A target tracking device comprising: a data fusion unit that outputs as a correction information calculation unit that outputs correction information to the passive sensor processing unit, wherein the correction information calculation unit includes a data fusion track from the data fusion unit, or The process noise covariance matrix output from the active sensor processing unit corresponding to the data fusion track from the data fusion unit and the data fusion track Based on the target track, the target bias error at the position of the passive sensor is calculated as correction information and output as a control input, and the distance from the passive sensor to the target is calculated, or the passive sensor A target process noise covariance matrix is calculated at the position, and the passive sensor processing unit calculates a target predicted value based on a control input output from the correction information calculation unit, and calculates the correction information. Calculating the target track based on the process noise covariance matrix calculated based on the distance to the target calculated by the unit or the process noise covariance matrix calculated by the correction information calculation unit And

次いで、予測処理が実行される(ステップST108)。すなわち、パッシブセンサ処理部2aは、前回観測時のステップST103において算出された目標の平滑およびその共分散行列とステップST107において算出されたプロセス雑音共分散行列Qk−1とに基づいて、目標の予測とその共分散行列を算出する。 Next, a prediction process is executed (step ST108). That is, the passive sensor processing unit 2a uses the target smooth value calculated in step ST103 and its covariance matrix at the time of the previous observation and the process noise covariance matrix Q k−1 calculated in step ST107. The predicted value of and its covariance matrix are calculated.

次いで、平滑処理(航跡出力)が実行される(ステップST103)。すなわち、パッシブセンサ処理部2aは、パッシブセンサ1からの目標の観測値とステップST108において算出された目標の予測およびその共分散行列とに基づいて、目標の平滑とその共分散行列を算出する。 Next, smoothing processing (wake output) is executed (step ST103). That is, the passive sensor processing unit 2a calculates the target smooth value and the covariance matrix based on the target observed value from the passive sensor 1, the target predicted value calculated in step ST108, and the covariance matrix thereof. To do.

次に、補正情報算出部6aとパッシブセンサ処理部2aで行われる処理内容について、詳細に説明する。目標の運動モデルを以下のように定義する。

Figure 2011047882
Next, details of processing performed by the correction information calculation unit 6a and the passive sensor processing unit 2a will be described. The target motion model is defined as follows.
Figure 2011047882

ここで、xk−1、yk−1、zk−1は、観測時刻tk−1の目標のデータ融合航跡の位置のx、y、z成分、x、y、zは、パッシブセンサ1の位置のx、y、z成分である。 Here, x k−1 , y k−1 , z k−1 are x, y, z components , x 0 , y 0 , z 0 of the position of the target data fusion wake at the observation time t k−1. , X, y, z components of the position of the passive sensor 1.

上述したステップST107では、補正情報算出部6aからの補正情報(目標距離r(
^)k−1)に基づいて、プロセス雑音共分散行列Qk−1を算出する。

Figure 2011047882
In step ST107 described above, the correction information (target distance r (
^) Based on k−1 ), a process noise covariance matrix Q k−1 is calculated.
Figure 2011047882

次いで、予測処理が実行される(ステップST108)。すなわち、パッシブセンサ処理部2bは、前回観測時のステップST103において算出された目標の平滑およびその共分散行列と補正情報算出部6bからの補正情報(プロセス雑音共分散行列)とに基づいて、目標の予測とその共分散行列を算出する。 Next, a prediction process is executed (step ST108). That is, the passive sensor processing unit 2b is based on the target smooth value calculated in step ST103 at the time of the previous observation and its covariance matrix and the correction information (process noise covariance matrix) from the correction information calculation unit 6b. Calculate the predicted value of the target and its covariance matrix.

次いで、平滑処理(航跡出力)が実行される(ステップST103)。すなわち、パッシブセンサ処理部2bは、パッシブセンサ1からの目標の観測値とステップST108において算出された目標の予測およびその共分散行列とに基づいて、目標の平滑およびその共分散行列を算出する。 Next, smoothing processing (wake output) is executed (step ST103). That is, the passive sensor processing unit 2b calculates a target smooth value and its covariance matrix based on the target observation value from the passive sensor 1, the target predicted value calculated in step ST108, and its covariance matrix. To do.

ここで、アクティブセンサ処理部4から出力されるプロセス雑音共分散行列Q k−1が以下の(35)式で表されるとすると、変換行列Tk−1は、(36)式のようになる。なお、(xk−1、yk−1、zk−1)、(ak−1、ek−1)は、座標変換によって、データ融合航跡をパッシブセンサ1から見た目標の位置ベクトル(直交座標系と極座標系)に変換した値である。

Figure 2011047882
Here, if the process noise covariance matrix Q a k−1 output from the active sensor processing unit 4 is expressed by the following equation (35), the transformation matrix T k−1 is expressed by the following equation (36): become. Note that (x k−1 , y k−1 , z k−1 ), (a k−1 , e k−1 ) are the target position vectors (when the data fusion wake is viewed from the passive sensor 1 by coordinate transformation ( (Correct coordinate system and polar coordinate system)
Figure 2011047882

次いで、予測処理が実行される(ステップST111)。すなわち、パッシブセンサ処理部2cは、前回観測時のステップST103において算出された目標の平滑およびその共分散行列と補正情報算出部6cからの補正情報(制御入力ベクトル)とに基づいて、目標の予測とその共分散行列を算出する。 Next, a prediction process is executed (step ST111). That is, the passive sensor processing unit 2c, based on the target smooth value calculated in step ST103 at the time of the previous observation, its covariance matrix, and the correction information (control input vector) from the correction information calculation unit 6c, Calculate the predicted value and its covariance matrix.

次いで、平滑処理(航跡出力)が実行される(ステップST103)。すなわち、パッシブセンサ処理部2cは、パッシブセンサ1からの目標の観測値とステップST111において算出された目標の予測およびその共分散行列とに基づいて、目標の平滑およびその共分散行列を算出する。 Next, smoothing processing (wake output) is executed (step ST103). That is, the passive sensor processing unit 2c calculates the target smooth value and the covariance matrix based on the target observation value from the passive sensor 1, the target predicted value calculated in step ST111, and the covariance matrix thereof. To do.

次に、補正情報算出部6cとパッシブセンサ処理部2cで行われる処理内容について、詳細に説明する。目標の運動モデルを以下のように定義する。

Figure 2011047882
Next, details of processing performed by the correction information calculation unit 6c and the passive sensor processing unit 2c will be described. The target motion model is defined as follows.
Figure 2011047882

ここで、(xk−1、yk−1、zk−1)、(x(・)k−1、y(・)k−1、z(・)k−1)、(a(・)k−1、e(・)k−1)は、座標変換によって、データ融合航跡をパッシブセンサ1から見た目標の位置ベクトル、速度ベクトルおよび角速度ベクトル成分に変換した値である。 Here, (x k−1 , y k−1 , z k−1 ), (x (•) k−1 , y (•) k−1 , z (•) k−1 ), (a (• K−1 , e (•) k−1 ) are values obtained by converting the data fusion wake into a target position vector , velocity vector, and angular velocity vector component viewed from the passive sensor 1 by coordinate conversion.

上述したステップST111では、前回観測時の平滑処理の結果と制御入力ベクトルuk−1を用いて、以下の式で表される予測処理を実施する。

Figure 2011047882
In step ST111 mentioned above, the prediction process represented by the following formula | equation is implemented using the result of the smoothing process at the time of last observation, and control input vector uk -1 .
Figure 2011047882

次いで、予測処理が実行される(ステップST112)。すなわち、パッシブセンサ処理部2dは、前回観測時のステップST103において算出された目標の平滑およびその共分散行列と補正情報算出部6dからの補正情報(プロセス雑音共分散行列と制御入力ベクトル)とに基づいて、目標の予測とその共分散行列を算出する。 Next, prediction processing is executed (step ST112). That is, the passive sensor processing unit 2d obtains the target smooth value calculated in step ST103 at the time of previous observation, its covariance matrix, and the correction information (process noise covariance matrix and control input vector) from the correction information calculation unit 6d. Based on the above, the target predicted value and its covariance matrix are calculated.

次いで、平滑処理(航跡出力)が実行される(ステップST103)。すなわち、パッシブセンサ処理部2dは、パッシブセンサ1からの目標の観測値とステップST112において算出された目標の予測およびその共分散行列とに基づいて、目標の平滑とその共分散行列を算出する。
Next, smoothing processing (wake output) is executed (step ST103). That is, the passive sensor processing unit 2d calculates a target smooth value and its covariance matrix based on the target observation value from the passive sensor 1, the target predicted value calculated in step ST112, and its covariance matrix. To do.

Claims (5)

目標の角度を測定して観測値として出力するパッシブセンサからの観測値を入力して目標の航跡を算出するパッシブセンサ処理部と、アクティブセンサからの観測値を入力して目標の航跡を算出するアクティブセンサ処理部からの航跡と前記パッシブセンサ処理部からの航跡とが同一目標を示していると判定した場合にこれら2つの航跡のデータ融合を行ってデータ融合航跡として出力するデータ融合部と、前記パッシブセンサ処理部に補正情報を出力する補正情報算出部を備える目標追跡装置であって、
前記補正情報算出部は、前記データ融合部からのデータ融合航跡に基づいて、補正情報として、前記パッシブセンサから目標までの距離を算出し、
前記パッシブセンサ処理部は、前記補正情報算出部で算出された目標までの距離に基づいてプロセス雑音共分散行列を算出し、算出したプロセス雑音共分散行列に基づいて、目標の航跡を算出することを特徴とする目標追跡装置。
Measure the target angle and output it as an observed value Input the observed value from the passive sensor to calculate the target track, and input the observed value from the active sensor to calculate the target track A data fusion unit that performs data fusion of these two wakes and outputs as a data fusion wake when it is determined that the wake from the active sensor processing unit and the wake from the passive sensor processing unit indicate the same target; A target tracking device including a correction information calculation unit that outputs correction information to the passive sensor processing unit,
The correction information calculation unit calculates the distance from the passive sensor to the target as correction information based on the data fusion track from the data fusion unit,
The passive sensor processing unit calculates a process noise covariance matrix based on the distance to the target calculated by the correction information calculation unit, and calculates a target wake based on the calculated process noise covariance matrix. A target tracking device.
目標の角度を測定して観測値として出力するパッシブセンサからの観測値を入力して目標の航跡を算出するパッシブセンサ処理部と、アクティブセンサからの観測値を入力して目標の航跡を算出するアクティブセンサ処理部からの航跡と前記パッシブセンサ処理部からの航跡とが同一目標を示していると判定した場合にこれら2つの航跡のデータ融合を行ってデータ融合航跡として出力するデータ融合部と、前記パッシブセンサ処理部に補正情報を出力する補正情報算出部を備える目標追跡装置であって、
前記補正情報算出部は、前記データ融合部からのデータ融合航跡とデータ融合航跡に対応し前記アクティブセンサ処理部から出力されるプロセス雑音共分散行列を含む目標航跡に基づいて、補正情報として、前記パッシブセンサの位置における目標のプロセス雑音共分散行列を算出し、
前記パッシブセンサ処理部は、前記補正情報算出部で算出されたプロセス雑音共分散行列に基づいて、目標の航跡を算出することを特徴とする目標追跡装置。
Measure the target angle and output it as an observed value Input the observed value from the passive sensor to calculate the target track, and input the observed value from the active sensor to calculate the target track A data fusion unit that performs data fusion of these two wakes and outputs as a data fusion wake when it is determined that the wake from the active sensor processing unit and the wake from the passive sensor processing unit indicate the same target; A target tracking device including a correction information calculation unit that outputs correction information to the passive sensor processing unit,
The correction information calculation unit corresponds to the data fusion wake from the data fusion unit and the data fusion wake corresponding to the target wake including the process noise covariance matrix output from the active sensor processing unit, as the correction information, Calculate the target process noise covariance matrix at the position of the passive sensor,
The passive sensor processing unit calculates a target track based on the process noise covariance matrix calculated by the correction information calculation unit.
目標の角度を測定して観測値として出力するパッシブセンサからの観測値を入力して目標の航跡を算出するパッシブセンサ処理部と、アクティブセンサからの観測値を入力して目標の航跡を算出するアクティブセンサ処理部からの航跡と前記パッシブセンサ処理部からの航跡とが同一目標を示していると判定した場合にこれら2つの航跡のデータ融合を行ってデータ融合航跡として出力するデータ融合部と、前記パッシブセンサ処理部に補正情報を出力する補正情報算出部を備える目標追跡装置であって、
前記補正情報算出部は、前記データ融合部からのデータ融合航跡に基づいて、補正情報として、前記パッシブセンサの位置における目標のバイアス誤差を算出して制御入力として出力し、
前記パッシブセンサ処理部は、前記補正情報算出部から出力される制御入力に基づいて、目標の予測を算出することを特徴とする目標追跡装置。
Measure the target angle and output it as an observed value Input the observed value from the passive sensor to calculate the target track, and input the observed value from the active sensor to calculate the target track A data fusion unit that performs data fusion of these two wakes and outputs as a data fusion wake when it is determined that the wake from the active sensor processing unit and the wake from the passive sensor processing unit indicate the same target; A target tracking device including a correction information calculation unit that outputs correction information to the passive sensor processing unit,
The correction information calculation unit calculates a target bias error at the position of the passive sensor as correction information based on the data fusion track from the data fusion unit, and outputs it as a control input.
The passive sensor processing unit calculates a target prediction value based on a control input output from the correction information calculation unit.
目標の角度を測定して観測値として出力するパッシブセンサからの観測値を入力して目標の航跡を算出するパッシブセンサ処理部と、アクティブセンサからの観測値を入力して目標の航跡を算出するアクティブセンサ処理部からの航跡と前記パッシブセンサ処理部からの航跡とが同一目標を示していると判定した場合にこれら2つの航跡のデータ融合を行ってデータ融合航跡として出力するデータ融合部と、前記パッシブセンサ処理部に補正情報を出力する補正情報算出部を備える目標追跡装置であって、
前記補正情報算出部は、前記データ融合部からのデータ融合航跡、または、前記データ融合部からのデータ融合航跡とデータ融合航跡に対応し前記アクティブセンサ処理部から出力されるプロセス雑音共分散行列を含む目標航跡に基づいて、補正情報として、前記パッシブセンサの位置における目標のバイアス誤差を算出して制御入力として出力し、かつ、前記パッシブセンサから目標までの距離を算出し、または、前記パッシブセンサの位置における目標のプロセス雑音共分散行列を算出し、
前記パッシブセンサ処理部は、前記補正情報算出部から出力される制御入力に基づいて、目標の予測を算出し、かつ、前記補正情報算出部で算出された目標までの距離に基づいて算出されたプロセス雑音共分散行列、または、前記補正情報算出部で算出されたプロセス雑音共分散行列に基づいて、目標の航跡を算出することを特徴とする目標追跡装置。
Measure the target angle and output it as an observed value Input the observed value from the passive sensor to calculate the target track, and input the observed value from the active sensor to calculate the target track A data fusion unit that performs data fusion of these two wakes and outputs as a data fusion wake when it is determined that the wake from the active sensor processing unit and the wake from the passive sensor processing unit indicate the same target; A target tracking device including a correction information calculation unit that outputs correction information to the passive sensor processing unit,
The correction information calculation unit corresponds to the data fusion track from the data fusion unit, or the process noise covariance matrix output from the active sensor processing unit corresponding to the data fusion track and the data fusion track from the data fusion unit. Based on the target track including, as correction information, a target bias error at the position of the passive sensor is calculated and output as a control input, and a distance from the passive sensor to the target is calculated, or the passive sensor Calculate the target process noise covariance matrix at
The passive sensor processing unit calculates a predicted value of a target based on a control input output from the correction information calculation unit, and is calculated based on a distance to the target calculated by the correction information calculation unit. A target tracking apparatus that calculates a target track based on the process noise covariance matrix or the process noise covariance matrix calculated by the correction information calculation unit.
前記パッシブセンサ処理部は、算出したプロセス雑音共分散行列基づいて、目標の航跡算出に用いるフィルタゲインを算出することを特徴とする請求項1、2、4のいずれか1項に記載の目標追跡装置。   5. The target tracking according to claim 1, wherein the passive sensor processing unit calculates a filter gain used for target track calculation based on the calculated process noise covariance matrix. apparatus.
JP2009198348A 2009-08-28 2009-08-28 Target tracking device Expired - Fee Related JP5542393B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009198348A JP5542393B2 (en) 2009-08-28 2009-08-28 Target tracking device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009198348A JP5542393B2 (en) 2009-08-28 2009-08-28 Target tracking device

Publications (3)

Publication Number Publication Date
JP2011047882A JP2011047882A (en) 2011-03-10
JP2011047882A5 true JP2011047882A5 (en) 2012-04-19
JP5542393B2 JP5542393B2 (en) 2014-07-09

Family

ID=43834349

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009198348A Expired - Fee Related JP5542393B2 (en) 2009-08-28 2009-08-28 Target tracking device

Country Status (1)

Country Link
JP (1) JP5542393B2 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5748946B2 (en) * 2009-08-28 2015-07-15 株式会社東芝 Target tracking device
JP5306389B2 (en) 2011-02-25 2013-10-02 株式会社東芝 Target tracking device
CN104808197B (en) * 2015-05-06 2017-04-05 四川九洲空管科技有限责任公司 A kind of many monitoring source airbound target Parallel Tracking processing methods
CN105277939B (en) * 2015-09-30 2017-07-07 深圳大学 For passive sensor to the goal directed method of empty observational network and guiding system
CN105467382A (en) * 2015-12-31 2016-04-06 南京信息工程大学 SVM (Support Vector Machine)-based multi-sensor target tracking data fusion algorithm and system thereof
CN107678024B (en) * 2017-10-23 2020-12-29 中国民航科学技术研究院 Light and small unmanned aerial vehicle fusion tracking method based on radar and infrared combined detection
CN112666516A (en) * 2020-11-30 2021-04-16 中国人民解放军国防科技大学 Passive tracking method based on track information field
CN112731371B (en) * 2020-12-18 2024-01-23 重庆邮电大学 Laser radar and vision fusion integrated target tracking system and method
CN112986975B (en) * 2021-02-07 2022-08-23 电子科技大学 Distance weighting-based passive radar network centralized detection method
CN113325415B (en) * 2021-04-20 2023-10-13 武汉光庭信息技术股份有限公司 Fusion method and system of vehicle radar data and camera data

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58146877A (en) * 1982-02-25 1983-09-01 Nec Corp Target discriminating device
JPH0694830A (en) * 1992-09-10 1994-04-08 Mitsubishi Electric Corp Same track deciding device
JPH07128436A (en) * 1993-11-04 1995-05-19 Mitsubishi Heavy Ind Ltd Sensor equipment of low detectability
JP2002181926A (en) * 2000-12-15 2002-06-26 Furuno Electric Co Ltd Method and apparatus for tracking of target
JP4684591B2 (en) * 2004-08-03 2011-05-18 三菱電機株式会社 Tracking device and tracking processing method

Similar Documents

Publication Publication Date Title
JP2011047882A5 (en)
JP5784526B2 (en) Target tracking device
JP5542393B2 (en) Target tracking device
JP5306389B2 (en) Target tracking device
JP2012003233A5 (en)
ATE512768T1 (en) POSITION DETERMINATION OF AN OBJECT
RU2019138260A (en) DEVICE, METHOD AND PROGRAM OF AUDIO PROCESSING
JP2007271564A5 (en)
JP2014225843A5 (en)
JP2008309631A5 (en)
JP2011047881A5 (en)
WO2011128766A3 (en) Methods and systems for object tracking
JP2009244929A (en) Tracking processing apparatus, tracking processing method, and program
JP2012008096A5 (en)
WO2013001424A3 (en) Ultrasound-image-guide system and volume-motion-base calibration method
JP2007299062A5 (en)
JP2011069815A5 (en)
JP2014126860A5 (en) Optical apparatus, image blur correction apparatus, imaging apparatus, control method therefor, program, and storage medium
WO2009154294A1 (en) Motion extraction device and program, image correction device and program, and recording medium
JP2016200858A5 (en)
JP2016198279A5 (en)
JP2012249968A5 (en)
JP5748946B2 (en) Target tracking device
JP2013121625A5 (en) Robot equipment
US20160132125A1 (en) System and method for generating gestures