JP2011047882A5 - - Google Patents
Download PDFInfo
- Publication number
- JP2011047882A5 JP2011047882A5 JP2009198348A JP2009198348A JP2011047882A5 JP 2011047882 A5 JP2011047882 A5 JP 2011047882A5 JP 2009198348 A JP2009198348 A JP 2009198348A JP 2009198348 A JP2009198348 A JP 2009198348A JP 2011047882 A5 JP2011047882 A5 JP 2011047882A5
- Authority
- JP
- Japan
- Prior art keywords
- target
- data fusion
- correction information
- passive sensor
- processing unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Description
次いで、予測処理が実行される(ステップST102)。すなわち、パッシブセンサ処理部2は、前回観測時のステップST103において算出された目標の平滑値とその共分散行列に基づいて、目標の予測値とその共分散行列を算出する。 Next, a prediction process is executed (step ST102). That is, the passive sensor processing unit 2 calculates a target predicted value and its covariance matrix based on the target smooth value and its covariance matrix calculated in step ST103 at the previous observation.
次いで、平滑処理(航跡出力)が実行される(ステップST103)。すなわち、パッシブセンサ処理部2は、パッシブセンサ1からの目標の観測値と、ステップST102において算出された目標の予測値とその共分散行列に基づいて、新たな目標の平滑値とその共分散行列を算出する。 Next, smoothing processing (wake output) is executed (step ST103). That is, the passive sensor processing unit 2 creates a new target smooth value and its covariance matrix based on the target observed value from the passive sensor 1, the target predicted value calculated in step ST102, and its covariance matrix. Is calculated.
次に、パッシブセンサ処理部2で行われる処理内容について、詳細に説明する。目標の運動モデルを以下のように定義する。
上述したステップST102においては、前回観測時の平滑処理の結果を用いて、以下の式で表される予測処理が実施される。なお、以下において、ハットxは「x(^)」と表記する。
また、第3の発明は、目標の角度を測定して観測値として出力するパッシブセンサからの観測値を入力して目標の航跡を算出するパッシブセンサ処理部と、アクティブセンサからの観測値を入力して目標の航跡を算出するアクティブセンサ処理部からの航跡と前記パッシブセンサ処理部からの航跡とが同一目標を示していると判定した場合にこれら2つの航跡のデータ融合を行ってデータ融合航跡として出力するデータ融合部と、前記パッシブセンサ処理部に補正情報を出力する補正情報算出部を備える目標追跡装置であって、前記補正情報算出部は、前記データ融合部からのデータ融合航跡に基づいて、補正情報として、前記パッシブセンサの位置における目標のバイアス誤差を算出して制御入力として出力し、前記パッシブセンサ処理部は、前記補正情報算出部から出力される制御入力に基づいて、目標の予測値を算出することを特徴とする。 In addition, the third aspect of the invention inputs the observation value from the passive sensor that calculates the target track by inputting the observation value from the passive sensor that measures the target angle and outputs it as the observation value, and inputs the observation value from the active sensor If the wake from the active sensor processing unit that calculates the wake of the target and the wake from the passive sensor processing unit are determined to indicate the same target, the data fusion of these two wakes is performed. A target tracking device comprising: a data fusion unit that outputs a correction information; and a correction information calculation unit that outputs correction information to the passive sensor processing unit, wherein the correction information calculation unit is based on a data fusion track from the data fusion unit As a correction information, a target bias error at the position of the passive sensor is calculated and output as a control input, and the passive sensor processing unit , On the basis of the control input outputted from the correction information calculating unit, and calculates the predicted value of the target.
また、第4の発明は、目標の角度を測定して観測値として出力するパッシブセンサからの観測値を入力して目標の航跡を算出するパッシブセンサ処理部と、アクティブセンサからの観測値を入力して目標の航跡を算出するアクティブセンサ処理部からの航跡と前記パッシブセンサ処理部からの航跡とが同一目標を示していると判定した場合にこれら2つの航跡のデータ融合を行ってデータ融合航跡として出力するデータ融合部と、前記パッシブセンサ処理部に補正情報を出力する補正情報算出部を備える目標追跡装置であって、前記補正情報算出部は、前記データ融合部からのデータ融合航跡、または、前記データ融合部からのデータ融合航跡とデータ融合航跡に対応し前記アクティブセンサ処理部から出力されるプロセス雑音共分散行列を含む目標航跡に基づいて、補正情報として、前記パッシブセンサの位置における目標のバイアス誤差を算出して制御入力として出力し、かつ、前記パッシブセンサから目標までの距離を算出し、または、前記パッシブセンサの位置における目標のプロセス雑音共分散行列を算出し、前記パッシブセンサ処理部は、前記補正情報算出部から出力される制御入力に基づいて、目標の予測値を算出し、かつ、前記補正情報算出部で算出された目標までの距離に基づいて算出されたプロセス雑音共分散行列、または、前記補正情報算出部で算出されたプロセス雑音共分散行列に基づいて、目標の航跡を算出することを特徴とする。 In addition, the fourth aspect of the invention inputs the observation value from the passive sensor that calculates the target track by inputting the observation value from the passive sensor that measures the target angle and outputs it as the observation value, and inputs the observation value from the active sensor If the wake from the active sensor processing unit that calculates the wake of the target and the wake from the passive sensor processing unit are determined to indicate the same target, the data fusion of these two wakes is performed. A target tracking device comprising: a data fusion unit that outputs as a correction information calculation unit that outputs correction information to the passive sensor processing unit, wherein the correction information calculation unit includes a data fusion track from the data fusion unit, or The process noise covariance matrix output from the active sensor processing unit corresponding to the data fusion track from the data fusion unit and the data fusion track Based on the target track, the target bias error at the position of the passive sensor is calculated as correction information and output as a control input, and the distance from the passive sensor to the target is calculated, or the passive sensor A target process noise covariance matrix is calculated at the position, and the passive sensor processing unit calculates a target predicted value based on a control input output from the correction information calculation unit, and calculates the correction information. Calculating the target track based on the process noise covariance matrix calculated based on the distance to the target calculated by the unit or the process noise covariance matrix calculated by the correction information calculation unit And
次いで、予測処理が実行される(ステップST108)。すなわち、パッシブセンサ処理部2aは、前回観測時のステップST103において算出された目標の平滑値およびその共分散行列とステップST107において算出されたプロセス雑音共分散行列Qk−1とに基づいて、目標の予測値とその共分散行列を算出する。 Next, a prediction process is executed (step ST108). That is, the passive sensor processing unit 2a uses the target smooth value calculated in step ST103 and its covariance matrix at the time of the previous observation and the process noise covariance matrix Q k−1 calculated in step ST107. The predicted value of and its covariance matrix are calculated.
次いで、平滑処理(航跡出力)が実行される(ステップST103)。すなわち、パッシブセンサ処理部2aは、パッシブセンサ1からの目標の観測値とステップST108において算出された目標の予測値およびその共分散行列とに基づいて、目標の平滑値とその共分散行列を算出する。 Next, smoothing processing (wake output) is executed (step ST103). That is, the passive sensor processing unit 2a calculates the target smooth value and the covariance matrix based on the target observed value from the passive sensor 1, the target predicted value calculated in step ST108, and the covariance matrix thereof. To do.
次に、補正情報算出部6aとパッシブセンサ処理部2aで行われる処理内容について、詳細に説明する。目標の運動モデルを以下のように定義する。
ここで、xk−1、yk−1、zk−1は、観測時刻tk−1の目標のデータ融合航跡の位置のx、y、z成分、x0、y0、z0は、パッシブセンサ1の位置のx、y、z成分である。 Here, x k−1 , y k−1 , z k−1 are x, y, z components , x 0 , y 0 , z 0 of the position of the target data fusion wake at the observation time t k−1. , X, y, z components of the position of the passive sensor 1.
上述したステップST107では、補正情報算出部6aからの補正情報(目標距離r(
^)k−1)に基づいて、プロセス雑音共分散行列Qk−1を算出する。
^) Based on k−1 ), a process noise covariance matrix Q k−1 is calculated.
次いで、予測処理が実行される(ステップST108)。すなわち、パッシブセンサ処理部2bは、前回観測時のステップST103において算出された目標の平滑値およびその共分散行列と補正情報算出部6bからの補正情報(プロセス雑音共分散行列)とに基づいて、目標の予測値とその共分散行列を算出する。 Next, a prediction process is executed (step ST108). That is, the passive sensor processing unit 2b is based on the target smooth value calculated in step ST103 at the time of the previous observation and its covariance matrix and the correction information (process noise covariance matrix) from the correction information calculation unit 6b. Calculate the predicted value of the target and its covariance matrix.
次いで、平滑処理(航跡出力)が実行される(ステップST103)。すなわち、パッシブセンサ処理部2bは、パッシブセンサ1からの目標の観測値とステップST108において算出された目標の予測値およびその共分散行列とに基づいて、目標の平滑値およびその共分散行列を算出する。 Next, smoothing processing (wake output) is executed (step ST103). That is, the passive sensor processing unit 2b calculates a target smooth value and its covariance matrix based on the target observation value from the passive sensor 1, the target predicted value calculated in step ST108, and its covariance matrix. To do.
ここで、アクティブセンサ処理部4から出力されるプロセス雑音共分散行列Qa k−1が以下の(35)式で表されるとすると、変換行列Tk−1は、(36)式のようになる。なお、(xk−1、yk−1、zk−1)、(ak−1、ek−1)は、座標変換によって、データ融合航跡をパッシブセンサ1から見た目標の位置ベクトル(直交座標系と極座標系)に変換した値である。
次いで、予測処理が実行される(ステップST111)。すなわち、パッシブセンサ処理部2cは、前回観測時のステップST103において算出された目標の平滑値およびその共分散行列と補正情報算出部6cからの補正情報(制御入力ベクトル)とに基づいて、目標の予測値とその共分散行列を算出する。 Next, a prediction process is executed (step ST111). That is, the passive sensor processing unit 2c, based on the target smooth value calculated in step ST103 at the time of the previous observation, its covariance matrix, and the correction information (control input vector) from the correction information calculation unit 6c, Calculate the predicted value and its covariance matrix.
次いで、平滑処理(航跡出力)が実行される(ステップST103)。すなわち、パッシブセンサ処理部2cは、パッシブセンサ1からの目標の観測値とステップST111において算出された目標の予測値およびその共分散行列とに基づいて、目標の平滑値およびその共分散行列を算出する。 Next, smoothing processing (wake output) is executed (step ST103). That is, the passive sensor processing unit 2c calculates the target smooth value and the covariance matrix based on the target observation value from the passive sensor 1, the target predicted value calculated in step ST111, and the covariance matrix thereof. To do.
次に、補正情報算出部6cとパッシブセンサ処理部2cで行われる処理内容について、詳細に説明する。目標の運動モデルを以下のように定義する。
ここで、(xk−1、yk−1、zk−1)、(x(・)k−1、y(・)k−1、z(・)k−1)、(a(・)k−1、e(・)k−1)は、座標変換によって、データ融合航跡をパッシブセンサ1から見た目標の位置ベクトル、速度ベクトルおよび角速度ベクトル成分に変換した値である。 Here, (x k−1 , y k−1 , z k−1 ), (x (•) k−1 , y (•) k−1 , z (•) k−1 ), (a (• K−1 , e (•) k−1 ) are values obtained by converting the data fusion wake into a target position vector , velocity vector, and angular velocity vector component viewed from the passive sensor 1 by coordinate conversion.
上述したステップST111では、前回観測時の平滑処理の結果と制御入力ベクトルuk−1を用いて、以下の式で表される予測処理を実施する。
次いで、予測処理が実行される(ステップST112)。すなわち、パッシブセンサ処理部2dは、前回観測時のステップST103において算出された目標の平滑値およびその共分散行列と補正情報算出部6dからの補正情報(プロセス雑音共分散行列と制御入力ベクトル)とに基づいて、目標の予測値とその共分散行列を算出する。 Next, prediction processing is executed (step ST112). That is, the passive sensor processing unit 2d obtains the target smooth value calculated in step ST103 at the time of previous observation, its covariance matrix, and the correction information (process noise covariance matrix and control input vector) from the correction information calculation unit 6d. Based on the above, the target predicted value and its covariance matrix are calculated.
次いで、平滑処理(航跡出力)が実行される(ステップST103)。すなわち、パッシブセンサ処理部2dは、パッシブセンサ1からの目標の観測値とステップST112において算出された目標の予測値およびその共分散行列とに基づいて、目標の平滑値とその共分散行列を算出する。
Next, smoothing processing (wake output) is executed (step ST103). That is, the passive sensor processing unit 2d calculates a target smooth value and its covariance matrix based on the target observation value from the passive sensor 1, the target predicted value calculated in step ST112, and its covariance matrix. To do.
Claims (5)
前記補正情報算出部は、前記データ融合部からのデータ融合航跡に基づいて、補正情報として、前記パッシブセンサから目標までの距離を算出し、
前記パッシブセンサ処理部は、前記補正情報算出部で算出された目標までの距離に基づいてプロセス雑音共分散行列を算出し、算出したプロセス雑音共分散行列に基づいて、目標の航跡を算出することを特徴とする目標追跡装置。 Measure the target angle and output it as an observed value Input the observed value from the passive sensor to calculate the target track, and input the observed value from the active sensor to calculate the target track A data fusion unit that performs data fusion of these two wakes and outputs as a data fusion wake when it is determined that the wake from the active sensor processing unit and the wake from the passive sensor processing unit indicate the same target; A target tracking device including a correction information calculation unit that outputs correction information to the passive sensor processing unit,
The correction information calculation unit calculates the distance from the passive sensor to the target as correction information based on the data fusion track from the data fusion unit,
The passive sensor processing unit calculates a process noise covariance matrix based on the distance to the target calculated by the correction information calculation unit, and calculates a target wake based on the calculated process noise covariance matrix. A target tracking device.
前記補正情報算出部は、前記データ融合部からのデータ融合航跡とデータ融合航跡に対応し前記アクティブセンサ処理部から出力されるプロセス雑音共分散行列を含む目標航跡に基づいて、補正情報として、前記パッシブセンサの位置における目標のプロセス雑音共分散行列を算出し、
前記パッシブセンサ処理部は、前記補正情報算出部で算出されたプロセス雑音共分散行列に基づいて、目標の航跡を算出することを特徴とする目標追跡装置。 Measure the target angle and output it as an observed value Input the observed value from the passive sensor to calculate the target track, and input the observed value from the active sensor to calculate the target track A data fusion unit that performs data fusion of these two wakes and outputs as a data fusion wake when it is determined that the wake from the active sensor processing unit and the wake from the passive sensor processing unit indicate the same target; A target tracking device including a correction information calculation unit that outputs correction information to the passive sensor processing unit,
The correction information calculation unit corresponds to the data fusion wake from the data fusion unit and the data fusion wake corresponding to the target wake including the process noise covariance matrix output from the active sensor processing unit, as the correction information, Calculate the target process noise covariance matrix at the position of the passive sensor,
The passive sensor processing unit calculates a target track based on the process noise covariance matrix calculated by the correction information calculation unit.
前記補正情報算出部は、前記データ融合部からのデータ融合航跡に基づいて、補正情報として、前記パッシブセンサの位置における目標のバイアス誤差を算出して制御入力として出力し、
前記パッシブセンサ処理部は、前記補正情報算出部から出力される制御入力に基づいて、目標の予測値を算出することを特徴とする目標追跡装置。 Measure the target angle and output it as an observed value Input the observed value from the passive sensor to calculate the target track, and input the observed value from the active sensor to calculate the target track A data fusion unit that performs data fusion of these two wakes and outputs as a data fusion wake when it is determined that the wake from the active sensor processing unit and the wake from the passive sensor processing unit indicate the same target; A target tracking device including a correction information calculation unit that outputs correction information to the passive sensor processing unit,
The correction information calculation unit calculates a target bias error at the position of the passive sensor as correction information based on the data fusion track from the data fusion unit, and outputs it as a control input.
The passive sensor processing unit calculates a target prediction value based on a control input output from the correction information calculation unit.
前記補正情報算出部は、前記データ融合部からのデータ融合航跡、または、前記データ融合部からのデータ融合航跡とデータ融合航跡に対応し前記アクティブセンサ処理部から出力されるプロセス雑音共分散行列を含む目標航跡に基づいて、補正情報として、前記パッシブセンサの位置における目標のバイアス誤差を算出して制御入力として出力し、かつ、前記パッシブセンサから目標までの距離を算出し、または、前記パッシブセンサの位置における目標のプロセス雑音共分散行列を算出し、
前記パッシブセンサ処理部は、前記補正情報算出部から出力される制御入力に基づいて、目標の予測値を算出し、かつ、前記補正情報算出部で算出された目標までの距離に基づいて算出されたプロセス雑音共分散行列、または、前記補正情報算出部で算出されたプロセス雑音共分散行列に基づいて、目標の航跡を算出することを特徴とする目標追跡装置。 Measure the target angle and output it as an observed value Input the observed value from the passive sensor to calculate the target track, and input the observed value from the active sensor to calculate the target track A data fusion unit that performs data fusion of these two wakes and outputs as a data fusion wake when it is determined that the wake from the active sensor processing unit and the wake from the passive sensor processing unit indicate the same target; A target tracking device including a correction information calculation unit that outputs correction information to the passive sensor processing unit,
The correction information calculation unit corresponds to the data fusion track from the data fusion unit, or the process noise covariance matrix output from the active sensor processing unit corresponding to the data fusion track and the data fusion track from the data fusion unit. Based on the target track including, as correction information, a target bias error at the position of the passive sensor is calculated and output as a control input, and a distance from the passive sensor to the target is calculated, or the passive sensor Calculate the target process noise covariance matrix at
The passive sensor processing unit calculates a predicted value of a target based on a control input output from the correction information calculation unit, and is calculated based on a distance to the target calculated by the correction information calculation unit. A target tracking apparatus that calculates a target track based on the process noise covariance matrix or the process noise covariance matrix calculated by the correction information calculation unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009198348A JP5542393B2 (en) | 2009-08-28 | 2009-08-28 | Target tracking device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009198348A JP5542393B2 (en) | 2009-08-28 | 2009-08-28 | Target tracking device |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2011047882A JP2011047882A (en) | 2011-03-10 |
JP2011047882A5 true JP2011047882A5 (en) | 2012-04-19 |
JP5542393B2 JP5542393B2 (en) | 2014-07-09 |
Family
ID=43834349
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009198348A Expired - Fee Related JP5542393B2 (en) | 2009-08-28 | 2009-08-28 | Target tracking device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5542393B2 (en) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5748946B2 (en) * | 2009-08-28 | 2015-07-15 | 株式会社東芝 | Target tracking device |
JP5306389B2 (en) | 2011-02-25 | 2013-10-02 | 株式会社東芝 | Target tracking device |
CN104808197B (en) * | 2015-05-06 | 2017-04-05 | 四川九洲空管科技有限责任公司 | A kind of many monitoring source airbound target Parallel Tracking processing methods |
CN105277939B (en) * | 2015-09-30 | 2017-07-07 | 深圳大学 | For passive sensor to the goal directed method of empty observational network and guiding system |
CN105467382A (en) * | 2015-12-31 | 2016-04-06 | 南京信息工程大学 | SVM (Support Vector Machine)-based multi-sensor target tracking data fusion algorithm and system thereof |
CN107678024B (en) * | 2017-10-23 | 2020-12-29 | 中国民航科学技术研究院 | Light and small unmanned aerial vehicle fusion tracking method based on radar and infrared combined detection |
CN112666516A (en) * | 2020-11-30 | 2021-04-16 | 中国人民解放军国防科技大学 | Passive tracking method based on track information field |
CN112731371B (en) * | 2020-12-18 | 2024-01-23 | 重庆邮电大学 | Laser radar and vision fusion integrated target tracking system and method |
CN112986975B (en) * | 2021-02-07 | 2022-08-23 | 电子科技大学 | Distance weighting-based passive radar network centralized detection method |
CN113325415B (en) * | 2021-04-20 | 2023-10-13 | 武汉光庭信息技术股份有限公司 | Fusion method and system of vehicle radar data and camera data |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS58146877A (en) * | 1982-02-25 | 1983-09-01 | Nec Corp | Target discriminating device |
JPH0694830A (en) * | 1992-09-10 | 1994-04-08 | Mitsubishi Electric Corp | Same track deciding device |
JPH07128436A (en) * | 1993-11-04 | 1995-05-19 | Mitsubishi Heavy Ind Ltd | Sensor equipment of low detectability |
JP2002181926A (en) * | 2000-12-15 | 2002-06-26 | Furuno Electric Co Ltd | Method and apparatus for tracking of target |
JP4684591B2 (en) * | 2004-08-03 | 2011-05-18 | 三菱電機株式会社 | Tracking device and tracking processing method |
-
2009
- 2009-08-28 JP JP2009198348A patent/JP5542393B2/en not_active Expired - Fee Related
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2011047882A5 (en) | ||
JP5784526B2 (en) | Target tracking device | |
JP5542393B2 (en) | Target tracking device | |
JP5306389B2 (en) | Target tracking device | |
JP2012003233A5 (en) | ||
ATE512768T1 (en) | POSITION DETERMINATION OF AN OBJECT | |
RU2019138260A (en) | DEVICE, METHOD AND PROGRAM OF AUDIO PROCESSING | |
JP2007271564A5 (en) | ||
JP2014225843A5 (en) | ||
JP2008309631A5 (en) | ||
JP2011047881A5 (en) | ||
WO2011128766A3 (en) | Methods and systems for object tracking | |
JP2009244929A (en) | Tracking processing apparatus, tracking processing method, and program | |
JP2012008096A5 (en) | ||
WO2013001424A3 (en) | Ultrasound-image-guide system and volume-motion-base calibration method | |
JP2007299062A5 (en) | ||
JP2011069815A5 (en) | ||
JP2014126860A5 (en) | Optical apparatus, image blur correction apparatus, imaging apparatus, control method therefor, program, and storage medium | |
WO2009154294A1 (en) | Motion extraction device and program, image correction device and program, and recording medium | |
JP2016200858A5 (en) | ||
JP2016198279A5 (en) | ||
JP2012249968A5 (en) | ||
JP5748946B2 (en) | Target tracking device | |
JP2013121625A5 (en) | Robot equipment | |
US20160132125A1 (en) | System and method for generating gestures |