JP3415037B2 - Sensor group management device - Google Patents

Sensor group management device

Info

Publication number
JP3415037B2
JP3415037B2 JP24221198A JP24221198A JP3415037B2 JP 3415037 B2 JP3415037 B2 JP 3415037B2 JP 24221198 A JP24221198 A JP 24221198A JP 24221198 A JP24221198 A JP 24221198A JP 3415037 B2 JP3415037 B2 JP 3415037B2
Authority
JP
Japan
Prior art keywords
target
sensor
observation
error
evaluator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP24221198A
Other languages
Japanese (ja)
Other versions
JP2000075023A (en
Inventor
明男 山家
正義 系
信吾 辻道
義夫 小菅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP24221198A priority Critical patent/JP3415037B2/en
Publication of JP2000075023A publication Critical patent/JP2000075023A/en
Application granted granted Critical
Publication of JP3415037B2 publication Critical patent/JP3415037B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Radar Systems Or Details Thereof (AREA)

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】この発明は、複数のセンサを
使用して複数の目標を追尾する場合に、どのセンサがど
の目標を観測するかの割り当てを指示するセンサ群管理
装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a sensor group management device for instructing allocation of which sensor observes which target when a plurality of targets are tracked using a plurality of sensors.

【0002】[0002]

【従来の技術】図7は例えば、特開平9−257923
号公報に示された、従来のセンサ群管理装置を示すブロ
ック図である。図において、11 ,12 ,…,1n は追
尾の対象としての複数の目標であり、2はこれら複数の
目標11 〜1n をまとめた目標群である。ここでは、こ
の目標11 〜1n は例えば航空機である。31 ,32
…,3m はその目標群2を観測するための観測ビームで
ある。41 ,42 ,…,4m は当該観測ビーム31 〜3
m を用いて各目標11 〜1n を観測する複数のセンサで
あり、5はこれら複数のセンサ41 〜4m をまとめたセ
ンサ群である。ここでは、このセンサ群5を形成するセ
ンサ41 〜4m の具体例として、レーダ装置を考える。
2. Description of the Related Art FIG. 7 shows, for example, JP-A-9-257923.
It is a block diagram which shows the conventional sensor group management apparatus shown by the publication. In the figure, 11 1 , 12 2 , ..., 1 n are a plurality of targets to be tracked, and 2 is a target group in which the plurality of targets 1 1 to 1 n are put together. Here, the targets 1 1 to 1 n are, for example, aircraft. 3 1 , 3 2 ,
..., 3 m is an observation beam for observing the target group 2. 4 1 , 4 2 , ..., 4 m are the observation beams 3 1 to 3
a plurality of sensors for observing each target 1 1 to 1 n with m, 5 is a group of sensors summarizing the plurality of sensors 4 1 to 4 m. Here, as a specific example of the sensor 4 1 to 4 m for forming the sensor group 5, consider a radar apparatus.

【0003】6はセンサ群5の各センサ41 〜4m から
出力される観測情報を融合し、観測すべき対象である目
標11 〜1n ごとに整理して、後述する追尾フィルタ群
8に対して出力する観測情報融合器である。71
2 ,…,7n は観測情報融合器6より出力される観測
情報を受けて、上記各目標11 〜1n の追尾を行う追尾
フィルタである。8はこれら複数の追尾フィルタ71
n をまとめた追尾フィルタ群である。
Reference numeral 6 denotes a tracking filter group 8 which will be described later by fusing the observation information output from the respective sensors 4 1 to 4 m of the sensor group 5 and arranging them for each target 1 1 to 1 n to be observed. It is an observation information fusion device that outputs to. 7 1 ,
Reference numerals 7 2 , ..., 7 n are tracking filters for receiving the observation information output from the observation information fusion unit 6 and for tracking the targets 1 1 to 1 n . 8 is a plurality of tracking filters 7 1 to
7 n is a group of tracking filters.

【0004】9は観測情報融合器6の出力および追尾フ
ィルタ群8の出力を入力として、各目標11 〜1n の観
測の必要性を判断する観測必要性評価器である。10は
追尾フィルタ群8の出力を入力として、センサ群5の各
センサ41 〜4m と目標11〜1n の仮想的な割り当て
に対する評価値を出力する仮想割り当て器である。11
は観測情報融合器6の出力、追尾フィルタ群8の出力、
および仮想割り当て器10の出力を入力として、各セン
サ41 〜4m と各目標11 〜1n との位置関係などか
ら、各センサ41 〜4m が各目標11 〜1n の観測に対
する有効性を算出する観測効果判定器である。
Reference numeral 9 is an observation necessity evaluator which receives the output of the observation information fusion unit 6 and the output of the tracking filter group 8 and judges the necessity of observation of each of the targets 1 1 to 1 n . 10 as an input the output of the tracking filter group 8, which is a virtual allocator for outputting an evaluation value for the virtual assignment of each sensor 4 1 to 4 m and the target 1 1 to 1 n of the sensors 5. 11
Is the output of the observation information fusion unit 6, the output of the tracking filter group 8,
And the output of the virtual allocator 10 as an input, each sensor 4 1 to 4 m observes each target 1 1 to 1 n based on the positional relationship between each sensor 4 1 to 4 m and each target 1 1 to 1 n . It is an observation effect determiner that calculates the effectiveness against.

【0005】12は観測必要性評価器9より出力される
必要性の判断結果、および観測効果評価判定器11より
出力される観測に対する有効性が評価値として入力さ
れ、上記各センサ41 〜4m からのそれぞれの観測ビー
ム31 〜3m を上記各目標11〜1n のいずれに割り当
てるかを決定する割り当て器である。13はこの割り当
て器12における割り当て手順を与えるルールである。
[0005] 12 determination result of the need to be outputted from the observed need estimator 9, and the efficacy is inputted as the evaluation value for the observed output from the observed effect evaluation determiner 11, the sensors 4 1 to 4 each of the observation beam 3 1 to 3 m from m is an allocator for determining whether to assign to one of the respective target 1 1 to 1 n. Reference numeral 13 is a rule that gives an allocation procedure in the allocation unit 12.

【0006】次に動作について説明する。まず、追尾フ
ィルタ71 〜7n は観測すべき対象である目標11 〜1
n に対応しており、したがってその数も目標11 〜1n
と同数だけ存在する。追尾フィルタ群8は対応する目標
1 〜1n の観測情報がセンサ41 〜4m より得られた
場合にはそれらを受け、得られない場合には外挿を行
う。これによって、それぞれの目標11 〜1n の位置と
速度の推定および予測を行い、各目標11 〜1n の追尾
情報を更新して出力する。なお、この追尾情報は追尾フ
ィルタ群8の出力となる。
Next, the operation will be described. First, the tracking filters 7 1 to 7 n are targets 1 1 to 1 to be observed.
Corresponding to n , and therefore the number of targets 1 1 to 1 n
There are as many as. Tracking filter group 8 receives them when the observation information of the corresponding target 1 1 to 1 n is obtained from the sensor 4 1 to 4 m, performs extrapolation if not obtained. This performs estimation and prediction of the position and velocity of each target 1 1 to 1 n, and outputs the updated tracking information for each target 1 1 to 1 n. The tracking information is output from the tracking filter group 8.

【0007】観測必要性評価器9は観測情報融合器6で
融合された観測情報と追尾フィルタ群8からの追尾情報
を受け、目標の追尾誤差の期待値、目標の位置、目標ま
での距離、目標の進行方向、目標の速度、目標の動き、
目標自体の重要度などの全部または一部に基づいて各目
標11 〜1n の観測必要性評価を行い、各目標11 〜1
n ごとの評価値を出力する。
The observation necessity evaluator 9 receives the observation information fused by the observation information fusion unit 6 and the tracking information from the tracking filter group 8, and receives the expected value of the tracking error of the target, the position of the target, the distance to the target, Target direction, target speed, target movement,
Based on all or part of the importance of the goal itself, the observation necessity of each goal 1 1 to 1 n is evaluated, and each goal 1 1 to 1 n is evaluated.
Output the evaluation value for each n .

【0008】仮想割り当て器10は追尾フィルタ群8の
出力を受けて、例えば各センサ41〜4m を各目標11
〜1n に仮想的に割り当てた場合の、それぞれの組合せ
における追尾誤差の期待値を計算して出力する。
The virtual allocator 10 receives the output of the tracking filter group 8 and sends each of the sensors 4 1 to 4 m to each target 1 1
The expected value of the tracking error in each combination when virtually assigned to ˜1 n is calculated and output.

【0009】観測効果判定器11は観測情報融合器6、
追尾フィルタ群8、仮想割り当て器10などの出力を受
けて、目標11 〜1n までの距離やセンサ41 〜4m
性能、観測前後の推定誤差分散の差などにより、センサ
1 〜4m と目標11 〜1nとの各組合せに対して評価
値を決定する。
The observation effect determiner 11 is an observation information fusion unit 6,
Tracking filter group 8 receives the output of such virtual allocator 10, the target 1 1 to 1 distance and sensors 4 1 to 4 m performance of up to n, due difference between the estimated error variance around the observation, sensors 4 1 to An evaluation value is determined for each combination of 4 m and targets 1 1 to 1 n .

【0010】割り当て器12は追尾フィルタ群8よりの
追尾情報および、観測必要性評価器9、観測効果判定器
11よりの評価値を入力として受け取り、入力された追
尾情報および評価値をもとに、ルール13により与えら
れる割り当ての手順にしたがって、観測ビーム31 〜3
m を目標11 〜1n のいずれに割り当てるかを決定し
て、それを割り当て情報として出力する。なお、この割
り当て情報はセンサ群5の入力となり、新たな観測情報
が取得される。
The allocator 12 receives the tracking information from the tracking filter group 8 and the evaluation values from the observation necessity evaluator 9 and the observation effect determiner 11 as inputs, and based on the input tracking information and evaluation values. , The observation beams 3 1 to 3 according to the allocation procedure given by rule 13.
It is determined which of the targets 1 1 to 1 n is to be assigned with m , and this is output as assignment information. The allocation information is input to the sensor group 5, and new observation information is acquired.

【0011】ここで、上記追尾フィルタ71 〜7n とし
て一般に使われるカルマンフィルタの処理アルゴリズム
について説明する。ここで、サンプリング時刻をt
k (k=1,2,…)とする。カルマンフィルタの理論
では、まず、目標11 〜1n の運動モデルを次の式
(1)のように表現する。 xk =Φ(tk-1 ,tk )xk-1 +Γ(tk-1 ,tk )wk-1 ・・・(1)
The processing algorithm of the Kalman filter generally used as the tracking filters 7 1 to 7 n will be described below. Here, the sampling time is t
Let k (k = 1, 2, ...). In the Kalman filter theory, first, the motion model of the targets 1 1 to 1 n is expressed by the following expression (1). x k = Φ (t k-1 , t k ) x k-1 + Γ (t k-1 , t k ) w k-1 (1)

【0012】上記式(1)において、xk はサンプリン
グ時刻tk における目標11 〜1nの運動諸元の真値を
表すN次元の状態ベクトルであり、Φ(tk-1 ,tk
はサンプリング時刻tk-1 からサンプリング時刻tk
の状態ベクトルxk の推移を表すN×Nの推移行列であ
る。また、wk はサンプリング時刻tk におけるs次元
の駆動雑音ベクトルで、平均0、共分散行列Qk のs変
量正規分布にしたがった白色雑音系列であるとする。こ
の駆動雑音は実際の目標11 〜1n の動きが、上記式
(1)にて設定した運動モデルに合致していない場合の
状態ベクトルの乱れを励起するものである。Γ
(tk-1 ,tk )は駆動雑音ベクトルの変換行列で、N
×s行列である。
In the above equation (1), x k is an N-dimensional state vector representing the true value of the motion parameters of the targets 1 1 to 1 n at the sampling time t k , and Φ (t k-1 , t k )
Is an N × N transition matrix representing the transition of the state vector x k from the sampling time t k−1 to the sampling time t k . It is also assumed that w k is an s-dimensional driving noise vector at the sampling time t k, which is a white noise series according to the mean 0 and the s-variate normal distribution of the covariance matrix Q k . This drive noise excites the disturbance of the state vector when the actual movements of the targets 1 1 to 1 n do not match the motion model set by the above equation (1). Γ
(T k−1 , t k ) is a conversion matrix of the driving noise vector, and N
Xs matrix.

【0013】ここで、例えばxyzの直交座標系におけ
る目標11 〜1n の位置および速度を追尾する場合、上
記式(1)の運動モデルとして、次の式(2)〜(4)
のように設定することができる。この場合、駆動雑音w
k はx,y,zの各軸の加速度相当の外乱入力を表す3
次元ベクトルとする。なお、IN*N はN×Nの単位行列
を表す。
Here, for example, when tracking the positions and velocities of the targets 1 1 to 1 n in the xyz orthogonal coordinate system, the following equations (2) to (4) are used as the motion model of the above equation (1).
Can be set like. In this case, the driving noise w
k represents a disturbance input corresponding to acceleration on each axis of x, y, and z 3
It is a dimension vector. Note that I N * N represents an N × N identity matrix.

【0014】[0014]

【数1】 [Equation 1]

【0015】次に、観測装置の観測モデルを次の式
(5)のように表現する。 zk =Hxk +vk ・・・(5) なお、この式(5)において、zk はサンプリング時刻
k におけるu次元の観測値ベクトルであり、Hはu×
Nの観測行列である。また、vk はサンプリング時刻t
k における観測値ベクトルzk に対応したu次元の観測
雑音ベクトルであり、平均0、共分散行列Rk のu変量
正規分布にしたがった白色雑音系列であるとする。な
お、駆動雑音ベクトルwk と観測雑音ベクトルvk は互
いに独立であるものとする。
Next, the observation model of the observation device is expressed as in the following equation (5). z k = Hx k + v k (5) In this equation (5), z k is a u-dimensional observation value vector at the sampling time t k , and H is u ×
It is an N observation matrix. Also, v k is the sampling time t
an observation noise vector u dimension corresponding to the observed value vector z k in k, and average 0, a white noise sequence in accordance with u variate normal distribution of the covariance matrix R k. The driving noise vector w k and the observation noise vector v k are independent of each other.

【0016】ここで、例えば観測装置の検出結果に基づ
き、xyzの直交座標系における目標11 〜1n の位置
が観測値として得られる場合には、上記式(5)の観測
モデルとして次の式(6)および式(7)のように設定
することができる。
Here, for example, when the positions of the targets 1 1 to 1 n in the xyz rectangular coordinate system are obtained as observed values based on the detection result of the observation device, the following observation model of the above equation (5) is obtained. It can be set as in Expression (6) and Expression (7).

【0017】[0017]

【数2】 [Equation 2]

【0018】また、サンプリング時刻tk までの観測値
ベクトルの集積を次の式(8)のように表すこととす
る。 Zk ={z1 ,z2 ,z3 ,…,zk-1 ,zk } ・・・(8)
Further, the accumulation of the observation value vectors up to the sampling time t k is represented by the following equation (8). Z k = {z 1 , z 2 , z 3 , ..., Z k-1 , z k } (8)

【0019】カルマンフィルタの理論によれば、上記モ
デルにしたがってサンプリング時刻tk で観測値が得ら
れた場合の状態ベクトルxk の推定値∧xkは、次の式
(9)〜式(13)によって計算される。ただし、Qk
は目標11 〜1n のパラメータで、Rk はセンサ41
m のパラメータであるとする。なお、Tは行列の転置
を表す。
According to the Kalman filter theory, the estimated value ∧x k of the state vector x k when the observation value is obtained at the sampling time t k according to the above model is expressed by the following equations (9) to (13). Calculated by However, Q k
Is a parameter of the targets 1 1 to 1 n , and R k is the sensor 4 1 to
It is assumed that the parameter is 4 m . Note that T represents the transpose of the matrix.

【0020】 ¨xk =Φ(tk-1 ,tk ) ∧xk-1 ・・・(9) ∧xk =¨xk +Kk {zk −H¨xk } ・・・(10) ただし、 ¨Pk =Φ(tk-1 ,tk ) ∧Pk-1 Φ(tk-1 ,tk T +Γ(tk-1 ,tk )Qk-1 Γ(tk-1 ,tk T ・・・(11) Kk =¨Pk T [H¨Pk T +Rk -1 ・・・(12) ∧Pk =[IN*N −Kk H]¨Pk ・・・(13)¨x k = Φ (t k-1 , t k ) ∧x k-1 (9) ∧x k = ¨x k + K k {z k −H ¨x k } ... ( 10) However, ¨P k = Φ (t k-1 , t k ) ∧P k-1 Φ (t k-1 , t k ) T + Γ (t k-1 , t k ) Q k-1 Γ ( t k-1, t k) T ··· (11) K k = ¨P k H T [H¨P k H T + R k] -1 ··· (12) ∧P k = [I N * N -K k H] ¨P k ··· ( 13)

【0021】また、サンプリング時刻tk で観測値が得
られなかった場合の、状態ベクトルxk の推定値 ∧xk
は、次の式(14)〜(17)によって計算される。
なお、この処理を一般に外挿と呼ぶ。
Further, when the observed value at the sampling time t k is not obtained, the estimated value ∧X k of the state vector x k
Is calculated by the following equations (14) to (17).
Note that this process is generally called extrapolation.

【0022】 ¨xk =Φ(tk-1 ,tk ) ∧xk-1 ・・・(14) ∧xk =¨xk ・・・(15) ただし、 ¨Pk =Φ(tk-1 ,tk ) ∧Pk-1 Φ(tk-1 ,tk T +Γ(tk-1 ,tk )Qk-1 Γ(tk-1 ,tk T ・・・(16) ∧Pk =¨Pk ・・・(17)¨x k = Φ (t k-1 , t k ) ∧x k-1 (14) ∧x k = ¨x k (15) where ¨P k = Φ (t k-1 , t k ) ∧ P k-1 Φ (t k-1 , t k ) T + Γ (t k-1 , t k ) Q k-1 Γ (t k-1 , t k ) T ···・ (16) ∧P k = ¨P k (17)

【0023】ここで、 ∧xk ,¨xk , ∧Pk ,¨P
k はそれぞれ、次の式(18)〜(21)のように定義
される。 ∧xk =E[xk |Zk ] ・・・(18) ¨xk =E[xk |Zk-1 ] ・・・(19) ∧Pk =E[(xk − ∧xk )(xk − ∧xkT |Zk ] ・・・(20) ¨Pk =E[(xk −∧xk )(xk −∧xkT |Zk-1 ] ・・・(21)
Where ∧x k , ¨x k , ∧P k , ¨P
Each k is defined by the following equations (18) to (21). ∧x k = E [x k | Z k] ··· (18) ¨x k = E [x k | Z k-1] ··· (19) ∧P k = E [(x k - ∧x k) (x k - ∧x k ) T | Z k] ··· (20) ¨P k = E [(x k -∧x k) (x k -∧x k) T | Z k-1] ... (21)

【0024】ただし、この式(18)〜(21)におい
て、E[|]は平均操作を表す記号である。また、∧x
kはサンプリング時刻tk までの観測情報Zk に基づく
k の条件付き平均値であり、サンプリング時刻tk
での観測情報Zk に基づいてサンプリング時刻tk の状
態ベクトルの真値を推定した平滑ベクトルに相当する。
¨xk はサンプリング時刻tk-1 までの観測情報Zk-1
に基づくxk の条件付き平均値であり、サンプリング時
刻tk-1 までの観測情報Zk-1 に基づいてサンプリング
時刻tk での状態ベクトルの真値を推定した予測ベクト
ルに相当する。さらに、∧Pk,¨Pk はそれぞれ、∧
k,¨xk の誤差共分散行列を表す平滑誤差分散行列
および予測誤差共分散行列である。また、式(12)の
k はカルマンゲイン行列と呼ばれ、N×u行列であ
る。なお、上記式(9)〜(17)により算出される平
滑ベクトル ∧xk は、観測情報Zk の下での、推定誤
差の平均がゼロで分散が最小となる意味で最適な推定値
となる。
However, in these equations (18) to (21), E [|] is a symbol representing an averaging operation. Also, ∧x
k is the conditional mean value of x k based on the observation information Z k to the sampling time t k, estimated the true value of the state vector of the sampling time t k on the basis of the observation information Z k to the sampling time t k Corresponds to a smooth vector.
¨x k is observation information Z k-1 up to the sampling time t k-1
A conditional mean value of x k based on, corresponds to the prediction vector estimating the true value of the state vector of the basis of the observation information Z k-1 to the sampling time t k-1 at the sampling time t k. Further, ∧P k and ¨P k are respectively ∧
The smoothing error covariance matrix and the prediction error covariance matrix representing the error covariance matrix of x k , ¨x k . Further, x k in the equation (12) is called a Kalman gain matrix and is an N × u matrix. The smooth vector ∧x k calculated by the above equations (9) to (17) is an optimum estimated value in the sense that the average of the estimation error is zero and the variance is minimum under the observation information Z k. Become.

【0025】なお、カルマンフィルタに基づく追尾フィ
ルタ71 〜7n には以下に示す問題点がある。上記カル
マンフィルタの式からもわかるように、目標11 〜1n
の予測誤差共分散¨Pk と平滑誤差共分散∧Pk 、およ
びカルマンゲイン行列Kk の算出には実際の観測値が反
映されない。さらに、目標11 〜1n が等速直線運動や
旋回運動などをおりまぜて雑多な運動を行う場合、あら
かじめ運動モデルを設定することは困難である。以上の
理由により、目標11 〜1n が運動モデルに合致しない
運動を行ったときには、カルマンフィルタは観測値とか
け離れた予測値を出力し続ける場合がある。その結果と
して、センサ41 〜4m を予測値の方向に向けて目標1
1 〜1n を観測しようとしたときに、センサ41 〜4m
の観測範囲に目標11 〜1n が入らず、追尾をはずして
しまうといったことが起こる。
The tracking filters 7 1 to 7 n based on the Kalman filter have the following problems. As can be seen from the above Kalman filter equation, the targets 1 1 to 1 n
The actual observed values are not reflected in the calculation of the prediction error covariance P k , the smooth error covariance ∧ P k , and the Kalman gain matrix K k . Furthermore, when the targets 1 1 to 1 n perform a variety of motions by mixing constant velocity linear motion and turning motion, it is difficult to set a motion model in advance. For the above reasons, when the target 1 1 to 1 n makes a movement that does not match the motion model, the Kalman filter is sometimes continues to output the predicted value far from the observations. As a result, towards the sensor 4 1 to 4 m in the direction of the predicted value G1
When trying to observe the 1 to 1 n, the sensor 4 1 to 4 m
Targets 1 1 to 1 n do not enter the observation range, and tracking may be lost.

【0026】この問題を回避するための手法としては、
例えば、特開昭62−27677号公報あるいは特開昭
62−27679号公報などに記載されたものがある。
これらは、目標11 〜1n の旋回をカイ2乗検定によっ
て検出する機能を付加したカルマンフィルタを用いたも
のであって、駆動雑音の共分散行列Qk を大小2種類用
意しておき、目標11 〜1n が等速直線運動をしている
と判断したときには小さい方の共分散行列Qk を、旋回
運動をしていると判断したときには大きい方の共分散行
列Qk をそれぞれ使用する第1の方法と、大小2種類の
サンプリング間隔を持っていて、目標が旋回運動をして
いると判断したときにサンプリング間隔を小さくする第
2の方法とを備えるものである。
As a method for avoiding this problem,
For example, there are those described in JP-A-62-27677 or JP-A-62-27679.
These use a Kalman filter to which the function of detecting the turns of the targets 1 1 to 1 n by the chi-square test is added, and two types of driving noise covariance matrix Q k are prepared, The smaller covariance matrix Q k is used when it is determined that 1 1 to 1 n are performing uniform velocity linear motion, and the larger covariance matrix Q k is used when it is determined that they are performing turning motion. The first method and the second method, which has two types of sampling intervals of large and small, and reduces the sampling interval when it is determined that the target is making a turning motion, are provided.

【0027】しかしながら、これらの手法によっても完
全に上記問題を解決することはできない。なぜならば、
観測雑音の影響を受けるために、駆動雑音を目標11
nの旋回運動に会わせて適時的に適正な値に設定する
のは実際には困難であるからである。
However, even these methods cannot completely solve the above problem. because,
In order to receive the influence of observation noise, Goal 1 1 to the drive noise
This is because it is actually difficult to set a proper value in a timely manner by meeting the turning motion of 1 n .

【0028】また、サンプリング間隔はセンサ41 〜4
m の能力を越えていくらでも細かく設定できるものでは
なく、サンプリング間隔を可変にするためには、センサ
1〜4m としてレーダを用いる場合、そのアンテナの
設計段階から仕様として考慮しなければならないので、
現有のサンプリング間隔一定のセンサ41 〜4m (レー
ダ)を利用する場合には意味がない。
Further, the sampling intervals are the sensors 4 1 to 4
not intended to be any number finely set over a m capacity of, to the sampling interval is variable, when using the radar as the sensor 4 1 to 4 m, so must be considered as a specification from the design stage of the antenna ,
There is no point in case of using the existing sampling interval certain sensor 4 1 to 4 m (radar).

【0029】さらに、単一のセンサでサンプリング間隔
を変える場合であればまだしも、センサ群管理装置では
センサ群5内の複数のセンサ41 〜4m を管理している
ため、サンプリング間隔がそれぞれ異なると、各センサ
1 〜4m ごとのスケジューリングの問題が発生し、最
適化問題としてセンサ割り当てを決定することは手に負
えない問題となる。
Furthermore, Madashimo in the case of changing the sampling interval by a single sensor, since the sensor group management apparatus manages a plurality of sensors 4 1 to 4 m in the sensor group 5, different sampling interval, respectively When scheduling problems occur for each sensor 4 1 to 4 m, determining the sensor allocation as an optimization problem becomes intractable problem.

【0030】[0030]

【発明が解決しようとする課題】従来のセンサ群管理装
置は以上のように構成されているので、カルマンフィル
タに基づく追尾フィルタ71 〜7n を使用した場合、設
定した運動モデルと目標11 〜1n の実際の運動が合致
していれば、追尾フィルタ71 〜7n が算出する追尾誤
差(真値と予測値との差)の期待値は妥当であるが、合
致していないとカルマンフィルタの上記問題点の通り、
観測値と予測値の差が大きくなるばかりか、追尾誤差の
分散値に観測値が反映されず、実際は追尾誤差が増加し
ているにもかかわらず、結果的には誤差の期待値は小さ
く評価されることになるため、追尾フィルタ71 〜7n
としてカルマンフィルタを使用した場合、観測必要性が
結果的に不当に小さく評価され、センサ41 〜4m が割
り当てられる頻度が不十分となって、追尾をはずしてし
まうという課題があった。
Since the conventional sensor group management device is configured as described above, when the tracking filters 7 1 to 7 n based on the Kalman filter are used, the set motion model and the target 1 1 to If 1 n of the actual motions match, the expected value of the tracking error (difference between the true value and the predicted value) calculated by the tracking filters 7 1 to 7 n is valid, but if they do not match, the Kalman filter does not. According to the above problems of
Not only does the difference between the observed value and the predicted value increase, but the observed value is not reflected in the variance of the tracking error, and as a result, the expected error value is evaluated as small, even though the tracking error actually increases. Tracking filters 7 1 to 7 n
When using a Kalman filter as observation need is evaluated consequently unduly small, the frequency of the sensor 4 1 to 4 m is allocated is insufficient, there is a problem that remove the tracking.

【0031】また、旋回検出機能を備えたカルマンフィ
ルタでは、目標11 〜1n の運動モデルからの逸脱の程
度に合わせて適正な駆動雑音分散を推定できれば、目標
1〜1n を追従するようになるばかりか、予測誤差分
散および平滑誤差分散もこれを反映して、それなりに大
きな値となって出力されるが、実際には観測誤差の影響
を受けるため、駆動雑音分散を適正に推定することは困
難であり、したがってモデルが合致しないことに起因し
て追尾をはずしてしまう危険性を完全に拭うことはでき
ないといった課題もあった。
Further, in the Kalman filter having the turning detection function, if the appropriate drive noise variance can be estimated in accordance with the degree of deviation of the targets 1 1 to 1 n from the motion model, the targets 1 1 to 1 n are tracked. In addition to this, the prediction error variance and smoothing error variance also reflect this and are output as large values as they are, but in practice they are affected by the observation error, so the drive noise variance is properly estimated. However, there is also a problem that the risk of losing tracking due to model mismatch cannot be completely eliminated.

【0032】この発明は上記のような課題を解決するた
めになされたもので、各追尾フィルタの出力をさらに監
視することによって追尾がはずれそうになっている目標
を検出し、その目標に対してより優先的にセンサを割り
当てることで、追尾をはずしてしまう危険性を防止でき
るセンサ群管理装置を得ることを目的とする。
The present invention has been made to solve the above problems, and further monitors the output of each tracking filter to detect a target which is about to lose tracking, and detects the target. An object of the present invention is to obtain a sensor group management device capable of preventing the risk of tracking loss by allocating sensors with higher priority.

【0033】[0033]

【0034】[0034]

【課題を解決するための手段】 この発明に係るセンサ群
管理装置は、センサ群からの観測情報を目標ごとに選別
する入力装置と、この入力装置の出力に応じて目標を追
尾するカルマンフィルタにて構成された追尾フィルタ群
と、これら入力装置と追尾フィルタ群の出力より予測誤
差のバイアス成分を評価するバイアス誤差評価器と、追
尾フィルタ群の出力より予測誤差のランダム成分を評価
するランダム誤差評価器と、バイアス誤差評価器とラン
ダム誤差評価器の出力に基づいて各目標ごとの観測必要
性を評価する観測必要性評価器と、各センサから各目標
への割り当てを仮想的に決定する仮想割り当て器と、追
尾フィルタ群および仮想割り当て器の出力を受けてセン
サと目標との各組合せに対して評価値を決定する観測効
果判定器と、追尾フィルタ群からの追尾情報、および観
測必要性評価器と前記観測効果判定器からの評価値に基
づいて、各センサと各目標との割り当てを決定する割り
当て器と、センサ群の各センサのセンサ諸元を出力する
センサ諸元入力装置とを備え、バイアス誤差評価器が、
センサ諸元入力器からのセンサ諸元と、入力装置からの
観測情報および追尾フィルタ群からの追尾情報を受け
て、観測情報に含まれる目標観測位置と追尾情報に含ま
れる目標予測位置の差をローパスフィルタで平滑するこ
とにより、目標群の各目標それぞれの予測誤差のバイア
ス成分を算出して、当該予測誤差のバイアス成分をセン
サ諸元に含まれる前記各センサそれぞれの観測範囲で規
格化し、規格化された予測誤差のバイアス成分の最小
値、平均値、あるいは最大値などの統計量をとって、各
目標それぞれのバイアス誤差評価値として出力するもの
である。
A sensor group management device according to the present invention selects observation information from a sensor group for each target.
Target according to the input device and the output of this input device.
Tracking filter group consisting of tailing Kalman filter
And the prediction error from the output of these input devices and the tracking filter group.
A bias error evaluator that evaluates the bias component of the difference
Evaluate the random component of the prediction error from the output of the tail filter group
Random error estimator and bias error estimator
Observed for each target based on the output of the dam error evaluator
Necessity from the observation necessity evaluator and each sensor
Virtual assigner that virtually determines the assignment to
The outputs of the tail filter group and the virtual allocator are received.
Observation effect that determines the evaluation value for each combination of service and target
Result determiner, tracking information from tracking filters, and
Based on the evaluation values from the measurement necessity evaluator and the observation effect evaluator
Based on this, the assignment of each sensor to each goal is determined.
Output sensor specifications of the patch and each sensor of the sensor group
With a sensor specification input device, a bias error evaluator,
Sensor specifications from the input device and the sensor specifications from the input device
Receives observation information and tracking information from the tracking filter group.
The target observation position included in the observation information and the tracking information.
The difference between the target predicted positions
And the bias of prediction error for each goal in the goal group
Calculate the bias component of the prediction error.
Specified by the observation range of each of the sensors included in the specifications.
Minimized bias component of the normalized and standardized prediction error
Take statistics such as values, averages, or maximums, and
Output as bias error evaluation value for each target
Is.

【0035】この発明に係るセンサ群管理装置は、セン
サ群からの観測情報を目標ごとに選別する入力装置と、
この入力装置の出力に応じて目標を追尾するカルマンフ
ィルタにて構成された追尾フィルタ群と、これら入力装
置と追尾フィルタ群の出力より予測誤差のバイアス成分
を評価するバイアス誤差評価器と、追尾フィルタ群の出
力より予測誤差のランダム成分を評価するランダム誤差
評価器と、バイアス誤差評価器とランダム誤差評価器の
出力に基づいて各目標ごとの観測必要性を評価する観測
必要性評価器と、各センサから各目標への割り当てを仮
想的に決定する仮想割り当て器と、追尾フィルタ群およ
び仮想割り当て器の出力を受けてセンサと目標との各組
合せに対して評価値を決定する観測効果判定器と、追尾
フィルタ群からの追尾情報、および観測必要性評価器と
前記観測効果判定器からの評価値に基づいて、各センサ
と各目標との割り当てを決定する割り当て器と、センサ
群の各センサのセンサ諸元を出力するセンサ諸元入力装
置とを備え、ランダム誤差評価器が、センサ諸元入力器
からのセンサ諸元と、追尾フィルタ群からの追尾情報を
受けて、追尾情報に含まれる目標予測位置および予測誤
差共分散行列より求まる誤差楕円体の極座標系E−By
平面での面積を、センサ諸元に含まれる各センサそれぞ
れの観測領域のE−By平面での面積で規格化し、規格
化された誤差楕円体のE−By平面での面積の最小値、
平均値、あるいは最大値などの統計量をとって、各目標
それぞれのランダム誤差評価値として出力するものであ
る。
The sensor group management apparatus according to the present invention, Sen
An input device that selects the observation information from the group of objects for each target,
Kalmanfu that tracks the target according to the output of this input device
Filter group consisting of filters and these input devices.
Bias component of the prediction error from the output of the storage and tracking filters
Bias error evaluator for evaluating
Random error that evaluates random component of prediction error from force
Evaluator, bias error evaluator and random error evaluator
Observation that evaluates the observation need for each target based on the output
The need evaluator and the assignment from each sensor to each goal are tentative.
Virtual allocator that makes an ideal decision, tracking filters, and
And the output of the virtual allocator and each pair of sensor and target
Observation effect determiner that determines the evaluation value for tracking and tracking
Tracking information from the filter group, and the observation necessity evaluator
Based on the evaluation value from the observation effect determiner, each sensor
And a allocator that determines the allocation between each
Sensor specification input device that outputs the sensor specifications of each sensor in the group
The random error evaluator is equipped with
Sensor specifications from and tracking information from the tracking filter group.
The target predicted position and prediction error included in the tracking information
Polar coordinate system E-By of error ellipsoid obtained from difference covariance matrix
The area on a plane is calculated for each sensor included in the sensor specifications.
Normalize by the area of the observation area on the E-By plane,
Minimum value of the area of the converted error ellipsoid on the E-By plane,
Each target is calculated by taking statistics such as average value or maximum value
It is output as each random error evaluation value.
It

【0036】この発明に係るセンサ群管理装置は、入力
装置からの観測情報と追尾フィルタ群からの追尾情報に
基づいて、目標が旋回運動を行っているかどうかの評価
を行う機能を、バイアス誤差評価器に持たせたものであ
る。
The sensor group management device according to the present invention is an input device.
For the observation information from the device and the tracking information from the tracking filter group.
Based on the evaluation of whether the target is making a turning motion
The bias error evaluator has the function of
It

【0037】この発明に係るセンサ群管理装置は、目標
の予測位置と観測位置の差をローパスフィルタを用いて
平滑することによって、各目標の予測誤差のバイアス成
分を計算して出力する機能を、バイアス誤差評価器に持
たせたものである。
The sensor group management apparatus according to the present invention, the target
The difference between the predicted position and the observed position of the
By smoothing, the bias error of the prediction error of each target is
The bias error evaluator has a function to calculate and output the minutes.
It was made.

【0038】この発明に係るセンサ群管理装置は、目標
の予測誤差共分散行列より算出した誤差楕円体の長軸半
径により、目標の予測誤差のランダム成分を評価する機
能を、ランダム誤差評価器に持たせたものである。
The sensor group management device according to the present invention has a target
Half-axis of the error ellipsoid calculated from the prediction error covariance matrix of
A machine that evaluates the random component of the target prediction error based on the diameter.
The random error evaluator has the function.

【0039】この発明に係るセンサ群管理装置は、各目
標の観測必要性を、バイアス誤差評価器とランダム誤差
評価器からの出力の重み付け平均をとって決定する機能
を、観測必要性評価器に持たせたものである。
In the sensor group management device according to the present invention, the observation necessity evaluator has a function of determining the observation necessity of each target by taking the weighted average of the outputs from the bias error evaluator and the random error evaluator. It is what I had.

【0040】この発明に係るセンサ群管理装置は、重要
度評価器を設けて、目標の位置、目標までの距離、目標
の進行方向、目標の速度、目標の動き、目標自体の注目
度の一部または全部に基づいて各目標ごとの重要度を評
価し、観測必要性評価器に、この重要度評価器からの出
力と、バイアス誤差評価器およびランダム誤差評価器か
らの出力を受けてそれらの重み付け平均をとり、各目標
の観測必要性評価値を決定する機能を持たせたものであ
る。
The sensor group management apparatus according to the present invention is provided with an importance level evaluator, and determines the position of the target, the distance to the target, the direction of travel of the target, the speed of the target, the movement of the target, and the degree of attention of the target itself. The importance of each goal is evaluated based on all or part, and the observation necessity evaluator receives the output from this importance evaluator and the outputs from the bias error estimator and the random error evaluator, and outputs them. It has a function of taking a weighted average and determining the observation necessity evaluation value of each target.

【0041】この発明に係るセンサ群管理装置は、目標
とセンサとの各組合せに対する評価値として、観測必要
性評価器の出力と観測効果判定器の出力との積を計算
し、当該評価値に対する組合せ最適化問題の解としてセ
ンサ割り当てを決定する機能を、割り当て器に持たせた
ものである。
The sensor group management device according to the present invention calculates the product of the output of the observation necessity evaluator and the output of the observation effect determiner as the evaluation value for each combination of the target and the sensor, and calculates the evaluation value for the evaluation value. The assigner has a function of determining sensor assignment as a solution of the combinatorial optimization problem.

【0042】[0042]

【発明の実施の形態】以下、この発明の実施の一形態を
説明する。 実施の形態1.図1は、この発明の実施の形態1による
センサ群管理装置の構成を示すブロック図である。図に
おいて、11 ,12 ,…,1n は観測対象としての複数
の目標である。これら目標11 〜1n は、例えば航空機
あるいは航空機以外の飛翔体である。また、航空機には
その速度に応じて、比較的高速なジェット機、比較的低
速なヘリコプター、これらの中間のプロペラ機が含まれ
る。また、その大きさに応じて、ジャンボジェット機な
どの大型航空機、セスナ機などの小型航空機が含まれ
る。2はこの複数の目標11 〜1n をまとめた目標群で
ある。
BEST MODE FOR CARRYING OUT THE INVENTION An embodiment of the present invention will be described below. Embodiment 1. 1 is a block diagram showing a configuration of a sensor group management device according to a first embodiment of the present invention. In the figure, 1 1 , 1 2 , ..., 1 n are a plurality of targets to be observed. These targets 1 1 to 1 n are, for example, aircraft or flying bodies other than aircraft. Aircraft also include relatively high speed jets, relatively low speed helicopters, and propellers in between, depending on their speed. In addition, large aircraft such as jumbo jet aircraft and small aircraft such as Cessna aircraft are included according to their sizes. Reference numeral 2 is a goal group in which the plurality of goals 1 1 to 1 n are put together.

【0043】また、31 ,32 ,…,3m は目標群2の
各目標11 〜1n を観測するための観測ビームであり、
1 ,42 ,…,4m はこの観測ビーム31 〜3m を用
いて目標11 〜1n の観測を行う複数のセンサである。
なお、ここでは、これら複数のセンサ41 〜4m の具体
例として、例えばレーダ装置を考えている。5はこれら
複数のセンサ41 〜4m をまとめたセンサ群である。1
4はセンサ群5の各センサ41 〜4m の出力を受けて、
それらを目標11 〜1n ごとに整理し、後述する追尾フ
ィルタ群8の対応した追尾フィルタ71 〜7n に観測情
報として出力する入力装置である。
Further, 3 1 , 3 2 , ..., 3 m are observation beams for observing each of the targets 1 1 to 1 n of the target group 2,
4 1, 4 2, ..., 4 m is a plurality of sensor for observing the target 1 1 to 1 n by using the observation beam 3 1 to 3 m.
Here, specific examples of the plurality of sensors 4 1 to 4 m, for example, consider a radar apparatus. 5 is a sensor group that summarizes the plurality of sensors 4 1 to 4 m. 1
4 receives the outputs of the sensors 4 1 to 4 m of sensors 5,
They were organized by target 1 1 to 1 n, which is an input device for outputting a corresponding observation information to the tracking filter 7 1 to 7-n was of the tracking filter group 8 to be described later.

【0044】71 ,72 ,…,7n は入力装置14より
出力される観測情報を受けて、目標群2の各目標11
n の追尾を行う複数の追尾フィルタである。これら各
追尾フィルタ71 〜7n はそれぞれが1つの目標11
n に対応し、その目標11〜1n の追尾情報を出力す
る。8はこれら複数の追尾フィルタ71 〜7n をまとめ
た追尾フィルタ群である。
[0044] 7 1, 7 2, ..., 7 n receives the observation information outputted from the input device 14, each target of the target group 2 1 1 -
It is a plurality of tracking filters for tracking 1 n . Each of these tracking filters 7 1 to 7 n has one target 1 1 to
Corresponding to 1 n, and outputs the tracking information of the target 1 1 to 1 n. Reference numeral 8 denotes a tracking filter group in which a plurality of these tracking filters 7 1 to 7 n are put together.

【0045】15は入力装置14の出力、および追尾フ
ィルタ群8の各追尾フィルタ71 〜7n の出力を受けて
予測誤差のバイアス成分を評価するバイアス誤差評価器
であり、入力装置14の出力する観測情報と追尾フィル
タ群8の出力する追尾情報とに基づいて、目標11 〜1
n が旋回運動を行っているかどうかを評価し、また、入
力装置14からの観測情報に含まれる目標観測位置と、
追尾フィルタ群8からの追尾情報に含まれる目標予測位
置との差(残差)をローパスフィルタを用いて平滑する
ことにより、各目標11 〜1n の予測誤差のバイアス成
分を算出して出力するものである。
Reference numeral 15 denotes a bias error evaluator that receives the output of the input device 14 and the outputs of the tracking filters 7 1 to 7 n of the tracking filter group 8 and evaluates the bias component of the prediction error. Targets 1 1 to 1 based on the observation information to be acquired and the tracking information output from the tracking filter group 8.
It is evaluated whether or not n is performing a turning motion, and the target observation position included in the observation information from the input device 14,
The bias component of the prediction error of each target 1 1 to 1 n is calculated and output by smoothing the difference (residual error) from the target predicted position included in the tracking information from the tracking filter group 8 using a low-pass filter. To do.

【0046】16は追尾フィルタ群8の各追尾フィルタ
1 〜7n の出力する追尾情報を受けて、追尾予測誤差
のランダム成分を評価するランダム誤差評価器であり、
追尾フィルタ群8からの追尾情報に含まれる目標予測位
置および予測誤差共分散行列より誤差楕円体を算出し、
当該誤差楕円体の長軸半径の長さに基づいて、各目標1
1 〜1n の予測誤差のランダム成分を算出して出力する
ものである。
A random error evaluator 16 receives the tracking information output from each of the tracking filters 7 1 to 7 n of the tracking filter group 8 and evaluates the random component of the tracking prediction error.
An error ellipsoid is calculated from the target prediction position and the prediction error covariance matrix included in the tracking information from the tracking filter group 8,
Based on the length of the major axis radius of the error ellipsoid, each target 1
The random component of the prediction error of 1 to 1 n is calculated and output.

【0047】9はバイアス誤差評価器15およびランダ
ム誤差評価器16の出力を受け、各目標11 〜1n の旋
回判定結果や追尾誤差の期待値などから、各目標11
nの観測の必要性を評価して、その結果を後述する割
り当て器12に出力する観測必要性評価器である。
The reference numeral 9 receives the outputs of the bias error evaluator 15 and the random error evaluator 16, and based on the turning determination result of each of the targets 1 1 to 1 n and the expected value of the tracking error, the targets 1 1 to 1
It is an observation necessity evaluator that evaluates the necessity of observation of 1 n and outputs the result to the allocator 12 described later.

【0048】10は追尾フィルタ群8の各追尾フィルタ
1 〜7n からの出力を受けて、例えばセンサ群5の各
センサ41 〜4m を、目標群2の各目標11 〜1n に仮
想的に割り当てた場合の、それぞれの組合せにおける追
尾誤差の期待値を計算して出力する仮想割り当て器であ
る。11はこの仮想割り当て器10によって仮想的に割
り当てられた、センサ41 〜4m と目標11 〜1n の各
組合せに対して、例えば追尾精度の向上度などを尺度と
して観測による効果を判断し、その結果を後述する割り
当て器12に出力する観測効果判定器である。
Reference numeral 10 receives the outputs from the tracking filters 7 1 to 7 n of the tracking filter group 8 and, for example, the sensors 4 1 to 4 m of the sensor group 5 and the targets 1 1 to 1 n of the target group 2, respectively. It is a virtual allocator that calculates and outputs the expected value of the tracking error in each combination when it is virtually allocated to. Reference numeral 11 determines the effect of the observation for each combination of the sensors 4 1 to 4 m and the targets 11 to 1 n virtually assigned by the virtual assigner 10 by using, for example, the degree of improvement in tracking accuracy as a scale. The observation effect determiner outputs the result to the assigner 12 described later.

【0049】12は追尾フィルタ群8、観測必要性評価
器9、観測効果判定器11からの出力を受けて、センサ
群5の各センサ41 〜4m の目標群2の各目標11 〜1
n への割り当てを決定する割り当て器である。
12 receives the outputs from the tracking filter group 8, the observation necessity evaluator 9, and the observation effect determiner 11, and receives the outputs from the sensors 4 1 to 4 m of the sensor group 5 to the targets 1 1 to 4 of the target group 2. 1
It is an assigner that determines the assignment to n .

【0050】次に動作について説明する。ここではま
ず、この発明にて観測必要性評価器9への入力として新
たに装備する、バイアス誤差評価器15とランダム誤差
評価器16を構成するために必要な理論およびその構成
法について述べる。
Next, the operation will be described. First, the theory necessary for constructing the bias error evaluator 15 and the random error evaluator 16 which are newly equipped as inputs to the observation necessity evaluator 9 in the present invention, and a method of constructing the theory will be described.

【0051】この理論は、追尾処理の結果による目標1
1 〜1n の位置および速度の予測値と真値との誤差、す
なわち追尾予測誤差に関するもので、ここでは、その予
測誤差をバイアス成分(以下、バイアス誤差という)と
ランダム成分(以下、ランダム誤差という)とに分けて
考える。
This theory is based on the goal 1 based on the result of tracking processing.
This is related to the error between the predicted value of the position and velocity of 1 to 1 n and the true value, that is, the tracking prediction error. Here, the prediction error is a bias component (hereinafter, referred to as bias error) and a random component (hereinafter, random error). That's why).

【0052】まず、ランダム誤差について述べる。カル
マンフィルタに基づく追尾処理アルゴリズムにおいて
は、各サンプリング時刻tk にて、追尾の結果として得
られる予測ベクトル¨xk の誤差共分散行列として、予
測誤差共分散行列¨Pk を算出している。なお、この予
測誤差共分散行列¨Pk はランダム誤差の評価値を示し
ている。この予測誤差共分散行列¨Pk の値は、実際の
目標11 〜1n の運動が、運動モデルに合致した運動
(等速直線運動)であるかそれ以外の運動(例えば旋回
運動など)であるかには依存しない。
First, the random error will be described. In the tracking process algorithm based on Kalman filter, at each sampling time t k, the error covariance matrix of the prediction vector X k obtained as a result of the tracking, it calculates the prediction error covariance matrix P k. The prediction error covariance matrix P k shows the evaluation value of the random error. The value of this prediction error covariance matrix ¨P k is the motion of the actual target 1 1 to 1 n that matches the motion model (constant velocity linear motion) or other motion (such as turning motion). Does not depend on

【0053】また、バイアス誤差は目標11 〜1n が等
速直進運動を行っているか、旋回などの他の運動を行っ
ているかによって結果が異なる。まず、目標11 〜1n
が等速直進運動を行っている場合、カルマンフィルタに
よる推定結果は不偏推定量となることが知られている。
すなわち、この場合、バイアス誤差はゼロとなる。一
方、目標11 〜1n が旋回運動等を行っている場合、図
2に示すように、追尾処理による結果(点線で示した曲
線)は実際の目標11 〜1n の運動(実線で示した曲
線)に対して追従遅れを生じ、結果的に太線の矢印で示
す所定のバイアス誤差が発生することになる。このバイ
アス誤差は、追尾フィルタ71 〜7n の特性を定めるパ
ラメータである駆動雑音ベクトルの共分散Qk および#
rセンサ4rの観測雑音ベクトルの共分散Rk,r と、目
標の位置に依存して変動する。
Further, the result of the bias error differs depending on whether the targets 1 1 to 1 n are performing a uniform linear motion or performing another motion such as turning. First, goals 1 1 to 1 n
It is known that the estimation result by the Kalman filter is an unbiased estimator when the vehicle is moving at a constant speed.
That is, in this case, the bias error is zero. On the other hand, when the targets 1 1 to 1 n are performing a turning motion or the like, as shown in FIG. 2, the result of the tracking process (the curve shown by the dotted line) is the actual motion of the targets 1 1 to 1 n (in the solid line). A follow-up delay occurs with respect to the curve shown), and as a result, a predetermined bias error indicated by a thick line arrow occurs. This bias error is a covariance Q k and # of the driving noise vector, which is a parameter that determines the characteristics of the tracking filters 7 1 to 7 n.
It varies depending on the covariance R k, r of the observation noise vector of the r sensor 4 r and the position of the target.

【0054】追尾処理の結果で得られた予測ベクトル¨
k に含まれる目標11 〜1n の予測位置と、センサ4
1 〜4m による実際の観測値との差である残差ベクトル
をローパスフィルタを用いて平滑化することにより、図
3でみるように、追尾のバイアス誤差を推定することが
できる。なお、図3(a)には等速直線運動から旋回運
動に移る目標の、サンプリング時刻に対する上記残差ベ
クトルの変化が示されており、同図(b)には当該残差
ベクトルを平滑化したバイアス誤差のサンプリング時刻
に対する変化が示されている。また、この平滑化は一次
フィルタやカルマンフィルタなどのローパスフィルタを
用いて行う。
Prediction vector obtained as a result of the tracking process.
the predicted positions of the targets 1 1 to 1 n included in x k and the sensor 4
By smoothing the residual vector, which is the difference from the actual observed value of 1 to 4 m , using a low-pass filter, the bias error of tracking can be estimated as seen in FIG. It should be noted that FIG. 3A shows the change of the residual vector with respect to the sampling time, which is the target for shifting from the uniform linear motion to the turning motion, and FIG. 3B shows the smoothing of the residual vector. The change of the bias error with respect to the sampling time is shown. In addition, this smoothing is performed using a low-pass filter such as a primary filter or Kalman filter.

【0055】次に、この実施の形態1によるセンサ群管
理装置の全体の動作について説明する。まず、入力装置
14はセンサ群5の複数のセンサ41 〜4m から出力さ
れる観測情報を融合し、観測すべき対象である目標11
〜1n ごとに整理して追尾フィルタ群8に対して出力す
る。すなわち、割り当て器12がどのセンサ41 〜4m
をどの目標11 〜1n に割り当てているかに基づいて、
各センサ41 〜4m の出力を対応する追尾フィルタ71
〜7n に対して出力する。また、1つの目標11〜1n
に対して複数の観測ビーム31 〜3m が割り当てられて
いる場合、それら各センサ41 〜4m の出力の平均、あ
るいは他の演算によって、それらのデータを融合し、そ
れを追尾フィルタ群8に出力する。このように、入力装
置14は複数のセンサ41 〜4m と複数の追尾フィルタ
1 〜7n とを結びつける働きをしている。
Next, the overall operation of the sensor group management device according to the first embodiment will be described. First, the input device 14 target 1 1 is a fused observation information outputted from the plurality of sensors 4 1 to 4 m of sensors 5, to be an observation target
The data is sorted for every 1 n and output to the tracking filter group 8. That is, which sensor 4 1 to 4 m
Based on which goal 1 1 to 1 n
Tracking filter 7 1 corresponding to the output of each sensor 4 1 to 4 m
Output for ~ 7 n . Also, one goal 1 1 to 1 n
If multiple observation beams 3 1 to 3 m is assigned to the average of those outputs of the sensors 4 1 to 4 m, or by other operations, fusing their data, tracking filter group it Output to 8. Thus, the input device 14 has a function of linking the plurality of sensors 4 1 to 4 m and a plurality of tracking filters 7 1 to 7-n.

【0056】追尾フィルタ群8の各追尾フィルタ71
n は、この入力装置14よりそれぞれ対応する目標1
1 〜1n の観測情報を受けて、当該目標11 〜1n の位
置と速度の推定および予測を行い、各目標11 〜1n
追尾情報を更新して出力する。一方、目標11 〜1n
観測情報が得られなかった場合には、外挿処理を行うこ
とにより、各目標11 〜1n の位置と速度の推定および
予測を行い、それらの追尾情報を更新して出力する。な
お、これらの処理には一般的なカルマンフィルタを用い
る。
Each of the tracking filters 7 1 to 7 of the tracking filter group 8
7 n is the corresponding target 1 from the input device 14.
Receiving observation information of 1 to 1 n, performs estimation and prediction of the position and velocity of the target 1 1 to 1 n, and outputs the updated tracking information for each target 1 1 to 1 n. On the other hand, when the observation information of the targets 1 1 to 1 n is not obtained, extrapolation processing is performed to estimate and predict the position and velocity of each of the targets 1 1 to 1 n , and tracking information for them is obtained. Is updated and output. A general Kalman filter is used for these processes.

【0057】バイアス誤差評価器15は入力装置14お
よび追尾フィルタ群8からの出力を受けて、予測誤差の
バイアス成分であるバイアス誤差の予測ベクトル(バイ
アス誤差予測ベクトル)¨ξk を計算する。算出された
バイアス誤差予測ベクトル¨ξk の大きさはバイアス誤
差評価値として観測必要性評価器9に出力される。この
ように、バイアス誤差予測ベクトル¨ξk の大きさをそ
のまま出力することで、追従遅れが大きい目標11 〜1
n の観測必要性が大きく評価され、センサ41〜4m
割り当てられやすくなる。
The bias error evaluator 15 receives the outputs from the input device 14 and the tracking filter group 8 and calculates a bias error prediction vector (bias error prediction vector) ξ k which is a bias component of the prediction error. Magnitude of the calculated bias error prediction vector Kushi k is output to the observation needs estimator 9 as a bias error evaluation value. In this way, by outputting the magnitude of the bias error prediction vector ¨ξ k as it is, the targets 11 1 to 1 with large tracking delays can be obtained.
Observation need for n is greater evaluation, the sensor 4 1 to 4 m is easily assigned.

【0058】また、ランダム誤差評価器16は追尾フィ
ルタ群8からの出力を受けて、目標の予測値¨xk と予
測誤差分散行列¨Pk より誤差楕円体を計算し、この誤
差楕円体の長軸半径の長さを求めてそれをランダム誤差
評価値として出力する。以下に示す式(22)では、そ
の左辺が自由度3のカイ2乗分布となり、dをパラメー
タとしてこの式(22)のzk のなす領域は楕円体とな
る。その楕円体が上記誤差楕円体と呼ばれるものであ
る。 [zk −H¨xk ]Sk-1 [zk −H¨xk T ≦d ・・・(22)
The random error evaluator 16 receives the output from the tracking filter group 8 and calculates an error ellipsoid from the target predicted value ¨x k and the predicted error variance matrix ¨P k , and the error ellipse of this error ellipsoid is calculated. The length of the major axis radius is calculated and output as a random error evaluation value. In equation (22) shown below, the left side thereof has a chi-square distribution with three degrees of freedom, and the area defined by z k in equation (22) is an ellipsoid with d as a parameter. The ellipsoid is called the error ellipsoid. [Z k -H¨x k] S k -1 [z k -H¨x k] T ≦ d ··· (22)

【0059】ただし、上記式(22)のSk は次の式
(23)で与えられ、この式(23)中のHは式(7)
の観測行列、Rk は観測雑音の共分散行列である。 Sk =H¨Pk T +Rk ・・・(23)
However, S k of the above equation (22) is given by the following equation (23), and H in this equation (23) is represented by equation (7).
, R k is an observation noise covariance matrix. S k = H¨P k H T + R k ··· (23)

【0060】なお、上記誤差楕円体は目標11 〜1n
観測すれば小さくなるし、観測しなければ大きくなるこ
とから、観測されていない時間の長い目標11 〜1n
観測必要性が高く評価され、センサ41 〜4m の割り当
てが行われやすくなる。ここでは誤差楕円体の長軸半径
を評価値としたが、誤差楕円体の体積などを評価値とし
てもよい。
The error ellipsoid becomes small when the targets 1 1 to 1 n are observed, and becomes large when the targets 1 1 to 1 n are not observed. Therefore, it is necessary to observe the targets 1 1 to 1 n which have not been observed for a long time. It has been acclaimed assigned sensors 4 1 to 4 m is easily performed. Here, the major axis radius of the error ellipsoid is used as the evaluation value, but the volume of the error ellipsoid may be used as the evaluation value.

【0061】観測必要性評価器9はこれらバイアス誤差
評価器15およびランダム誤差評価器16からの出力を
受けると、それら評価値の重み付き平均をとって各目標
1〜1n の観測必要性とする。
When the observation necessity evaluator 9 receives the outputs from the bias error evaluator 15 and the random error evaluator 16, the observation necessity evaluator 9 takes the weighted average of the evaluation values and observes the necessity of observation of each of the targets 1 1 to 1 n . And

【0062】ここで、バイアス誤差評価器15の出力と
ランダム誤差評価器16の出力のどちらか片方だけを使
って観測必要性を決めようとすると、以下のような問題
が起こる。すなわち、バイアス誤差評価器15の出力の
みによって観測必要性を決めた場合には、旋回している
目標11 〜1n の観測必要性が上昇してセンサ41 〜4
m が割り当てられやすくなるが、他の等速直進を行って
いる目標11 〜1n がまったく観測されなくなる恐れが
ある。一方、ランダム誤差評価器16の出力のみによっ
て観測必要性を決めた場合には、旋回している目標11
〜1n に優先的にセンサ41 〜4m が割り当てられなく
なる。
Here, if the observation necessity is decided by using only one of the output of the bias error evaluator 15 and the output of the random error evaluator 16, the following problem occurs. That is, when the observation necessity is determined only by the output of the bias error evaluator 15, the observation needs of the turning targets 1 1 to 1 n are increased and the sensors 4 1 to 4 are increased.
Although m is likely to be assigned, there is a possibility that other targets 1 1 to 1 n that are moving straight at a constant speed may not be observed at all. On the other hand, if the observation necessity is determined only by the output of the random error evaluator 16, the target 1
A to 1 n not assigned preferentially sensor 4 1 to 4 m.

【0063】したがって、上記バイアス誤差評価器15
およびランダム誤差評価器16からそれぞれ出力される
評価値の重み付き平均をとることによって、旋回してい
る目標11 〜1n に優先的にセンサ41 〜4m を割り当
てつつ、等速直進運動をしている目標11 〜1n にも適
度な観測間隔をとってセンサ41 〜4m を割り当てるこ
とが可能となる。
Therefore, the bias error evaluator 15 is
And by taking a weighted average of the evaluation values respectively output from the random error evaluator 16, preferentially while assigned sensors 4 1 to 4 m to target 1 1 to 1 n the vehicle is turning, constant velocity linear motion it is possible to assign the sensor 4 1 to 4 m taking an appropriate observation interval to target 1 1 to 1 n that the.

【0064】仮想割り当て器10は、追尾フィルタ群8
の出力である各目標11 〜1n の位置と速度、およびそ
れらの誤差分散を入力し、例えば各センサ41 〜4m
各目標11 〜1n に割り当てた場合の、それぞれの組合
せにおける位置と速度の推定誤差分散を計算して出力す
る。
The virtual allocator 10 includes a tracking filter group 8
The positions and velocities of the respective targets 1 1 to 1 n , which are the outputs of the above, and their error variances are input, and, for example, when the respective sensors 4 1 to 4 m are assigned to the respective targets 1 1 to 1 n , the respective combinations Calculate and output the estimated error variance of position and velocity at.

【0065】観測効果判定器11はこの仮想割り当て器
10の出力を入力とする。もし観測を行わなければ、目
標11 〜1n の位置と速度は予測値をそのまま推定値と
して用いなければならないが、観測を行えば、得られる
観測情報を推定値として利用した、より信頼性の高い情
報として、各目標11 〜1n の位置と速度を得ることが
できる。したがって、観測を行う場合の目標11 〜1n
の誤差楕円体は、観測を行わない場合の誤差楕円体より
も小さくなる。
The observation effect determiner 11 receives the output of the virtual allocator 10 as an input. If the observation is not performed, the predicted values of the positions and velocities of the targets 1 1 to 1 n have to be used as the estimated values as they are, but if the observation is performed, the obtained observation information is used as the estimated values, which is more reliable. The position and speed of each of the targets 1 1 to 1 n can be obtained as high information of. Therefore, the targets for observation 1 1 -1 n
The error ellipsoid of is smaller than the error ellipsoid when no observation is performed.

【0066】観測効果判定器11は追尾フィルタ群8か
ら出力される予測誤差分散と、仮想割り当て器10から
出力される予測誤差分散とから、誤差楕円体の体積の差
または比を算出し、この誤差楕円体の縮まり具合いを各
センサ41 〜4m から各目標11 〜1n を観測する効果
として判定する。このように実際の割り当ての前に仮想
割り当て器10による仮想割り当てによって、どのよう
な観測が実行されるかが評価される。
The observation effect determiner 11 calculates the volume difference or ratio of the error ellipsoid from the prediction error variance output from the tracking filter group 8 and the prediction error variance output from the virtual allocator 10. The degree of shrinkage of the error ellipsoid is determined as the effect of observing the targets 1 1 to 1 n from the sensors 4 1 to 4 m . Thus, before the actual allocation, the virtual allocation by the virtual allocator 10 evaluates what kind of observation is performed.

【0067】次に、割り当て器12は、上記観測必要性
評価器9の出力と観測効果判定器11の出力とをその積
によって融合することで割り当て評価行列を算出し、組
合せ最適化問題として解いた割り当てを各センサ41
m に対して出力する。例えば、#iセンサ(i=1,
2,…,m)4i を#j目標(j=1,2,…,n)1
j に割り当てるときの観測効果評価値aijと#j目標1
j の観測必要性評価値bj の積Cijを次の式(24)に
よって計算し、割り当て評価行列{Cij}をつくる。 Cij=aij×bj ・・・(24)
Next, the allocator 12 calculates the allocation evaluation matrix by fusing the output of the observation necessity evaluator 9 and the output of the observation effect determiner 11 with the product, and solves it as a combination optimization problem. There were assigned the sensors 4 1 to
Output for 4 m . For example, #i sensor (i = 1,
2, ..., M) 4 i is the #j target (j = 1, 2, ..., N) 1
Observation effect evaluation value a ij when assigning to j and #j target 1
j of the product C ij observation needs assessment value b j calculated by the following equation (24), making the allocation evaluation matrix {C ij}. C ij = a ij × b j (24)

【0068】ここで、例えば各センサ41 〜4m は同時
に1つの目標11 〜1n を観測しており、各目標11
n は同時に1つのセンサ41 〜4m からしか観測され
ないという制約条件があるとすると、以下の式(25)
〜(27)で表す制約条件式もとで、次の式(28)に
よる評価関数式を最大とするようなXijを求める組合せ
最適化問題として解けば、上記評価値を最大限に実現す
るセンサ41 〜4m の割り当てが得られる。
Here, for example, each of the sensors 4 1 to 4 m simultaneously observes one target 1 1 to 1 n , and each of the targets 1 1 to 1 m is observed.
If there is a constraint that 1 n can be observed from only one sensor 41 to 4 m at the same time, the following equation (25)
Under the constraint condition expressions expressed by (27) to (27), the evaluation value can be maximized by solving it as a combinational optimization problem that finds X ij that maximizes the evaluation function expression by the following expression (28). An assignment of sensors 4 1 to 4 m is obtained.

【0069】[0069]

【数3】 [Equation 3]

【0070】なお、Xijは#iセンサ4i から#j目標
j を観察するという割り当てを表しており、これが
“1”ならば実際にこの割り当てを採用し、“0”なら
ば採用しないという意味である。
Note that X ij represents the assignment of observing the #j target 1 j from the #i sensor 4 i. If this is “1”, this assignment is actually adopted, and if it is “0”, it is not adopted. It means that.

【0071】この実施の形態1のセンサ群管理装置によ
れば、旋回する目標11 〜1n や長期間観測されていな
い目標11 〜1n について高く評価される観測必要性
と、各センサ41 〜4m から各目標11 〜1n の観測を
行うことによる予測誤差の収縮の度合いとから、各セン
サ41 〜4m と各目標11 〜1n との組合せの効果を評
価・判定してセンサ割り当てを決定することができる。
[0071] According to the sensor group management apparatus of the first embodiment, and observation need highly evaluated for target 1 1 to 1 n which is not the target 1 1 to 1 n and long observation pivots, each sensor and a degree of contraction of the prediction error caused by performing the observation of the target 1 1 to 1 n from 4 1 to 4 m, evaluate the effect of the combination of the sensors 4 1 to 4 m and each target 1 1 to 1 n -It is possible to judge and determine the sensor allocation.

【0072】また、上記実施の形態1ではセンサとして
レーダを用い、飛行する目標を追尾する場合について説
明したが、レーダ以外のセンサに対してこの発明を適用
しても有効である。例えば、目標が出す赤外線を検知す
る赤外線センサや、目標の送信波を検知するESM(E
lectronic Warfare Support
Measure)などが考えられる。ただし、これら
のセンサは目標の検知および方位の測定は可能である
が、単独では距離を測定することはできない。したがっ
て、異なる位置に配置された複数のセンサの組合せによ
り、幾何学的に目標の位置の標定を行う必要がある。こ
のようにして目標の位置が求められた後の処理は、セン
サとしてレーダを用いた場合と同様である。また、目標
の位置が求められるものであれば他のセンサにも適用で
きる。
Further, although the case where the radar is used as a sensor to track a flying target has been described in the first embodiment, the present invention can be effectively applied to a sensor other than the radar. For example, an infrared sensor that detects infrared rays emitted by a target, or an ESM (E
electronic Warfare Support
Measure) and the like are conceivable. However, these sensors can detect the target and measure the direction, but cannot measure the distance by themselves. Therefore, it is necessary to locate the target position geometrically with a combination of a plurality of sensors arranged at different positions. The process after the target position is obtained in this way is the same as when the radar is used as the sensor. Further, it can be applied to other sensors as long as the target position can be obtained.

【0073】以上のように、この実施の形態1によれ
ば、目標11 〜1n の旋回を評価するバイアス誤差評価
器15を備えているので、旋回する目標に他の目標より
も優先的にセンサ41 〜4m を割り当てることが可能に
なるとともに、そのバイアス誤差評価器15によって残
差を平滑し、予測誤差のバイアス成分を算出しているの
で、実際の運動に関して運動モデルからの逸脱の度合い
が大きい目標11 〜1nほど観測必要性が高いものとな
り、センサ41 〜4m が割り当てられやすくすることが
でき、また誤差楕円体の大きさを評価するランダム誤差
評価器16を備えているので、センサ41 〜4m が長い
間割り当てられずに目標11 〜1n の曖昧さが大きくな
りすぎて追尾をはずしてしまうということを防止できる
などの効果が得られる。
As described above, according to the first embodiment, since the bias error evaluator 15 for evaluating the turning of the targets 1 1 to 1 n is provided, the turning target has priority over the other targets. it becomes possible to assign a sensor 4 1 to 4 m, the residual was smoothed by the bias error evaluator 15, since the calculated bias component of the prediction error, deviation from the motion model with respect to the actual motion the large degree of target 1 1 becomes to 1 that the higher the observed need n, the sensor 4 can be 1 to 4 m is easily assigned, also a random error evaluator 16 for evaluating the magnitude of the error ellipsoid since comprises, effects such as prevented that ambiguity of the target 1 1 to 1 n will remove the tracking too large without sensor 4 1 to 4 m is assigned long is obtained.

【0074】さらに、この実施の形態1によれば、観測
必要性評価器9によって、それらバイアス誤差評価器1
5とランダム誤差評価器16からの出力の重み付き平均
をとり、それを観測必要性としているので、旋回する目
標11 〜1n に対して優先的にセンサ41 〜4m を割り
当てつつ、等速直進する目標11 〜1n にも適度な観測
間隔をとってセンサ41 〜4m を割り当てることが可能
となり、割り当て器12によって、その観測必要性評価
器9の出力と観測効果判定器11の出力とをそれらの積
により融合して最適化問題に帰着させているので、評価
値の和を最大とするようなセンサ41 〜4m の割り当て
を決定することができ、よって、複数のセンサ41 〜4
m を最大限有効に活用して複数の目標11 〜1n を同時
に追尾することが可能となり、また、この問題の解法と
して既存の最適化アルゴリズムを使用することができる
ので、準最適化アルゴリズムを使用して計算時間を節約
することもできるなどの効果が得られる。
Further, according to the first embodiment, the bias necessity evaluator 1 is changed by the observation necessity evaluator 9.
5 and takes a weighted average of the output from the random error evaluator 16, since the observed need thereof, preferentially with assigned sensors 4 1 to 4 m with respect to the pivot to target 1 1 to 1 n, it is possible to assign the sensor 4 1 to 4 m also taking an appropriate observation interval to target 1 1 to 1 n for constant speed straight, the allocator 12, the observed effect judging the output of the observation needs estimator 9 since then reduced to the optimization problem and an output of the vessel 11 are fused by their product, it is possible to determine the allocation of the sensor 4 1 to 4 m so as to maximize the sum of the evaluation values, thus, Multiple sensors 4 1 to 4
Since it becomes possible to track multiple targets 1 1 to 1 n at the same time by making the most effective use of m, and the existing optimization algorithm can be used as a solution to this problem, the sub-optimization algorithm Can be used to save the calculation time.

【0075】実施の形態2.図4はこの発明の実施の形
態2によるセンサ群管理装置の構成を示すブロック図で
ある。図において、11 〜1n は目標、2は目標群、3
1 〜3m は観測ビーム、41 〜4m はセンサ、5はセン
サ群、71 〜7n は追尾フィルタ、8は追尾フィルタ
群、9は観測必要性評価器、10は仮想割り当て器、1
1は観測効果判定器、12は割り当て器、14は入力装
置、15はバイアス誤差評価器、16はランダム誤差評
価器であり、これらは図1に同一符号を付して示した実
施の形態1におけるそれらに相当する部分である。
Embodiment 2. 4 is a block diagram showing a configuration of a sensor group management device according to a second embodiment of the present invention. In the figure, 1 1 to 1 n are goals, 2 is a goal group, 3
1 to 3 m is an observation beam, 4 1 to 4 m is a sensor, 5 is a sensor group, 7 1 to 7 n are tracking filters, 8 is a tracking filter group, 9 is an observation necessity evaluator, 10 is a virtual assigner, 1
Reference numeral 1 is an observation effect determiner, 12 is an assigner, 14 is an input device, 15 is a bias error evaluator, and 16 is a random error evaluator. These are denoted by the same reference numerals in FIG. Corresponding to those in.

【0076】また、17はセンサ群5の複数のセンサ4
1 〜4m のセンサ諸元を、バイアス誤差評価器15ある
いはランダム誤差評価器16に入力するセンサ諸元入力
器である。この実施の形態2は、上記各部に加えて、こ
のセンサ諸元入力器17を備えている点で、実施の形態
1のセンサ群管理装置とは異なっている。
Further, 17 is a plurality of sensors 4 of the sensor group 5.
This is a sensor specification input device for inputting sensor specifications of 1 to 4 m to the bias error evaluator 15 or the random error evaluator 16. The second embodiment is different from the sensor group management device of the first embodiment in that the sensor specification input device 17 is provided in addition to the above-mentioned units.

【0077】なお、バイアス誤差評価器15は、このセ
ンサ諸元入力器17からのセンサ諸元、および入力装置
14からの観測情報と追尾フィルタ群8からの追尾情報
を受けて、観測情報に含まれている目標観測位置と、追
尾情報に含まれている目標予測位置との差である残差を
ローパスフィルタを用いて平滑することにより、各目標
1 〜1n のそれぞれの予測誤差のバイアス成分を算出
して、それをセンサ諸元入力器17から受けたセンサ諸
元に含まれる各センサ41 〜4m それぞれの観測範囲に
よって規格化し、その規格化された予測誤差のバイアス
成分の最小値、あるいは平均値や最大値などの統計量を
とって、各目標11 〜1n それぞれのバイアス誤差評価
値として出力している点で、図1に同一符号を付したも
のとは異なっている。
The bias error evaluator 15 receives the sensor specifications from the sensor specification input device 17, the observation information from the input device 14 and the tracking information from the tracking filter group 8, and includes them in the observation information. By biasing the residual difference, which is the difference between the target observation position and the target prediction position included in the tracking information, by using a low-pass filter, the bias of the prediction error of each target 1 1 to 1 n to calculate the components, minimum bias component of the prediction error is normalized by the respective sensors 4 1 to 4 m of each observation area, which is the standardized included it in the sensor specifications received from the sensor specifications input unit 17 This is different from the ones with the same reference numerals in FIG. 1 in that the values, or the statistical values such as the average value and the maximum value are taken and outputted as the bias error evaluation values of the respective targets 1 1 to 1 n . Are

【0078】また、ランダム誤差評価器16も、追尾フ
ィルタ群8からの追尾情報と、上記センサ諸元入力器1
7からのセンサ諸元とを受けて、その追尾情報に含まれ
ている目標予測位置および予測誤差共分散行列より求ま
る誤差楕円体の、極座標系E−By平面での面積を、セ
ンサ諸元入力器17から受けたセンサ諸元に含まれてい
る各センサ41 〜4m それぞれの観測領域のE−By平
面での面積によって規格化し、その規格化された誤差楕
円体のE−By平面での面積の最小値、あるいは平均値
や最大値などの統計量をとって、各目標11 〜1n それ
ぞれのランダム誤差評価値として出力している点で、図
1に同一符号を付したものとは異なっている。
The random error evaluator 16 also uses the tracking information from the tracking filter group 8 and the sensor specification input device 1 described above.
7, the area of the error ellipsoid obtained from the target predicted position and the prediction error covariance matrix included in the tracking information in the polar coordinate system E-By plane is input to the sensor specifications. normalized by the area of each sensor 4 1 ~4 m E-by plane each observation area contained in the sensor specifications received from vessel 17, with its standardized E-by a plane of the error ellipsoid The same symbols are attached to FIG. 1 in that the statistical value such as the minimum value of the area of, or the average value or the maximum value is taken and is output as the random error evaluation value of each target 11 to 1 n . Is different from.

【0079】次に動作について説明する。上記実施の形
態1によるセンサ群管理装置においては、バイアス誤差
評価器15およびランダム誤差評価器16は、それぞれ
バイアス誤差あるいはランダム誤差の大きさを推定し、
その大きさそのものを評価していた。しかしながら、上
記実施の形態1では、これらバイアス誤差やランダム誤
差の大きさが、目標11 〜1n を観測するセンサ41
m の位置や精度に依存するにもかかわらず、センサ4
1 〜4m の位置や精度が観測必要性に反映されていなか
った。
Next, the operation will be described. In the sensor group management device according to the first embodiment, the bias error evaluator 15 and the random error evaluator 16 respectively estimate the magnitude of the bias error or the random error,
The size itself was evaluated. However, in the first embodiment, the magnitude of these bias errors and random errors, sensors 4 1 to observe the target 1 1 to 1 n
Sensor 4 despite being dependent on 4 m position and accuracy
Positions of 1 to 4 m and accuracy were not reflected in the observation needs.

【0080】そこで、この実施の形態2によるセンサ群
管理装置では、バイアス誤差評価器15およびランダム
誤差評価器16において、センサ諸元入力器17より入
力されるセンサ諸元を考慮して、各センサ41 〜4m
らの相対的な誤差の大きさを利用して評価するようにし
ている。
Therefore, in the sensor group management apparatus according to the second embodiment, in the bias error evaluator 15 and the random error evaluator 16, each sensor is considered in consideration of the sensor specifications input from the sensor specification input unit 17. 4 1 using the relative error size of from to 4 m are to be evaluated.

【0081】以下に、センサ41 〜4m としてレーダを
使用する場合の、バイアス誤差評価器15およびランダ
ム誤差評価器16の動作例を示す。まず、バイアス誤差
評価器15においてセンサ諸元を考慮に入れたバイアス
誤差評価値Vk bを算出する手順について説明する。
The operation examples of the bias error evaluator 15 and the random error evaluator 16 when radars are used as the sensors 4 1 to 4 m will be described below. First, the procedure for calculating the bias error evaluation value V k b containing the sensor specifications into account in the bias error evaluator 15.

【0082】ここで、図5は以下の説明で使われる各記
号の意味を示す説明図である。図において、rは#rセ
ンサ4r として用いられているレーダであり、BWr
このレーダrのビーム幅、BWr /2はその半値幅であ
る。¨pk,r は予測位置のレーダrに対する相対位置ベ
クトルであり、¨ξk は追尾予測誤差のバイアス成分の
予測ベクトルである。¨p’k,r は予測位置に上記予測
ベクトル¨ξk を足し込んで得られる修正予測位置の、
レーダrに対する相対位置ベクトルであり、φk,r はそ
れら両相対位置ベクトル¨pk,r と¨p’k,r の成す角
度である。
FIG. 5 is an explanatory diagram showing the meaning of each symbol used in the following description. In the figure, r is the radar used as the #r sensor 4 r , BW r is the beam width of this radar r, and BW r / 2 is its half-value width. ¨p k, r is a relative position vector of the predicted position with respect to the radar r, and ¨ξ k is a prediction vector of the bias component of the tracking prediction error. ¨P ' k, r is a corrected predicted position obtained by adding the above-mentioned predicted vector ¨ξ k to the predicted position,
It is a relative position vector with respect to the radar r, and φ k, r is an angle formed by the relative position vectors ¨p k, r and ¨p ' k, r .

【0083】なお、以下の手順は各目標11 〜1n ごと
に独立に実行される。まず、追尾フィルタ群8の出力と
して得られる目標11 〜1n の予測ベクトル¨xk に基
づく目標の予測位置はH¨xk で与えられる。なお、H
は式(7)の観測行列である。ここで、この予測位置H
¨xk の各レーダr(r=1,2,…,m)に対する相
対位置ベクトル¨pk,r は、レーダrの位置ベクトルを
[ar r r T とすると、以下に示す式(29)で
表される。 ¨pk,r =H¨xk −[ar r r T ・・・(29)
The following procedure is independently executed for each of the targets 1 1 to 1 n . First, the predicted position of the target based on the predicted vector ¨x k of the targets 1 1 to 1 n obtained as the output of the tracking filter group 8 is given by H ¨ x k . In addition, H
Is the observation matrix of equation (7). Here, this predicted position H
¨x the radar r of k (r = 1,2, ..., m) Relative position vector P k with respect, r is the position vector of the radar r and [a r b r c r] T, the following It is expressed by equation (29). ¨p k, r = H¨x k - [a r b r c r] T ··· (29)

【0084】一方、予測位置ベクトルH¨xk に、残差
を平滑して得られる、追尾予測誤差のバイアス成分の予
測ベクトル¨ξk を足し込んで得られる新たな目標予測
位置(修正予測位置)はH¨xk +¨ξk で与えられ
る。したがって、この修正予測位置の各レーダr(r=
1,2,…,m)に対する相対位置ベクトル¨P’k,r
は、次の式(30)で表される。 ¨p’k,r =H¨xk +¨ξk −[ar r r T ・・・(30)
On the other hand, a new target prediction position (corrected prediction position) obtained by adding the prediction vector ¨ξ k of the bias component of the tracking prediction error obtained by smoothing the residual to the prediction position vector H ¨x k ) is given by H¨x k + ¨ξ k. Therefore, each radar r (r =
1,2, ..., m) relative position vector ¨P ' k, r
Is expressed by the following equation (30). ¨p 'k, r = H¨x k + ¨ξ k - [a r b r c r] T ··· (30)

【0085】これら2つの相対位置ベクトル¨pk,r
よび¨p’k,r の成す角度φk,r を、各レーダrごとに
次の式(31)により求める。
The angle φ k, r formed by these two relative position vectors ??? p k, r and ??? p ' k, r is calculated for each radar r by the following equation (31).

【0086】[0086]

【数4】 [Equation 4]

【0087】ここで、(a,b)はベクトルa,bの内
積を、‖a‖はベクトルaのユークリッドノルムを表し
ている。次に、角度φk,r の絶対値を各レーダrのビー
ム幅BWr の半幅BWr /2で規格化した値ηk,r を、
次の式(32)によって定義する。
Here, (a, b) represents the inner product of the vectors a and b, and ‖a‖ represents the Euclidean norm of the vector a. Next, a value η k, r obtained by normalizing the absolute value of the angle φ k, r by the half width BW r / 2 of the beam width BW r of each radar r is
It is defined by the following equation (32).

【0088】[0088]

【数5】 [Equation 5]

【0089】最後に、上記規格化された値ηk,r の全レ
ーダrの中での最小値を、この目標11 〜1n のバイア
ス誤差評価値Vk bとし、次の式(33)で表す。
Finally, the minimum value of the standardized value η k, r among all the radars r is set as the bias error evaluation value V k b of the targets 1 1 to 1 n , and the following equation (33) ).

【0090】[0090]

【数6】 [Equation 6]

【0091】ここで、統計量として最小値を選択する方
法を採用したのは、追尾維持にとって最も条件のよいレ
ーダrをもってしてもなお、観測ビーム31 〜3m 内に
目標11 〜1n を捕らえ続けるのが困難となっている場
合に限って、バイアス誤差評価値が高い値となるように
するためであるが、統計量として平均値や最大値を選択
するようにしてもよい。なお、平均値をとれば平均的な
観測ビーム31 〜3m内への捕えにくさが各目標11
n のバイアス誤差評価値となり、また最大値をとれば
追尾維持にとって最も条件の悪いレーダrで観察を行う
場合の観測ビーム31 〜3m 内への捕えにくさが評価値
となる。
Here, the method of selecting the minimum value as the statistic is used because the radar r which has the most favorable condition for tracking and keeping is used and the targets 1 1 to 1 are still within the observation beams 3 1 to 3 m . This is because the bias error evaluation value is set to a high value only when it is difficult to keep capturing n , but an average value or a maximum value may be selected as the statistic. In addition, if the average value is taken, it is difficult to capture the average observation beam 3 1 to 3 m within each target 1 1 to 3 m .
The bias error evaluation value is 1 n , and if the maximum value is taken, the evaluation value is the difficulty in catching in the observation beams 3 1 to 3 m when observation is performed by the radar r, which is the worst condition for maintaining tracking.

【0092】次に、ランダム誤差評価器16においてセ
ンサ諸元を考慮に入れたランダム誤差評価値Vk rを算出
する手順について以下に示す。考え方としては、誤差の
見え方はその目標11 〜1n を観測するセンサ41 〜4
m の位置や精度などによって変わってくる。例えば、ど
のセンサ41 〜4m で観測しても誤差が大きいと考えら
れる場合に、その目標11 〜1n の観測必要性が大きく
なるようにランダム誤差を評価するということが考えら
れる。そのために、ここではE−By平面において目標
1 〜1n の誤差楕円体の面積とレーダrの観測ビーム
1 〜3m の面積とを比較することにする。
[0092] Next, the following procedure for calculating the random error evaluation value V k r which takes into account the sensor specifications at random error evaluator 16. The idea is that the appearance of the error depends on the sensors 4 1 to 4 that observe the targets 1 1 to 1 n.
It depends on the position and accuracy of m . For example, in the case where even observed at any sensor 4 1 to 4 m is considered that the error is large, it is considered that the observed need for target 1 1 to 1 n evaluates the random error to be large. Therefore, here, the areas of the error ellipsoids of the targets 1 1 to 1 n on the E-By plane are compared with the areas of the observation beams 3 1 to 3 m of the radar r.

【0093】まず、サンプリング時刻tk において、各
レーダr(r=1,2,…,m)より見た目標角度の真
値を表すベクトルθk,r を以下の式(34)のように定
義する。
First, at the sampling time t k , a vector θ k, r representing the true value of the target angle viewed from each radar r (r = 1, 2, ..., M) is defined by the following equation (34). To do.

【0094】[0094]

【数7】 [Equation 7]

【0095】追尾フィルタ71 〜7n より得られる予測
ベクトル¨xk を使用すると、角度の予測ベクトル¨θ
k,r は次の式(35)および式(36)で与えられる。
When the prediction vector ¨x k obtained from the tracking filters 7 1 to 7 n is used, the angle prediction vector ¨θ
k and r are given by the following equations (35) and (36).

【0096】[0096]

【数8】 [Equation 8]

【0097】ここで、[ar r r ]はレーダrのx
yz座標系における位置ベクトルであり、[xyz]は
目標予測値xk の位置成分である。
Here, [a r b r c r ] is x of the radar r.
It is a position vector in the yz coordinate system, and [xyz] is a position component of the target predicted value x k .

【0098】また、角度予測ベクトル¨θk,r の平均値
をθm k,rとすれば、当該角度予測ベクトル¨θk,r のラ
ンダム誤差¨θk,r −θm k,rの共分散行列は次の式(3
7)のように表せる。 Ak,r =E[(¨θk,r −θk,r m)(¨θk,r −θk,r mT ] =Fk,r ¨Pk k,r T ・・・(37)
If the average value of the angle prediction vector ¨θ k, r is θ m k, r , then the random error of the angle prediction vector ¨θ k, r ¨ θ k, r −θ m k, r The covariance matrix is given by the following equation (3
It can be expressed as 7). A k, r = E [(¨θ k, r −θ k, r m ) (¨θ k, r −θ k, r m ) T ] = F k, r ¨P k F k, r T ...・ (37)

【0099】ただし、Fk,r は次の式(38)とおい
た。また、¨Pk は予測ベクトルのランダム誤差の共分
散行列、すなわち予測誤差共分散行列である。
However, F k, r is set as the following equation (38). Further, ??? P k is a random error covariance matrix of the prediction vector, that is, a prediction error covariance matrix.

【0100】[0100]

【数9】 [Equation 9]

【0101】次に、誤差楕円の面積を計算する。次の式
(39)に示す変量 [¨θk,r −θk,r m]Ak,r -1 [¨θk,r −θk,r m T ・・・(39) は自由度2のカイ2乗分布にしたがい、d’をパラメー
タとして、以下に示す式(40)を満たす¨θk,r の領
域はE−By面内において楕円を成す。 [¨θk,r −θk,r m]Ak,r -1 [¨θk,r −θk,r mT ≦d’ ・・・(40)
Next, the area of the error ellipse is calculated. The variable [¨θ k, r −θ k, r m ] A k, r −1 [¨θ k, r −θ k, r m ] T (39) shown in the following equation (39) is free. According to the chi-square distribution of degree 2, with d ′ as a parameter , the region of θ k, r that satisfies the following expression (40) forms an ellipse in the E-By plane. [¨θ k, r −θ k, r m ] A k, r −1 [¨θ k, r −θ k, r m ] T ≦ d ′ (40)

【0102】なお、上記誤差楕円体の面積は、次の式
(41)により算出される。
The area of the error ellipsoid is calculated by the following equation (41).

【0103】[0103]

【数10】 [Equation 10]

【0104】一方、レーダr(r=1,2,…,m)の
ビーム幅をBWr とするとき、ビーム幅領域のE−By
面内における面積を以下の式(42)で定義する。
On the other hand, when the beam width of radar r (r = 1, 2, ..., M) is BW r , E-By in the beam width region
The area in the plane is defined by the following equation (42).

【0105】[0105]

【数11】 [Equation 11]

【0106】次に、上記誤差楕円体の面積σk,r を各レ
ーダのビーム幅領域の面積sr BW で規格化した値ρk,r
を次の式(43)で定義する。
Next, a value ρ k, r obtained by normalizing the area σ k, r of the error ellipsoid by the area s r BW of the beam width region of each radar.
Is defined by the following equation (43).

【0107】[0107]

【数12】 [Equation 12]

【0108】最後に、上記ρk,r の全レーダr(r=
1,2,…,m)中での最小値を、以下の式(44)で
表されるランダム誤差評価値Vk rとする。
[0108] Finally, the ρ k, r of all radar r (r =
The minimum value in 1, 2, ..., M) is defined as the random error evaluation value V k r represented by the following equation (44).

【0109】[0109]

【数13】 [Equation 13]

【0110】ここで、統計量として最小値を選択する方
法を採用したのは、追尾維持にとって最も条件のよいレ
ーダrをもってしてもなお、観測ビーム31 〜3m 内に
目標11 〜1n を捕らえ続けるのが困難となっている場
合に限って、ランダム誤差評価値が高い値となるように
するためであるが、統計量として平均値や最大値を選択
するようにしてもよい。なお、平均値をとれば平均的な
観測ビーム31 〜3m内への捕えにくさが各目標11
n のランダム誤差評価値となり、また最大値をとれば
追尾維持にとって最も条件の悪いレーダrで観察を行う
場合の観測ビーム31 〜3m 内への捕えにくさが評価値
となる。
[0110] Here, employing the method of selecting the minimum value as a statistical amount, even with a good radar r most conditions for Track Maintenance The target 1 1 to 1 to the observation beam 3 1 in to 3 m This is because the random error evaluation value is set to a high value only when it is difficult to keep capturing n , but the average value or the maximum value may be selected as the statistic. In addition, if the average value is taken, it is difficult to capture the average observation beam 3 1 to 3 m within each target 1 1 to 3 m .
The evaluation value is a random error evaluation value of 1 n , and if the maximum value is taken, the evaluation value is the difficulty in catching in the observation beams 3 1 to 3 m when the observation is performed by the radar r, which has the worst conditions for maintaining tracking.

【0111】以上のように、この実施の形態2によれ
ば、バイアス誤差評価器15とランダム誤差評価器16
に対して、センサ諸元入力器17より各センサ41 〜4
m のセンサ諸元を入力しているので、センサ41 〜4m
の位置や精度を考慮にいれた観測必要性が評価され、こ
れによって、バイアス誤差評価器15では、各目標11
〜1n の旋回を検出するのみならず、旋回によって発生
するバイアス誤差の各センサ41 〜4m から観測のしや
すさまでも含めて評価することができ、また、ランダム
誤差評価器16では、各目標11 〜1n のランダム誤差
の大きさを算出するだけでなく、各センサ41 〜4m
ら見た上記ランダム誤差の相対的な大きさまでも含めて
評価することができて、観測必要性評価器9ではセンサ
諸元を考慮にいれた観測必要性が判定されるため、セン
サ群5にとって追尾をはずしそうな目標11 〜1n に対
してセンサ41 〜4m が割り当てられやすくなるという
効果が得られる。
As described above, according to the second embodiment, the bias error evaluator 15 and the random error evaluator 16 are provided.
Respect, each sensor from the sensor specification input unit 17 4 1-4
Since entering the m sensors specifications, the sensor 4 1 to 4 m
Observed the need to put in position and considering the accuracy of the evaluation, thereby, the bias error evaluator 15, the target 1 1
Not only to detect the turning of the to 1 n, including able to evaluate from the sensors 4 1 to 4 m of bias error caused by turning up the ease of observation, also in the random error evaluator 16, not only calculates the magnitude of the random error of each target 1 1 to 1 n, and can be evaluated, including to the relative magnitude of the random error as seen from the sensors 4 1 to 4 m, observation because observation needs taking into account the need estimator 9, the sensor specifications is determined, the sensor 4 1 to 4 m is assigned to likely targets 1 1 to 1 n Remove tracking taking the sensors 5 The effect is that it becomes easier.

【0112】実施の形態3.図6はこの発明の実施の形
態3によるセンサ群管理装置の構成を示すブロック図で
あり、相当部分には図4と同一符号を付してその説明を
省略する。図において、18は入力装置14および追尾
フィルタ群8からの出力を受けて、目標群2の目標11
〜1n ごとに、目標までの距離、目標の進行方向、目標
の速度、目標の動き、目標自体の注目度、目標の到達時
間の一部または全部に基づいて、それらの重要度を評価
する重要度評価器であり、この実施の形態3は実施の形
態2によるセンサ群管理装置に当該重要度評価器18を
付加したものである。なお、観測必要性評価器9は、バ
イアス誤差評価器15からの出力とランダム誤差評価器
16からの出力に加えて、この重要度評価器18からの
出力も受け、これら3つの評価値の重み付け平均をとっ
て、各目標11 〜1n ごとの観測必要性を評価している
点で、図4に同一符号を付したものとは異なっている。
Third embodiment. 6 is a block diagram showing a configuration of a sensor group management device according to a third embodiment of the present invention. Corresponding parts are designated by the same reference numerals as those in FIG. 4 and their explanations are omitted. In the figure, 18 receives the outputs from the input device 14 and the tracking filter group 8 and receives the targets 1 1 of the target group 2.
For each ~ 1 n , evaluate their importance based on the distance to the target, the direction of travel of the target, the speed of the target, the movement of the target, the degree of attention of the target itself, and part or all of the arrival time of the target This is an importance level evaluator, and in the third embodiment, the importance level evaluator 18 is added to the sensor group management device according to the second embodiment. The observation necessity evaluator 9 receives the output from the importance error evaluator 18 in addition to the output from the bias error evaluator 15 and the output from the random error evaluator 16, and weights these three evaluation values. This is different from the one denoted by the same reference numeral in FIG. 4 in that the average is used to evaluate the observation necessity for each of the targets 1 1 to 1 n .

【0113】次に動作について説明する。ここで、図1
に示した実施の形態1のセンサ群管理装置、あるいは図
4に示した実施の形態2のセンサ群管理装置における観
測必要性評価器9は、バイアス誤差評価器15の出力す
る予測誤差のバイアス成分と、ランダム誤差評価器16
の出力する予測誤差のランダム成分とを用いて、各目標
1 〜1n の観測必要性を決めていたが、この実施の形
態3によるセンサ群管理装置における観測必要性評価器
9には、上記バイアス誤差評価器15およびランダム誤
差評価器16の出力に加えて、重要度評価器18より得
られる各目標11 〜1n の重要度も入力されている。
Next, the operation will be described. Here, FIG.
The observation necessity evaluator 9 in the sensor group management device of the first embodiment shown in FIG. 4 or the sensor group management device of the second embodiment shown in FIG. 4 has a bias component of the prediction error output from the bias error evaluator 15. And the random error evaluator 16
Although the observation necessity of each of the targets 1 1 to 1 n is determined by using the random component of the prediction error output by the above, the observation necessity evaluator 9 in the sensor group management apparatus according to the third embodiment includes In addition to the outputs of the bias error evaluator 15 and the random error evaluator 16, the importance of each of the targets 1 1 to 1 n obtained from the importance evaluator 18 is also input.

【0114】なお、この重要度評価器18による各目標
1 〜1n の重要度の評価は、入力装置14からの出力
と追尾フィルタ群8からの出力に基づいて、目標までの
距離、目標の進行方向、目標の速度、目標の動き、目標
自体の注目度、目標の到達時間の一部または全部を用い
て、例えば次のように行われる。
The evaluation of the importance of each of the targets 1 1 to 1 n by the importance evaluator 18 is based on the output from the input device 14 and the output from the tracking filter group 8 and the distance to the target and the target. The moving direction of the target, the speed of the target, the movement of the target, the degree of attention of the target itself, and part or all of the arrival time of the target are used, for example, as follows.

【0115】1.目標の距離:センサ41 〜4m または
ある特定地域から遠く離れた目標11 〜1n は重要でな
いと判断される場合には、センサ41 〜4m 等に近い目
標11 〜1n の重要度を高くする。 2.目標の進行方向:センサ41 〜4m またはある特定
地域に近づいてくる目標11 〜1n が重要であり、遠ざ
かる目標11 〜1n は重要でないと判断される場合に
は、センサ41 〜4m 等に向かってくる目標11 〜1n
の重要度を高くする。 3.目標の速度:センサ41 〜4m またはある特定地域
に近づいてくる目標11 〜1n のうちで、速度が大きい
ものが重要であると判断される場合には、速度の大きな
目標11 〜1n の重要度を高くする。 4.目標の動き:動きが速く、機動性に富む目標11
n が重要であると判断される場合には、その目標11
〜1n の重要度を高くする。 5.目標自体の注目度:何らかの手段で目標11 〜1n
の大きさ、特性、種類などが識別できたときには、その
識別結果より目標11 〜1n が注目すべきであると判断
された目標11 〜1n の重要度を高くする。 6.目標の到達時間:目標11 〜1n の位置、進行方
向、速度を融合して、ある特定地域までの到達時間を算
出し、当該到達時間が短い目標11 〜1n が重要である
と判断される場合には、この目標11 〜1n の重要度を
高くする。
1. Distance Goal: sensor 41 to when m or target 1 1 to 1 n which far from certain region is determined not to be critical, the target 1 1 to 1 n is close to the sensor 4 1-4 m etc. Increase the importance of. 2. Traveling direction of the target: when the target 1 1 to 1 n approaching the sensor 4 1 to 4 m or a specific region is important, the target 1 1 to 1 n away is determined not to be critical, the sensor 4 Goals 1 1 to 1 n coming toward 1 to 4 m
Increase the importance of. 3. Target speed: Among the sensors 4 1 to 4 m or the targets 1 1 to 1 n approaching a specific area, if it is judged that the one with the higher speed is important, the target with the higher speed 1 1 Increase the importance of ~ 1 n . 4. Target movement: Fast-moving and highly mobile goal 1 1-
If 1 n is determined to be important, its goal 1 1
Increase the importance of ~ 1 n . 5. Attention level of the goal itself: Goals 1 1 to 1 n by some means
When the size, characteristics, type, etc. of the target 1 1 to 1 n can be identified, the importance of the targets 1 1 to 1 n determined that the targets 1 1 to 1 n should be noted based on the identification result is increased. 6. The goal of arrival time: the position of the target 1 1 to 1 n, the traveling direction, by fusing speed, and calculates the time to reach a particular area, with the arrival time is shorter target 1 1 to 1 n is important If it is determined, the importance of the goals 1 1 to 1 n is increased.

【0116】観測必要性評価器9は、上記バイアス誤差
評価器15およびランダム誤差評価器16の出力に加え
て、この重要度評価器18より得られる各目標11 〜1
n の重要度も観測必要性決定の基準として用い、これら
3入力の重み付き平均をとって観測必要性を決定する。
なお、重要度評価器18にて目標11 〜1n の重要度を
評価するための指標はこれらにのみ限定されるものでは
なく、観測が必要かどうかに関して何らかの意味で目標
1 〜1n を評価できるものであれば、上記以外の指標
であってもよい。
The observation necessity evaluator 9 adds the outputs of the bias error evaluator 15 and the random error evaluator 16 to each of the targets 1 1 to 1 obtained from the importance evaluator 18.
The importance of n is also used as a criterion for determining the observation necessity, and the observation necessity is determined by taking a weighted average of these three inputs.
The indexes for evaluating the importance of the targets 1 1 to 1 n by the importance level evaluator 18 are not limited to these, and the targets 1 1 to 1 n are in some sense related to whether or not observation is necessary. An index other than the above may be used as long as it can evaluate.

【0117】以上のように、この実施の形態3によれ
ば、重要度評価器18より得られる各目標11 〜1n
重要度も観測必要性の評価基準として用いているので、
目標の価値がすべて等しいとしてセンサ群8を管理して
いた実施の形態1および実施の形態2の場合とは異な
り、各目標11 〜1n の観測必要性を客観的に評価する
ことが可能となるため、特に観測が必要な目標11 〜1
n を選択し、選択した目標11 〜1n について重点的に
センサ41 〜4m を割り当てることができるようにな
り、追尾が必要な目標11 〜1n を選択して、その選択
された目標11 〜1nを特に見失わないようにセンサ群
8を管理することが可能になるという効果が得られる。
As described above, according to the third embodiment, the importance of each of the targets 1 1 to 1 n obtained from the importance evaluator 18 is also used as the evaluation necessity evaluation criterion.
Unlike the cases of the first and second embodiments in which the sensor group 8 is managed on the assumption that all the goals have the same value, it is possible to objectively evaluate the observation necessity of each of the goals 1 1 to 1 n. Therefore, the target that requires special observation is 1 to 1
Select n, the target 1 1 to 1 n selected will be able to assign the focus sensor 4 1 to 4 m, and select the target 1 1 to 1 n required tracking is the selected It is possible to manage the sensor group 8 so as not to lose sight of the targets 1 1 to 1 n .

【0118】[0118]

【0119】[0119]

【発明の効果】 以上のように、この発明によれば、セン
サ群からの観測情報を目標ごとに選別する入力装置と、
この入力装置の出力に応じて目標を追尾するカルマンフ
ィルタにて構成された追尾フィルタ群と、これら入力装
置と追尾フィルタ群の出力より予測誤差のバイアス成分
を評価するバイアス誤差評価器と、追尾フィルタ群の出
力より予測誤差のランダム成分を評価するランダム誤差
評価器と、バイアス誤差評価器とランダム誤差評価器の
出力に基づいて各目標ごとの観測必要性を評価する観測
必要性評価器と、各センサから各目標への割り当てを仮
想的に決定する仮想割り当て器と、追尾フィルタ群およ
び仮想割り当て器の出力を受けてセンサと目標との各組
合せに対して評価値を決定する観測効果判定器と、追尾
フィルタ群からの追尾情報、および観測必要性評価器と
前記観測効果判定器からの評価値に基づいて、各センサ
と各目標との割り当てを決定する割り当て器と、センサ
群の各センサのセンサ諸元を出力するセンサ諸元入力装
置とを備え、バイアス誤差評価器が、センサ諸元入力器
からのセンサ諸元と、入力装置からの観測情報および追
尾フィルタ群からの追尾情報を受けて、観測情報に含ま
れる目標観測位置と追尾情報に含まれる目標予測位置の
差をローパスフィルタで平滑することにより、目標群の
各目標それぞれの予測誤差のバイアス成分を算出して、
当該予測誤差のバイアス成分をセンサ諸元に含まれる前
記各センサそれぞれの観測範囲で規格化し、規格化され
た予測誤差のバイアス成分の最小値、平均値、あるいは
最大値などの統計量をとって、各目標それぞれのバイア
ス誤差評価値として出力するので設定した運動モデル
と目標の実際の運動が合致していなくても、観測値と予
測値の差が大きくなって追尾誤差の分散値には観測値が
反映されず、結果的に実際は追尾誤差が増加しているに
もかかわらず誤差の期待値は小さく評価されることにな
るようなことはなくなるため、追尾フィルタとしてカル
マンフィルタを使用した場合に、観測必要性が結果的に
不当に小さく評価され、センサが割り当てられる頻度が
不十分となって追尾がはずれそうになっている目標を検
出して、当該目標により優先的にセンサの割り当てを行
うことができ、追尾がはずれてしまう危険性を防ぐこと
が可能なセンサ群管理装置が得られる効果がある。ま
た、各目 標の旋回を検出するだけでなく、旋回によって
発生するバイアス誤差の、各センサから観測のしやすさ
までも含めて評価することができ、センサ諸元を考慮に
いれた観測必要性の設定が可能になるという効果があ
る。
As described above, according to the present invention, the sensor
An input device that selects the observation information from the group of objects for each target,
Kalmanfu that tracks the target according to the output of this input device
Filter group consisting of filters and these input devices.
Bias component of the prediction error from the output of the storage and tracking filters
Bias error evaluator for evaluating
Random error that evaluates random component of prediction error from force
Evaluator, bias error evaluator and random error evaluator
Observation that evaluates the observation need for each target based on the output
The need evaluator and the assignment from each sensor to each goal are tentative.
Virtual allocator that makes an ideal decision, tracking filters, and
And the output of the virtual allocator and each pair of sensor and target
Observation effect determiner that determines the evaluation value for tracking and tracking
Tracking information from the filter group, and the observation necessity evaluator
Based on the evaluation value from the observation effect determiner, each sensor
And a allocator that determines the allocation between each
Sensor specification input device that outputs the sensor specifications of each sensor in the group
The bias error evaluator is equipped with
From the input device, observation information from the input device and additional information
Included in observation information after receiving tracking information from tail filter group
Of the target observation position and the target prediction position included in the tracking information.
By smoothing the difference with a low-pass filter,
Calculate the bias component of the prediction error for each target,
Before the bias component of the prediction error is included in the sensor specifications
It is standardized by the observation range of each sensor
Minimum or average bias component of the prediction error, or
By taking statistics such as maximum value,
Since it is output as an error value , the set motion model
And the actual movement of the target do not match, the observed values and
The difference between the measured values becomes large, and the observed value is the variance of the tracking error.
It is not reflected, and as a result the tracking error actually increases.
However, the expected value of the error is small.
As a tracking filter,
As a result, the need for observation is
Unreasonably underestimated and the frequency with which sensors are assigned
Detect a target that is becoming inadequate due to insufficient tracking
And assign sensors preferentially according to the target.
To prevent the risk of tracking error
There is an effect that a sensor group management device capable of performing the above can be obtained. Well
It was, not only to detect the turning of each goal, by turning
Ease of observing the generated bias error from each sensor
It is possible to evaluate even including
The effect is that it is possible to set the observation needs
It

【0120】この発明によれば、センサ群からの観測情
報を目標ごとに選別する入力装置と、この入力装置の出
力に応じて目標を追尾するカルマンフィルタにて構成さ
れた追尾フィルタ群と、これら入力装置と追尾フィルタ
群の出力より予測誤差のバイアス成分を評価するバイア
ス誤差評価器と、追尾フィルタ群の出力より予測誤差の
ランダム成分を評価するランダム誤差評価器と、バイア
ス誤差評価器とランダム誤差評価器の出力に基づいて各
目標ごとの観測必要性を評価する観測必要性評価器と、
各センサから各目標への割り当てを仮想的に決定する仮
想割り当て器と、追尾フィルタ群および仮想割り当て器
の出力を受けてセンサと目標との各組合せに対して評価
値を決定する観測効果判定器と、追尾フィルタ群からの
追尾情報、および観測必要性評価器と前記観測効果判定
器からの評価値に基づいて、各センサと各目標との割り
当てを決定する割り当て器と、センサ群の各センサのセ
ンサ諸元を出力するセンサ諸元入力装置とを備え、ラン
ダム誤差評価器が、センサ諸元入力器からのセンサ諸元
と、追尾フィルタ群からの追尾情報を受けて、追尾情報
に含まれる目標予測位置および予測誤差共分散行列より
求まる誤差楕円体の極座標系E−By平面での面積を、
センサ諸元に含まれる各センサそれぞれの観測領域のE
−By平面での面積で規格化し、規格化された誤差楕円
体のE−By平面での面積の最小値、平均値、あるいは
最大値などの統計量をとって、各目標それぞれのランダ
ム誤差評価値として出力するので、設定した運動モデル
と目標の実際の運動が合致していなくても、観測値と予
測値の差が大きくなって追尾誤差の分散値には観測値が
反映されず、結果的に実際は追尾誤差が増加しているに
もかかわらず誤差の期待値は小さく評価されることにな
るようなことはなくなるため、追尾フィルタとしてカル
マンフィルタを使用した場合に、観測必要性が結果的に
不当に小さく評価され、センサが割り当てられる頻度が
不十分となって追尾がはずれそうになっている目標を検
出して、当該目標により優先的にセンサの割り当てを行
うことができ、追尾がはずれてしまう危険性を防ぐこと
が可能なセンサ群管理装置が得られる効果がある。ま
た、各目標のランダム誤差の大きさを算出するだけでな
く、各センサから見たランダム誤差の相対的な大きさま
で含めて評価することができ、センサ諸元を考慮にいれ
た観測必要性の設定が可能にな るという効果がある。
According to the present invention, the observation information from the sensor group is
The input device that sorts the information by target and the output of this input device.
It consists of a Kalman filter that tracks the target according to the force.
Tracking filters, these input devices and tracking filters
A via that evaluates the bias component of the prediction error from the group output
Of the prediction error from the output of the tracking error group and the tracking filter group.
A random error evaluator that evaluates the random component and a via
Based on the output of the random error evaluator and the random error evaluator.
An observation necessity evaluator that evaluates the observation need for each goal,
Virtually determine the allocation from each sensor to each target
Allocator, tracking filter group and virtual allocator
Evaluation of each combination of sensor and target based on the output of
From the observation effect determiner that determines the value and the tracking filter group
Tracking information, observation necessity evaluator and the observation effect judgment
Based on the evaluation value from the instrument, the allocation of each sensor and each target
The assigner that determines the patch and the sensor of each sensor in the sensor group.
Equipped with a sensor specification input device that outputs sensor specifications.
The dam error evaluator uses the sensor specifications from the sensor specifications input device.
And the tracking information from the tracking filter group,
From the target prediction position and prediction error covariance matrix included in
The area of the error ellipsoid obtained on the E-By plane in the polar coordinate system is
E of the observation area of each sensor included in the sensor specifications
-Error ellipse standardized by the area on the By plane and standardized
The minimum value, the average value, or the area of the body in the E-By plane
Take statistics such as maximum value and
Since it is output as a motion error evaluation value, the set motion model
And the actual movement of the target do not match, the observed values and
The difference between the measured values becomes large, and the observed value is the variance of the tracking error.
It is not reflected, and as a result the tracking error actually increases.
However, the expected value of the error is small.
As a tracking filter,
As a result, the need for observation is
Unreasonably underestimated and the frequency with which sensors are assigned
Detect a target that is becoming inadequate due to insufficient tracking
And assign sensors preferentially according to the target.
To prevent the risk of tracking error
There is an effect that a sensor group management device capable of performing the above can be obtained. Well
Also, you only have to calculate the magnitude of the random error for each goal.
Relative magnitude of random error seen from each sensor
Can be included in the evaluation and take into account the sensor specifications.
Was observed the need for settings to be able to there is an effect that name Ru.

【0121】この発明によれば、バイアス誤差評価器に
て、入力装置からの観測情報と追尾フィルタ群からの追
尾情報より、目標が旋回運動を行っているかどうかを評
価するように構成したので、旋回している目標に対し
て、他の目標よりも優先的にセンサを割り当てることが
可能になるという効果がある。
According to the present invention, the bias error evaluator
Information from the input device and tracking from the tracking filter group.
From the tail information, evaluate whether the target is making a turning motion
Because it is configured to valuate,
And assign sensors in preference to other goals.
The effect is that it will be possible.

【0122】この発明によれば、バイアス誤差評価器に
て、目標の予測位置と観測位置との差をローパスフィル
タで平滑することにより、各目標の予測誤差のバイアス
成分を評価するように構成したので、実際の運動に関し
て運動モデルからの逸脱の度合いが大きい目標ほど観測
必要性を高くして、センサが割り当てられやすくするこ
とができるという効果がある。
According to the present invention, the bias error evaluator
The difference between the predicted position of the target and the
Bias of the prediction error of each target by smoothing
Since it was configured to evaluate the components,
A target with a large degree of deviation from the motion model
Increased need for easier sensor assignment
The effect is that you can

【0123】この発明によれば、ランダム誤差評価器に
て、目標の予測誤差共分散行列より算出した誤差楕円体
の長軸半径により、目標の予測誤差のランダム成分を評
価するように構成したので、長い間、センサの割り当て
が行われないため、目標の曖昧さが大きくなりすぎて追
尾をはずしてしまうといったことを防止できるという効
果がある。
According to the present invention, the random error evaluator has
Error ellipsoid calculated from the target prediction error covariance matrix
The random component of the target prediction error is evaluated by the long-axis radius of
Configured for longevity, so long time sensor allocation
Is not performed, the ambiguity of the goal becomes too large and additional
The effect of preventing the tail from being removed
There is a fruit.

【0124】この発明によれば、観測必要性評価器に
て、バイアス誤差評価器とランダム誤差評価器からの出
力の重み付け平均をとり、各目標の観測必要性を決定す
るように構成したので、旋回運動をしている目標に対し
て優先的にセンサを割り当てつつ、等速直進運動をして
いる目標に対しても適度な観測間隔をとってセンサを割
り当てることが可能になるという効果がある。
According to the present invention, in the observation necessity evaluator, the weighted average of the outputs from the bias error evaluator and the random error evaluator is taken to determine the observation necessity of each target. There is an effect that it is possible to preferentially assign a sensor to a target performing a turning motion, and to assign a sensor with a proper observation interval even to a target performing a constant speed rectilinear motion. .

【0125】この発明によれば、目標の位置、目標まで
の距離、目標の進行方向、目標の速度、目標の動き、目
標自体の注目度の一部または全部に基づき、各目標ごと
の重要度を評価する重要度評価器を設けるとともに、観
測必要性評価器にて、この重要度評価器からの出力と、
バイアス誤差評価器およびランダム誤差評価器からの出
力の重み付け平均をとり、各目標の観測必要性の評価値
を決定するように構成したので、各目標の観測必要性を
客観的に評価することにより、特に観測が必要な目標を
選択し、選択した目標について重点的にセンサを割り当
てられるようにすることができるという効果がある。
According to the present invention, the importance of each target is based on the position of the target, the distance to the target, the direction of travel of the target, the speed of the target, the movement of the target, and part or all of the attention of the target itself. In addition to the importance evaluator that evaluates, the observation necessity evaluator outputs
The output from the bias error evaluator and the random error evaluator is weighted and averaged, and the evaluation value of the observation need of each target is determined.By objectively evaluating the observation need of each target, In particular, it is possible to select a target that needs to be observed and to allocate sensors to the selected target in a focused manner.

【0126】この発明によれば、割り当て器にて、観測
必要性評価器の出力と観測効果判定器の出力との積より
目標とセンサとの各組合せに対する評価値を求め、当該
評価値に対する組合せ最適化問題の解としてセンサ割り
当てを決定するように構成したので、観測必要性評価器
の出力と観測効果判定器の出力とを積により融合して最
適化問題に帰着させることが可能となり、評価値の和を
最大とするようなセンサ割り当てを決定することができ
るため、複数のセンサを最大限有効に活用して複数の目
標を同時に追尾することができるばかりか、この問題の
解法として既存の最適化アルゴリズムを使用できるた
め、準最適化アルゴリズムを使用して計算時間を節約す
ることも可能になるなどの効果がある。
According to the present invention, the assigner obtains the evaluation value for each combination of the target and the sensor from the product of the output of the observation necessity evaluator and the output of the observation effect determiner, and the combination for the evaluation value is obtained. Since the sensor assignment is determined as the solution of the optimization problem, the output of the observation necessity evaluator and the output of the observation effect determiner can be fused by the product to result in the optimization problem. Since the sensor assignment that maximizes the sum of the values can be determined, not only can multiple sensors be used to their maximum effectiveness, but multiple targets can be tracked simultaneously. Since the optimization algorithm can be used, it is possible to save the calculation time by using the sub-optimization algorithm.

【図面の簡単な説明】[Brief description of drawings]

【図1】 この発明の実施の形態1によるセンサ群管理
装置を示すブロック図である。
FIG. 1 is a block diagram showing a sensor group management device according to a first embodiment of the present invention.

【図2】 実施の形態1における旋回目標に対するバイ
アス誤差の発生を示す説明図である。
FIG. 2 is an explanatory diagram showing generation of a bias error with respect to a turning target in the first embodiment.

【図3】 実施の形態1におけるバイアス誤差を算出を
示す説明図である。
FIG. 3 is an explanatory diagram showing calculation of a bias error in the first embodiment.

【図4】 この発明の実施の形態2によるセンサ群管理
装置を示すブロック図である。
FIG. 4 is a block diagram showing a sensor group management device according to a second embodiment of the present invention.

【図5】 実施の形態2におけるバイアス誤差評価法を
示す説明図である。
FIG. 5 is an explanatory diagram showing a bias error evaluation method according to the second embodiment.

【図6】 この発明の実施の形態3によるセンサ群管理
装置を示すブロック図である。
FIG. 6 is a block diagram showing a sensor group management device according to a third embodiment of the present invention.

【図7】 従来のセンサ群管理装置を示すブロック図で
ある。
FIG. 7 is a block diagram showing a conventional sensor group management device.

【符号の説明】[Explanation of symbols]

1 ,12 ,…,1n 目標、2 目標群、31
2 ,…,3m 観測ビーム、41 ,42 ,…,4m
センサ、5 センサ群、6 観測情報融合器、71,7
2 ,…,7n 追尾フィルタ、8 追尾フィルタ群、9
観測必要性評価器、10 仮想割り当て器、11 観
測効果判定器、12 割り当て器、14 入力装置、1
5 バイアス誤差評価器、16 ランダム誤差評価器、
17 センサ諸元入力器、18 重要度評価器。
1 1 , 1 2 , ..., 1 n targets, 2 targets, 3 1 ,
3 2, ..., 3 m observation beam, 4 1, 4 2, ... , 4 m
Sensor, 5 sensor group, 6 observation information fusion device, 7 1 , 7
2 , ..., 7 n Tracking filter, 8 Tracking filter group, 9
Observation necessity evaluator, 10 virtual assigner, 11 observation effect determiner, 12 assigner, 14 input device, 1
5 bias error estimator, 16 random error evaluator,
17 sensor specification input device, 18 importance evaluation device.

フロントページの続き (72)発明者 小菅 義夫 東京都千代田区丸の内二丁目2番3号 三菱電機株式会社内 (56)参考文献 特開 平9−257923(JP,A) 特開 平9−90027(JP,A) 特開 平5−323020(JP,A) (58)調査した分野(Int.Cl.7,DB名) G01S 7/00 - 7/42 G01S 13/00 - 13/95 Front page continuation (72) Yoshio Kosuge Yoshio Kosuge 2-3-3 Marunouchi, Chiyoda-ku, Tokyo Mitsubishi Electric Corporation (56) References JP-A-9-257923 (JP, A) JP-A-9-90027 ( JP, A) JP 5-323020 (JP, A) (58) Fields investigated (Int.Cl. 7 , DB name) G01S 7 /00-7/42 G01S 13/00-13/95

Claims (8)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 複数のセンサから構成されるセンサ群を
管理して目標群の複数の目標を追尾するセンサ群管理装
置において、 前記センサ群からの複数の観測情報を受けてこれらを前
記目標ごとに選別する入力装置と、 前記入力装置の出力に応じて前記目標の追尾を行う、カ
ルマンフィルタに基づく複数の追尾フィルタから構成さ
れた追尾フィルタ群と、 前記入力装置の出力と前記追尾フィルタ群の出力とを受
けて予測誤差のバイアス成分を評価するバイアス誤差評
価器と、 前記追尾フィルタ群の出力を受けて予測誤差のランダム
成分を評価するランダム誤差評価器と、 前記バイアス誤差評価器の出力と前記ランダム誤差評価
器の出力とに基づいて前記目標ごとの観測必要性を評価
する観測必要性評価器と、 前記目標群の各目標と前記センサ群の各センサとの割り
当てを仮想的に決定する仮想割り当て器と、 前記仮想割り当て器が仮想的に決定した前記目標とセン
サとの各割り当てに対して、観測の効果を判定する観測
効果判定器と、 前記観測必要性評価器の出力と前記観測効果判定器の出
力とに基づいて、前記目標群の各目標と前記センサ群の
各センサとの割り当てを決定する割り当て器と 前記センサ群の各センサのセンサ諸元を出力するセンサ
諸元入力装置とを備え、 前記バイアス誤差評価器が、前記センサ諸元入力器から
のセンサ諸元と、前記入力装置からの観測情報および追
尾フィルタ群からの追尾情報を受けて、前記観測情報に
含まれる目標観測位置と前記追尾情報に含まれる目標予
測位置の差をローパスフィルタで平滑することにより、
目標群の各目標それぞれの予測誤差のバイアス成分を算
出して、当該予測誤差のバイアス成分を前記センサ諸元
に含まれる前記各センサそれぞれの観測範囲で規格化
し、規格化された前記予測誤差のバイアス成分の最小
値、平均値、あるいは最大値などの統計量をとって、前
記各目 標それぞれのバイアス誤差評価値として出力する
こと を特徴とするセンサ群管理装置。
1. A sensor group comprising a plurality of sensors
Sensor group management device that manages and tracks multiple targets in the target group
In the Receive multiple observation information from the sensor group
An input device that selects each target, Tracking the target according to the output of the input device,
It consists of multiple tracking filters based on the Le Mans filter.
Tracking filters, Receives the output of the input device and the output of the tracking filter group.
Bias error evaluation to evaluate the bias component of prediction error
Price machine, Random prediction error received from the tracking filter group
A random error evaluator that evaluates the components, Output of the bias error evaluator and the random error evaluation
The need for observation for each target based on the output of the vessel
An observation necessity evaluator that The allocation of each target of the target group and each sensor of the sensor group
A virtual allocator that virtually determines the reliance, The virtual allocator virtually determines the goal and the goal.
Observation to judge the effect of observation for each allocation with
An effect determiner, Output of the observation necessity evaluator and output of the observation effect determiner
Based on the force, each target of the target group and the sensor group
An assigner that determines the assignment with each sensor, A sensor that outputs sensor specifications of each sensor of the sensor group
With specification input device, From the sensor specification input device, the bias error evaluator
Sensor specifications, observation information from the input device and additional information
The tracking information from the tail filter group is received and
The target observation position included and the target forecast included in the tracking information.
By smoothing the difference in measurement position with a low-pass filter,
Calculate the bias component of the prediction error for each goal in the goal group
Then, the bias component of the prediction error is set to the sensor specifications.
Standardized by the observation range of each of the sensors included in
And the minimum of the bias component of the standardized prediction error
Take statistics such as values, averages, or maximums, and
Each eye Output as bias error evaluation value for each target
thing A sensor group management device.
【請求項2】 複数のセンサから構成されるセンサ群を
管理して目標群の複数の目標を追尾するセンサ群管理装
置において、 前記センサ群からの複数の観測情報を受けてこれらを前
記目標ごとに選別する入力装置と、 前記入力装置の出力に応じて前記目標の追尾を行う、カ
ルマンフィルタに基づく複数の追尾フィルタから構成さ
れた追尾フィルタ群と、 前記入力装置の出力と前記追尾フィルタ群の出力とを受
けて予測誤差のバイアス成分を評価するバイアス誤差評
価器と、 前記追尾フィルタ群の出力を受けて予測誤差のランダム
成分を評価するランダム誤差評価器と、 前記バイアス誤差評価器の出力と前記ランダム誤差評価
器の出力とに基づいて前記目標ごとの観測必要性を評価
する観測必要性評価器と、 前記目標群の各目標と前記センサ群の各センサとの割り
当てを仮想的に決定する仮想割り当て器と、 前記仮想割り当て器が仮想的に決定した前記目標とセン
サとの各割り当てに対して、観測の効果を判定する観測
効果判定器と、 前記観測必要性評価器の出力と前記観測効果判定器の出
力とに基づいて、前記目標群の各目標と前記センサ群の
各センサとの割り当てを決定する割り当て器と、 前記センサ群の各センサのセンサ諸元を出力するセンサ
諸元入力装置とを備え、 前記ランダム誤差評価器が、前記センサ諸元入力器から
のセンサ諸元と、追尾フィルタ群からの追尾情報を受け
て、前記追尾情報に含まれる目標予測位置および予測誤
差共分散行列より求まる誤差楕円体の極座標系E−By
平面での面積を、前記センサ諸元に含まれる前記各セン
サそれぞれの観測領域のE−By平面での面積で規格化
し、規格化された前記誤差楕円体のE−By平面での面
積の最小値、平均値、あるいは最大値などの統計量をと
って、前記各目標それぞれのラン ダム誤差評価値として
出力することを特徴とするセンサ群管理装置。
2.A sensor group consisting of multiple sensors
Sensor group management device that manages and tracks multiple targets in the target group
In the Receive multiple observation information from the sensor group
An input device that selects each target, Tracking the target according to the output of the input device,
It consists of multiple tracking filters based on the Le Mans filter.
Tracking filters, Receives the output of the input device and the output of the tracking filter group.
Bias error evaluation to evaluate the bias component of prediction error
Price machine, Random prediction error received from the tracking filter group
A random error evaluator that evaluates the components, Output of the bias error evaluator and the random error evaluation
The need for observation for each target based on the output of the vessel
An observation necessity evaluator that The allocation of each target of the target group and each sensor of the sensor group
A virtual allocator that virtually determines the reliance, The virtual allocator virtually determines the goal and the goal.
Observation to judge the effect of observation for each allocation with
An effect determiner, Output of the observation necessity evaluator and output of the observation effect determiner
Based on the force, each target of the target group and the sensor group
An assigner that determines the assignment with each sensor, A sensor that outputs sensor specifications of each sensor of the sensor group
With specification input device, From the sensor specification input device, the random error evaluator
Sensor specifications and tracking information from tracking filters
Target prediction position and prediction error included in the tracking information.
Polar coordinate system E-By of error ellipsoid obtained from difference covariance matrix
The area on a plane is the area of each sensor included in the sensor specifications.
Standardized by the area on the E-By plane of each observation area
And the surface of the standardized error ellipsoid on the E-By plane
Statistics such as minimum, average, or maximum product
Run each of the above goals As the dam error evaluation value
A sensor group management device characterized by outputting.
【請求項3】 バイアス誤差評価器が、入力装置から受
けた観測情報と、追尾フィルタ群から受けた追尾情報と
に基づいて、目標が旋回運動を行っているかどうかの評
価を行うものであることを特徴とする請求項2記載のセ
ンサ群管理装置。
3. The bias error evaluator evaluates whether or not the target makes a turning motion based on the observation information received from the input device and the tracking information received from the tracking filter group. The sensor group management device according to claim 2 .
【請求項4】 バイアス誤差評価器が、入力装置から受
けた観測情報に含まれる目標観測位置と、追尾フィルタ
群から受けた追尾情報に含まれる目標予測位置の差をロ
ーパスフィルタで平滑することによって、複数の目標そ
れぞれの予測誤差のバイアス成分を算出して、出力する
ものであることを特徴とする請求項2記載のセンサ群管
理装置。
4. The low-pass filter smoothes the difference between the target observation position included in the observation information received from the input device and the target prediction position included in the tracking information received from the tracking filter group, by the bias error evaluator. 3. The sensor group management device according to claim 2 , wherein the bias component of the prediction error of each of the plurality of targets is calculated and output.
【請求項5】 ランダム誤差評価器が、追尾フィルタ群
から受けた追尾情報に含まれる目標予測位置および予測
誤差共分散行列より誤差楕円体を算出し、当該誤差楕円
体の長軸半径の長さによって各目標の予測誤差のランダ
ム成分を評価するものであることを特徴とする請求項1
記載のセンサ群管理装置。
5. The random error evaluator calculates an error ellipsoid from the target predicted position and the prediction error covariance matrix included in the tracking information received from the tracking filter group, and the length of the major axis radius of the error ellipsoid. The random component of the prediction error of each target is evaluated according to.
The described sensor group management device.
【請求項6】 観測必要性評価器が、バイアス誤差評価
器の出力する予測誤差のバイアス成分と、ランダム誤差
評価器の出力する予測誤差のランダム成分との重み付け
平均をとって、各目標ごとの観測必要性を評価するもの
であることを特徴とする請求項1又は請求項2記載のセ
ンサ群管理装置。
6. The observation necessity evaluator takes a weighted average of the bias component of the prediction error output by the bias error evaluator and the random component of the prediction error output by the random error evaluator, and obtains a weighted average for each target. The sensor group management device according to claim 1 or 2, which is for evaluating the necessity of observation.
【請求項7】 目標群の各目標ごとに、目標の位置、目
標までの距離、目標の進行方向、目標の速度、目標の動
き、目標自体の注目度の一部または全部に基づいて、そ
の重要度を評価する重要度評価器を備え、 観測必要性評価器が、前記重要度評価器の出力と、バイ
アス誤差評価器の出力およびランダム誤差評価器の出力
を受けて、これら3つの評価値の重み付け平均より前記
各目標ごとの観測必要性を評価するものであることを特
徴とする請求項1又は請求項2記載のセンサ群管理装
置。
7. For each target of the target group, the position of the target, the distance to the target, the direction of travel of the target, the speed of the target, the movement of the target, and part or all of the degree of attention of the target itself, An importance evaluator for evaluating the importance is provided, and the observation necessity evaluator receives the output of the importance evaluator, the output of the bias error evaluator, and the output of the random error evaluator, and receives these three evaluation values. The sensor group management device according to claim 1 or 2, wherein the observation necessity for each of the targets is evaluated from the weighted average.
【請求項8】 割り当て器が、観測必要性評価器の出力
と観測効果判定器の出力とをそれらの積によって融合
し、目標群の各目標とセンサ群の各センサとの各組合せ
に対する評価値を算出し、 前記評価値に対する組合せ最適化問題を解くことによっ
て得られた解を、センサ割り当てとして出力するもので
あることを特徴とする請求項1又は請求項2記載のセン
サ群管理装置。
8. The allocator fuses the output of the observation necessity evaluator and the output of the observation effect determiner by their product, and evaluates each combination of each target of the target group and each sensor of the sensor group. 3. The sensor group management device according to claim 1, wherein a solution obtained by solving the combination optimization problem for the evaluation value is output as sensor allocation.
JP24221198A 1998-08-27 1998-08-27 Sensor group management device Expired - Fee Related JP3415037B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP24221198A JP3415037B2 (en) 1998-08-27 1998-08-27 Sensor group management device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP24221198A JP3415037B2 (en) 1998-08-27 1998-08-27 Sensor group management device

Publications (2)

Publication Number Publication Date
JP2000075023A JP2000075023A (en) 2000-03-14
JP3415037B2 true JP3415037B2 (en) 2003-06-09

Family

ID=17085910

Family Applications (1)

Application Number Title Priority Date Filing Date
JP24221198A Expired - Fee Related JP3415037B2 (en) 1998-08-27 1998-08-27 Sensor group management device

Country Status (1)

Country Link
JP (1) JP3415037B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4804371B2 (en) * 2007-01-18 2011-11-02 三菱電機株式会社 Sensor bias error estimation device
JP4786738B2 (en) * 2009-09-29 2011-10-05 株式会社エヌ・ティ・ティ・データ Optimal position calculation device, optimal position calculation method, and program
JP2011085607A (en) * 2011-02-02 2011-04-28 Ntt Data Corp Optimal position calculation device, optimal position calculation method, and program
CN105676216B (en) * 2016-03-21 2018-04-17 西安电子科技大学 Formation target tracking method at a slow speed based on formation
CN109683150B (en) * 2018-12-29 2023-04-07 西安电子科技大学 Multi-group/expansion target elliptical shape estimation evaluation method
CN112146648B (en) * 2020-09-23 2022-08-19 河北工业大学 Multi-target tracking method based on multi-sensor data fusion
US20230288527A1 (en) * 2020-10-29 2023-09-14 Nec Corporation Allocation determination apparatus, allocation determination method, and computer-readable medium

Also Published As

Publication number Publication date
JP2000075023A (en) 2000-03-14

Similar Documents

Publication Publication Date Title
CA2446318C (en) System and method for central association and tracking in passive coherent location applications
US7548184B2 (en) Methods and apparatus for processing data from multiple sources
AU2002308569A1 (en) Systems and method for central association and tracking in passive coherent location applications
JP3415037B2 (en) Sensor group management device
CN108802720A (en) The cooperation detection and power distribution method of target following in a kind of multiple radar system
CN113359853B (en) Route planning method and system for unmanned aerial vehicle formation cooperative target monitoring
Kalandros et al. Multisensor covariance control strategies for reducing bias effects in interacting target scenarios
CN112689775A (en) Radar point cloud clustering method and device
CN113466848A (en) Angle flicker noise scene-oriented co-location MIMO radar multi-target tracking resource optimal allocation method
CN111007880B (en) Extended target tracking method based on automobile radar
JPH09257923A (en) Sensor group management device
JP4014785B2 (en) Resource management device
KR102572546B1 (en) Device and method of detecting multiple signal differences in single frequency receiver
US11061130B2 (en) Radar apparatus and target detecting method
Nadjiasngar et al. A performance model for target tracking with a radar network
CN111523619A (en) Target existence probability calculation method and device, electronic equipment and storage medium
JP4166651B2 (en) Target tracking device
CN113466825B (en) Networking radar resource allocation method based on mutual information maximization
Wang et al. Study on multiple targets tracking algorithm based on multiple sensors
CN115220002A (en) Multi-target data association tracking method and related device for fixed single station
JP2005308428A (en) Position estimation system
JP3440010B2 (en) Target tracking device
US20240111043A1 (en) System and method for radar static-dynamic segmentation
Fong Distributed data fusion algorithms for tracking a maneuvering target
Irci et al. On optimal resource allocation in multifunction radar systems

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080404

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090404

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100404

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100404

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110404

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120404

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120404

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130404

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130404

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140404

Year of fee payment: 11

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees