JP2000292533A - Sensor allocating device - Google Patents

Sensor allocating device

Info

Publication number
JP2000292533A
JP2000292533A JP11104643A JP10464399A JP2000292533A JP 2000292533 A JP2000292533 A JP 2000292533A JP 11104643 A JP11104643 A JP 11104643A JP 10464399 A JP10464399 A JP 10464399A JP 2000292533 A JP2000292533 A JP 2000292533A
Authority
JP
Japan
Prior art keywords
sensor
information
target
priority
observation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11104643A
Other languages
Japanese (ja)
Inventor
Shinya Tanaka
信也 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP11104643A priority Critical patent/JP2000292533A/en
Publication of JP2000292533A publication Critical patent/JP2000292533A/en
Pending legal-status Critical Current

Links

Landscapes

  • Radar Systems Or Details Thereof (AREA)

Abstract

PROBLEM TO BE SOLVED: To quickly perform the optimum sensor allocation by suppressing the scale of the processing required at the time of allocating the optimum sensor to each target for observation. SOLUTION: A sensor allocating device 10 that allocates targets to be observed to a plurality of sensors which obtain observational information by observing the targets is provided with a storing means 13 which stores sensor priority information in which the priorities of the sensors are defined at every divided area of an area to be observed and an allocating means 14 which inputs the integral information of each target based on the observational information and outputs sensor allocating information by referring to the priority information.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、例えば複数のセン
サに対してそれぞれどの目標を観測するか指示するセン
サ群管理装置に適用するのに好適なセンサ割当装置に関
する。特に複数のセンサにより目標物の観測を行う場合
に、目標物の観測を行う最適なセンサを適宜選択して割
当てるセンサ割当装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a sensor allocating apparatus suitable for application to, for example, a sensor group management apparatus for instructing a plurality of sensors which targets to observe. In particular, the present invention relates to a sensor allocating device that, when observing a target with a plurality of sensors, appropriately selects and allocates an optimal sensor for observing the target.

【0002】[0002]

【従来の技術】従来、複数のセンサにより航空機や船舶
などの目標物の観測を行う場合に、各センサに対してそ
れぞれどの目標を観測するか指示を行うセンサ群管理装
置は、例えば、特開平09−257923号公報に記載
されている。
2. Description of the Related Art Conventionally, when observing a target such as an aircraft or a ship using a plurality of sensors, a sensor group management device that instructs each sensor to determine which target to observe is disclosed in, for example, Japanese Patent Application Laid-Open No. HEI 9-163702. No. 09-257923.

【0003】図3は、特開平09−257923号公報
に記載された従来のセンサ群管理装置50の構成を示す
ものである。センサ群管理装置50は、レーダ装置など
の複数のセンサ60a〜60cにより構成されるセンサ
群60の管理を行う。センサ60a〜60cは、観測ビ
ーム61a〜61cを照射して複数の目標70a〜70
dである目標群70を同時に観測する。なお、ここでは
目標70aが、2つの観測ビーム61a及び61bによ
り照射されている。
FIG. 3 shows a configuration of a conventional sensor group management device 50 described in Japanese Patent Application Laid-Open No. 09-257923. The sensor group management device 50 manages a sensor group 60 including a plurality of sensors 60a to 60c such as a radar device. The sensors 60a to 60c irradiate the observation beams 61a to 61c to emit a plurality of targets 70a to 70c.
The target group 70 of d is simultaneously observed. Here, the target 70a is irradiated by two observation beams 61a and 61b.

【0004】センサ群管理装置50は、観測情報融合器
51と、複数の追尾フィルタ52a〜52dより構成さ
れる追尾フィルタ群52と、割当て器53と、ルール5
4とを含む。
The sensor group management device 50 includes an observation information fusion device 51, a tracking filter group 52 including a plurality of tracking filters 52a to 52d, an assigner 53, and a rule 5
4 is included.

【0005】観測情報融合器51は、センサ60a〜6
0cから複数の観測情報を受けてこれらを融合し、観測
すべき対象である目標70a〜70d毎に整理して、追
尾フィルタ群52に対して出力する。各追尾フィルタ5
2a〜52dは、観測情報融合器51の出力に基づき目
標をそれぞれ追尾して、目標70a〜70dの位置や速
度に加え追尾誤差の期待値を含む追尾情報を出力する。
割当て器53は、追尾フィルタ群52が出力する目標毎
の誤差の期待値に基づき目標の優先度を定め、その目標
の優先度とルール54とに従って各センサ60a〜60
cが観測する複数の目標70a〜70dの最適な割当を
決定する。
[0005] The observation information fusion device 51 includes sensors 60a to 6a.
A plurality of pieces of observation information are received from 0c, and they are combined, arranged for each target 70a to 70d to be observed, and output to the tracking filter group 52. Each tracking filter 5
2a to 52d respectively track targets based on the output of the observation information fusion unit 51, and output tracking information including expected values of tracking errors in addition to the positions and speeds of the targets 70a to 70d.
The allocator 53 determines the priority of the target based on the expected value of the error for each target output from the tracking filter group 52, and sets each of the sensors 60 a to 60 according to the priority of the target and the rule 54.
The optimal assignment of the plurality of targets 70a to 70d observed by c is determined.

【0006】次に、センサ群管理装置50により、それ
ぞれどの目標を観測するか各センサ60a〜60cに対
して指示を行う際の処理について説明する。
Next, a description will be given of a process when the sensor group management device 50 gives an instruction to each of the sensors 60a to 60c as to which target to observe.

【0007】先ず、各センサ60a〜60cから観測情
報が入力される観測情報融合器51が、割当て器53が
どのセンサをどの目標に割当てているかに基づき、各セ
ンサ60a〜60cの出力を対応する追尾フィルタ52
a〜52dに対して出力する。追尾フィルタ群52は、
それぞれ、対応する目標の観測情報を受けて、目標の位
置と速度の推定及び予測を行い、各目標の追尾情報を更
新して割当て器52に出力する。
First, an observation information fusion unit 51 to which observation information is input from each of the sensors 60a to 60c corresponds to the output of each of the sensors 60a to 60c based on which sensor is assigned to which target by the allocator 53. Tracking filter 52
a to 52d. The tracking filter group 52 includes:
Each of them receives the observation information of the corresponding target, estimates and predicts the position and speed of the target, updates the tracking information of each target, and outputs the updated tracking information to the allocator 52.

【0008】追尾情報が入力される割当て器53は、ル
ール54により与えられる割当の手順に従って、各セン
サ60a〜60cの観測ビーム61a〜61cを目標7
0a〜70dの何れに割当てるかを決定するとともに、
この決定結果を割当て情報として出力する。この場合、
割当て器53は、センサの数と同一の行数であり、目標
の数と同一の列数とされる割当て行列と呼ばれる行列を
決定する処理を行う。即ち、割当て器53は、追尾フィ
ルタ群52から出力される各目標の追尾誤差の期待値を
その大きさを基準に並べ替え、期待値の大きさなどに基
づいて目標に対してセンサを割当てる。この処理は、目
標あるいはセンサのいづれかが尽きるまで繰り返し行わ
れる。
The allocator 53, to which the tracking information is input, sets the observation beams 61a to 61c of the sensors 60a to 60c to the target 7 in accordance with the allocation procedure given by the rule 54.
0a to 70d, and
This determination result is output as assignment information. in this case,
The allocator 53 performs a process of determining a matrix called an allocation matrix having the same number of rows as the number of sensors and the same number of columns as the target number. That is, the allocator 53 rearranges the expected value of the tracking error of each target output from the tracking filter group 52 based on its magnitude, and allocates a sensor to the target based on the magnitude of the expected value. This process is repeated until either the target or the sensor runs out.

【0009】各センサ60a〜60cは、入力された割
当て情報に基づき観測を行い、新たな観測情報を取得す
る。
Each of the sensors 60a to 60c performs observation based on the input assignment information and acquires new observation information.

【0010】このように構成されることで、複数のセン
サと複数の目標との最適な割当を決定することができ
る。
[0010] With this configuration, it is possible to determine an optimal assignment between a plurality of sensors and a plurality of targets.

【0011】[0011]

【発明が解決しようとする課題】ところで、上述のセン
サ群管理装置50により、各センサが観測する目標の割
当てを決定する際には、センサ群60から観測情報が入
力され、追尾フィルタ群52から追尾情報が入力される
毎に、割当て器53は、目標毎の追尾誤差の期待値に基
づき、割当て行列を決定し、複数のセンサと複数の目標
との最適な割当てを決定する膨大な処理をしなければな
らない。従って、各目標に最適センサを割当てる際の処
理が大規模となってしまい、割当て処理が遅延してしま
うという問題があった。
By the way, when the above-mentioned sensor group management device 50 determines the assignment of the target to be observed by each sensor, the observation information is input from the sensor group 60 and the tracking filter group 52 inputs the observation information. Every time tracking information is input, the allocator 53 performs an enormous process of determining an allocation matrix based on the expected value of the tracking error for each target and determining an optimal allocation between a plurality of sensors and a plurality of targets. Must. Therefore, there is a problem in that the process for assigning the optimum sensor to each target becomes large-scale, and the assignment process is delayed.

【0012】本発明は上述した問題を解消し、各目標の
観測を行う最適なセンサを割当てる際の処理規模を最小
限に抑え、迅速に最適センサ割当を行い得るようにする
ことを目的とする。
SUMMARY OF THE INVENTION It is an object of the present invention to solve the above-mentioned problems, to minimize the processing scale when allocating an optimal sensor for observing each target, and to quickly perform optimal sensor allocation. .

【0013】[0013]

【課題を解決するための手段】上記の問題を解決するた
めに、本発明は、目標物を観測して観測情報を得る複数
のセンサに対し、観測する目標物を割当てるセンサ割当
装置において、観測対象領域を分割した各領域毎に複数
のセンサの優先順位が定められているセンサ優先度情報
を記憶する記憶手段と、観測情報に基づく各目標物の統
合情報が入力され、センサ優先度情報を参照してセンサ
割当情報を出力する割当手段とを備えたものである。
SUMMARY OF THE INVENTION In order to solve the above-mentioned problems, the present invention relates to a sensor allocating apparatus for allocating a target to be observed to a plurality of sensors for observing the target and obtaining observation information. Storage means for storing sensor priority information in which the priority order of a plurality of sensors is determined for each area obtained by dividing the target area, and integrated information of each target based on observation information are input, and the sensor priority information is Allocating means for outputting sensor allocation information with reference to the allocating means.

【0014】上記の構成としたことで、各目標の観測を
行う最適なセンサを割当てる際の処理規模を最小限に抑
えることができ、迅速に最適センサの割当を行うことが
できる。
With the above configuration, the processing scale when allocating the optimum sensor for observing each target can be minimized, and the optimum sensor can be quickly allocated.

【0015】[0015]

【発明の実施の形態】本発明の一実施の形態について図
1〜図2を参照して説明する。なお、以下の説明におい
て、図1に示すセンサ群は、図3に示すセンサ群60と
同様の構成及び動作をするものであるため、同一の符号
を付与してその詳細な説明は省略する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS One embodiment of the present invention will be described with reference to FIGS. In the following description, since the sensor group shown in FIG. 1 has the same configuration and operation as the sensor group 60 shown in FIG. 3, the same reference numerals are given and the detailed description is omitted.

【0016】図1は、センサ群管理装置30に適用され
た本例のセンサ割当装置10を示すものである。センサ
群管理装置30は、センサ割当装置10と、目標統合器
20とを含む。目標統合器20は、各センサの各観測情
報を統合して、各目標の位置や速度などの情報を含む統
合目標情報を出力する。目標統合器20は、例えば図3
において既に示した観測情報融合器51と追尾フィルタ
群52との構成及び機能を兼ね備えたものである。従っ
て、目標統合器20の構成及び処理についての詳細な説
明は省略する。
FIG. 1 shows a sensor allocating apparatus 10 of the present embodiment applied to a sensor group managing apparatus 30. The sensor group management device 30 includes the sensor assignment device 10 and the target integrator 20. The target integrator 20 integrates each observation information of each sensor and outputs integrated target information including information such as the position and speed of each target. The target integrator 20 is, for example, shown in FIG.
Has the configuration and function of the observation information fusion device 51 and the tracking filter group 52 already shown in FIG. Therefore, a detailed description of the configuration and processing of the target integrator 20 will be omitted.

【0017】センサ割当装置10は、観測情報分割器1
1と、センサ優先度算出機12と、記憶器13と、割当
器14とを含む。
The sensor allocating device 10 includes an observation information divider 1
1, a sensor priority calculator 12, a storage 13, and an allocator 14.

【0018】観測情報分割器11は、観測対象領域を複
数の領域に分割して分割結果を出力する。観測情報分割
器11は、例えば図2に示すように、観測対象領域をn
行m列(n,mは任意の整数)の複数の矩形領域に細分
化し、分割結果情報を出力する。分割結果情報は、例え
ば各々の領域のインデックス情報と、各領域の中心位置
や端部位置が座標表示された位置情報とを含む。例えば
図2においてハッチングを付した領域では、インデック
ス情報は、例えば(n−1,m−1)のようにして、細
分化された矩形領域の行及び列が座標表示された情報と
される。また、位置情報は、例えば(Xn−1,Y
m−1)のような、各領域の中心位置や端部位置が座標
表示された情報とされる。
The observation information divider 11 divides the observation target area into a plurality of areas and outputs a division result. As shown in FIG. 2, for example, the observation information divider 11
It divides into a plurality of rectangular areas of row m columns (n and m are arbitrary integers) and outputs division result information. The division result information includes, for example, index information of each area and position information in which the center position and the end position of each area are displayed by coordinates. For example, in the hatched area in FIG. 2, the index information is information in which the rows and columns of the subdivided rectangular area are displayed as coordinates, for example, as (n-1, m-1). The position information is, for example, (X n−1 , Y
The center position and the end position of each area, such as m-1 ), are coordinate-displayed information.

【0019】センサ優先度算出器12は、センサ群60
により出力される各センサの位置情報に基づき、観測領
域分割器11により出力される分割結果情報に含まれる
細分化された例えば全ての分割領域におけるセンサ優先
度をそれぞれ決定して、分割結果情報にその優先度情報
を付加したセンサ優先度情報を出力する。この場合、各
センサ60a〜60cは、特定の場所に設置されるもの
であっても、例えば航空機のような移動体に搭載される
ものであっても良い。また、移動体に搭載されたセンサ
は、例えば移動範囲(センサを搭載した移動体が所定範
囲を旋回する状態での範囲)の中心位置や移動範囲全体
を自己の位置情報としてセンサ優先度算出器12に出力
するようにしても良い。センサ優先度は、観測するとき
に目標との距離が短い方が正確な観測が可能であるた
め、センサ群60からの入力センサ位置情報に基づい
て、例えば各領域に近いセンサの順に定められる。セン
サ優先度情報は、例えば図2においてハッチングを付し
た領域のセンサ優先順位がセンサ60a、センサ60
c、センサ60b、・・・であった場合には、インデッ
クス情報や位置情報と共に例えば[(n−1,m−
1);(Xn−1,Ym−1);(60a,60c,6
0b,・・・)]のように表わされる。
The sensor priority calculator 12 includes a sensor group 60
Based on the position information of each sensor output by the above, the sensor priority in each of the subdivided, for example, all divided regions included in the division result information output by the observation region divider 11 is determined, and The sensor priority information to which the priority information is added is output. In this case, each of the sensors 60a to 60c may be installed at a specific place, or may be mounted on a moving body such as an aircraft, for example. Also, the sensor mounted on the moving body may use, for example, a sensor priority calculator as the position information of the center of the moving range (the range in which the moving body mounted with the sensor turns a predetermined range) or the entire moving range. 12 may be output. The sensor priority is determined based on input sensor position information from the sensor group 60, for example, in the order of sensors closest to each area, because the shorter the distance to the target is, the more accurate the observation can be. The sensor priority information indicates, for example, that the sensor priority of the hatched area in FIG.
c, the sensor 60b,... together with the index information and the position information, for example, [(n-1, m-
( Xn-1 , Ym -1 ); (60a, 60c, 6)
0b, ...)].

【0020】記憶器13は、例えばRAMなどの書き換
え可能な記憶媒体で構成される。記憶器13は、センサ
優先度算出器12より出力されるセンサ優先度情報が入
力され、入力したセンサ優先度情報を更新して記憶す
る。
The storage unit 13 is composed of a rewritable storage medium such as a RAM. The storage unit 13 receives the sensor priority information output from the sensor priority calculator 12 and updates and stores the input sensor priority information.

【0021】センサ割当器14は、目標統合器20が出
力する統合目標情報が入力され、統合目標情報に含まれ
る各目標の位置情報を得る。各目標の位置情報を得たセ
ンサ割当器14は、記憶器13に記憶されているその目
標が位置する分割領域に対応したセンサ優先度情報を参
照して、それぞれの目標を観測させるセンサを決定す
る。この場合、それぞれの目標が位置する分割領域にお
ける最も優先度の高いセンサが選択される。そして、セ
ンサ割当器14は、どのセンサがどの目標を観測するか
の情報である割当センサ情報を出力する。なお、同一の
分割領域に2以上の目標が位置している場合には、例え
ば任意の順番に、あるいは重要度(例えば、距離や大き
さなどにより定める)の高い目標から順番に、高優先度
のセンサを割当てるようにする。
The sensor allocator 14 receives the integrated target information output from the target integrator 20 and obtains position information of each target included in the integrated target information. The sensor allocator 14 having obtained the position information of each target refers to the sensor priority information stored in the storage unit 13 and corresponding to the divided area where the target is located, and determines a sensor for observing each target. I do. In this case, the sensor with the highest priority in the divided area where each target is located is selected. Then, the sensor allocator 14 outputs allocated sensor information that is information on which sensor observes which target. When two or more targets are located in the same divided region, for example, in an arbitrary order, or in order from a target having a higher importance (for example, determined by a distance or a size), a high priority Of sensors.

【0022】次に、記憶器13に割当情報を記憶させる
処理について説明する。先ず、観測領域分割器11が、
観測対象領域を複数の領域に分割し、インデックス情報
と位置情報とを含む分割結果情報を出力する。センサ優
先度算出機12は、センサ位置情報に基づいて入力され
た分割結果情報の各領域にセンサの優先度情報を付加す
る。そして、センサ優先度算出機12は、分割結果情報
にセンサの優先度情報が付加されたセンサ優先度情報を
出力する。そして、記憶器13は、センサ優先度算出機
12の出力するセンサ優先度情報を更新して記憶する。
なお、記憶器13の記憶処理は、例えば観測領域分割器
11での分割領域の変更や各センサの設置位置の変更な
どがあった場合に行われ、記憶器13には、後述する割
当処理が行われる前に最新のセンサ優先度情報が予め記
憶されている。
Next, a process for storing the allocation information in the storage unit 13 will be described. First, the observation region divider 11
The observation target area is divided into a plurality of areas, and division result information including index information and position information is output. The sensor priority calculator 12 adds sensor priority information to each area of the division result information input based on the sensor position information. Then, the sensor priority calculator 12 outputs sensor priority information obtained by adding sensor priority information to the division result information. Then, the storage unit 13 updates and stores the sensor priority information output from the sensor priority calculator 12.
The storage process of the storage unit 13 is performed, for example, when there is a change in the divided region in the observation region divider 11 or a change in the installation position of each sensor. Before the operation, the latest sensor priority information is stored in advance.

【0023】次に、各センサ60a〜60cに観測する
目標を割当てる割当処理について説明する。各センサ6
0a〜60cが動作を開始すると、目標統合器20に各
センサ60a〜60cの観測情報が入力される。各セン
サ60a〜60cの観測情報には観測対象である目標の
位置や速度などの情報が含まれている。各センサ60a
〜60cの観測情報が入力された目標統合器20は、各
目標の位置情報や現在観測可能であるセンサの情報を含
む統合目標情報を出力する。各センサ60a〜60cか
ら入力される目標の中には同一目標について重複して入
力される場合もあるため、この場合には例えば平均値を
とるなどして1つの目標として統合する処理を行い、現
在観測可能であるセンサの情報と共に統合目標情報とし
て出力する。センサ割当器14は、目標統合器20から
出力される統合目標情報に含まれる各目標の位置情報か
ら、記憶器13に記憶されているセンサ優先度情報に含
まれているその目標が位置する分割領域に対応したセン
サの優先度を参照して、現在測定可能でありかつセンサ
優先度が最も高いセンサを決定して、割当センサ情報と
してセンサ群60に向けて出力する。
Next, an assignment process for assigning a target to be observed to each of the sensors 60a to 60c will be described. Each sensor 6
When the operation of the sensors 0a to 60c starts, the observation information of the sensors 60a to 60c is input to the target integrator 20. The observation information of each of the sensors 60a to 60c includes information such as the position and speed of a target to be observed. Each sensor 60a
The target integrator 20 to which the observation information of ~ 60c is input outputs integrated target information including the position information of each target and the information of the sensor that can be currently observed. Since some of the targets input from the sensors 60a to 60c may be input in duplicate for the same target, in this case, a process of integrating them as one target by, for example, taking an average value is performed. It is output as integrated target information together with the information of the sensors that can be observed at present. The sensor allocator 14 determines, based on the position information of each target included in the integrated target information output from the target integrator 20, the division in which the target included in the sensor priority information stored in the storage 13 is located. With reference to the priority of the sensor corresponding to the area, the sensor that is currently measurable and has the highest sensor priority is determined and output to the sensor group 60 as assigned sensor information.

【0024】各センサ60a〜60cは、入力された割
当センサ情報に基づいて、該当目標の観測を行う。そし
て、各センサ60a〜60cが観測情報を目標統合器2
0を介してセンサ割当器20に出力して、上記の処理が
繰り返し行われる。この場合、目標の位置が他の領域に
移行すると、移行先の領域における高優先のセンサが、
その目標の観測センサとして割当てられる。
Each of the sensors 60a to 60c observes a corresponding target based on the input assigned sensor information. Then, each of the sensors 60a to 60c transmits the observation information to the target integrator 2
0 to the sensor allocator 20 to repeat the above processing. In this case, when the target position moves to another area, the high-priority sensor in the destination area
The target is assigned as the observation sensor.

【0025】以上説明したようにセンサ優先度情報を記
憶器13に予め記憶させ、このセンサ優先度情報に基づ
いてセンサ割当処理を行う構成としたことで、予め記憶
されている情報に基づいて各目標を観測するセンサを割
当てることができるため、各目標を観測する最適なセン
サを割当てる際の処理規模を最小限に抑えることがで
き、センサ割当処理を行う際の処理量を大幅に削減する
ことができるため、迅速に最適なセンサ割当処理を行う
ことができる。
As described above, the sensor priority information is stored in the storage unit 13 in advance, and the sensor assignment process is performed based on the sensor priority information. Since sensors for observing the target can be assigned, the processing scale when assigning the optimal sensor for observing each target can be minimized, and the processing amount when performing the sensor assignment processing can be significantly reduced. Therefore, the optimum sensor allocation processing can be performed quickly.

【0026】なお、上述した一実施の形態では、観測領
域分割器11は、観測対象領域を矩形領域に細分化する
ものとしていたが、六角形、三角形等の領域に細分化す
るものであっても良い。また、観測領域分割器11は、
2次元の観測対象領域を取り扱うものとしていたが、3
次元の観測領域を領域分割するものであっても良い。
In the above-described embodiment, the observation region divider 11 divides the observation target region into rectangular regions. However, the observation region divider 11 divides the observation region into hexagons and triangles. Is also good. Also, the observation region divider 11
Although the two-dimensional observation target area was handled,
The one-dimensional observation region may be divided into regions.

【0027】また、上述した一実施の形態では、センサ
優先度算出器12は、各領域の近くに位置するセンサか
ら高優先度に設定するようにしていたが、分割された領
域のうちある特定の領域については、ある特定のセンサ
(例えば、観測精度の良いもの)を強制的に高優先度に
設定するための情報や、予め計算可能なセンサの性能
(例えば、高温時での観測性能の悪化)や地形の影響
(例えば、設置場所による視界不良)による観測可能範
囲外では低優先度にするための情報を任意に付加するよ
うにしても良い。
Further, in the above-described embodiment, the sensor priority calculator 12 sets the priority of the sensor located near each area to the higher priority. For the area of, information for forcibly setting a specific sensor (for example, one with high observation accuracy) to a high priority or the performance of a sensor that can be calculated in advance (for example, observation performance at high temperature). Information outside the observable range due to the influence of terrain (for example, poor visibility due to the installation location) or the influence of the terrain may be arbitrarily added with information for setting a low priority.

【0028】さらに、上述した一実施の形態では、3つ
のセンサ60a〜60cを用いて説明したが、センサは
いくつ有していても良いことは勿論である。
Further, in the above-described embodiment, three sensors 60a to 60c have been described, but it is needless to say that any number of sensors may be provided.

【発明の効果】以上のように、本発明によれば、複数の
センサが観測する目標物をそれぞれ割当てるセンサ割当
装置において、観測対象領域を分割した各領域毎に複数
のセンサの優先順位が定められているセンサ優先度情報
を記憶する記憶手段と、観測情報に基づく各目標物の統
合情報が入力され、センサ優先度情報を参照してセンサ
割当情報を出力する割当手段とを備えているため、予め
記憶されているセンサ優先度情報に基づいて各目標を観
測するセンサを割当てることができる。従って、各目標
に最適センサを割当てる際の処理規模を最小限に抑える
ことができ、センサ割当処理を行う際の処理量を大幅に
削減することができるため、迅速に最適なセンサ割当処
理を行うことができる。
As described above, according to the present invention, in a sensor allocating apparatus for allocating targets to be observed by a plurality of sensors, a priority order of the plurality of sensors is determined for each of the divided regions to be observed. Storage means for storing sensor priority information, and allocation means for receiving integrated information of each target based on observation information and outputting sensor allocation information with reference to the sensor priority information. A sensor for observing each target can be assigned based on sensor priority information stored in advance. Therefore, the processing scale at the time of allocating the optimum sensor to each target can be minimized, and the processing amount at the time of performing the sensor allocating processing can be greatly reduced. be able to.

【0029】観測対象領域を分割して分割結果情報を出
力する観測領域分割手段と、観測領域分割手段により分
割された各領域毎に各センサの優先順位を定めたセンサ
優先度情報を記憶手段に出力するセンサ優先度算出手段
とを備えた場合には、予め記憶されているセンサ優先度
情報に基づいて各目標を観測するセンサを割当てること
ができる。従って、各目標に最適センサを割当てる際の
処理規模を最小限に抑えることができ、センサ割当処理
を行う際の処理量を大幅に削減することができるため、
迅速に最適なセンサ割当処理を行うことができる。
The observation area dividing means for dividing the observation target area and outputting the division result information, and the sensor priority information in which the priority of each sensor is determined for each area divided by the observation area dividing means are stored in the storage means. When a sensor priority calculating means for outputting is provided, a sensor for observing each target can be assigned based on the sensor priority information stored in advance. Therefore, the processing scale when allocating the optimum sensor to each target can be minimized, and the processing amount when performing the sensor allocation processing can be significantly reduced.
Optimal sensor allocation processing can be performed quickly.

【0030】センサ優先度算出手段は、各センサの位置
情報が入力され、上記各センサと各領域との距離によっ
て優先順位を定めるとした場合には、各目標の近くに位
置するセンサを高優先度としてセンサ優先度情報に含め
ることができ、この予め記憶されたセンサ優先度情報に
基づいて各目標を観測するセンサを割当てることができ
る。従って、各目標に最適センサを割当てる際の処理規
模を最小限に抑えることができ、センサ割当処理を行う
際の処理量を大幅に削減することができるため、迅速に
最適なセンサ割当処理を行うことができる。
When the position information of each sensor is input and the priority is determined based on the distance between each sensor and each area, the sensor priority calculating means assigns the sensor located near each target with high priority. The degree can be included in the sensor priority information, and a sensor for observing each target can be assigned based on the sensor priority information stored in advance. Therefore, the processing scale at the time of allocating the optimum sensor to each target can be minimized, and the processing amount at the time of performing the sensor allocating processing can be greatly reduced. be able to.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明の一実施の形態におけるセンサ群管理
装置に適用されたセンサ割当装置の構成の例を示すブロ
ック図である。
FIG. 1 is a block diagram illustrating an example of a configuration of a sensor assignment device applied to a sensor group management device according to an embodiment of the present invention.

【図2】 本発明の一実施の形態における観測対象領域
を分割した状態の例を示す説明図である。
FIG. 2 is an explanatory diagram illustrating an example of a state where an observation target area is divided according to an embodiment of the present invention.

【図3】 従来のセンサ割当を行うセンサ群管理装置の
構成の例を示すブロック図である。
FIG. 3 is a block diagram illustrating an example of a configuration of a conventional sensor group management device that performs sensor assignment.

【符号の説明】[Explanation of symbols]

10 センサ割当装置 11 観測領域分割器 12 センサ優先度算出器 13 記憶器 14 センサ割当器 20 目標統合器 30 センサ群管理装置 DESCRIPTION OF SYMBOLS 10 Sensor allocation apparatus 11 Observation area | region divider 12 Sensor priority calculator 13 Storage 14 Sensor allocator 20 Target integrator 30 Sensor group management apparatus

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 目標物を観測して観測情報を得る複数の
センサに対し、観測する目標物を割当てるセンサ割当装
置において、 観測対象領域を分割した各領域毎に上記複数のセンサの
優先順位が定められているセンサ優先度情報を記憶する
記憶手段と、 上記観測情報に基づく各目標物の統合情報が入力され、
上記センサ優先度情報を参照してセンサ割当情報を出力
する割当手段とを備えたセンサ割当装置。
1. A sensor allocating apparatus for allocating a target to be observed to a plurality of sensors for observing the target to obtain observation information, wherein the priority of the plurality of sensors is determined for each of the divided regions to be observed. Storage means for storing the determined sensor priority information, and integrated information of each target based on the observation information are input;
Allocating means for outputting sensor allocation information with reference to the sensor priority information.
【請求項2】 観測対象領域を分割して分割結果情報を
出力する観測領域分割手段と、 上記観測領域分割手段により分割された各領域毎に各セ
ンサの優先順位を定めたセンサ優先度情報を記憶手段に
出力するセンサ優先度算出手段とを備えた請求項1記載
のセンサ割当装置。
2. Observation area dividing means for dividing an observation target area and outputting division result information; and sensor priority information defining a priority of each sensor for each area divided by the observation area dividing means. 2. The sensor allocating device according to claim 1, further comprising: a sensor priority calculating unit that outputs to the storage unit.
【請求項3】 センサ優先度算出手段は、各センサの位
置情報が入力され、上記各センサと各領域との距離によ
って優先順位を定める請求項2記載のセンサ割当装置。
3. The sensor assignment device according to claim 2, wherein the sensor priority calculation means receives position information of each sensor and determines a priority order based on a distance between each sensor and each area.
JP11104643A 1999-04-12 1999-04-12 Sensor allocating device Pending JP2000292533A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11104643A JP2000292533A (en) 1999-04-12 1999-04-12 Sensor allocating device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11104643A JP2000292533A (en) 1999-04-12 1999-04-12 Sensor allocating device

Publications (1)

Publication Number Publication Date
JP2000292533A true JP2000292533A (en) 2000-10-20

Family

ID=14386145

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11104643A Pending JP2000292533A (en) 1999-04-12 1999-04-12 Sensor allocating device

Country Status (1)

Country Link
JP (1) JP2000292533A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006047050A (en) * 2004-08-03 2006-02-16 Mitsubishi Electric Corp Tracking system and tracking processing method
JP2007232412A (en) * 2006-02-27 2007-09-13 Toyota Motor Corp Object detecting apparatus
JP2011075300A (en) * 2009-09-29 2011-04-14 Ntt Data Corp Optimal position calculation device, and method and program for calculation optimal position
JP2011085607A (en) * 2011-02-02 2011-04-28 Ntt Data Corp Optimal position calculation device, optimal position calculation method, and program
JP2017078315A (en) * 2015-10-22 2017-04-27 株式会社神戸製鋼所 Interference prevention device for construction machine
JP2021181928A (en) * 2020-05-19 2021-11-25 三菱重工業株式会社 Group sensor control system

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006047050A (en) * 2004-08-03 2006-02-16 Mitsubishi Electric Corp Tracking system and tracking processing method
JP4684591B2 (en) * 2004-08-03 2011-05-18 三菱電機株式会社 Tracking device and tracking processing method
JP2007232412A (en) * 2006-02-27 2007-09-13 Toyota Motor Corp Object detecting apparatus
JP2011075300A (en) * 2009-09-29 2011-04-14 Ntt Data Corp Optimal position calculation device, and method and program for calculation optimal position
JP2011085607A (en) * 2011-02-02 2011-04-28 Ntt Data Corp Optimal position calculation device, optimal position calculation method, and program
JP2017078315A (en) * 2015-10-22 2017-04-27 株式会社神戸製鋼所 Interference prevention device for construction machine
JP2021181928A (en) * 2020-05-19 2021-11-25 三菱重工業株式会社 Group sensor control system
WO2021235103A1 (en) * 2020-05-19 2021-11-25 三菱重工業株式会社 Group sensor control system
JP7418283B2 (en) 2020-05-19 2024-01-19 三菱重工業株式会社 Group sensor control system

Similar Documents

Publication Publication Date Title
CN110764111B (en) Conversion method, device, system and medium of radar coordinates and geodetic coordinates
CN112634181B (en) Method and device for detecting ground point cloud points
US10392133B2 (en) Method for planning the acquisition of images of areas of the earth by a spacecraft
US20060235610A1 (en) Map-based trajectory generation
CN106842184B (en) Multi-target detection and tracking method based on beam scheduling
CN112526513A (en) Millimeter wave radar environment map construction method and device based on clustering algorithm
CN111983600A (en) Target detection method, device and equipment
WO2004070522A2 (en) Method and system for scheduling image acquisition events based on dynamic programming
JP2016043891A (en) Spacecraft monitoring device, spacecraft monitoring method, and program
JP5047534B2 (en) Multi-target tracking device
US20080059056A1 (en) Method for realtime scaling of the vehicle routing problem
CN106289283A (en) Laser scanner write is utilized to take the system and method for grid map
JP2000292533A (en) Sensor allocating device
CN112013877B (en) Detection method and related device for millimeter wave radar and inertial measurement unit
CN110069074B (en) Unmanned aerial vehicle collaborative flight path planning method based on multi-target three-point positioning
CN112630787B (en) Positioning method, positioning device, electronic equipment and readable storage medium
KR101058773B1 (en) Image Processing Method and System of Synthetic Open Surface Radar
US20210383685A1 (en) Information providing system, information providing device, and computer-readable recording medium
CN113759347B (en) Coordinate relation calibration method, device, equipment and medium
Englot et al. Efficient tracking and pursuit of moving targets by heuristic solution of the traveling salesman problem
CN111376249B (en) Mobile equipment positioning system, method and device and mobile equipment
CN112630798A (en) Method and apparatus for estimating ground
CN112558035A (en) Method and apparatus for estimating ground
Kim et al. Observation Task Scheduling of Satellite Constellation with Consensus-based Task Pruning
JP2022537647A (en) Method and satellite access system for determining the likelihood of satellite-borne sensors accessing a target area