JP3180239B2 - Target tracking device - Google Patents

Target tracking device

Info

Publication number
JP3180239B2
JP3180239B2 JP33082193A JP33082193A JP3180239B2 JP 3180239 B2 JP3180239 B2 JP 3180239B2 JP 33082193 A JP33082193 A JP 33082193A JP 33082193 A JP33082193 A JP 33082193A JP 3180239 B2 JP3180239 B2 JP 3180239B2
Authority
JP
Japan
Prior art keywords
image
separated
target
images
combined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP33082193A
Other languages
Japanese (ja)
Other versions
JPH07191134A (en
Inventor
和男 岡本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP33082193A priority Critical patent/JP3180239B2/en
Publication of JPH07191134A publication Critical patent/JPH07191134A/en
Application granted granted Critical
Publication of JP3180239B2 publication Critical patent/JP3180239B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Radar Systems Or Details Thereof (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、物標追尾装置に関し、
特に電波を放射した後の受信時間内に複数の受信データ
が得られたときに、映像が1物標によるものか又は複数
の物標に対応して得られたものかを判定し、追尾精度を
向上させる物標追尾装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a target tracking device,
In particular, when a plurality of reception data is obtained within the reception time after the radio wave is radiated, it is determined whether the image is based on one target or corresponding to a plurality of targets, and the tracking accuracy is determined. And a target tracking device for improving the target.

【0002】[0002]

【従来の技術】レーダは電波を発射し、物標からの反射
波を受信し、船舶等のターゲットの検出及びそのターゲ
ット(以下物標という)の距離、方位、移動速度を決定
し、画面に表示させるものである。つまり、レーダから
見える部分は映像として表示されていた。そして、従来
の物標追尾装置というのは、レーダで得た物標の実測位
置と前回求められている前回の複数の予測位置との位置
相関を判定し、位置の相関が得られた前回求められた予
測位置と実測位置とに基づいた平滑位置を求め、この平
滑位置と追尾情報に基づいて次回の予測位置を求めてい
た。このようにいずれも、レーダの原理に基づく処理を
していた。
2. Description of the Related Art A radar emits a radio wave, receives a reflected wave from a target, detects a target such as a ship, determines the distance, direction, and moving speed of the target (hereinafter, referred to as a target), and displays the target on a screen. Is to be displayed. That is, the portion visible from the radar was displayed as an image. The conventional target tracking device determines a position correlation between an actual measurement position of a target obtained by radar and a plurality of predicted positions obtained last time, and obtains a position correlation obtained last time when a position correlation is obtained. A smooth position based on the obtained predicted position and the measured position is obtained, and a next predicted position is obtained based on the smooth position and the tracking information. As described above, all of the processes are based on the radar principle.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、レーダ
というのはレーダから見える物標のみの映像を表示する
ものである。このため、例えば、海面から船体、マスト
及びブリッジが見えていたときは、この全てが映像とし
て得られるが、波が高いとき等は船体が波に隠れてマス
トとブリッジしか見えなくなり、マストとブリッジの映
像のみが得られることになる。このようになると、1個
の船舶物標の映像であるにもかかわらず、2つの映像が
得られることになる。つまり、1個の船舶に対して1映
像とはならないで複数の映像が発生する場合があり、船
舶数と映像数は必ずしも一致しない。そして、物標追尾
装置は、レーダで得た物標の映像の実測位置と前回求め
られている複数の予測位置との位置相関を判定し、位置
の相関が得られた前回求められた予測位置と実測位置と
に基づいた平滑位置を求め、この平滑位置と追尾情報に
基づいて次回の予測位置を求めるものである。従って、
レーダの監視海域が荒れていて、1船舶の物標に対して
複数の映像が発生すると、物標追尾装置はこの複数の映
像の実測位置を求めて、追尾処理するため、本当は1個
の船舶による映像であっても、違う映像として追尾処理
するために追尾誤りとなるという問題点があった。ま
た、船舶どうしが近接している場合に、一方の船舶のマ
ストとブリッジ等しか見えなくなって、一方の船舶につ
いて2つの映像が得られ、他の船舶は全体(水面より
上)が見えていると、この2つの映像のいずれかと他の
船舶の映像とを追尾処理(追尾移りともいう)すること
が発生し、結果として追尾誤りとなるという問題点があ
った。このようになると、既に他の船舶の映像は追尾処
理のために、使用されているため追尾の消失となるとい
う問題点があった。本発明は以上の問題点を解決するた
めになされたもので、複数の映像が発生したときは、本
当に複数の船舶があって複数映像になっているか又は1
つの船舶によって複数の映像が発生したのかを容易に判
定し、追尾誤りを発生させない物標追尾装置を得ること
を目的とする。
However, a radar displays only an image of a target visible from the radar. For this reason, for example, when the hull, mast and bridge are visible from the sea surface, all of them can be obtained as images, but when the waves are high, the hull is hidden by the waves and only the mast and bridge are visible, and the mast and bridge are not visible. Will be obtained. In this case, two images can be obtained despite the image of one ship target. That is, a plurality of images may be generated for one ship instead of one image, and the number of ships does not always match the number of images. Then, the target tracking device determines the position correlation between the actually measured position of the image of the target obtained by the radar and the plurality of predicted positions obtained last time, and calculates the previously calculated predicted position from which the position correlation was obtained. Then, a smooth position is calculated based on the measured position and the actual position, and the next predicted position is calculated based on the smooth position and the tracking information. Therefore,
When the radar monitoring sea area is rough and multiple images are generated for the target of one ship, the target tracking device obtains the actual measurement positions of the multiple images and performs tracking processing, so that actually one ship However, there is a problem that a tracking error occurs because the tracking processing is performed as a different video even if the video is due to a different video. In addition, when the ships are close to each other, only the mast and bridge of one of the ships can be seen, and two images are obtained for one of the ships, and the other ship is entirely visible (above the water surface). In such a case, tracking processing (also referred to as tracking shift) occurs between one of the two images and the image of another ship, resulting in a problem that a tracking error occurs. In this case, there is a problem that the tracking of the other ship has already been used for the tracking processing, so that the tracking is lost. The present invention has been made in order to solve the above problems, and when a plurality of images are generated, whether there are really a plurality of ships and the plurality of images
An object of the present invention is to easily determine whether a plurality of images are generated by one ship and to obtain a target tracking device that does not cause a tracking error.

【0004】[0004]

【課題を解決するための手段】本発明の物標追尾装置
は、レーダアンテナからの受信データを入力し、受信デ
ータにより決定する映像の実測位置と前回の映像の追尾
情報に基づいて、次回の位置を予測する物標追尾装置に
おいて、受信データを所定時間毎に読み、読込みに伴っ
て、受信データが複数のときは、その複数の受信データ
を識別映像データとして抽出する識別映像抽出手段と、
識別映像データを入力して記憶し、識別映像データに含
まれる映像をそれぞれ分離映像とし、分離映像毎に、そ
の中心位置、面積、距離間隔を求め、これらを分離映像
の特徴として出力する分離映像特徴算出手段と、分離映
像の特徴が算出される毎に、その分離映像の特徴に基づ
いて、両分離映像が接するまで拡大させ、拡大映像を両
分離映像が結合している1物標の結合映像面積として推
定する結合映像推定手段と、結合映像面積が算出される
毎に、その結合映像面積と両分離映像の面積の和との面
積比率と前記距離間隔と両分離映像の半径の長さとの比
率との積に基づいて拡大倍率を求め、この拡大倍率に基
づいて、分離映像が1物標毎に対応するか又は1物標に
よる結合映像かどうかを判定し、この判断結果を追尾部
に知らせる映像分離・結合判定手段とを備えたものであ
る。また、映像分離・結合判定手段は、分離映像どうし
を拡大したとき、その分離映像が1つの物標の映像の結
合映像となる基準の拡大倍率との比較により、分離映像
が1物標毎に対応するか又は1物標による結合映像かど
うかを判定するものである。さらに、映像分離・結合判
定手段は、分離映像が3個以上のときは、最も距離が近
接する分離映像どうしを判定した後に、この最も近接す
る分離映像を囲んだ映像を作成し、この囲んだ映像に対
して、次に近接する分離映像が同じ物標による映像か又
は他の物標による映像かどうかを判定するものである。
The object tracking apparatus of the present invention receives data received from a radar antenna, and detects the next image based on the actual measurement position of the image determined by the received data and the tracking information of the previous image. In the target tracking device that predicts the position, the reception data is read at predetermined time intervals, and with the reading, when there are a plurality of reception data, identification video extraction means for extracting the plurality of reception data as identification video data,
Separated video that inputs and stores the identification video data, sets the video included in the identification video data as a separation video, calculates the center position, area, and distance interval for each separation video, and outputs these as features of the separation video A feature calculating means, and each time the feature of the separated image is calculated, the two separated images are enlarged until they come into contact with each other based on the feature of the separated image, and the enlarged image is combined with one target. Combined image estimating means for estimating the image area, every time the combined image area is calculated, the area ratio of the combined image area and the sum of the areas of the two separated images, the distance interval and the length of the radius of the two separated images, An enlargement magnification is obtained based on the product of the ratio of the target image and the target image. Based on the enlargement magnification, it is determined whether the separated image corresponds to each target or is a combined image based on one target. Video to inform - is obtained by a coupling determining means. Further, the image separation / combination determining means, when the separated images are enlarged, compares the separated image with each other by comparing with a reference enlargement magnification at which the separated image is a combined image of the images of one target. It is determined whether the image is a combined image or a combined image by one target. Further, when the number of separated images is three or more, the image separation / combination determination unit determines the separated images that are closest to each other, creates an image surrounding the closest separated image, and creates an image surrounding the separated images. For the video, it is determined whether the next separated video is the video of the same target or the video of another target.

【0005】[0005]

【作用】本発明においては、レーダアンテナが受信した
受信データを所定時間毎に読み、受信データが複数のと
きは、その複数の受信データを識別映像データとして抽
出し、この識別映像データに含まれる映像をそれぞれ分
離映像とし、分離映像毎に、その中心位置、面積、距離
間隔を求め、これらを分離映像の特徴に基づいて、両分
離映像が接続するまで拡大させ、拡大映像を両分離映像
が結合している1物標の結合映像面積として推定する。
次に、その結合映像面積と両分離映像の面積の和との面
積比率と距離間隔と両分離映像の半径の長さとの比率と
の積に基づいて拡大倍率を求め、この拡大倍率に基づい
て、分離映像が1物標毎に対応するか又は1物標による
結合映像かどうかを判定して追尾部に知らせ、追尾部は
この判定結果を参照して物標を追尾する。また、分離映
像どうしを拡大したとき、その分離映像が1つの物標の
映像の結合映像となる基準の拡大倍率との比較により判
定する。さらに、分離映像が3個以上のときは、最も距
離が近接する分離映像どうしを判定した後に、この最も
近接する分離映像を囲んだ映像を作成し、この囲んだ映
像に対して、次に近接する分離映像が同じ物標による映
像か又は他の物標による映像かどうかを判定する。
According to the present invention, the reception data received by the radar antenna is read at predetermined time intervals, and when there are a plurality of reception data, the plurality of reception data are extracted as identification video data and included in the identification video data. Each video is considered as a separate video, and the center position, area, and distance interval are obtained for each of the separated videos, and these are enlarged based on the characteristics of the separated video until the two separated videos are connected. It is estimated as the combined image area of one combined target.
Next, an enlargement magnification is obtained based on the product of the area ratio of the combined image area and the sum of the areas of the two separated images, the distance interval, and the ratio of the length of the radius of both the separated images. Then, it is determined whether the separated image corresponds to each target or is a combined image based on one target, and the tracking unit is notified, and the tracking unit tracks the target by referring to the determination result. Also, when the separated images are enlarged, the determination is made by comparing the separated images with a reference enlargement magnification which is a combined image of the images of one target. Further, when there are three or more separated images, after determining the separated images which are closest to each other, an image surrounding the closest separated image is created. It is determined whether the separated video to be processed is a video of the same target or a video of another target.

【0006】[0006]

【実施例】図1は本発明の一実施例の構成を示す概略構
成図である。図において、1はレーダアンテナ、3は送
受信部である。5は前処理部である。前処理部5は送受
信部3からの受信データ(映像データ、位置データを含
む)をレーダアンテナ1の所定回転分入力し、平均した
受信データを得て所定レベル以下をクラッタと判定して
除去し、受信データを出力する。7は表示部である。8
は映像識別部である。映像識別部8は、前処理部5から
の受信データが複数であったとき、それらの受信データ
が1つの物標によるものか又はそれぞれ複数の物標に対
応する受信データかどうかを判断するものである。そし
て、この処理を可能とさせるために、少なくとも以下の
構成を備えている。
FIG. 1 is a schematic diagram showing the configuration of an embodiment of the present invention. In the figure, 1 is a radar antenna, and 3 is a transmission / reception unit. 5 is a preprocessing unit. The pre-processing unit 5 receives the received data (including the video data and the position data) from the transmitting / receiving unit 3 for a predetermined number of rotations of the radar antenna 1, obtains the averaged received data, removes the data below a predetermined level as clutter, and removes it. And output the received data. Reference numeral 7 denotes a display unit. 8
Denotes a video identification unit. When there are a plurality of data received from the pre-processing unit 5, the video identification unit 8 determines whether the received data is based on one target or received data corresponding to a plurality of targets, respectively. It is. In order to enable this processing, at least the following configuration is provided.

【0007】9は識別映像抽出手段である。識別映像抽
出手段9は受信間隔毎に前処理部5からの受信データを
読み、この受信時間に複数の受信データが存在したとき
は、それらの受信データを本発明で識別するための識別
映像として後段に出力する。なお、複数の映像自体が結
合していた場合は、前述の識別映像となる結合映像とし
て抽出して出力する。11は分離映像特徴算出手段であ
る。分離映像特徴算出手段11は、出力される識別映像
を入力し、一映像を分離映像とし、この分離映像毎の映
像の中心位置を求めると共に、それぞれの半径、互いの
距離間隔及び映像面積を求め、これらを分離映像の特徴
として出力する。13は結合映像面積推定手段である。
結合映像面積推定手段13は、分離映像の特徴が算出さ
れる毎に、その分離映像の特徴に基づいて、両分離映像
が接するまで拡大させ、拡大映像を両分離映像が結合し
ている1物標の結合映像面積として推定する。15は映
像分離・結合判定手段である。映像分離・結合判定手段
15は、結合映像面積が算出される毎に、その結合映像
面積と両分離映像の面積の和との面積比率と距離間隔と
両分離映像の半径の長さとの比率との積に基づいて拡大
倍率を求め、この拡大倍率に基づいて、分離映像が1物
標毎に対応するか又は1物標による結合映像かどうかを
判定し、この判断結果を前記追尾部に知らせる。
Reference numeral 9 denotes identification image extracting means. The identification image extracting means 9 reads the reception data from the preprocessing unit 5 at each reception interval, and when there are a plurality of reception data during this reception time, the identification data is used as an identification image for identifying the reception data in the present invention. Output to the subsequent stage. If a plurality of videos are combined, they are extracted and output as a combined video serving as the identification video described above. Reference numeral 11 denotes a separated video feature calculation unit. The separated image feature calculation means 11 receives the output identification image, sets one image as a separated image, obtains the center position of the image for each of the separated images, and obtains the radius, the distance between each other, and the image area. These are output as characteristics of the separated image. Reference numeral 13 denotes a combined image area estimating unit.
Each time the feature of the separated image is calculated, the combined image area estimating means 13 enlarges the separated image based on the feature of the separated image until the two separated images come into contact with each other. It is estimated as the combined image area of the target. Reference numeral 15 denotes a video separation / combination determination unit. Each time the combined image area is calculated, the image separation / combination determination unit 15 calculates the area ratio of the combined image area and the sum of the areas of the two separated images, the distance interval, and the ratio of the radius length of the two separated images. The magnification is determined based on the product of .times..times..times..times..times..times..times..times..times..times..times..tim- es..times..times..times..times..times. .

【0008】以下動作を説明する。図2は本発明の複数
映像の判定の説明図である。同図においては、分かりや
すくするために、分離映像は円とし、また、監視海域の
波が高く船舶のブリッジと搭載コンテナのみがレーダか
ら見えたときとし、その搭載コンテナとブリッジの映像
が得られたものとして説明する。図2においては、中心
位置(xA ,yA )とした半径RA の分離映像Aの面積
と、中心位置(xB ,yB )とした半径RB の分離映像
Bの面積は、それぞれ実線で示している。これら円の面
積はSA (=πRA 2 ),SB (=πRB 2 )で示し斜
線を付加して示してある。また、分離映像A及び分離映
像Bまでの間の距離はRABで示している。そして、破線
の円は、前記の各円の半径がn倍すなわちn・RA とn
・RB になった場合の円を示し、それらの面積はSA
(=n2 ・πRA 2 )とSB n(=n2 ・πRB 2 )で
示してある。この場合、分離映像Aと分離映像Bとの中
心間の距離RABは、 RAB=n・(RA +RB ) と示される。そして、破線の円は、接して1つの映像と
なっている。このように分離映像A及び分離映像Bを拡
大させて互いに接するようなnを求め、このnに基づい
て破線を大きくする。この、拡大によって互いに接した
ときの両破線の合成面積が結合映像である。つまり、図
2に示すように船舶の大きさに基づいた映像を推定した
ことになる。
The operation will be described below. FIG. 2 is an explanatory diagram of the determination of a plurality of images according to the present invention. In this figure, for simplicity, the separated image is a circle, and the surveillance sea area is so high that only the bridge of the ship and the onboard container are visible from the radar, and the images of the onboard container and the bridge are obtained. It will be described assuming that In Figure 2, the area of the center position (x A, y A) and the radius R A of the separation image A, the center position (x B, y B) is the area of the separation image B having a radius R B that was, respectively This is indicated by a solid line. The areas of these circles are indicated by S A (= πR A 2 ) and S B (= πR B 2 ), and are indicated by hatching. The distance between the separated image A and the separated image B is indicated by R AB . The dashed circle indicates that the radius of each circle is n times, that is, n · R A and n
- indicates the circle when it becomes R B, their area S A n
(= N 2 · πR A 2 ) and is shown by S B n (= n 2 · πR B 2). In this case, the distance R AB between the centers of the separated images A and B is expressed as R AB = n · (R A + R B ). The dashed circles are in contact with each other to form one image. In this way, n which enlarges the separated image A and the separated image B to be in contact with each other is obtained, and the broken line is enlarged based on this n. The combined area of the two broken lines when they touch each other due to the enlargement is the combined image. That is, as shown in FIG. 2, the image based on the size of the ship is estimated.

【0009】この結合映像と分離映像の関係から両分離
映像は1つの物標によるもの判定する。例えばこの両分
離映像は搭載されたコンテナとブリッジによる映像と判
定するのである。この判定処理について以下に説明す
る。そして、前記説明の分離映像A及び分離映像Bをn
倍した両破線の合成映像と半径がRA ,RB の各円の面
積と、そのn倍の半径となったn・RA とn・RB の各
円の面積の比は次式で表わせる。
From the relationship between the combined image and the separated image, both separated images are determined to be based on one target. For example, the two separated images are determined to be images by the mounted container and bridge. This determination processing will be described below. Then, the separated image A and the separated image B described above are represented by n
Multiplied by both dashed synthetic image and radius R A, the area of each circle of R B, is the ratio of the area of each circle of the n times n · R A was the radius of the n · R B by: Can be expressed.

【0010】[0010]

【数1】 この式1が示すように、結合映像の面積というのは分離
映像をn2 倍したときに得られる。また、それらの位置
差(すなわち距離)と大きさ(すなわち半径)の関係は
次式で表わせる。
(Equation 1) As shown in Equation 1, the area of the combined image is obtained when the separated image is multiplied by n 2 . The relationship between the positional difference (ie, distance) and the size (ie, radius) can be expressed by the following equation.

【0011】[0011]

【数2】 この式2が示すように、両分離映像の距離間隔RABと両
分離映像の半径の大きさn・RA とn・RB nの変化の
割合は、設定値nに基づいている。また、式1と式2か
ら以下の関係が成立する。
(Equation 2) The equation 2 is as shown, the rate of change of the radius of the size n · R A and n · R B n distance interval R AB and both separation images of both separation images are based on a set value n. Further, the following relationship is established from Expression 1 and Expression 2.

【0012】[0012]

【数3】 つまり、式3は、結合映像の面積と分離映像の面積和と
の面積比率と両分離映像が離れる割合は等しいこと、ま
たは倍率である設定値nに等しい。ここで、予め設定す
るRAB=n・(RA +RB )におけるnの値として、例
えばn<no ≦1.5で定まるno (no =1.3等)
を初期設定しておく。この設定値no は、船舶どうしが
衝突の危険性を避けるためにとる距離間隔に基づいた値
である。そこで、前記の点線が接続するときのnの値を
調べ、上記条件で判別しn<no の時は、分離した映像
A,Bと結合した1つの映像(破線で囲まれた映像)は
同じ映像であると判別するのである。逆にn≧no にし
たときに、図2に示すように点線どうしが結合した時
は、これら分離した映像A,Bと結合した1つの映像は
同じ映像ではないと判別するのである。次に同図を用い
て、この判別の意味について説明する。追尾中の物標を
A,Bとすると、これらの位置関係を調べ、最接近距離
も同様に調べ、またそれらの大きさとの関係も上記の面
積と中心位置から調べ、例えばRAB>1.5(RA +R
B )を得たとする。すなわち追尾において過去RAB
1.5(RA +RB )以内に接近した物標は経験しなか
ったことになる。なお、この距離は各種の論文や調査の
結果を用いて良いが、要は最接近の位置と大きさの関係
を予め設定できれば良い。(例えば、設定値はno
1.3程度としておく)このことは、破線で示した2つ
の円の位置関係となる場合は、実物標での経験は無かっ
たことになる。すなわち、異なる物標で破線の位置関係
となったことは無いと判断して良い。
(Equation 3) That is, in Equation 3, the area ratio of the area of the combined image and the sum of the areas of the separated images is equal to the ratio of separation between the two separated images, or equal to the set value n which is a magnification. Here, as the value of n in R AB = n · (R A + R B) to be set in advance, for example n <n o ≦ 1.5 at determined n o (n o = 1.3, etc.)
Is initially set. The set value n o is a value based on the distance intervals to take to ship each other to avoid the risk of collision. Therefore, check the value of n when the dotted line is connected, when determined under the above conditions n of <n o is demultiplexed video A, 1 piece of video bound to B (video surrounded by a broken line) It is determined that the images are the same. When the n ≧ n o On the contrary, when the dotted line each other are bonded as shown in FIG. 2, these separate images A, 1 piece of video bound to B is to determine that it is not the same image. Next, the meaning of this determination will be described with reference to FIG. Assuming that the targets being tracked are A and B, the positional relationship between them is checked, the closest approach distance is also checked, and the relationship with their size is also checked from the above area and center position. For example, R AB > 1. 5 (R A + R
B ). That is, in tracking, the past R AB =
A target approaching within 1.5 (R A + R B ) has not been experienced. The distance may be based on the results of various papers or surveys, but the point is that the relationship between the closest position and the size can be set in advance. (For example, the set value n o =
This means that if there is a positional relationship between the two circles indicated by the broken lines, it means that there is no experience with the real target. That is, it may be determined that the positional relationship indicated by the broken line has not been reached for different targets.

【0013】更に説明すると、それら物標の映像が実際
の大きさと異なり、例えばA,Bの円で示す分離した映
像となってもこの位置関係は経験していないため、異な
る物標の映像と判断を誤ることは無い。逆に複数の映像
であっても1つの物標の映像が分離して入力されたと判
断できることとなる。これらは、逆の見方も可能であ
る。すなわち、追尾中の物標の位置関係が前述の状況の
場合に、映像が1つに結合しているかしていないかの判
断が可能となる。また、映像が1つに結合している場合
であっても、追尾中の予測位置の関係によっては、1つ
の物標の映像ではないと判断できるので、2つに分離し
た映像として処理できる。すなわち、追尾誤りがなくな
る。次に、上記説明の条件に従って、映像識別する処理
を図1に従って以下に説明する。図3及び図4は本発明
の動作を説明するフローチャートである。この場合は図
2に示すように分離映像A及び分離映像Bとして説明
し、本フローはサブルーチンである。
To explain further, even if the images of these targets are different from the actual size, for example, even if they are separated images indicated by A and B circles, this positional relationship has not been experienced. There is no misjudgment. Conversely, even if there are a plurality of videos, it can be determined that the video of one target is separately input. These can be reversed. That is, when the positional relationship of the target being tracked is in the above-described situation, it is possible to determine whether or not the images are combined into one. Further, even when the images are combined into one, it can be determined that the image is not an image of one target depending on the relationship between the predicted positions during tracking, so that the image can be processed as two separate images. That is, there is no tracking error. Next, a process of identifying a video image according to the above-described conditions will be described below with reference to FIG. 3 and 4 are flowcharts for explaining the operation of the present invention. This case will be described as a separated image A and a separated image B as shown in FIG. 2, and this flow is a subroutine.

【0014】識別映像抽出手段9は、所定時間内に複数
の受信データが入力したとき、それらの受信データを識
別映像として読込み、分離映像特徴算出手段11に出力
する(S1)。分離映像特徴算出手段11は、入力する
分離映像Aの中心位置(xA,yA )及び分離映像Bの
中心位置(xB ,yB )を基準とした両分離映像の半径
A 及びRB を求め、この半径を両分離映像の大きさと
して記憶する(S3)。次に、この分離映像Aの中心位
置(xA ,yA )及び分離映像Bの中心位置(xB ,y
B )に基づいて、両映像間の距離を算出して記憶する
(S7)。次に、結合映像面積推定手段13は分離映像
Aの中心位置(xA ,yA )と分離映像Bの中心位置
(xB ,yB )及び分離映像Aの半径RA と分離映像B
の半径RB 並びに分離映像Aの面積SA 及び分離映像B
の面積SB を入力し、分離映像Aの半径RA と分離映像
Bの半径RB 並びに間隔RABに基づいて、n倍にそれぞ
れの分離映像A及び分離映像Bを拡大する(S9)。つ
まり、図2に示すように点線どうしが接するまで拡大さ
せるnに基づいて拡大する。
When a plurality of pieces of received data are input within a predetermined time, the identification image extracting means 9 reads the received data as an identification image and outputs it to the separated image feature calculating means 11 (S1). Separating the image feature calculating section 11, the center position of the separation image A to enter (x A, y A) and the center position of the separation image B (x B, y B) the radius of both separation image relative to the R A and R B is obtained, and this radius is stored as the size of both separated images (S3). Then, the center position (x A, y A) of the separation image A and the center position (x B separation video B, y
The distance between the two images is calculated and stored based on B ) (S7). Then, the combined video area estimation means 13 the center position of the separation image A (x A, y A) and the center position (x B, y B) of separating the video B and the radius R A of the separation images A separation image B
Radius R B , area S A of separated image A and separated image B
Enter the area S B, based on the radius R B and spacing R AB of radius R A and the separation image B of the separation images A, to expand the respective separation images A and the separation image B n times (S9). That is, as shown in FIG. 2, enlargement is performed based on n, which is enlarged until the dotted lines touch each other.

【0015】次に、拡大した分離映像Aの面積SA と分
離映像Bの面積SB とを合成した結合映像面積を求めて
記憶する(S11)。つまり、両分離映像は1つの船舶
による映像として、例えば図2を用いるとブリッジ及び
搭載コンテナを除く海面より上の船体レーダから見える
映像面積を推定する。次に、映像分離・結合判定手段1
5は、前記した映像と大きさの関係式に基づく分離又は
結合映像判定のための条件式を成立させる(S13)。
次に、この関係式のnを読み(S15)、識別映像は、
本当に分離した映像か又は結合するべき結合映像かどう
かを判定する(S17)。この判定は、例えば予め設定
したno (≦1.5等となる値:設定値)と大小比較す
る。そして、ステップS17でn<no の場合には、次
のステップをS19へ、n≧no の場合にはステップS
23に進む。次に、ステップS17でn<no の場合に
は、例えば分離映像A及び分離映像Bの入力映像2つ
は、本当は結合しているべき映像であり、1個の船舶の
映像であると判定し(S19)、追尾部17に対して、
今回入力所定時間内に入力した2つの映像は、1つの結
合映像として追尾処理させる指示を出力する(S2
1)。
Next, a combined image area obtained by combining the enlarged area S A of the separated image A and the area S B of the separated image B is obtained and stored (S11). That is, the two separated images are images of one ship, and for example, using FIG. 2, the image area seen from the hull radar above the sea surface excluding the bridge and the mounted container is estimated. Next, video separation / combination determination means 1
5 satisfies the conditional expression for determining the separated or combined image based on the relational expression between the image and the size (S13).
Next, n of this relational expression is read (S15), and the identification video is
It is determined whether the image is really a separated image or a combined image to be combined (S17). This determination may, for example preset n o (≦ 1.5, etc. become values: set value) to the magnitude comparison. And, in the case of n <n o in the step S17, S19 to the next step, in the case of n ≧ n o step S
Proceed to 23. Next, the in the case of n <n o in step S17, for example, separation one input video 2 video A and the separation image B is an image should be really bonded, is a video of one of the ship determination (S19), and for the tracking unit 17,
An instruction to track the two images input within the predetermined input time this time is output as one combined image (S2).
1).

【0016】また、ステップS17でn<no の場合又
はステップS19で、結合映像ではないと判定されたと
きは、分離映像A及び分離映像Bはそれぞれ単独の船舶
による映像として追尾処理させる指示を追尾部17に出
力する(S23)。また、上記実施例では2つの映像が
近接している例を説明したが、2つ以上の映像が近接し
ている場合には、以下に説明する処理をする。図5は近
接物標のときの処理の説明図である。同図においては、
1つの船舶に他の船舶が近接したときの映像識別処理と
する。図において、RA 、RB 、SA、SB 、RABは上
記図2と同様なものである。S1は映像A及び映像Bを
上記第1の実施例で結合映像と判定し、両映像を大きな
円で囲んだときの面積、S1Rは面積S1の半径、
(xS1、yS1)はS1の中心位置、SC は近接した船舶
の映像面積、SCRは近接映像Cの大きさを示す半径、
(xc、yc)はScの中心位置、Rは大円と近接映像
の距離を示す。
Further, in the case of n <n o or step S19 in step S17, when it is determined not to be combined video is an instruction to the tracking process as the video each separation image A and the separation image B by a single ship The data is output to the tracking unit 17 (S23). In the above-described embodiment, an example in which two images are close to each other has been described. However, when two or more images are close to each other, the processing described below is performed. FIG. 5 is an explanatory diagram of the processing for a near target. In the figure,
The image identification processing is performed when another ship approaches one ship. In the figure, R A , R B , S A , S B , and R AB are the same as those in FIG. S1 is the image when the images A and B are determined to be combined images in the first embodiment, and the area when both images are surrounded by a large circle; S1R is the radius of the area S1;
(X S1 , y S1 ) is the center position of S1, S C is the image area of the approaching ship, S CR is the radius indicating the size of the proximity image C,
(Xc, yc) indicates the center position of Sc, and R indicates the distance between the great circle and the proximity image.

【0017】同図に示すように、例えば分離映像A及び
分離映像Bとが一つの船舶によって発生し、両映像が本
当は一つの映像として結合した映像であると判定され、
この両分離映像に所定距離の近接する映像があったと
き、第2の実施例では、例えば両分離映像と内接した円
で囲み、この円の面積をS1とし、上記と同様に面積S
1の円の半径S1Rと近接映像Cの面積Scの半径SCR
面積S1の円と近接映像Cの中心位置(xS1、yS1)と
(xc、yc)との間隔距離Rに基づいて、上記と同様
1 倍大きくし、この 1 を判定することによって、
近接映像CとS1の関係を判断する。従って、近接映像
Cは1船舶による映像と判定され、S1内の映像と相関
判定されることはないため、精度よく追尾ができる。つ
まり、上記実施例の構成により、追尾中の物標とそのレ
ーダ映像の数が必ずしも一致しない場合が生じるが、そ
のため実際の物標の数とは、異なる映像の数に基づき追
尾すること、追尾中の物標の映像と他の追尾中の物標の
映像が1つに結合した場合に、片方の物標の追尾で1つ
に結合した映像を用いて処理してしまうと、もう片方の
物標の追尾では該当する映像が既に使用しているため、
入力が無かったと判断することによって追尾で消失とな
ること、逆に、追尾中の物標の映像が、複数に分離した
映像として入力した場合に、実際は1つの物標の映像で
あるがあたかも複数の物標が存在しているように追尾し
てしまうことや、これらによって、実際の物標以外の映
像を用いるため、追尾で乗り移るということを解決して
いる。
As shown in FIG. 1, for example, a separated image A and a separated image B are generated by one ship, and it is determined that both images are actually combined as one image.
In the second embodiment, when there is an image adjacent to the two separated images by a predetermined distance, for example, a circle inscribed in the two separated images
And the area of this circle is S1, and the area S
The radius S 1R of the circle S 1 and the radius S CR of the area Sc of the proximity image C ,
Based on the spacing distance R of the circle and the center position of the proximity image C of the area S1 and (x S1, y S1) and (xc, yc), and n 1 times greater in the same manner as described above, determining the n 1 By
The relationship between the proximity images C and S1 is determined. Therefore, the proximity image C is determined to be an image by one ship, and is not determined to be correlated with the image in S1, so that tracking can be performed with high accuracy. In other words, according to the configuration of the above-described embodiment, the number of the target being tracked and the number of its radar images may not always match. Therefore, the tracking is performed based on the number of images different from the actual number of the targets. When the image of the target in the middle and the image of the target being tracked are combined into one, if the processing is performed using the combined image in the tracking of one target, the other Since the target video has already been used for tracking,
When it is determined that there is no input, tracking causes the video to disappear. Conversely, when the video of the target being tracked is input as multiple separated videos, it is actually a video of one target. This solves the problem that the target is tracked as if it were present, and that, in order to use an image other than the actual target, the user moves by tracking.

【0018】[0018]

【発明の効果】以上のように本発明によれば、所定受信
時間内に複数の受信データが得られたとき、この複数の
受信データに対応する分離映像どうしの距離間隔、面
積、半径に基づいて、両分離映像が接するまで拡大さ
せ、この拡大倍率と予め決められている基準の拡大倍率
とを比較して、この比較結果に基づいて、両分離映像が
1つの物標によって発生した映像か又は複数の物標によ
って発生した映像かを追尾部に知らせて追尾させるよう
にしたことにより、物標の数に対応した映像の数で追尾
処理できるので、追尾精度が向上するという効果が得ら
れている。また逆に、複数の物標の映像が1つに結合し
た映像となっても、これを複数の物標の映像であるとし
て分離して判別処理するため、追尾の乗り移りが発生し
ないという効果が得られている。また、分離映像が3個
以上のときは、最も近接している2物標の分離映像どう
しを判定した後に、次の分離映像を判定するので、分離
映像が3個以上であっても追尾誤りとなることはないと
共に、物標どうしが近接していた場合でも本当に複数か
又は1物標毎に対応する映像かを判定できるという効果
が得られている。
As described above, according to the present invention, when a plurality of pieces of reception data are obtained within a predetermined reception time, based on the distance interval, area, and radius between separated images corresponding to the plurality of pieces of reception data. Then, the two separated images are enlarged until they touch each other, and this magnification is compared with a predetermined reference magnification. Based on the comparison result, whether the two separated images are images generated by one target is determined. Alternatively, since the tracking unit notifies the tracking unit of the image generated by a plurality of targets and performs tracking, the tracking processing can be performed with the number of images corresponding to the number of targets, so that an effect of improving tracking accuracy is obtained. ing. Conversely, even if the images of a plurality of targets are combined into one, the images are separated and discriminated as the images of the plurality of targets. Have been obtained. Further, when there are three or more separated images, the next separated image is determined after determining the separated images of the two targets closest to each other. In addition, even when the targets are close to each other, it is possible to determine whether there is a plurality of images or a video corresponding to each target.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施例の構成を示す概略構成図であ
る。
FIG. 1 is a schematic configuration diagram showing a configuration of an embodiment of the present invention.

【図2】本発明の複数映像の判定の説明図である。FIG. 2 is an explanatory diagram of determination of a plurality of videos according to the present invention.

【図3】本発明の動作を説明するフローチャートであ
る。
FIG. 3 is a flowchart illustrating the operation of the present invention.

【図4】本発明の動作を説明するフローチャートであ
る。
FIG. 4 is a flowchart illustrating the operation of the present invention.

【図5】近接物標のときの処理の説明図である。FIG. 5 is an explanatory diagram of a process for a near target.

【符号の説明】[Explanation of symbols]

1 レーダアンテナ 3 送受信部 5 前処理部 8 映像識別部 9 識別映像抽出手段 11 分離映像特徴算出手段 13 結合映像面積推定手段 15 映像分離・結合判定手段 REFERENCE SIGNS LIST 1 radar antenna 3 transmission / reception unit 5 preprocessing unit 8 video identification unit 9 identification video extraction unit 11 separated video feature calculation unit 13 combined video area estimation unit 15 video separation / connection determination unit

───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.7,DB名) G01S 7/00 - 7/42 G01S 13/00 - 13/95 ──────────────────────────────────────────────────続 き Continued on the front page (58) Field surveyed (Int. Cl. 7 , DB name) G01S 7 /00-7/42 G01S 13/00-13/95

Claims (3)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 レーダアンテナからの受信データを入力
し、該受信データにより決定する映像の実測位置と前回
の映像の追尾情報に基づいて、次回の位置を予測する物
標追尾装置において、 前記受信データを所定時間毎に読み、該読込みに伴っ
て、受信データが複数のときは、その複数の受信データ
を識別映像データとして抽出する識別映像抽出手段と、 前記識別映像データを入力して記憶し、該識別映像デー
タに含まれる映像をそれぞれ分離映像とし、該分離映像
毎に、その中心位置、面積、距離間隔を求め、これらを
分離映像の特徴として出力する分離映像特徴算出手段
と、 前記分離映像の特徴が算出される毎に、その分離映像の
前記特徴に基づいて、両分離映像が接するまで拡大さ
せ、該拡大映像を両分離映像が結合している1物標の結
合映像面積として推定する結合映像推定手段と、 前記結合映像面積が算出される毎に、その結合映像面積
と両分離映像の面積の和との面積比率と前記距離間隔と
両分離映像の半径の長さとの比率との積に基づいて前記
拡大倍率を求め、この拡大倍率に基づいて、前記分離映
像が1物標毎に対応するか又は1物標による結合映像か
どうかを判定し、この判断結果を前記追尾部に知らせる
映像分離・結合判定手段とを有することを特徴とする物
標追尾装置。
1. A target tracking device which receives data received from a radar antenna and predicts a next position based on an actual measurement position of a video determined by the received data and tracking information of a previous video. When the data is read at predetermined time intervals, and the received data includes a plurality of pieces of received data, identification image extracting means for extracting the plurality of pieces of received data as identification image data; and inputting and storing the identification image data. A separated image feature calculating unit that sets each of the images included in the identification image data as a separated image, obtains a center position, an area, and a distance interval for each of the separated images and outputs these as characteristics of the separated image; Each time a feature of the image is calculated, the image is enlarged until the two separated images come into contact with each other based on the feature of the separated image, and the enlarged image of one target in which the two separated images are combined is enlarged. A combined image estimating means for estimating the combined image area, and each time the combined image area is calculated, the area ratio of the combined image area and the sum of the areas of the two separated images, the distance interval and the radius of the two separated images The enlargement magnification is obtained based on a product of the length and the ratio. Based on the enlargement magnification, it is determined whether the separated images correspond to each target or are combined images by one target. An image separation / combination determination unit for notifying a result to the tracking unit.
【請求項2】 前記映像分離・結合判定手段は、前記と
は逆の見方を可能とし、即ち追尾中の物標の位置関係が
前述の状況の場合に、前述の識別映像との関係におい
て、逆に考えた分離映像どうしを拡大したとき、その分
離映像が1つの物標の映像の結合映像となる基準の拡大
倍率との比較により、前記分離映像が1物標毎に対応す
るか又は1物標による結合映像かどうかを判定すること
を特徴とする請求項1記載の物標追尾装置。
2. The image separation / combination determination means enables a view opposite to the above, that is, in the case where the positional relationship of the target being tracked is in the aforementioned situation, the relationship with the identification video is When the separated images considered in the opposite manner are enlarged, the separated images correspond to each target by comparison with a reference magnification which is a combined image of the images of one target, or 1 2. The target tracking device according to claim 1, wherein it is determined whether or not the image is a combined image based on the target.
【請求項3】 前記映像分離・結合判定手段は、分離映
像が3個以上のときは、最も距離が近接する分離映像ど
うしを判定した後に、この最も近接する分離映像を囲ん
だ映像を作成し、この囲んだ映像に対して、次に近接す
る分離映像が同じ物標による映像か又は他の物標による
映像かどうかを判定することを特徴とする請求項1記載
の物標追尾装置。
3. When there are three or more separated images, the image separation / combination determination means determines which separated images are closest to each other, and then creates an image surrounding the closest separated image. 2. The target tracking device according to claim 1, wherein it is determined whether a separated image next to the enclosed image is an image of the same target or an image of another target.
JP33082193A 1993-12-27 1993-12-27 Target tracking device Expired - Fee Related JP3180239B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP33082193A JP3180239B2 (en) 1993-12-27 1993-12-27 Target tracking device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP33082193A JP3180239B2 (en) 1993-12-27 1993-12-27 Target tracking device

Publications (2)

Publication Number Publication Date
JPH07191134A JPH07191134A (en) 1995-07-28
JP3180239B2 true JP3180239B2 (en) 2001-06-25

Family

ID=18236926

Family Applications (1)

Application Number Title Priority Date Filing Date
JP33082193A Expired - Fee Related JP3180239B2 (en) 1993-12-27 1993-12-27 Target tracking device

Country Status (1)

Country Link
JP (1) JP3180239B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6084810B2 (en) * 2012-10-29 2017-02-22 古野電気株式会社 Tracking processing apparatus and tracking processing method

Also Published As

Publication number Publication date
JPH07191134A (en) 1995-07-28

Similar Documents

Publication Publication Date Title
Smith et al. ASSET-2: Real-time motion segmentation and shape tracking
JP3367170B2 (en) Obstacle detection device
US7949150B2 (en) Automatic camera calibration and geo-registration using objects that provide positional information
EP0738872B1 (en) Stereo matching method and disparity measuring method
US7327855B1 (en) Vision-based highway overhead structure detection system
EP1988488A1 (en) Method for detecting moving objects in a blind spot region of a vehicle and blind spot detection device
US20120050496A1 (en) Moving Obstacle Detection Using Images
EP2410349B1 (en) Method and apparatus for underwater detection and fish school detection
JP4236767B2 (en) Method for detecting movement information of moving object based on satellite SAR image
KR101512237B1 (en) Collision prevention device
JP7143809B2 (en) Clutter learning device and clutter discriminating device
JP5735673B2 (en) Target tracking device and target tracking method
JP3180239B2 (en) Target tracking device
JP2003150940A (en) Stereo image processor
JP5256482B2 (en) Ranging device
JP2005182539A (en) Marine navigation support device
EP4209826A1 (en) High-confidence optical head pose correspondence mapping with multiple markers for high-integrity headtracking on a headworn display (hwd)
JP7232607B2 (en) Tracking device, tracking method, and tracking program
KR100809417B1 (en) Traveling lane recognizing apparatus and method thereof
JP2738244B2 (en) Radar equipment
JP3371613B2 (en) Moving object detection method
US9111361B1 (en) Distinguishing between moving targets and clutter in a video
CN115867955A (en) Ship monitoring system, ship monitoring method, information processing device, and program
EP3575829B1 (en) A method of determining a transformation matrix
JPH0484790A (en) Radar device to judge pseudo image due to multiple reflection

Legal Events

Date Code Title Description
S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080420

Year of fee payment: 7

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090420

Year of fee payment: 8

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090420

Year of fee payment: 8

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090420

Year of fee payment: 8

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090420

Year of fee payment: 8

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100420

Year of fee payment: 9

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110420

Year of fee payment: 10

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110420

Year of fee payment: 10

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120420

Year of fee payment: 11

LAPS Cancellation because of no payment of annual fees