JP7337575B2 - Radar monitoring device and method - Google Patents

Radar monitoring device and method Download PDF

Info

Publication number
JP7337575B2
JP7337575B2 JP2019130952A JP2019130952A JP7337575B2 JP 7337575 B2 JP7337575 B2 JP 7337575B2 JP 2019130952 A JP2019130952 A JP 2019130952A JP 2019130952 A JP2019130952 A JP 2019130952A JP 7337575 B2 JP7337575 B2 JP 7337575B2
Authority
JP
Japan
Prior art keywords
clutter
target
clutter suppression
video data
suppression processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019130952A
Other languages
Japanese (ja)
Other versions
JP2021015079A (en
Inventor
秀輔 栗原
剛 仲野
昭行 谷沢
沙織 浅香
修平 新田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Infrastructure Systems and Solutions Corp filed Critical Toshiba Corp
Priority to JP2019130952A priority Critical patent/JP7337575B2/en
Publication of JP2021015079A publication Critical patent/JP2021015079A/en
Application granted granted Critical
Publication of JP7337575B2 publication Critical patent/JP7337575B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Radar Systems Or Details Thereof (AREA)

Description

本発明の実施形態は、例えば船舶用のレーダ監視装置及び方法に関する。 Embodiments of the present invention relate to radar monitoring apparatus and methods, for example for ships.

レーダ監視装置は、一般に、アンテナから電波を送信し、反射波を前記アンテナで受信する。受信した信号は、受信器にて周波数変換やA/D変換等の受信処理によりビデオデータに変換された後に、信号処理が実行される。信号処理では、パルス圧縮処理や各種フィルタ、積分処理等により、ノイズやクラッタの信号が抑圧され、及び目標検出が実行される。表示処理では、信号処理の中間または最終データであるビデオデータ上に目標検出結果が描画され、表示画像が生成される。この表示画像は表示器で表示される。 A radar monitoring device generally transmits radio waves from an antenna and receives reflected waves from the antenna. The received signal is converted into video data by reception processing such as frequency conversion and A/D conversion in the receiver, and then signal processing is executed. In signal processing, noise and clutter signals are suppressed and target detection is performed by pulse compression processing, various filters, integration processing, and the like. In display processing, target detection results are drawn on video data, which is intermediate or final data in signal processing, to generate a display image. This display image is displayed on a display.

しかし、実際には、クラッタ強度が大きい環境下では、目標を検出できなくなることや、クラッタを目標として誤検出する問題がある。例えば、海面が荒れた状態となると、シークラッタ(sea clutter)の信号強度が大きくなる。従来は、シークラッタの信号を十分に抑圧することができず、目標を検出できず、シークラッタを目標として誤検出する問題があった。従来の手法では、例えば、MTIやパルスドップラフィルタでクラッタを抑圧することが考えられる。信号処理に適用した場合、波と同程度の速度で移動する水上目標の検出が困難となる。また、従来では、積分処理によって信号利得を改善する。この場合、シークラッタの信号強度が大きくなることで、目標とシークラッタの信号が同様に積分される場合があり、目標の検出が困難であった。また、表示器に表示される表示画像は、目標の視認性を向上するために信号処理の中間または最終のビデオデータを用いるが、クラッタが十分に抑圧できていないためクラッタが強調された視認性の低い表示画像となってしまう問題があった。 In practice, however, in an environment where the clutter intensity is high, there is a problem that the target cannot be detected or the clutter is erroneously detected as a target. For example, when the sea surface becomes rough, the signal strength of sea clutter increases. Conventionally, the sea clutter signal could not be sufficiently suppressed, the target could not be detected, and there was a problem of erroneously detecting the sea clutter as the target. In conventional methods, for example, MTI or a pulse Doppler filter may be used to suppress clutter. When applied to signal processing, it becomes difficult to detect targets on water moving at the same speed as waves. Conventionally, signal gain is improved by integration processing. In this case, as the signal strength of the sea clutter increases, the signal of the target and the sea clutter may be integrated in the same way, making it difficult to detect the target. In addition, the display image displayed on the display uses intermediate or final video data in signal processing in order to improve the visibility of the target. However, there is a problem that the display image becomes a low image quality.

特開2008-281504号公報JP 2008-281504 A

そこで、クラッタの強い状況においても、信号処理でクラッタを十分に抑圧することで、目標の検出率向上とクラッタの誤検出低減を実現できるレーダ監視装置を提供することを課題とする。 Therefore, it is an object of the present invention to provide a radar monitoring apparatus capable of improving the target detection rate and reducing erroneous detection of clutter by sufficiently suppressing clutter by signal processing even in a situation where clutter is strong.

本実施形態のレーダ監視装置は、アンテナと、送受信部と、信号処理部と、表示部を具備する。前記アンテナは、電波を送信及び受信する。前記送受信部は、前記アンテナで受信される反射波から、目標とクラッタが混在するビデオデータを生成する。前記信号処理部は、前記ビデオデータに対して、前記クラッタと分離して前記目標を検出するための信号処理を実行する。表示部は信号処理後の結果を表示する。前記信号処理部は、目標とクラッタの特性に基づいて前記クラッタを抑圧するように、機械学習により学習されたパターン識別部を使用してクラッタ抑圧処理を実行するクラッタ抑圧処理部を含む。 The radar monitoring device of this embodiment includes an antenna, a transmitter/receiver, a signal processor, and a display. The antenna transmits and receives radio waves. The transmitting/receiving unit generates video data in which a target and clutter are mixed from reflected waves received by the antenna. The signal processing unit performs signal processing on the video data for detecting the target separately from the clutter. The display unit displays the result after signal processing. The signal processor includes a clutter suppression processor that performs clutter suppression processing using a machine learning pattern identifier to suppress the clutter based on target and clutter characteristics.

実施形態に関するレーダ監視装置の構成を説明するためのブロック図。1 is a block diagram for explaining the configuration of a radar monitoring device according to an embodiment; FIG. 実施形態に関する信号処理部の構成を説明するためのブロック図。FIG. 2 is a block diagram for explaining the configuration of a signal processing section according to the embodiment; 実施形態に関するクラッタ抑圧処理の一例を説明するための概念図。FIG. 4 is a conceptual diagram for explaining an example of clutter suppression processing according to the embodiment; 実施形態に関するクラッタ抑圧処理前の表示画像の一例を示す図。FIG. 4 is a diagram showing an example of a display image before clutter suppression processing according to the embodiment; 実施形態に関するクラッタ抑圧処理後の表示画像一例を示す図。FIG. 4 is a diagram showing an example of a display image after clutter suppression processing according to the embodiment; 実施形態に関するクラッタ抑圧処理後の表示画像の部分領域の一例を示す図。FIG. 4 is a diagram showing an example of a partial area of a display image after clutter suppression processing according to the embodiment; 実施形態に関するレーダ監視装置の動作を説明するためのフローチャート。A flow chart for explaining operation of a radar monitoring device concerning an embodiment.

以下図面を参照して、実施形態を説明する。
[レーダ監視装置の構成]
図1は、本実施形態に関するレーダ監視装置1の構成を示すブロック図である。図1に示すように、レーダ監視装置1は、アンテナ部10、送受信部11及び信号処理部12を含むレーダ装置、及び監視員(ユーザ)がレーダ装置により検出される目標を確認するための表示部13を有する。
Embodiments will be described below with reference to the drawings.
[Configuration of radar monitoring device]
FIG. 1 is a block diagram showing the configuration of a radar monitoring device 1 according to this embodiment. As shown in FIG. 1, the radar monitoring apparatus 1 includes a radar device including an antenna section 10, a transmitting/receiving section 11 and a signal processing section 12, and a display for the observer (user) to confirm targets detected by the radar device. It has a part 13 .

アンテナ部10は、目標を含む所定の範囲に対して電波を送信し、当該目標からの反射波を含む電波を受信するアンテナ、及びアンプ(Amplifier)や移相器、サーキュレータ(circulator)等を含む。アンテナは、例えば、複数のアンテナ素子が配列されているアクティブ・アレーアンテナ(active array antenna)である。送受信部11は、アンテナ部10の送受信を制御し、アンテナから電波を送信する送信処理、及びアンテナにより受信される電波(反射波)を周波数変換やA/D変換等を実行して、デジタル信号であるビデオデータを生成する受信処理を実行する。 The antenna unit 10 includes an antenna that transmits radio waves to a predetermined range including a target and receives radio waves including reflected waves from the target, an amplifier, a phase shifter, a circulator, and the like. . The antenna is, for example, an active array antenna in which a plurality of antenna elements are arranged. The transmitting/receiving unit 11 controls transmission/reception of the antenna unit 10, performs transmission processing for transmitting radio waves from the antenna, and performs frequency conversion, A/D conversion, and the like on radio waves (reflected waves) received by the antenna to convert them into digital signals. receive processing to generate the video data.

信号処理部12は、ビデオデータのデジタル信号処理を実行し、本実施形態の主機能であるクラッタ抑圧処理、目標検出処理、及び表示画像生成処理を実行する。表示部13は、信号処理部12を制御する機能、及びクラッタ抑圧処理後の目標情報及び表示画像を、表示装置(端末装置)のディスプレイ上に表示する。なお、信号処理部12及び表示部13は、ハードウェア及びソフトウェアにより構成されるコンピュータにより実現される構成でもよい。 The signal processing unit 12 performs digital signal processing of video data, and performs clutter suppression processing, target detection processing, and display image generation processing, which are the main functions of this embodiment. The display unit 13 displays the function of controlling the signal processing unit 12 and the target information and display image after the clutter suppression processing on the display of the display device (terminal device). Note that the signal processing unit 12 and the display unit 13 may be implemented by a computer configured by hardware and software.

図2は、信号処理部12の構成を示すブロック図である。図2に示すように、信号処理部12は、パルス圧縮処理部20、クラッタ抑圧処理部21、目標検出処理部23、画像生成処理部24、及び目標追跡処理部25を含む。パルス圧縮処理部20は、送受信部11の受信処理により生成されるビデオデータに対して、パルス圧縮処理を実行する。クラッタ抑圧処理部21は、パルス圧縮処理後のビデオデータに対して、目標とクラッタとを分離するためにクラッタ抑圧処理を実行する。 FIG. 2 is a block diagram showing the configuration of the signal processing section 12. As shown in FIG. As shown in FIG. 2 , the signal processing section 12 includes a pulse compression processing section 20 , a clutter suppression processing section 21 , a target detection processing section 23 , an image generation processing section 24 and a target tracking processing section 25 . The pulse compression processing section 20 performs pulse compression processing on the video data generated by the reception processing of the transmission/reception section 11 . The clutter suppression processing unit 21 performs clutter suppression processing on the video data after the pulse compression processing in order to separate the target and the clutter.

目標検出処理部23は、クラッタ抑圧処理後のビデオデータに対して、目標を検出する目標検出処理を実行する。画像生成処理部24は、クラッタ抑圧処理後のビデオデータから、表示部13で表示処理される表示画像を生成する。目標追跡処理部25は、目標検出処理部23により検出される目標を追跡する処理を実行し、追跡した時系列の目標情報を出力する。
[レーダ監視装置の動作]
以下、図3から図6を参照して、本実施形態のクラッタ抑圧処理を説明する。さらに、図7のフローチャートを参照して、本実施形態のレーダ監視装置1の動作を説明する。本実施形態は、例えば、船舶に搭載されて、海上を監視するレーダ監視装置1に適用する。
The target detection processing unit 23 executes target detection processing for detecting a target on the video data after the clutter suppression processing. The image generation processing unit 24 generates a display image to be displayed by the display unit 13 from the video data after the clutter suppression processing. The target tracking processing unit 25 executes a process of tracking the targets detected by the target detection processing unit 23, and outputs tracked time-series target information.
[Operation of radar monitoring device]
The clutter suppression processing of this embodiment will be described below with reference to FIGS. 3 to 6. FIG. Further, the operation of the radar monitoring device 1 of this embodiment will be described with reference to the flowchart of FIG. This embodiment is applied to, for example, a radar monitoring device 1 that is mounted on a ship and monitors the sea.

図7に示すように、レーダ監視装置1において、送受信部11は、アンテナ部10から送信した電波の反射波を受信する(S1)。送受信部11は、受信した反射波をA/D変換して、例えば海上の監視領域に対するビデオデータを生成する(S2)。信号処理部12は、パルス圧縮処理部20によりパルス圧縮処理後のビデオデータを、クラッタ抑圧処理部21に送出する(S3)。 As shown in FIG. 7, in the radar monitoring device 1, the transmitting/receiving section 11 receives reflected waves of radio waves transmitted from the antenna section 10 (S1). The transmitting/receiving unit 11 A/D converts the received reflected wave to generate video data for, for example, a surveillance area on the sea (S2). The signal processing unit 12 sends the video data pulse-compressed by the pulse compression processing unit 20 to the clutter suppression processing unit 21 (S3).

本実施形態では、図2に示すように、クラッタ抑圧処理部21は、複数種のパターン識別部22-1~22-n(代表としてパターン識別部22と表記)を含み、各パターン識別部22を使用してクラッタ抑圧処理を実行する(S4)。 In this embodiment, as shown in FIG. 2, the clutter suppression processing unit 21 includes a plurality of types of pattern identification units 22-1 to 22-n (representatively referred to as the pattern identification unit 22), and each pattern identification unit 22 is used to perform clutter suppression processing (S4).

具体的には、クラッタ抑圧処理部21は、例えば表示部13の操作部から、監視員により選択されるパターン識別部22の種類、及び後述する部分領域座標を入力情報として入力し、当該入力情報に応じたパターン識別部22を使用してクラッタ抑圧処理を実行する。 Specifically, the clutter suppression processing unit 21 inputs the type of the pattern identification unit 22 selected by the observer and partial region coordinates described later as input information from the operation unit of the display unit 13, for example. The clutter suppression process is performed using the pattern identification unit 22 according to .

ここで、各パターン識別部22はそれぞれ、目標とクラッタの特性(パターンの種類)に基づいて、予め用意したサンプルデータ(訓練データ)を使用して、クラッタを有効に抑圧し、目標とクラッタを判別するパターン識別器を機械学習の手法で学習する。機械学習は、例えば深層ニューラルネットワークを適用した学習方法であるが、他の学習方法を適用してもよい。サンプルデータは、監視で使用するビデオデータである。例えば、海上であれば距離、方位及び時間軸を有するパルス圧縮後のビデオデータに相当する。上空であれば、距離、方位、仰角及び時間軸を有するパルス圧縮後のビデオデータとなる。また、パターンの種類は、時系列の目標とクラッタの特性に関連する監視環境を意味する。監視環境とは、例えば海上や上空のことであり、海上であればシークラッタやウェザークラッタの中に目標が存在し、上空であればグランドクラッタやシークラッタ、ウェザークラッタの中に目標が存在することが考えられる。即ち、各パターン識別部22はそれぞれ、監視環境に応じて機械学習し、例えば海面状態に関するシークラッタを有効に抑圧するように学習したものでもよい。 Here, each pattern identification unit 22 uses sample data (training data) prepared in advance based on the characteristics of the target and clutter (pattern type) to effectively suppress clutter and separate the target and clutter. A machine learning method is used to learn a pattern classifier for discrimination. Machine learning is a learning method that applies, for example, a deep neural network, but other learning methods may also be applied. Sample data is video data used for monitoring. For example, if it is on the sea, it corresponds to video data after pulse compression having distance, bearing, and time axes. If it is in the sky, it becomes video data after pulse compression having distance, azimuth, elevation angle and time axis. Also, the type of pattern refers to the monitoring environment in relation to the time-series target and clutter characteristics. The surveillance environment is, for example, the ocean or the sky. In the ocean, targets exist in sea clutter and weather clutter, and in the sky, targets exist in ground clutter, sea clutter, and weather clutter. Conceivable. That is, each pattern identification unit 22 may be machine-learned according to the monitoring environment, and learned to effectively suppress sea clutter related to sea surface conditions, for example.

即ち、パターン識別部22は、目標とクラッタの特性に基づいたパターンに対して前記クラッタを抑圧するクラッタ抑圧処理を実行する機能を実現する。なお、具体的な抑圧処理方法として、例えば振幅ビデオにおける目標とクラッタの振幅値のパターンを区別することで、クラッタを除去する処理を実行する。学習は、例えばパターン識別部22の出力として目標らしさを表す尤度とし、目標とシークラッタのパターンを学習させる。これによって学習されたパターン識別部22は、シークラッタの場合は尤度が小さくなり、目標の場合は尤度が大きくなる。学習に使用するサンプルデータは、例えば受信処理後のビデオデータをシミュレーションにより擬似的に生成したものでも良い。 That is, the pattern identification unit 22 realizes a function of performing clutter suppression processing for suppressing the clutter for patterns based on the characteristics of the target and clutter. As a specific suppression processing method, for example, clutter removal processing is executed by distinguishing the target and clutter amplitude value patterns in the amplitude video. For learning, for example, the output of the pattern identification unit 22 is the likelihood representing the likelihood of the target, and the patterns of the target and the sea clutter are learned. The pattern identification unit 22 learned in this manner has a smaller likelihood for sea clutter and a larger likelihood for a target. The sample data used for learning may be, for example, simulated video data after reception processing.

監視要員は、現在の監視環境下において、例えば、海面が荒れている場合に、シークラッタを抑圧するためのパターン識別部22の種類を選択する。クラッタ抑圧処理部21は、選択された種類のパターン識別部22を使用して、パルス圧縮処理後のビデオデータに対して、シークラッタと目標とが混在している領域から、当該シークラッタを効果的に抑圧するためのクラッタ抑圧処理を実行する。また、監視員は、現在の監視環境下において、例えば、雨や雲の天候状態が悪い場合に、気象状態に関するウェザークラッタを抑圧するためのパターン識別部22の種類を選択する。クラッタ抑圧処理部21は、選択された種類のパターン識別部22を使用して、パルス圧縮処理後のビデオデータに対してウェザークラッタを抑圧するためのクラッタ抑圧処理を実行する。 Under the current monitoring environment, for example, when the sea surface is rough, the monitoring personnel selects the type of pattern identification section 22 for suppressing sea clutter. The clutter suppression processing unit 21 uses the selected type of pattern identification unit 22 to effectively remove the sea clutter from the area where the sea clutter and the target coexist in the video data after the pulse compression processing. Perform clutter suppression processing to suppress. In addition, the observer selects the type of pattern identification section 22 for suppressing weather clutter related to the weather conditions, for example, when the weather conditions of rain or clouds are bad under the current monitoring environment. The clutter suppression processing unit 21 uses the selected type of pattern identification unit 22 to perform clutter suppression processing for suppressing weather clutter on the video data after the pulse compression processing.

図3は、本実施形態のクラッタ抑圧処理の一例を示す図である。例えば、海上を監視する場合、パルス圧縮処理後のビデオデータ30は、クラッタ抑圧処理前であるため、目標32とシークラッタ31が混在している。従って、このデータから目標32のみを検出するためには、シークラッタ31を十分に抑圧する必要がある。また、ビデオデータ30から表示画像を生成する場合、シークラッタ31を抑圧して、目標32の視認性を高めることが求められる。 FIG. 3 is a diagram showing an example of clutter suppression processing according to this embodiment. For example, when monitoring the sea, the video data 30 after pulse compression processing is before clutter suppression processing, so target 32 and sea clutter 31 are mixed. Therefore, in order to detect only the target 32 from this data, it is necessary to suppress the sea clutter 31 sufficiently. Further, when generating a display image from the video data 30, it is required to suppress the sea clutter 31 and improve the visibility of the target 32. FIG.

ここで、海上を監視する場合を例に、データの特徴について説明する。図3に示すように、目標32とシークラッタ31は、時系列の距離、方位のビデオデータである3次元データの中で差異がある。例えば、時間-距離のデータでは、シークラッタ31は振幅や信号の空間方向の幅が小さく短い線となる。一方、目標32は、シークラッタ31に比べて振幅及び空間方向の幅が大きく、連続性の高い線となる。本実施形態では、このような差異に着目して、サンプルデータを用いた機械学習により、目標32とシークラッタ31を分離するパターン識別部22の学習を実行できる。また、上空を監視する場合は、例えば時系列の距離、方位、仰角の4次元のビデオデータとなる。この場合は、振幅や速度、線の連続性、位相情報等からクラッタと目標を分離してもよい。 Here, the characteristics of the data will be described using the case of monitoring the sea as an example. As shown in FIG. 3, there is a difference between the target 32 and the sea clutter 31 in three-dimensional data, which is time-series distance and azimuth video data. For example, in time-distance data, the sea clutter 31 is a short line with small amplitude and width in the spatial direction of the signal. On the other hand, the target 32 has a greater amplitude and width in the spatial direction than the sea clutter 31, and is a highly continuous line. In the present embodiment, focusing on such a difference, machine learning using sample data can be used to perform learning of the pattern identification unit 22 that separates the target 32 and the sea clutter 31 . In the case of monitoring the sky, for example, four-dimensional video data of time-series distance, azimuth, and elevation angle is used. In this case, the clutter and target may be separated from amplitude, velocity, line continuity, phase information, and the like.

図7に戻って、クラッタ抑圧処理部21は、監視要員により選択されるパターン識別部22の種類に応じたパターン識別部22を使用して、リアルタイムに目標とシークラッタを分離することで、シークラッタを抑圧できる。 Returning to FIG. 7, the clutter suppression processing unit 21 uses the pattern identification unit 22 corresponding to the type of the pattern identification unit 22 selected by the monitoring personnel to separate the target and the sea clutter in real time, thereby eliminating the sea clutter. can be suppressed.

次に、目標検出処理部23は、クラッタ抑圧処理後のデータに対して、目標を検出する目標検出処理を実行する(S5)。例えば、クラッタ抑圧処理部21の出力を目標の尤度とした場合、目標検出とみなす尤度を閾値とする。閾値は外部の入力、例えば監視要員の操作により設定可能である。一方、画像生成処理部24は、クラッタ抑圧処理後のビデオデータから、表示部13で表示処理される表示画像を生成する(S7)。目標追跡処理部25は、目標検出処理部23により検出される目標を追跡する処理を実行し、追跡した目標情報を出力する(S6)。 Next, the target detection processing unit 23 executes target detection processing for detecting a target on the data after the clutter suppression processing (S5). For example, when the output of the clutter suppression processing unit 21 is the likelihood of the target, the likelihood of target detection is set as the threshold. The threshold can be set by an external input, for example by the operation of the monitoring personnel. On the other hand, the image generation processing unit 24 generates a display image to be displayed by the display unit 13 from the video data after the clutter suppression processing (S7). The target tracking processing unit 25 executes processing for tracking the target detected by the target detection processing unit 23, and outputs tracked target information (S6).

図4は、クラッタ抑圧処理前のビデオデータから、表示部13で表示処理される表示画像の一例を示す図である。図4に示すように、クラッタ抑圧処理前であるため、目標32とシークラッタ31が混在しており、視認性が低下している。このため、監視員は、当該表示画像から、特に信号強度の小さい小目標(海面上のブイや浮遊物等)32は視覚的に確認することが困難である。 FIG. 4 is a diagram showing an example of a display image processed by the display unit 13 from video data before clutter suppression processing. As shown in FIG. 4, the target 32 and the sea clutter 31 are mixed because the clutter suppression process has not yet been performed, and the visibility is lowered. Therefore, it is difficult for the observer to visually confirm the small targets (buoys, floating objects, etc. on the sea surface) 32 with particularly low signal strength from the displayed image.

本実施形態では、図5に示すように、クラッタ抑圧処理後のビデオデータから、表示部13の表示画面全体において、シークラッタ31を抑圧できるため、特に小目標32の視認性を向上できる。ここで、機械学習によるパターン識別部22は、クラッタ抑圧性能が高い一方、計算量も増加する可能性がある。例えば、機械学習として深層ニューラルネットワークを適用した場合、層を深くすると性能向上が見込める。しかし、層が深くなるほど計算量が増加してしまう。このため、表示画面全体では、深層ニューラルネットワークを適用する機械学習において、階層の浅いパターン識別部22を用いることで、処理負荷の増加を抑制できる可能性がある。 In this embodiment, as shown in FIG. 5, the sea clutter 31 can be suppressed on the entire display screen of the display unit 13 from the video data after the clutter suppression processing, so the visibility of the small target 32 can be particularly improved. Here, while the pattern identification unit 22 based on machine learning has high clutter suppression performance, there is a possibility that the amount of calculation will also increase. For example, when applying a deep neural network as machine learning, the performance can be improved by making the layers deeper. However, the deeper the layer, the greater the amount of calculation. Therefore, for the entire display screen, it is possible to suppress an increase in the processing load by using the shallow pattern identification unit 22 in machine learning that applies a deep neural network.

一方、本実施形態では、前述したように、クラッタ抑圧処理部21は、監視員によりパターン識別部22の種類を選択できると共に、部分領域座標を入力情報として入力できる。具体的には、図5に示すように、監視員が指定した目標32を含む部分領域50に応じて、画像生成処理部24は、クラッタ抑圧処理後のビデオデータから、表示部13で表示処理される拡大表示画像を生成する。この場合、クラッタ抑圧処理部21は、パターン識別部22の種類を変更することにより、クラッタ抑圧性能を高める機能を有する。 On the other hand, in the present embodiment, as described above, the clutter suppression processing section 21 can select the type of the pattern identification section 22 by the observer, and can input partial area coordinates as input information. Specifically, as shown in FIG. 5, the image generation processing unit 24 performs display processing on the display unit 13 from the video data after the clutter suppression processing according to the partial region 50 including the target 32 designated by the observer. generates a magnified display image. In this case, the clutter suppression processing section 21 has a function of improving the clutter suppression performance by changing the type of the pattern identification section 22 .

具体的には、表示画面より部分領域50を選択した場合には、当該領域50に対してより処理負荷の高いパターン識別部22を用いることで、シークラッタ抑圧性能を向上できる。例えば、パターン識別部22に深層ニューラルネットワークを用いる場合、階層の深いネットワークを使用することで、シークラッタ抑圧性能を向上することができる。従って、図6に示すように、監視員が監視状況に応じて、注目したい部分領域50を拡大する共に、クラッタ抑圧性能を高めることで、高精度の目標検出を実現できる。このような本実施形態の機能は、衝突予防装置(ARPA)や自動船舶識別装置(AIS)などによるターゲットマークの拡大表示処理にも適用可能である。 Specifically, when a partial area 50 is selected from the display screen, the pattern identification unit 22 having a higher processing load for the area 50 can be used to improve the sea clutter suppression performance. For example, when a deep neural network is used for the pattern identification unit 22, the performance of suppressing sea clutter can be improved by using a network with a deep hierarchy. Therefore, as shown in FIG. 6, the observer enlarges the partial area 50 that the observer wants to pay attention to and enhances the clutter suppression performance in accordance with the surveillance situation, thereby achieving highly accurate target detection. Such a function of the present embodiment can also be applied to enlargement display processing of target marks by a collision avoidance system (ARPA), an automatic identification system (AIS), or the like.

以上のように本実施形態によれば、目標とクラッタの特性に応じて、予め機械学習により学習している異なる種類のパターン識別部を選択して使用することにより、監視環境に適応する効果的なクラッタ抑圧を実現できる。従って、結果として、目標とクラッタが混在しているビデオデータから、目標を高精度で検出することが可能となる。特に、従来ではクラッタの影響で検出が困難であった小目標、例えば水上のブイや浮遊物、上空を飛ぶ小型無人機等の検出精度を向上できる。換言すれば、目標の検出精度を向上し、クラッタの誤検出を抑制できる。 As described above, according to the present embodiment, by selecting and using different types of pattern identification units that have been learned in advance by machine learning according to the characteristics of the target and clutter, it is possible to effectively adapt to the monitoring environment. clutter suppression can be realized. Therefore, as a result, it is possible to detect a target with high accuracy from video data in which the target and clutter are mixed. In particular, it is possible to improve the detection accuracy of small targets, such as buoys and floating objects on water, and small unmanned aerial vehicles flying in the sky, which have been difficult to detect in the past due to clutter. In other words, it is possible to improve target detection accuracy and suppress erroneous detection of clutter.

また、ビデオデータから表示画像を生成して、表示画面上に表示する場合に、監視員が指定した目標を含む部分領域を拡大表示すると共に、クラッタ抑圧性能を高くして、目標検出の精度を向上できる。また、クラッタ抑圧後のビデオデータを表示することで、特に小目標の視認性を向上できる。さらに、パターン識別部のクラッタ抑圧性能と処理範囲の広さは、処理負荷の観点でトレードオフの関係にある。本実施形態では、シークラッタ抑圧性能を部分領域の選択に応じて変化させることで、リアルタイム性を優先するようなことが可能となる。 In addition, when a display image is generated from video data and displayed on a display screen, the partial area including the target specified by the observer is enlarged and displayed, and the clutter suppression performance is enhanced to improve target detection accuracy. can improve. In addition, by displaying the video data after clutter suppression, it is possible to improve the visibility of small targets in particular. Furthermore, the clutter suppression performance of the pattern identification unit and the width of the processing range are in a trade-off relationship from the viewpoint of the processing load. In this embodiment, by changing the sea clutter suppression performance according to the selection of the partial area, it is possible to give priority to real-time performance.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 While several embodiments of the invention have been described, these embodiments have been presented by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and modifications can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the scope of the invention described in the claims and equivalents thereof.

1…レーダ監視装置、10…アンテナ部、11…送受信部、12…信号処理部、
13…表示部、20…パルス圧縮処理部、21…クラッタ抑圧処理部、
22(22-1~22-n)…パターン識別部、23…目標検出処理部、
24…画像生成処理部、25…目標追跡処理部。
DESCRIPTION OF SYMBOLS 1... Radar monitoring apparatus, 10... Antenna part, 11... Transmission/reception part, 12... Signal processing part,
13... display section, 20... pulse compression processing section, 21... clutter suppression processing section,
22 (22-1 to 22-n): pattern identification unit, 23: target detection processing unit,
24... Image generation processing unit, 25... Target tracking processing unit.

Claims (10)

電波を送信及び受信するアンテナと、
前記アンテナで受信される反射波から、目標とクラッタが混在する領域のビデオデータを生成する送受信部と、
前記ビデオデータに対して、前記クラッタと分離して前記目標を検出するための信号処理を実行する信号処理部と、
信号処理後の結果を表示するための表示部と、
を具備し、
前記信号処理部は、
目標とクラッタの特性に基づいて前記クラッタを抑圧するように、機械学習により学習されたパターン識別部を使用してクラッタ抑圧処理を実行するクラッタ抑圧処理部を含み、
前記クラッタ抑圧処理部は、
予め複数種のパターン識別部を含み、
ユーザにより選択されたパターン識別部を使用してクラッタ抑圧処理を実行する、レーダ監視装置。
an antenna for transmitting and receiving radio waves;
a transmitting/receiving unit that generates video data of an area where a target and clutter coexist from reflected waves received by the antenna;
a signal processing unit that performs signal processing for detecting the target separately from the clutter on the video data;
a display for displaying results after signal processing;
and
The signal processing unit is
a clutter suppression processor that performs clutter suppression processing using a machine learning pattern identifier to suppress the clutter based on target and clutter characteristics ;
The clutter suppression processing unit,
Including multiple types of pattern identification units in advance,
A radar monitoring device that performs clutter suppression processing using a pattern identifier selected by a user .
前記クラッタ抑圧処理部による前記クラッタの抑圧処理後に、前記ビデオデータから前記目標を検出する目標検出部を含む、請求項1に記載のレーダ監視装置。 2. The radar monitoring apparatus according to claim 1 , further comprising a target detection unit for detecting said target from said video data after said clutter suppression processing by said clutter suppression processing unit . 前記クラッタ抑圧処理部による前記クラッタの抑圧処理後に、前記ビデオデータから表示画面に表示する表示画像を生成する画像生成処理部を含む、請求項1に記載のレーダ監視装置。 2. The radar monitoring apparatus according to claim 1, further comprising an image generation processing unit that generates a display image to be displayed on a display screen from the video data after the clutter suppression processing by the clutter suppression processing unit. 前記クラッタ抑圧処理部は、
目標とクラッタの特性として、前記ビデオデータの中で目標とクラッタの差異に基づいて機械学習により学習されたパターン識別部を使用して、当該クラッタを抑圧する、請求項1に記載のレーダ監視装置。
The clutter suppression processing unit ,
2. The radar monitoring apparatus according to claim 1, wherein the clutter is suppressed using a pattern identifier learned by machine learning based on the difference between the target and the clutter in the video data as the characteristic of the target and the clutter. .
前記パターン識別部は、
ある一定時間の目標とクラッタの空間上の分布または位相分布またはその両方の差異に基づいて機械学習され、目標とクラッタを分離することで当該クラッタを抑圧する、請求項1に記載のレーダ監視装置。
The pattern identification unit
2. The radar monitoring device according to claim 1, wherein machine learning is performed based on a difference in spatial distribution and/or phase distribution of a target and clutter for a certain period of time, and the clutter is suppressed by separating the target and clutter. .
前記クラッタ抑圧処理部は、
目標とクラッタの特性として、前記ビデオデータの中である一定時間の目標とクラッタの空間上の分布または位相分布またはその両方の差異に基づいて機械学習により学習されたパターン識別部を使用して、当該クラッタを抑圧する、請求項1に記載のレーダ監視装置。
The clutter suppression processing unit,
Using a pattern identification unit learned by machine learning based on the difference between the spatial distribution and/or the phase distribution of the target and clutter for a certain time in the video data as the characteristics of the target and clutter, 2. The radar monitoring device of claim 1, wherein the clutter is suppressed .
前記クラッタ抑圧処理部は、
前記表示画像の部分領域を指定される場合に、当該部分領域に対して前記クラッタの抑圧性能が異なるパターン識別部を使用してクラッタ抑圧処理を実行する、請求項3に記載のレーダ監視装置。
The clutter suppression processing unit,
4. The radar monitoring apparatus according to claim 3, wherein, when a partial area of said display image is designated, clutter suppression processing is performed for said partial area using said pattern identification units having different clutter suppression performances.
前記表示画像の部分領域を指定される場合に、指定された領域ごとに異なるパターン識別部を使用してクラッタ抑圧処理を実行する、請求項3に記載のレーダ監視装置。 4. The radar monitoring apparatus according to claim 3, wherein when a partial area of said display image is specified, a different pattern identification unit is used for each specified area to perform clutter suppression processing. 前記画像生成処理部は、
指定される部分領域に対するクラッタ抑圧処理後の前記ビデオデータから、表示画面に拡大表示する前記部分領域の表示画像を生成する、請求項3に記載のレーダ監視装置。
The image generation processing unit
4. The radar monitoring apparatus according to claim 3, wherein a display image of said partial area to be enlarged and displayed on a display screen is generated from said video data after clutter suppression processing for said partial area.
電波を送信及び受信するアンテナと、an antenna for transmitting and receiving radio waves;
前記アンテナで受信される反射波から、目標とクラッタが混在する領域のビデオデータを生成する送受信部と、a transmitting/receiving unit that generates video data of an area where a target and clutter coexist from reflected waves received by the antenna;
コンピュータとを具備するレーダ監視装置に適用するクラッタ抑圧方法であって、A clutter suppression method applied to a radar monitoring device comprising a computer,
前記コンピュータが、前記ビデオデータに対して、前記クラッタと分離して前記目標を検出するための信号処理を実行する処理と、the computer performing signal processing on the video data to detect the target separately from the clutter;
前記コンピュータが、信号処理後の結果を表示する処理とを備え、The computer comprises a process of displaying the result after signal processing,
前記信号処理を実行する処理は、The process of performing the signal processing includes:
前記コンピュータが、目標とクラッタの特性に基づいて前記クラッタを抑圧するように、機械学習により学習されたパターン識別部を使用してクラッタ抑圧処理を実行する処理であり、A process in which the computer performs clutter suppression processing using a pattern identifier trained by machine learning so as to suppress the clutter based on the characteristics of the target and the clutter,
前記クラッタ抑圧処理を実行する処理は、The process of executing the clutter suppression process includes:
前記コンピュータが、予め複数種のパターン識別部から、ユーザにより選択されたパターン識別部を使用してクラッタ抑圧処理を実行する処理である、クラッタ抑圧方法。A clutter suppression method, wherein the computer executes clutter suppression processing using a pattern identification unit selected by a user from among a plurality of types of pattern identification units in advance.
JP2019130952A 2019-07-16 2019-07-16 Radar monitoring device and method Active JP7337575B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019130952A JP7337575B2 (en) 2019-07-16 2019-07-16 Radar monitoring device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019130952A JP7337575B2 (en) 2019-07-16 2019-07-16 Radar monitoring device and method

Publications (2)

Publication Number Publication Date
JP2021015079A JP2021015079A (en) 2021-02-12
JP7337575B2 true JP7337575B2 (en) 2023-09-04

Family

ID=74530680

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019130952A Active JP7337575B2 (en) 2019-07-16 2019-07-16 Radar monitoring device and method

Country Status (1)

Country Link
JP (1) JP7337575B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113093133B (en) * 2021-02-26 2023-11-14 四川九洲防控科技有限责任公司 Radar faery wave processing method, system, storage medium and electronic equipment
CN114492510B (en) * 2021-12-30 2024-02-27 西北工业大学 Intelligent sea clutter suppression method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002139562A (en) 2000-11-02 2002-05-17 Japan Radio Co Ltd Radar display device
JP2012132687A (en) 2010-12-20 2012-07-12 Furuno Electric Co Ltd Target detection method, target detection program, target detection device, and radar device
US20120286989A1 (en) 2011-05-10 2012-11-15 Raytheon Company Target identification for a radar image

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002139562A (en) 2000-11-02 2002-05-17 Japan Radio Co Ltd Radar display device
JP2012132687A (en) 2010-12-20 2012-07-12 Furuno Electric Co Ltd Target detection method, target detection program, target detection device, and radar device
US20120286989A1 (en) 2011-05-10 2012-11-15 Raytheon Company Target identification for a radar image

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
木村英之, 佐野元昭, 関根松夫(東京工業大学),「ニューラルネットワークによるレーダターゲットのパターン認識」,電子情報通信学会技術研究報告(信学技報),1994年04月28日,Vol.94, No.27,pp.1-4

Also Published As

Publication number Publication date
JP2021015079A (en) 2021-02-12

Similar Documents

Publication Publication Date Title
CN111123212B (en) Signal processing method of scene surveillance radar based on complex clutter background
EP2677342B1 (en) Radar device and method of processing reflection signal
JP5398195B2 (en) Radar equipment
JP7337575B2 (en) Radar monitoring device and method
JP2014002085A (en) Signal processing device, radar device, signal processing method, and program
JP2007064768A (en) Underwater detection system
JP7143809B2 (en) Clutter learning device and clutter discriminating device
JP2017129520A (en) Radar device and target tracking method
JP2012247320A (en) Video display device and radar device
JP2016206153A (en) Signal processor and radar device
JP2020193904A (en) Target signal separation device, passive radar device, and target signal separation method
CN108663666B (en) Multi-target detection method for latent radar in strong clutter marine environment
KR101813357B1 (en) Clutter elimination Method and Apparatus for applying variable data map and variable statistic characteristics information for identifying underwater fixed target and clutter
JP2011185719A (en) Tracking radar device
CN112698295A (en) Knowledge-assisted radar detection and tracking integrated method and system
KR102053845B1 (en) Method and apparatus for tracking target based on phase gradient autofocus
JP6138430B2 (en) Dangerous target detection device
JP2011196808A (en) Radar apparatus
Harris et al. Process for automatic target detection using small marine radar
WO2023100390A1 (en) Information processing method, radar apparatus, and computer program
JP2016121970A (en) Echo signal processing device, radar device, echo signal processing method, and program
KR101619064B1 (en) Target tracking method using active clutter map
JP7194031B2 (en) radar equipment
WO2022191197A1 (en) Object-position detecting device and method
JP2010091585A (en) Radar apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220615

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20230105

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230329

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230411

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230612

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230725

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230823

R150 Certificate of patent or registration of utility model

Ref document number: 7337575

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150