JP2019049371A - Guiding apparatus - Google Patents

Guiding apparatus Download PDF

Info

Publication number
JP2019049371A
JP2019049371A JP2017172903A JP2017172903A JP2019049371A JP 2019049371 A JP2019049371 A JP 2019049371A JP 2017172903 A JP2017172903 A JP 2017172903A JP 2017172903 A JP2017172903 A JP 2017172903A JP 2019049371 A JP2019049371 A JP 2019049371A
Authority
JP
Japan
Prior art keywords
target
unit
information
signal
reception
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017172903A
Other languages
Japanese (ja)
Inventor
美紗子 廣▲瀬▼
Misako Hirose
美紗子 廣▲瀬▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2017172903A priority Critical patent/JP2019049371A/en
Publication of JP2019049371A publication Critical patent/JP2019049371A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

To overcome difficulty in tracking a target because it is incapable of enhancing a resolution by using DBS(Doppler Beam Sharpening) processing when a distance between a target and a frying object and a relative angle to the flying object are small, and a difficulty in separating the target because a beam width is wide when tracking the target by using monopulse angle measurements.SOLUTION: A guiding apparatus of the present invention, when the relative angle between a flying object and a target is small, obtains a scanning result with narrow beam width for the total length of the target by using MRI (Monopulse Resolution Improvement) technique with improved resolution of monopulse angle measurements, detects the shape of the target, and calculates the specific site of the target for meeting. Further, the flying object accurately meets the target by tracking the predicted specific site for meeting corresponding to the traveling azimuth of the target and the speed of the target.SELECTED DRAWING: Figure 1

Description

この発明は、目標を追尾し、飛しょう体を目標に近付くように誘導する誘導装置に関する。   The present invention relates to a guidance device for tracking a target and guiding a flying object to approach the target.

飛しょう体搭載の誘導装置の一例として、シーカまたはホーミング装置がある。この誘導装置は、複雑背景下に存在する目標へ自己を誘導するために、目標と目標以外の背景を高精度で分離し、飛しょう体を目標に対して精密に誘導する。条件の厳しいクラッタ環境下で目標を検出し追尾する誘導装置として、誘導装置における視線(line of sight)の基準線からの目標の見込み角または相対角度(スクイント角または斜視角とも言う)が大きい遠距離においては、DBS(Doppler Beam Sharpening)処理を用いて、目標抽出、目標識別及び目標への誘導を実施する。また、目標が誘導装置の視線に正対し、DBSによる高分解能化が不可能な目標の相対角度の小さい近距離においては、モノパルス測角情報を用いた誘導信号へ切り替える(例えば、特許文献1、2参照)。   Seekers or homing devices are examples of flight-mounted guidance devices. The guidance device separates the target and the background other than the target with high accuracy, and guides the flying object to the target precisely, in order to guide the self to the target existing in the complicated background. A guiding device for detecting and tracking a target in a severe clutter environment, the distance from the line of sight of the guiding device to the reference line of the target or the far angle (also referred to as a squint angle or oblique angle) of the target is large In the distance, DBS (Doppler Beam Sharpening) processing is used to carry out goal extraction, goal identification and goal guidance. In addition, at short distances where the target faces the line of sight of the guidance device and the relative angle of the target where high resolution by DBS is not possible is small, switching to a guidance signal using monopulse angle measurement information (for example, Patent Document 1, 2).

特開2013−190383号公報(図1参照)JP, 2013-190383, A (refer to Drawing 1) 米国特許第4387373号公報U.S. Pat. No. 4,387,373

従来の誘導装置は、誘導装置と目標の相対角度が小さい近距離において、モノパルス測角を行うと、複数の目標が誘導装置の1つのビームスポットの中に収まってしまい、目標を分離できなくなる。また、DBS処理による高角度分解能化ができなくなって、目標の脆弱部を特定し、追尾することもできないため、目標の脆弱部のような特定部位の予想会合点に向けて飛しょう体を誘導することができないという課題があった。   In the conventional guidance device, when monopulse angle measurement is performed at a short distance where the relative angle between the guidance device and the target is small, a plurality of targets are contained in one beam spot of the guidance device and the targets can not be separated. In addition, because high-angle resolution can not be achieved by DBS processing, and it is not possible to identify and track the vulnerable part of the target, guide the flying body towards the expected meeting point of the specific part such as the fragile part of the target. There was a problem that it was impossible to do.

なお、誘導装置のDBS処理は、誘導装置を搭載した移動体の移動によって、反射波の到来方向の違いから生じるドップラ周波数差を用いてビーム幅内の信号を分離する高角度分解能処理である。DBS処理を用いることで、同一距離にある2つの目標を分離することが可能となる。このため目標の相対角度が大きい場合は、DBS処理によって、高角度分解能に目標分離を可能にするので、同一距離にある近接した2つの目標を分離し、各目標を追尾捕捉することができる。しかしながら、目標の相対角度が小さい場合は、同一距離にある2つの目標を分離することができない。これによって2つの目標を1つの目標のように捉えてしまい、また各目標の形状も分からなくなる。   The DBS processing of the guiding device is a high angle resolution processing of separating the signal within the beam width by using the Doppler frequency difference generated from the difference in the arrival direction of the reflected wave by the movement of the moving body mounted with the guiding device. By using DBS processing, it is possible to separate two targets at the same distance. Therefore, when the relative angle of the targets is large, DBS processing enables target separation with high angular resolution, so that it is possible to separate two closely spaced targets at the same distance and track and capture each target. However, if the relative angle of targets is small, it is not possible to separate two targets at the same distance. This captures two goals like one goal, and also makes it impossible to understand the shape of each goal.

この発明は係る課題を解決するためになされたもので、誘導装置と目標の相対角度が小さい近距離においても、目標の特定部位を追尾する誘導装置を得ることを目的とする。   The present invention has been made to solve the problems, and has as its object to obtain a guiding device for tracking a specific region of a target even at a short distance where the relative angle between the guiding device and the target is small.

この発明による目標追尾装置は、電波の送受信によりPRI(Pulse Repetation Interval)毎に取得した目標情報を、ディジタル信号の目標情報に変換するA/D変換部(10)と、上記A/D変換部(10)からのディジタル信号の目標情報のドップラ周波数に基づいて、振幅、距離、周波数からなるディジタルマップを出力するとともに、同一距離にある目標を分離し、各目標の速度と目標方位の情報を求めるDBS処理部(12)と、遠距離モードの場合に上記DBS処理部(12)により得られたディジタルマップから背景クラッタを弁別して目標を抽出し、近距離モードの場合に上記目標情報の差信号から目標を抽出する目標抽出部(13)と、上記目標抽出部(13)の抽出した目標の目標情報から、目標との相対距離及び相対角度からなる目標推定位置情報を求める目標位置推定部(15)と、上記目標位置推定部(15)の求めた目標との相対角度を予め設定された角度と比較し、上記目標との相対角度が所定角度より大きい場合に遠距離モードと判定して、上記DBS処理部(12)のディジタルマップを目標抽出部(13)に出力し、上記目標との相対角度が所定角度より小さい場合に近距離モードと判定して、目標との相対距離と目標全長に基づいて、目標全長に対するビーム送受信回数が所定回数以上となるようにビーム幅とビーム送受信回数を算出するビーム制御部(19)と、上記遠距離モードの場合に、上記目標位置推定部(15)の求めた目標推定位置情報に基づいて、追尾ゲートを生成する追尾ゲート計算部(17)と、上記近距離モードの場合に、MRI(Monopulse Resolution Improvement)処理により、上記ビーム制御部(19)からのビーム送受信回数に応じて、時系列で得られる上記目標情報の差信号を、ビーム制御部(19)で算出したビーム幅による差信号に補正するビーム幅補正部(18)と、上記近距離モードの場合に、上記時系列で得られる目標情報のビーム走査によって上記目標位置推定部(15)の求めた目標推定位置情報から、三次元目標画像を求める三次元目標画像生成部(20)と、上記三次元目標画像生成部(20)の求めた三次元目標画像から目標形状を検出し、当該目標形状から目標の特定部位(脆弱位置36)を算出し、目標移動方位と目標速度に応じた予想会合時の特定部位(予想会合時の脆弱位置37)に基づいて、追尾位置を求める位置計算部(目標脆弱位置計算部21)と、上記追尾ゲート計算部(17)もしくは上記位置計算部(目標脆弱位置計算部21)の生成した追尾位置に基づいて、目標への誘導信号を生成する誘導計算部(16)を備えたものである。   A target tracking device according to the present invention comprises an A / D converter (10) for converting target information acquired for each PRI (Pulse Repetation Interval) by transmission and reception of radio waves into target information of a digital signal; Based on the Doppler frequency of the target information of the digital signal from (10), it outputs a digital map consisting of amplitude, distance, and frequency, and separates targets at the same distance, and information on velocity and target direction of each target The target is extracted by discriminating background clutters from the digital map obtained by the DBS processing unit (12) and the DBS processing unit (12) in the long distance mode, and the difference between the target information in the short distance mode. From the target extraction unit (13) for extracting a target from the signal and the target information of the target extracted by the target extraction unit (13), The relative angle between the target position estimation unit (15) for obtaining target estimated position information consisting of the relative distance to the target and the relative angle, and the target determined by the target position estimation unit (15) is compared with a preset angle. If the relative angle to the target is larger than the predetermined angle, it is determined that the distance mode is set, and the digital map of the DBS processing unit (12) is output to the target extraction unit (13), and the relative angle to the target is The beam is determined to be the short distance mode when smaller than the predetermined angle, and the beam width and the number of times of beam transmission and reception are calculated based on the relative distance to the target and the target total length so that the number of times of beam transmission and reception is equal to or more A tracking gate calculation unit (17) that generates a tracking gate based on the target estimated position information obtained by the control unit (19) and the target position estimation unit (15) in the case of the long distance mode In the case of the short distance mode, a beam control unit generates a difference signal of the target information obtained in time series according to the number of times of beam transmission and reception from the beam control unit (19) by MRI (Monopulse Resolution Improvement) processing. (19) A beam width correction unit (18) for correcting a difference signal according to the beam width calculated in (19), and the target position estimation unit (15) by beam scanning of target information obtained in the time series in the short distance mode. A target shape is detected from the three-dimensional target image determined by the three-dimensional target image generation unit (20) for determining a three-dimensional target image from the estimated target position information determined in The target specific part (fragile position 36) is calculated from the target shape, and the specific part at the time of the expected meeting according to the target movement direction and the target speed The position calculation unit (target weak position calculation unit 21) for obtaining the tracking position based on the fragile position 37) at the time of meeting, the tracking gate calculation unit (17) or the position calculation unit (target weak position calculation unit 21) A guidance calculation unit (16) is provided which generates a target guidance signal based on the generated tracking position.

この発明によれば、目標との距離が遠距離から近距離に至っても、目標全長から目標の特定部位を特定し、当該特定部位を追尾することができる。   According to the present invention, even if the distance to the target reaches from a long distance to a short distance, it is possible to identify a specific part of the target from the total length of the target and track the specific part.

実施の形態1に係る誘導装置の構成を示すブロック図である。FIG. 1 is a block diagram showing a configuration of a guidance device according to Embodiment 1. 実施の形態1に係る誘導装置の飛しょう経路の運用形態を示す図である。FIG. 6 is a diagram showing an operation form of a flight route of the guidance device according to the first embodiment. 実施の形態1に係る誘導装置の誘導処理フローを示す図である。FIG. 6 is a diagram showing a guidance processing flow of the guidance device according to the first embodiment. 実施の形態1に係る誘導装置における近距離目標追尾時のビーム走査の運用形態を示す図である。FIG. 7 is a diagram showing an operation form of beam scanning at the time of near-field target tracking in the guiding device according to the first embodiment. 実施の形態1に係る誘導装置における目標の画像認識の運用形態を示す図である。FIG. 6 is a diagram showing an operation form of image recognition of a target in the guidance device according to the first embodiment. 実施の形態1に係る誘導装置における近距離目標の特定部位の特定処理を示す図である。FIG. 8 is a diagram showing a process of specifying a specific region of a short distance target in the guidance device according to the first embodiment.

実施の形態1.
図1は、この発明による実施の形態1に係る誘導装置の構成を示すブロック図である。図1において、飛しょう体1は、目標2に向けた誘導信号を出力する誘導装置3と、飛行制御部50と、操舵部60を備えている。誘導装置3は、電波の送受信によって取得した目標情報をもとに誘導信号を出力する目標追尾装置としてのシーカ4を備える。飛しょう体1は、その胴体に複数枚の固定翼(図示せず)が設けられる。また、飛しょう体1は、その胴体に操舵可能に設けられた複数枚の操舵翼(図示せず)が設けられる。操舵部60は、飛しょう体1の操舵翼を操舵駆動する。
なお、飛しょう体1に搭載されているシーカ4以外の機器については記載を省略している。また、飛しょう体1は、移動体の一例である。また、目標2は固定の静止物でも、移動している移動物であっても良い。
Embodiment 1
FIG. 1 is a block diagram showing the configuration of a guiding apparatus according to Embodiment 1 of the present invention. In FIG. 1, the flying object 1 includes a guidance device 3 that outputs a guidance signal toward the target 2, a flight control unit 50, and a steering unit 60. The guiding device 3 includes a seeker 4 as a target tracking device that outputs a guiding signal based on target information acquired by transmission and reception of radio waves. The flying object 1 is provided with a plurality of fixed wings (not shown) on its fuselage. In addition, the flying object 1 is provided with a plurality of steered wings (not shown) provided in the body so as to be steerable. The steering unit 60 steers and drives the steering wings of the vehicle 1.
In addition, description is abbreviate | omitted about apparatuses other than Seeker 4 mounted in the flying object 1. FIG. In addition, the flying object 1 is an example of a moving object. Further, the target 2 may be a fixed stationary object or a moving object which is moving.

シーカ4は、エキサイタ部5と、送信部6と、送受信切換部7と、位相モノパルスアンテナ8と、受信部9と、A/D変換部10と、DBS処理部12と、目標抽出部13と、測角演算部14と、目標位置推定部15と、誘導計算部16と、追尾ゲート計算部17と、ビーム幅補正部18と、ビーム制御部19と、三次元目標画像生成部20と、位置計算部である目標脆弱位置計算部21を備えて構成される。   The seeker 4 includes an exciter unit 5, a transmission unit 6, a transmission / reception switching unit 7, a phase monopulse antenna 8, a reception unit 9, an A / D conversion unit 10, a DBS processing unit 12, and a target extraction unit 13. Angle measurement calculation unit 14, target position estimation unit 15, guidance calculation unit 16, tracking gate calculation unit 17, beam width correction unit 18, beam control unit 19, three-dimensional target image generation unit 20, It comprises and comprises a target fragile position calculation unit 21 which is a position calculation unit.

エキサイタ部5は、送信周波数信号とローカル信号を生成する。送信部6は、ビーム制御部19からの制御信号に従い、エキサイタ部5からの送信周波数信号を増幅した送信信号を出力する。送受信切換部7は、送信部6から送信信号を位相モノパルスアンテナ8に出力する。また、送受信切換部7は、位相モノパルスアンテナ8からの受信信号を受信部9に出力する。送受信切換部7は、予め定められたPRI(Pulse Repetation Interval)のタイミングで、送信信号もしくは受信信号の送受信を切り換える。位相モノパルスアンテナ8は、送受信切換部7を介して送信部6からの送信信号が入力され、その送信波を空間へ送信する。位相モノパルスアンテナ8から送信された送信波の一部は目標2にて反射し、目標2からの反射波となる。また位相モノパルスアンテナ8は目標2からの上記反射波を受信し、その受信信号は送受信切換部7を介して受信部9に入力される。受信部9は、エキサイタ部5からのローカル信号が入力される。   The exciter unit 5 generates a transmission frequency signal and a local signal. The transmission unit 6 outputs a transmission signal obtained by amplifying the transmission frequency signal from the exciter unit 5 in accordance with the control signal from the beam control unit 19. The transmission / reception switching unit 7 outputs the transmission signal from the transmission unit 6 to the phase monopulse antenna 8. Further, the transmission / reception switching unit 7 outputs the reception signal from the phase monopulse antenna 8 to the reception unit 9. The transmission / reception switching unit 7 switches transmission / reception of the transmission signal or the reception signal at a predetermined timing of PRI (Pulse Repetation Interval). The phase monopulse antenna 8 receives the transmission signal from the transmission unit 6 through the transmission / reception switching unit 7 and transmits the transmission wave to space. A part of the transmission wave transmitted from the phase monopulse antenna 8 is reflected by the target 2 and becomes a reflected wave from the target 2. The phase monopulse antenna 8 receives the reflected wave from the target 2, and the received signal is input to the receiving unit 9 via the transmission / reception switching unit 7. The reception unit 9 receives the local signal from the exciter unit 5.

受信部9は、上記受信信号として位相モノパルスアンテナ8から出力された時系列の和信号と差信号が入力される。受信部9は、この時系列の和信号と差信号を、エキサイタ部5から出力されたローカル信号により位相検波し、目標2及び背景クラッタの振幅、位置情報を含む時系列のビデオ信号に変換し、出力する。A/D変換部10は、PRI毎に受信部9から出力され、取得したビデオ信号をディジタル信号に変換し、振幅、位置情報を含む時系列のディジタル信号の目標情報を、DBS処理部12に入力する。   The receiver 9 receives the time-series sum signal and the difference signal output from the phase monopulse antenna 8 as the reception signal. The receiving unit 9 performs phase detection of the time-series sum signal and difference signal with the local signal output from the exciter unit 5, and converts it into a time-series video signal including the amplitude of target 2 and background clutter, and position information. ,Output. The A / D conversion unit 10 converts the acquired video signal, which is output from the reception unit 9 for each PRI, into a digital signal, and outputs the target information of the time-series digital signal including the amplitude and position information to the DBS processing unit 12. input.

誘導装置3は、シーカ4の外部に設けた慣性装置(Inertial Measurement Unit)によって、飛しょう体1の自機速度及び動揺信号11を計測し、DBS処理部12に入力する。DBS処理部12は、A/D変換部10からPRI毎に出力されるディジタル信号の目標情報を、自機速度及び動揺信号11によって位相補償して、周波数変換した振幅、距離、周波数からなるディジタルマップを抽出し、出力する。ディジタルマップは、目標2の振幅、飛しょう体1と目標2との相対距離、目標2のドップラ周波数、及び目標2の目標速度と目標移動方位の情報からなる目標情報と、背景クラッタの振幅、背景クラッタとの距離、及びドップラ周波数からなる背景クラッタ情報を含む。DBS処理部12は、飛しょう体1が移動することで、反射波の到来方向の違いから生じるドップラ周波数差を用いて、ビーム幅内の信号を分離する。これにより、同一距離にある2つの目標を分離する。また、DBS処理部12は、目標2の時系列のドップラ周波数から、目標速度と目標移動方位の情報を求める。   The guidance device 3 measures its own velocity and the oscillation signal 11 of the flight vehicle 1 by an inertial measurement unit (Inertial Measurement Unit) provided outside the seeker 4 and inputs the same to the DBS processing unit 12. The DBS processing unit 12 phase-compensates the target information of the digital signal output from the A / D conversion unit 10 for each PRI with the own machine speed and the oscillation signal 11, and converts the frequency, amplitude and distance to a digital Extract map and output. The digital map includes target information including the amplitude of target 2, the relative distance between projectile 1 and target 2, the Doppler frequency of target 2, and the target velocity and target moving direction of target 2, and the amplitude of background clutter, Background clutter information including distance to background clutter and Doppler frequency is included. When the flying object 1 moves, the DBS processing unit 12 separates the signal within the beam width by using the Doppler frequency difference generated from the difference in the arrival direction of the reflected wave. This separates the two targets at the same distance. Further, the DBS processing unit 12 obtains information on the target velocity and the target moving azimuth from the time series Doppler frequency of the target 2.

目標抽出部13は、DBS処理部12から出力されたディジタルマップもしくは後述する差信号を基に、目標2と背景クラッタを弁別し、目標2の目標情報のみを抽出する。測角演算部14は、目標抽出部13から出力される目標情報から、誘導装置3における視線の基準線からの目標の相対角度を計算し、目標情報及び計算した相対角度を目標位置推定部15に入力する。目標位置推定部15は、入力される目標情報及び相対角度から、飛しょう体1と目標2との相対距離及び相対角度情報からなる目標推定位置情報を生成する。目標位置推定部15は測角演算部14を有していても良い。追尾ゲート計算部17は、目標位置推定部15の生成した目標推定位置情報を基に、背景クラッタを除外する追尾ゲートを生成する。誘導計算部16は、追尾ゲート計算部17の生成した追尾ゲートと、後述する目標脆弱位置計算部21からの予想会合時の目標2の特定部位である予想会合時の脆弱位置37(後述)に基づいて、目標2への誘導信号を生成する。誘導計算部16は、生成した誘導信号を飛しょう体1の飛行制御部50へ出力する。飛行制御部50は、誘導計算部16の生成した誘導信号に基づいて操舵指令を生成する。操舵部60は、飛行制御部50の生成した操舵指令に基づいて、各操舵翼を操舵する。   The target extraction unit 13 discriminates between the target 2 and the background clutter based on the digital map output from the DBS processing unit 12 or a difference signal to be described later, and extracts only target information of the target 2. The angle measurement calculation unit 14 calculates the relative angle of the target from the reference line of the sight line in the guiding device 3 from the target information output from the target extraction unit 13, and calculates the target information and the calculated relative angle as the target position estimation unit 15. Enter in The target position estimation unit 15 generates target estimated position information consisting of relative distance and relative angle information between the flying object 1 and the target 2 from the input target information and relative angle. The target position estimation unit 15 may have the angle measurement calculation unit 14. The tracking gate calculation unit 17 generates a tracking gate on which the background clutter is excluded based on the target estimated position information generated by the target position estimation unit 15. The guidance calculation unit 16 sets the tracking gate generated by the tracking gate calculation unit 17 and the fragile position 37 (described later) which is a specific part of the target 2 at the time of the predicted meeting from the target weak position calculation unit 21 described later. Based on the above, an induction signal to target 2 is generated. The guidance calculation unit 16 outputs the generated guidance signal to the flight control unit 50 of the vehicle 1. The flight control unit 50 generates a steering command based on the guidance signal generated by the guidance calculation unit 16. The steering unit 60 steers each steered wing based on the steering command generated by the flight control unit 50.

ビーム制御部19は、目標抽出部13から出力される目標情報と目標位置推定部15からの目標推定位置情報(後述)から、飛しょう体1と目標2との相対距離と目標2の目標全長を抽出し、抽出した目標2との相対距離と目標全長に基づいて、ビーム幅とビーム送受信回数を算出する。ビーム制御部19は、目標位置推定部15の求めた目標との相対角度を予め設定された角度と比較し、目標2との相対角度が所定角度より大きい場合に遠距離モードと判定して、DBS処理部12のディジタルマップを目標抽出部13に出力する。また、ビーム制御部19は、目標2との相対角度が所定角度より小さい場合に近距離モードと判定して、目標2との相対距離と目標全長に基づいて、目標全長に対するビーム送受信回数が所定回数以上となるようにビーム幅とビーム送受信回数を算出する。   The beam control unit 19 determines the relative distance between the projectile 1 and the target 2 and the target total length of the target 2 from the target information output from the target extraction unit 13 and the target estimated position information (described later) from the target position estimation unit 15. The beam width and the number of times of beam transmission and reception are calculated on the basis of the relative distance with the extracted target 2 and the target total length. The beam control unit 19 compares the relative angle with the target determined by the target position estimation unit 15 with a preset angle, and determines that the mode is the long distance mode when the relative angle with the target 2 is larger than a predetermined angle. The digital map of the DBS processing unit 12 is output to the target extraction unit 13. Further, the beam control unit 19 determines the short distance mode when the relative angle with the target 2 is smaller than the predetermined angle, and the number of times of beam transmission and reception for the target total length is predetermined based on the relative distance with the target 2 and the target total length. The beam width and the number of times of beam transmission and reception are calculated so as to be equal to or more than the number.

ビーム幅補正部18は、A/D変換部10からPRI毎に出力されるディジタル信号が入力される。また、ビーム幅補正部18は、近距離モードの場合に、ビーム制御部19からビーム幅とビーム送受信回数が入力される。ビーム制御部19は、送信部6に制御信号を入力する。   The beam width correction unit 18 receives a digital signal output from the A / D conversion unit 10 for each PRI. Further, in the case of the short distance mode, the beam width correction unit 18 receives the beam width and the number of times of beam transmission and reception from the beam control unit 19. The beam control unit 19 inputs a control signal to the transmission unit 6.

ビーム幅補正部18は、近距離モードの場合に、MRI(Monopulse Resolution Improvement)技術を用いたMRI処理により、ビーム制御部19から出力されたビーム幅でビーム照射した場合に受信する差信号が得られるように、ビーム制御部19からのビーム送受信回数に応じて、A/D変換部10から時系列で得られる振幅、位置情報を含むディジタル信号の目標情報についてモノパルス測角の角度分解能を改善するための信号補正を行い、当該目標情報の差信号を、ビーム制御部19で算出したビーム幅による差信号に補正する。   The beam width correction unit 18 obtains a difference signal received when beam irradiation is performed with the beam width output from the beam control unit 19 by the MRI processing using MRI (Monopulse Resolution Improvement) technology in the short distance mode. As described above, according to the number of times of beam transmission and reception from the beam control unit 19, the angular resolution of monopulse angle measurement is improved for the target information of the digital signal including the amplitude and position information obtained in time series from the A / D converter 10. Signal correction is performed, and the difference signal of the target information is corrected to a difference signal according to the beam width calculated by the beam control unit 19.

三次元目標画像生成部20は、目標情報のビーム走査により時系列で目標位置推定部15から出力される目標推定位置情報を、極座標で記述される位置情報に設定して、極座標系の三次元目標画像を求める。ここでの極座標は、By軸が方位角、E軸が仰角、R軸が相対距離となるようにする。   The three-dimensional target image generation unit 20 sets target estimated position information output from the target position estimation unit 15 in time series by beam scanning of target information as position information described by polar coordinates, and Find the target image. Here, the polar coordinates are such that the By axis is an azimuth angle, the E axis is an elevation angle, and the R axis is a relative distance.

目標脆弱位置計算部21は、三次元目標画像生成部20からの極座標系の三次元目標画像により、目標2の形状を検出し、目標2の形状から目標2の脆弱位置を特定部位として算出する。また、目標脆弱位置計算部21は、目標抽出部13から出力された目標情報に含まれる目標速度と、目標移動方位と、シーカ4の外部装置から取得した海面位置22と、上記目標脆弱位置計算部21の算出した目標2の脆弱位置に基づき、目標2と飛しょう体1との予想会合時の目標2の脆弱位置を、予想会合時の目標2の特定部位として算出する。   The target fragile position calculation unit 21 detects the shape of the target 2 from the three-dimensional target image of the polar coordinate system from the three-dimensional target image generation unit 20, and calculates the fragile position of the target 2 as a specific part from the shape of the target 2. . In addition, the target fragile position calculation unit 21 calculates the target fragile position, the target moving direction included in the target information output from the target extraction unit 13, the target movement direction, the sea surface position 22 acquired from the external device of the seeker 4, and the target fragile position calculation. Based on the fragile position of the target 2 calculated by the part 21, the fragile position of the target 2 at the predicted meeting of the target 2 and the flying object 1 is calculated as a specific part of the target 2 at the predicted meeting.

次に、図2は、実施の形態1に係る誘導装置の飛しょう経路の運用形態を示す図である。図3は、実施の形態1に係る誘導装置の誘導処理フローを示す図である。図4は、実施の形態1に係る誘導装置における近距離目標追尾時のビーム走査の運用形態を示す図である。図5は、実施の形態1に係る誘導装置における目標の画像認識の運用形態を示す図である。図6は、実施の形態1に係る誘導装置における近距離目標の特定部位の特定処理を示す図である。図1〜図6を参照しながら、実施の形態1に係る誘導装置の動作を説明する。   Next, FIG. 2 is a diagram showing an operation mode of the flight route of the guiding device according to the first embodiment. FIG. 3 is a diagram showing a guidance processing flow of the guidance device according to the first embodiment. FIG. 4 is a diagram showing an operation mode of beam scanning at the time of near distance target tracking in the guidance device according to the first embodiment. FIG. 5 is a diagram showing an operation form of image recognition of a target in the guidance device according to the first embodiment. FIG. 6 is a diagram showing identification processing of a specific region of a short distance target in the guidance device according to the first embodiment. The operation of the guidance device according to the first embodiment will be described with reference to FIGS. 1 to 6.

図2において、誘導装置3を搭載した飛しょう体1は、初期位置24から飛しょう経路25に沿って、目標2に向けて誘導される例を示している。目標2は、静止状態で位置が固定されている、もしくは低速度で移動中のものであって、例えば陸上の施設や海上を航行中の艦船等である。また、飛しょう経路25上には、処理モードが遷移する遷移点26が設けられている。   In FIG. 2, an example is shown in which the flying object 1 on which the guiding device 3 is mounted is guided from the initial position 24 to the target 2 along the flight path 25. The target 2 is stationary and fixed in position or moving at a low speed, such as a facility on land or a ship sailing on the sea. Further, on the flight path 25, a transition point 26 at which the processing mode transitions is provided.

ここで、初期位置24から遷移点26の間の処理モードは、飛しょう体1が目標2から遠方にあって、相対角度27が大きい遠距離モードの場合を示している。遷移点26から目標2の間の処理モードは、シーカ4が目標2に接近して、相対角度27が小さい近距離モードの場合を示している。   Here, the processing mode between the initial position 24 and the transition point 26 shows the case of the far distance mode where the flying object 1 is far from the target 2 and the relative angle 27 is large. The processing mode between the transition point 26 and the target 2 shows the case of the near distance mode where the seeker 4 approaches the target 2 and the relative angle 27 is small.

図3において、飛しょう体1は、誘導装置3が図3に示す処理フローを周期的に実行し、誘導信号を出力することにより、目標2に向けて誘導される。   In FIG. 3, the flying object 1 is guided toward the target 2 by the guidance device 3 periodically executing the process flow shown in FIG. 3 and outputting a guidance signal.

まず、飛しょう体1が初期位置24から遷移点26の間にあって、目標2に対し遠距離の位置にある状況下において、誘導装置3の誘導処理フローを説明する。ここでは、目標2として艦船を例に取り、図1〜図3を参照して説明する。   First, the guidance processing flow of the guidance device 3 will be described in a situation where the flying object 1 is between the initial position 24 and the transition point 26 and at a distance from the target 2. Here, a ship is taken as an example of the target 2 and will be described with reference to FIGS. 1 to 3.

図3の誘導処理フローの説明において、ステップを単に「S」と表記し、例えばステップ1はS1と記述する。
S1にて、ビーム制御部19は、近距離モードもしくは遠距離モードの何れの処理モードであるかの処理モード判定を行う。
この処理モード判定S1は、目標2との相対角度27を基準として行い、相対角度27が大きい場合は遠距離モード、相対角度27が小さい場合は近距離モードと判定できる。
飛しょう体1の初期の飛行状態(以下、初期状態)において、飛しょう体1は、処理モード判定S1にて初期処理モードに該当する遠距離モードを判定して、S2に移る。
In the explanation of the guiding process flow of FIG. 3, the step is simply described as "S", and for example, step 1 is described as S1.
In S1, the beam control unit 19 performs processing mode determination as to whether the processing mode is the short distance mode or the long distance mode.
The processing mode determination S1 is performed based on the relative angle 27 with the target 2. When the relative angle 27 is large, it can be determined as the long distance mode, and when the relative angle 27 is small, it may be determined as the short distance mode.
In the initial flight state (hereinafter referred to as the initial state) of the flying object 1, the flying object 1 determines the long distance mode corresponding to the initial processing mode in the processing mode determination S1, and proceeds to S2.

S2にて、処理モード判定S1において遠距離モードと判定されると、誘導装置3は、DBS処理S5で目標検出するために、位相モノパルスアンテナ8を目標2に指向させるビーム制御を行う。   When it is determined in S2 that the processing mode determination S1 is the long distance mode, the guiding device 3 performs beam control to direct the phase monopulse antenna 8 to the target 2 for target detection in the DBS processing S5.

次に、S3にて、エキサイタ部5で生成した送信周波数信号を送信部6で増幅し、送受信切換部7を経て、位相モノパルスアンテナ8から目標2に向けて送信波を送信する。   Next, in S3, the transmission frequency signal generated by the exciter unit 5 is amplified by the transmission unit 6, and the transmission wave is transmitted from the phase monopulse antenna 8 toward the target 2 through the transmission / reception switching unit 7.

次に、S4にて、S3で送信した送信波が目標2あるいは背景クラッタで反射された反射波を位相モノパルスアンテナ8で受信する。送受信切換部7を経由した時系列の受信信号をエキサイタ部5から出力されたローカル信号で位相検波する。位相検波により、受信信号を目標及び背景クラッタの振幅、位置情報を含む時系列のビデオ信号に変換後、A/D変換部10でディジタル信号に変換し、DBS処理部12へ出力する。   Next, in S4, the transmission wave transmitted in S3 receives the reflected wave reflected by the target 2 or the background clutter by the phase monopulse antenna 8. The phase detection is performed on the time-series received signal passing through the transmission / reception switching unit 7 with the local signal output from the exciter unit 5. After phase detection, the received signal is converted to a time-series video signal including the amplitude of target and background clutter, and positional information, converted to a digital signal by the A / D converter 10, and output to the DBS processor 12.

次に、S5にて、DBS処理部12は、PRI毎のディジタル信号を自機速度及び動揺信号11によって位相補償し、周波数変換した目標の振幅、距離、周波数の情報を含んだディジタルマップを生成する。   Next, in S5, the DBS processing unit 12 phase compensates the digital signal of each PRI with its own speed and oscillation signal 11, and generates a digital map including information of the frequency-converted target amplitude, distance, and frequency. Do.

次に、S6にて、目標抽出部13は、DBS処理部12から出力されたディジタルマップから目標2と背景クラッタを弁別し、目標情報として、図6で後述する目標速度23、目標移動方位35を算出する。
また、S7にて、測角演算部14は、目標情報から相対角度27を計算する。
Next, in S6, the target extraction unit 13 discriminates target 2 and background clutter from the digital map output from the DBS processing unit 12 and sets target speed 23, target movement direction 35 described later in FIG. 6 as target information. Calculate
Further, in S7, the angle measurement calculation unit 14 calculates the relative angle 27 from the target information.

次に、S8にて、目標位置推定部15は、相対距離及び相対角度情報からなる目標2の目標推定位置情報を生成する。
また、目標位置推定部15は、処理モード設定S9を行う。
S9にて、目標との相対角度27が所定角度より小さい場合には、遠距離モードから近距離モードへ移行してS12以降の処理を行う。例えば、遷移点26においては相対角度27が所定角度より小さくなるので、遷移点26の通過に伴い遠距離モードから近距離モードへ移行する。
Next, in S8, the target position estimation unit 15 generates target estimated position information of the target 2 including the relative distance and the relative angle information.
Further, the target position estimation unit 15 performs processing mode setting S9.
When the relative angle 27 with the target is smaller than the predetermined angle at S9, the mode is shifted from the long distance mode to the short distance mode, and the processing after S12 is performed. For example, since the relative angle 27 becomes smaller than the predetermined angle at the transition point 26, the transition from the long distance mode to the near distance mode is made as the transition point 26 passes.

次に、S10にて、追尾ゲート計算部17は、S8で出力された目標推定位置情報の相対距離及び相対角度情報に基づき、背景クラッタを除外する追尾ゲートを生成し、目標抽出画像から目標位置情報のみを抽出する。   Next, in S10, the tracking gate calculation unit 17 generates a tracking gate for excluding background clutter based on the relative distance and relative angle information of the target estimated position information output in S8, and the target position from the target extraction image Extract information only.

次に、S11にて、誘導計算部16は、S8で生成した目標推定位置情報を用いて、飛しょう体1を目標2に向けて誘導するための誘導信号を生成する。   Next, in S11, the guidance calculation unit 16 generates a guidance signal for guiding the flying object 1 toward the target 2 using the target estimated position information generated in S8.

このように、飛しょう体1が初期位置24から遷移点26の間にあって目標2に対して遠距離にある状況では、シーカ4から得た誘導信号に基づいて、飛しょう体1は目標2に向けて近付くように誘導される。   Thus, in the situation where the flying object 1 is between the initial position 24 and the transition point 26 and at a long distance to the target 2, the flying object 1 becomes the target 2 based on the induction signal obtained from the Seeker 4. It is induced to approach toward.

次いで、飛しょう体1が遷移点26から目標2の間にあって、目標2に対し近距離に位置する状況下における誘導装置3の誘導処理フローについて、図1〜図3を参照して説明する。なお、ビーム制御S12については図4を参照して説明し、三次元目標画像生成S20については図5を参照して説明し、目標脆弱位置計算S21については図6を参照して説明する。   Next, the guidance processing flow of the guidance device 3 in a situation where the flying object 1 is between the transition point 26 and the target 2 and located at a short distance to the target 2 will be described with reference to FIGS. 1 to 3. The beam control S12 will be described with reference to FIG. 4, the three-dimensional target image generation S20 will be described with reference to FIG. 5, and the target fragile position calculation S21 will be described with reference to FIG.

ビーム制御部19は、処理モード判定S1にて近距離モードであると判定すると、S12に移行する。
S12にて、ビーム制御部19は、遠距離モード時の目標抽出処理S6により出力された目標全長と、目標位置推定S8により出力された相対距離30に基づき、目標全長に対するビーム送受信回数が所定回数以上になるように、ビーム幅31とビーム送受信回数を算出する。
When the beam control unit 19 determines that the short distance mode is set in the processing mode determination S1, the process proceeds to S12.
In S12, the beam control unit 19 determines that the number of beam transmissions / receptions for the target total length is a predetermined number of times based on the target total length output in the target extraction processing S6 in the long distance mode and the relative distance 30 output in the target position estimation S8. As described above, the beam width 31 and the number of times of beam transmission and reception are calculated.

このビーム送受信回数は、図4に例示するビームスポット29の数である。図4は、現在の飛しょう***置32から現在の目標位置28に対してビーム走査する例を示している。
ここで、相対距離30と目標全長Lを基に、ビーム送受信回数であるビームスポット数Nが所定回数以上となるように設定する。
The number of times of beam transmission and reception is the number of beam spots 29 illustrated in FIG. FIG. 4 shows an example of beam scanning from the current vehicle position 32 to the current target position 28.
Here, based on the relative distance 30 and the target total length L, the number N of beam spots, which is the number of times of beam transmission and reception, is set to be equal to or more than a predetermined number.

ビーム送受信回数は、多いほど正確に目標形状を検出できるため、最低5回〜10回以上が必要である。ビーム送受信回数は、{(目標全長L/ビームスポット29の直径a)×N(Nは正の整数)+1}以上の整数から算出する。ビームを上下二段に振ることにより、ビーム送受信回数を増やして目標検出精度を高める場合は、N=2とする。ビームスポット29の直径aはビーム幅31と相対距離30から決まる。   Since the target shape can be detected more accurately as the number of times of beam transmission and reception increases, at least five to ten times or more are required. The number of times of beam transmission and reception is calculated from an integer of {(target total length L / diameter of beam spot 29) × N (N is a positive integer) +1} or more. When the target detection accuracy is increased by increasing the number of beam transmissions and receptions by swinging the beam up and down in two steps, N = 2. The diameter a of the beam spot 29 is determined from the beam width 31 and the relative distance 30.

例えば図4に示す例のように、目標全長が160m、相対距離30が5kmの場合、ビーム幅31が約0.5度であれば、ビームスポット29の直径は約43m(5×tan(0.5°))となる。この場合、ビーム送受信回数は、160[m]/43[m]×2+1=8.4となり、8.4以上の最少整数が9であることから、9回となるように設定する。これによって9個のビームスポット29の目標検出情報を得ることができる。   For example, as in the example shown in FIG. 4, when the target total length is 160 m and the relative distance 30 is 5 km, if the beam width 31 is about 0.5 degrees, the diameter of the beam spot 29 is about 43 m (5 × tan (0 .5))). In this case, the number of times of beam transmission and reception is set to 160 [m] / 43 [m] × 2 + 1 = 8.4, and the minimum integer of 8.4 or more is 9, so it is set to 9 times. Thus, target detection information of nine beam spots 29 can be obtained.

次に、遠距離モードのS3、S4と同様に、送信波送信S13、反射波受信S14の処理を実施する。   Next, in the same manner as S3 and S4 in the long distance mode, the processes of transmission wave transmission S13 and reflected wave reception S14 are performed.

次に、S15において、ビーム幅補正部18は、近距離モードの場合に、モノパルス測角の角度分解能を改善するMRI技術を用いたMRI処理によって、受信した時系列の差信号を、ビーム制御部19で設定したビーム幅でビーム照射した場合の差信号に補正する。   Next, in S15, in the case of the short distance mode, the beam width correction unit 18 performs a beam control unit on the time-series difference signal received by the MRI process using the MRI technique for improving the angular resolution of monopulse angle measurement. The difference signal in the case of beam irradiation with the beam width set at 19 is corrected.

S16では、ビーム幅補正部18でビーム幅の補正された差信号について、目標抽出処理を行う。ここで、目標抽出部13は、A/D変換部10から出力された目標の振幅、位置情報を含む時系列のディジタル信号において、所定の受信強度を上回る信号を目標2として抽出する。   In S16, target extraction processing is performed on the difference signal whose beam width has been corrected by the beam width correction unit 18. Here, the target extraction unit 13 extracts a signal exceeding a predetermined reception intensity as the target 2 in the time-series digital signal including the target amplitude and the position information output from the A / D conversion unit 10.

次に、S17において、測角演算部14は、遠距離モードと同様に、相対角度27を算出する。   Next, in S17, the angle measurement calculation unit 14 calculates the relative angle 27 as in the long distance mode.

S18では、目標位置推定部15は、近距離モードの場合に、目標2の相対距離情報を生成する。   In S18, the target position estimation unit 15 generates relative distance information of the target 2 in the case of the short distance mode.

S19では、目標位置推定部15は、ビーム送受信回数判定を行う。
ビーム送受信回数判定S19において、ビーム送受信回数が何回目かを判定する。
今回のビーム送受信回数がビーム制御S12で設定されたビーム送受信回数以下の場合、ビーム制御S12で設定されたビーム送受信回数を満たすまで、ビーム送受信ごとに目標2として抽出された目標推定位置情報は保持し、ビーム制御S12から目標位置推定S18までを繰り返す。
In S19, the target position estimation unit 15 determines the number of times of beam transmission and reception.
In the beam transmission / reception frequency determination S19, it is determined how many times the beam transmission / reception frequency is.
When the number of times of beam transmission and reception this time is equal to or less than the number of times of beam transmission and reception set in beam control S12, target estimated position information extracted as target 2 for each beam transmission and reception is held until the number of beam transmission and reception set in beam control S12 is satisfied. And repeat from the beam control S12 to the target position estimation S18.

ビーム送受信回数判定S19において、ビーム制御S12で設定されたビーム送受信回数を満たす場合、S20の三次元目標画像生成を行う。
図5に示すとおり、三次元目標画像生成部20は、目標2として抽出された目標推定位置情報(相対距離及び相対角度情報)33を、原点が現在の飛しょう***置32とする極座標(By軸が方位角、E軸が仰角、R軸が相対距離)に設定する。このとき三次元目標画像生成部20は、受信部9の受けた反射信号に対応する、図4に示した目標2の下段部の4つのビームスポットと上段部の5つのビームスポットを用いて、目標推定位置情報33の集積により、図5に示す極座標系の三次元目標画像40を得る。
In the beam transmission / reception frequency determination S19, when the number of beam transmission / reception times set in the beam control S12 is satisfied, the three-dimensional target image generation in S20 is performed.
As shown in FIG. 5, the three-dimensional target image generation unit 20 sets polar coordinates (By by which the target estimated position information (relative distance and relative angle information) 33 extracted as the target 2 has the current position 32 of the flying object. Set the axis to azimuth angle, E axis to elevation angle, R axis to relative distance). At this time, the three-dimensional target image generation unit 20 uses the four beam spots in the lower part and the five beam spots in the upper part of the target 2 shown in FIG. 4 corresponding to the reflection signal received by the receiver 9. By accumulating the target estimated position information 33, a three-dimensional target image 40 of the polar coordinate system shown in FIG. 5 is obtained.

図6には、現在の飛しょう位置32からビーム走査された現在の目標位置28が示されている。
目標脆弱位置計算部21は、極座標系の三次元目標画像40から検出した目標形状により、現在の脆弱位置36として、例えば艦船では中央下部を計算する。(現在の)脆弱位置36は、海面位置22と目標推定位置情報33を用いて、飛しょう体基準極座標系から地球中心座標系に座標変換して算出する。
FIG. 6 shows the current target position 28 scanned from the current flight position 32.
The target fragile position calculation unit 21 calculates, for example, the center lower part of the ship as the current fragile position 36 based on the target shape detected from the three-dimensional target image 40 in the polar coordinate system. The (current) fragile position 36 is calculated by coordinate conversion from the projectile reference polar coordinate system to the earth central coordinate system using the sea surface position 22 and the target estimated position information 33.

ここで、目標脆弱位置計算部21は、(現在の)脆弱位置36を次のように設定する。
例えば、目標脆弱位置計算部21は、目標形状に対する脆弱位置を、予めテーブル化または関数化して内部記憶装置に設定しておく。例えば図4に示すような船が目標2である場合、目標2の全体形状を上段部と下段部に区分けし、下段部の中央部位を(現在の)脆弱位置36と予め定めておく。
Here, the target fragile position calculation unit 21 sets the (current) fragile position 36 as follows.
For example, the target fragile position calculation unit 21 sets the fragile positions for the target shape in the form of a table or a function in advance in the internal storage device. For example, when the ship as shown in FIG. 4 is the target 2, the entire shape of the target 2 is divided into upper and lower portions, and the central portion of the lower portion is determined in advance as the (current) fragile position 36.

目標脆弱位置計算部21は、三次元目標画像生成部20からの三次元目標画像に基づいて、内部記憶装置に予め設定された目標形状に対する脆弱位置の情報を参照して、当該三次元目標画像における下段部の4つのビームスポットの中央部を(現在の)脆弱位置36とする。このとき、三次元目標画像生成部20からの三次元目標画像の上段部は、1個分しかビームスポットがないから、(現在の)脆弱位置36として選択しない。   Based on the three-dimensional target image from the three-dimensional target image generation unit 20, the target fragile position calculation unit 21 refers to the information on the fragile position for the target shape preset in the internal storage device, and the three-dimensional target image The central part of the four beam spots in the lower part of the lower part in FIG. At this time, the upper part of the three-dimensional target image from the three-dimensional target image generation unit 20 is not selected as the (current) weak position 36 because there is only one beam spot.

なお、目標脆弱位置計算部21は、検出した目標形状から目標種別を特定し、予め設定された目標種別データテーブルから目標の(現在の)脆弱位置36を抽出するようにしても良い。また、目標種別を特定できない場合に、重心点を脆弱部として設定しても良い。   The target fragile position calculation unit 21 may specify a target type from the detected target shape, and extract a target (current) vulnerable position 36 from a preset target type data table. In addition, when the target type can not be identified, the center of gravity may be set as the fragile portion.

また、遠距離モード時の目標抽出処理S6から出力された目標移動方位35と目標速度23を考慮して、予想会合時の目標位置34、予想会合時の脆弱位置37を特定部位として推定する計算を行う。予想会合時の脆弱位置37は、飛しょう体基準極座標系から地球中心座標系に座標変換して算出する。   In addition, in consideration of the target movement direction 35 and the target velocity 23 output from the target extraction processing S6 in the long distance mode, calculation is performed to estimate the target position 34 at the predicted meeting and the fragile position 37 at the predicted meeting as the specific part. I do. The fragile position 37 at the expected meeting is calculated by coordinate conversion from the projectile polar coordinate system to the earth central coordinate system.

ここで、海面位置22は、予めシーカ4の外部装置によって計測する。例えば誘導装置3にGPS測位装置を設けるとともに、緯度及び経度の2次元位置に応じた海面高度を示すディジタル地図情報を、予め誘導装置3のデータベースに格納しておく。飛しょう体1の緯度及び経度を示す絶対位置(2次元位置)を計測し、計測した絶対位置に基づいてディジタル地図情報を参照して、計測した絶対位置に対応した海面高度を得る。得られた海面高度と緯度及び経度の2次元位置から、海面位置22を算出する。   Here, the sea level position 22 is measured in advance by an external device of the seeker 4. For example, while providing the GPS positioning device in the guiding device 3, digital map information indicating the sea surface altitude according to the two-dimensional position of latitude and longitude is stored in advance in the database of the guiding device 3. The absolute position (two-dimensional position) indicating the latitude and longitude of the flying object 1 is measured, digital map information is referred to based on the measured absolute position, and the sea level altitude corresponding to the measured absolute position is obtained. The sea level position 22 is calculated from the obtained two-dimensional position of sea level and latitude and longitude.

図6に例示するように、誘導計算S11において、誘導計算部16は、飛しょう体1を、現在の飛しょう***置32から予想会合時の脆弱位置37に向けて誘導するための飛しょう経路38を算出する。誘導計算部16は、当該算出した飛しょう経路38に基づいて、誘導信号を生成する。飛しょう体1は、誘導計算部16の誘導信号に基づき、飛行制御部50を制御し、操舵部60の操舵翼を操舵する。   As illustrated in FIG. 6, in the guidance calculation S11, the guidance calculation unit 16 determines a flight path for guiding the flight vehicle 1 from the current flight vehicle position 32 toward the fragile position 37 at the expected meeting. Calculate 38. The guidance calculation unit 16 generates a guidance signal based on the calculated flight path 38. The flying object 1 controls the flight control unit 50 based on the guidance signal of the guidance calculation unit 16, and steers the steering wing of the steering unit 60.

以上のように、実施の形態1による誘導装置3は、電波の送受信によりPRI毎に取得した目標情報を、ディジタル信号の目標情報に変換するA/D変換部10と、上記A/D変換部10からのディジタル信号の目標情報のドップラ周波数に基づいて、振幅、距離、周波数からなるディジタルマップを出力するとともに、同一距離にある目標を分離し、各目標の速度と目標方位の情報を求めるDBS処理部12と、遠距離モードの場合に上記DBS処理部12により得られたディジタルマップから背景クラッタを弁別して目標を抽出し、近距離モードの場合に上記目標情報の差信号から目標を抽出する目標抽出部13と、上記目標抽出部13の抽出した目標の目標情報から、目標との相対距離及び相対角度からなる目標推定位置情報を求める目標位置推定部15と、上記目標位置推定部15の求めた目標との相対角度を予め設定された角度と比較し、上記目標との相対角度が所定角度より大きい場合に遠距離モードと判定して、上記DBS処理部12のディジタルマップを目標抽出部13に出力し、上記目標との相対角度が所定角度より小さい場合に近距離モードと判定して、目標との相対距離と目標全長に基づいて、目標全長に対するビーム送受信回数が所定回数以上となるようにビーム幅とビーム送受信回数を算出するビーム制御部19と、上記遠距離モードの場合に、上記目標位置推定部15の求めた目標推定位置情報に基づいて、追尾ゲートを生成する追尾ゲート計算部17と、上記近距離モードの場合に、MRI(Monopulse Resolution Improvement)処理により、上記ビーム制御部19からのビーム送受信回数に応じて、時系列で得られる上記目標情報の差信号を、ビーム制御部19で算出したビーム幅による差信号に補正するビーム幅補正部18と、上記近距離モードの場合に、上記時系列で得られる目標情報のビーム走査によって上記目標位置推定部15の求めた目標推定位置情報から、三次元目標画像を求める三次元目標画像生成部20と、上記三次元目標画像生成部20の求めた三次元目標画像から目標形状を検出し、当該目標形状から目標の特定部位(脆弱位置36)を算出し、目標移動方位と目標速度に応じた予想会合時の特定部位(予想会合時の脆弱位置37)に基づいて、追尾位置を求める位置計算部(目標脆弱位置計算部21)と、上記追尾ゲート計算部17もしくは上記位置計算部(目標脆弱位置計算部21)の生成した追尾位置に基づいて、目標への誘導信号を生成する誘導計算部16を備えたことを特徴とする。
また、誘導装置3は、送信周波数信号とローカル信号を生成するエキサイタ部5と、ビーム制御部19からの制御信号に従い、エキサイタ部5からの送信周波数信号を増幅した送信信号を出力する送信部6と、送信部6からの送信信号を位相モノパルスアンテナ8に出力するとともに、位相モノパルスアンテナ8からの受信信号を受信部9に出力する送受信切換部7と、送受信切換部7を介して入力される位相モノパルスアンテナ8の受信信号を、エキサイタ部5からのローカル信号により位相検波し、ビデオ信号に変換し、A/D変換部10に入力する受信部9を備えていても良い。
また、目標位置推定部15は、目標抽出部13から出力される目標情報から、誘導装置3における視線の基準線からの目標の相対角度を計算し、目標情報及び計算した相対角度を求める測角演算部14を有していても良い。
なお、誘導装置3において、エキサイタ部5と、送信部6と、送受信切換部7と、位相モノパルスアンテナ8と、受信部9と、A/D変換部10と、DBS処理部12と、目標抽出部13と、測角演算部14と、目標位置推定部15と、誘導計算部16と、追尾ゲート計算部17と、ビーム幅補正部18と、ビーム制御部19と、三次元目標画像生成部20と、位置計算部(目標脆弱位置計算部21)は、飛しょう体1に搭載されるシーカ4を構成する。誘導装置3は、シーカ4のDBS処理部12に自機速度及び動揺信号11を入力し、またシーカ4の位置計算部(目標脆弱位置計算部21)に海面位置22を入力するようにしても良い。
As described above, the guiding device 3 according to the first embodiment converts the target information acquired for each PRI by transmission and reception of radio waves into the target information of the digital signal, and the A / D converter DBS outputs a digital map consisting of amplitude, distance and frequency based on the Doppler frequency of the target information of digital signal from 10, separates the targets at the same distance, and obtains information of velocity and target direction of each target The target is extracted by discriminating the background clutter from the digital map obtained by the DBS processing unit 12 in the processing unit 12 and the long distance mode, and the target is extracted from the difference signal of the target information in the short distance mode. From the target extraction unit 13 and the target information of the target extracted by the target extraction unit 13, target estimated position information including relative distance and relative angle with the target is determined. The relative angle between the target position estimation unit 15 and the target determined by the target position estimation unit 15 is compared with a preset angle, and it is determined that the distance mode is selected when the relative angle with the target is larger than a predetermined angle. The digital map of the DBS processing unit 12 is output to the target extraction unit 13, and when the relative angle with the target is smaller than a predetermined angle, the short distance mode is determined, and based on the relative distance with the target and the target total length. And the beam control unit 19 that calculates the beam width and the number of times of beam transmission and reception so that the number of times of beam transmission and reception for the target total length becomes a predetermined number or more; A tracking gate calculation unit 17 that generates a tracking gate based on position information, and MRI (Monopulse Resolution Improvance in the case of the short distance mode). Beam width correction for correcting the difference signal of the target information obtained in time series according to the number of times of beam transmission and reception from the beam control unit 19 into a difference signal according to the beam width calculated by the beam control unit 19 by Three-dimensional target image generation for obtaining a three-dimensional target image from the target estimated position information obtained by the target position estimation unit 15 by beam scanning of the target information obtained in the time series in the case of the section 18 and the short distance mode. A target shape is detected from the three-dimensional target image obtained by the unit 20 and the three-dimensional target image generation unit 20, a target specific part (fragile position 36) is calculated from the target shape, and the target movement direction and the target velocity are calculated. A position calculation unit (target fragile position calculation unit 21) for obtaining a tracking position based on a specific part at the time of the predicted meeting according to the predicted meeting (the weak position 37 at the predicted meeting); Or on the basis of the generated tracking position of the position calculation section (target vulnerable position calculation section 21), characterized by comprising an induction calculation unit 16 for generating an induced signal to the target.
Further, the guiding device 3 generates the transmission frequency signal and the local signal, and the transmission unit 6 outputs the transmission signal obtained by amplifying the transmission frequency signal from the exciter unit 5 according to the control signal from the beam control unit 19. And a transmission / reception switching unit 7 that outputs a transmission signal from the transmission unit 6 to the phase monopulse antenna 8 and outputs a reception signal from the phase monopulse antenna 8 to the reception unit 9; The reception signal of the phase monopulse antenna 8 may be phase-detected by the local signal from the exciter unit 5, converted into a video signal, and the receiver unit 9 may be input to the A / D converter unit 10.
Further, the target position estimation unit 15 calculates the relative angle of the target from the reference line of the line of sight in the guiding device 3 from the target information output from the target extraction unit 13 and determines the target information and the calculated relative angle You may have the calculating part 14.
In the guiding device 3, the exciter unit 5, the transmitter unit 6, the transmission / reception switching unit 7, the phase monopulse antenna 8, the receiver unit 9, the A / D converter unit 10, the DBS processing unit 12, and the target extraction Unit 13, Angle measurement unit 14, Target position estimation unit 15, Guidance calculation unit 16, Tracking gate calculation unit 17, Beam width correction unit 18, Beam control unit 19, Three-dimensional target image generation unit 20 and the position calculation unit (target weak position calculation unit 21) constitute a seeker 4 mounted on the flying object 1. The guiding device 3 inputs the own-machine speed and the motion signal 11 to the DBS processing unit 12 of the seeker 4 and also inputs the sea surface position 22 to the position calculation unit of the seeker 4 (target fragile position calculation unit 21). good.

これにより、DBSの高分解能化が不可能となる目標2の近距離において、目標全長に対し、ビームスポットの直径を考慮してビーム送受信回数を設定することで、モノパルス測角の分解能を改善したMRI技術を用いて狭いビーム幅で走査した結果を取得し、目標2の形状を検出する。これによって予想会合時の脆弱位置37を特定部位として算出することで、目標2を特定部位に向けて高精度で会合させることができる。   As a result, the resolution of monopulse angle measurement is improved by setting the number of beam transmissions and receptions in consideration of the diameter of the beam spot with respect to the entire target length in the close range of target 2 where high resolution of DBS is not possible. The result of scanning with a narrow beam width is acquired using MRI technology, and the shape of the target 2 is detected. As a result, by calculating the fragile position 37 at the expected meeting as the specific site, it is possible to bring the target 2 toward the specific site with high accuracy.

このように、目標全長に対し、狭いビーム幅で走査した結果を取得し、目標の形状を検出し、予想会合時の特定部位を算出して、目標の特定部位を追尾することが可能となる。   As described above, it is possible to acquire the result of scanning with a narrow beam width with respect to the entire target length, detect the shape of the target, calculate the specific site at the expected meeting, and track the specific target site. .

1 飛しょう体、2 目標、3 誘導装置、4 シーカ、5 エキサイタ部、6 送信部、7 送受信切換部、8 位相モノパルスアンテナ、9 受信部、10 A/D変換部、11 自機速度及び動揺信号、12 DBS処理部、13 目標抽出部、14 測角演算部、15 目標位置推定部、16 誘導計算部、17 追尾ゲート計算部、18 ビーム幅補正部、19 ビーム制御部、20 三次元目標画像生成部、21 目標脆弱位置計算部、22 海面位置、23 目標速度、24 初期位置、25 飛しょう経路、26 遷移点、27 相対角度、28 現在の目標位置、29 ビームスポット、30 相対距離、31 ビーム幅、32 現在の飛しょう***置、33 目標推定位置情報、34 予想会合時の目標位置、35 目標移動方位、36 (現在の)脆弱位置、37 予想会合時の脆弱位置、38 脆弱位置への飛しょう経路、40 三次元目標画像、50 飛行制御部、60 操舵部。   DESCRIPTION OF SYMBOLS 1 flight body, 2 targets, 3 induction | guidance | derivation apparatus, 4 seeker, 5 exciter part, 6 transmitters, 7 transmission / reception switching part, 8-phase monopulse antenna, 9 receivers, 10 A / D conversion part, 11 self speed and fluctuation Signal, 12 DBS processing unit, 13 target extraction unit, 14 angle measurement calculation unit, 15 target position estimation unit, 16 guidance calculation unit, 17 tracking gate calculation unit, 18 beam width correction unit, 19 beam control unit, 20 three dimensional target Image generation unit, 21 target weak position calculation unit, 22 sea surface position, 23 target velocity, 24 initial position, 25 flight path, 26 transition point, 27 relative angle, 28 current target position, 29 beam spot, 30 relative distance, 31 beam width, 32 current vehicle position, 33 target estimated position information, 34 predicted target position at meeting, 35 target moving direction, 36 (current (current) ) Vulnerable position, 37 expected meeting at the weakness position trajectory to 38 vulnerable position, 40 three-dimensional target image 50 flight control unit, 60 a steering unit.

Claims (1)

電波の送受信によりPRI(Pulse Repetation Interval)毎に取得した目標情報を、ディジタル信号の目標情報に変換するA/D変換部と、
上記A/D変換部からのディジタル信号の目標情報のドップラ周波数に基づいて、振幅、距離、周波数からなるディジタルマップを出力するとともに、同一距離にある目標を分離し、各目標の速度と目標方位の情報を求めるDBS(Doppler Beam Sharpening)処理部と、
遠距離モードの場合に上記DBS処理部により得られたディジタルマップから背景クラッタを弁別して目標を抽出し、近距離モードの場合に上記目標情報の差信号から目標を抽出する目標抽出部と、
上記目標抽出部の抽出した目標の目標情報から、目標との相対距離及び相対角度からなる目標推定位置情報を求める目標位置推定部と、
上記目標位置推定部の求めた目標との相対角度を予め設定された角度と比較し、
上記目標との相対角度が所定角度より大きい場合に遠距離モードと判定して、上記DBS処理部のディジタルマップを目標抽出部に出力し、
上記目標との相対角度が所定角度より小さい場合に近距離モードと判定して、目標との相対距離と目標全長に基づいて、目標全長に対するビーム送受信回数が所定回数以上となるようにビーム幅とビーム送受信回数を算出するビーム制御部と、
上記遠距離モードの場合に、上記目標位置推定部の求めた目標推定位置情報に基づいて、追尾ゲートを生成する追尾ゲート計算部と、
上記近距離モードの場合に、MRI(Monopulse Resolution Improvement)処理により、上記ビーム制御部からのビーム送受信回数に応じて、時系列で得られる上記目標情報の差信号を、ビーム制御部で算出したビーム幅による差信号に補正するビーム幅補正部と、
上記近距離モードの場合に、上記時系列で得られる目標情報のビーム走査によって上記目標位置推定部の求めた目標推定位置情報から、三次元目標画像を求める三次元目標画像生成部と、
上記三次元目標画像生成部の求めた三次元目標画像から目標形状を検出し、当該目標形状から目標の特定部位を算出し、目標移動方位と目標速度に応じた予想会合時の特定部位に基づいて、追尾位置を求める位置計算部と、
上記追尾ゲート計算部もしくは上記位置計算部の生成した追尾位置に基づいて、目標への誘導信号を生成する誘導計算部
を備えた誘導装置。
An A / D conversion unit for converting target information acquired for each PRI (Pulse Repetation Interval) by transmission and reception of radio waves into target information of a digital signal;
Based on the Doppler frequency of target information of the digital signal from the A / D conversion unit, a digital map consisting of amplitude, distance, and frequency is output, and targets at the same distance are separated, and the speed and target direction of each target And DBS (Doppler Beam Sharpening) processing unit that
A target extracting unit which extracts a target by discriminating background clutter from the digital map obtained by the DBS processing unit in the long distance mode and extracting a target from a difference signal of the target information in the short distance mode;
A target position estimation unit for obtaining target estimated position information consisting of a relative distance and a relative angle with a target from target information of the target extracted by the target extraction unit;
The relative angle with the target determined by the target position estimation unit is compared with a preset angle,
When the relative angle to the target is larger than a predetermined angle, it is determined to be the long distance mode, and the digital map of the DBS processing unit is output to the target extraction unit,
When the relative angle to the target is smaller than the predetermined angle, it is determined that the short distance mode is set, and the beam width is set such that the number of times of transmitting and receiving beams with respect to the target total length becomes a predetermined number or more. A beam control unit that calculates the number of times of beam transmission and reception;
A tracking gate calculating unit that generates a tracking gate based on the target estimated position information obtained by the target position estimating unit in the case of the long distance mode;
In the case of the short distance mode, the beam control unit calculates a difference signal of the target information obtained in time series according to the number of times of beam transmission / reception from the beam control unit by MRI (Monopulse Resolution Improvement) processing. A beam width correction unit that corrects the difference signal due to the width;
A three-dimensional target image generation unit for obtaining a three-dimensional target image from the target estimated position information obtained by the target position estimation unit by beam scanning of target information obtained in the time series in the case of the short distance mode;
The target shape is detected from the three-dimensional target image determined by the three-dimensional target image generation unit, the specific portion of the target is calculated from the target shape, and based on the specific portion at the predicted meeting according to the target movement direction and the target velocity. Position calculation unit for obtaining the tracking position,
A guidance apparatus comprising: a guidance calculation unit that generates a guidance signal to a target based on the tracking position calculated by the tracking gate calculation unit or the position calculation unit.
JP2017172903A 2017-09-08 2017-09-08 Guiding apparatus Pending JP2019049371A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017172903A JP2019049371A (en) 2017-09-08 2017-09-08 Guiding apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017172903A JP2019049371A (en) 2017-09-08 2017-09-08 Guiding apparatus

Publications (1)

Publication Number Publication Date
JP2019049371A true JP2019049371A (en) 2019-03-28

Family

ID=65904992

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017172903A Pending JP2019049371A (en) 2017-09-08 2017-09-08 Guiding apparatus

Country Status (1)

Country Link
JP (1) JP2019049371A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023062967A1 (en) * 2021-10-14 2023-04-20 三菱重工業株式会社 Target tracking device, target tracking method, and recording medium for storing target tracking program
JP7414566B2 (en) 2020-02-06 2024-01-16 株式会社東芝 guidance device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7414566B2 (en) 2020-02-06 2024-01-16 株式会社東芝 guidance device
WO2023062967A1 (en) * 2021-10-14 2023-04-20 三菱重工業株式会社 Target tracking device, target tracking method, and recording medium for storing target tracking program

Similar Documents

Publication Publication Date Title
KR102435550B1 (en) Apparatur for processing signal of radar and method for processing signal thereof
US10613197B2 (en) Antenna specification estimation device and radar device
CN103477243A (en) Radar device
KR101750500B1 (en) AIRCRAFT INTERCEPT SYSTEM AND METHOD USING Ka-BAND
EP3196669B1 (en) Radar apparatus and method of tracking target object
CN104076362A (en) Railway train operation safety monitoring and controlling radar
JP2019049371A (en) Guiding apparatus
JP2012154647A (en) Target motion estimation device
US4288049A (en) Remote targeting system for guided missiles
JP6251087B2 (en) Target detection apparatus and target detection method
JP2011247596A (en) Radar apparatus
KR101968327B1 (en) Apparatus and method for compensating distance of track
JP5900051B2 (en) Guidance device
JP5277693B2 (en) Radar equipment
KR101454297B1 (en) System and method for intercepting missile using high range resolution fmicw
KR102298950B1 (en) synchronic positional tracking method using radar of multi unmanned aerial vehicles
JP2008304329A (en) Measuring device
JP2002131423A (en) Radar device
JP4415878B2 (en) Guidance device
JP2013200134A (en) Radar device
RU2290681C1 (en) Complex of onboard equipment of systems for controlling unmanned aircraft
JP3747838B2 (en) Guidance device
JP3246417B2 (en) Guiding device
JP4625753B2 (en) Guided bullet
KR101750501B1 (en) SHIP INTERCEPT SYSTEM AND METHOD USING Ka-BAND