KR101139588B1 - Method of discriminating class of target in synthetic aperture radar image and apparatus thereof - Google Patents

Method of discriminating class of target in synthetic aperture radar image and apparatus thereof Download PDF

Info

Publication number
KR101139588B1
KR101139588B1 KR1020100003608A KR20100003608A KR101139588B1 KR 101139588 B1 KR101139588 B1 KR 101139588B1 KR 1020100003608 A KR1020100003608 A KR 1020100003608A KR 20100003608 A KR20100003608 A KR 20100003608A KR 101139588 B1 KR101139588 B1 KR 101139588B1
Authority
KR
South Korea
Prior art keywords
image
target
characteristic vector
aperture radar
polar
Prior art date
Application number
KR1020100003608A
Other languages
Korean (ko)
Other versions
KR20110083397A (en
Inventor
김경태
박종일
Original Assignee
영남대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 영남대학교 산학협력단 filed Critical 영남대학교 산학협력단
Priority to KR1020100003608A priority Critical patent/KR101139588B1/en
Publication of KR20110083397A publication Critical patent/KR20110083397A/en
Application granted granted Critical
Publication of KR101139588B1 publication Critical patent/KR101139588B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • G01S13/90Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
    • G01S13/9021SAR image post-processing techniques
    • G01S13/9027Pattern recognition for feature extraction
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/28Details of pulse systems
    • G01S7/285Receivers
    • G01S7/292Extracting wanted echo-signals
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/28Details of pulse systems
    • G01S7/285Receivers
    • G01S7/34Gain of receiver varied automatically during pulse-recurrence period, e.g. anti-clutter gain control

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

본 발명은 합성 개구면 레이더 영상에서 표적의 기종을 식별하는 방법 및 그 장치에 관한 것이다. 본 발명에 따른 합성 개구면 레이더 영상에서 표적의 기종을 식별하는 방법은, 미확인 표적에 대한 합성 개구면 레이더 영상을 획득하는 단계, 합성 개구면 레이더 영상을 정규화 시키는 단계, 정규화된 합성 개구면 레이더 영상을 극사상 처리하여 극영상을 생성하는 단계, 극영상으로부터 특성벡터를 추출하는 단계, 그리고 추출된 특성벡터를 데이터베이스에 저장되어 있는 변별하고자 하는 표적들에 대한 특성벡터와 비교하여, 미확인 표적의 기종을 식별하는 단계를 포함한다. 이와 같이 본 발명에 따르면 SAR 영상에 대하여 다양한 특성벡터를 통하여 표적뿐만 아니라 표적의 기종까지 높은 정확성을 가지고 변별할 수 있다. 또한 본 발명의 실시예에 따른 특성벡터는 임의의 구분 알고리즘(패턴인식기법, 신경망, 퍼지 이론 등) 및 정보 융합 기법(information fusion)과 결합할 수 있으며, 레이더, 전자광학센서, 적외선 센서 등을 사용하여 지상의 표적을 식별하기 위한 ATR(Automatic Target Recognition) 분야에 직접적인 적용이 가능하다. The present invention relates to a method and apparatus for identifying a model of a target in a synthetic aperture radar image. According to the present invention, a method for identifying a model of a target in a composite aperture radar image includes: obtaining a composite aperture radar image for an unidentified target, normalizing the synthesized aperture radar image, and normalized synthesized aperture radar image Generating a polar image by processing the ultra-fine image, extracting the characteristic vector from the polar image, and comparing the extracted characteristic vector with the characteristic vector for the targets to be discriminated stored in the database. Identifying a step. As described above, according to the present invention, it is possible to discriminate not only the target but also the model of the target with high accuracy through various characteristic vectors. In addition, the feature vector according to an embodiment of the present invention may be combined with any classification algorithm (pattern recognition technique, neural network, fuzzy theory, etc.) and information fusion technique (information fusion). It can be applied directly to the field of Automatic Target Recognition (ATR) for identifying ground targets.

Description

합성 개구면 레이더 영상에서 표적의 기종을 식별하는 방법 및 그 장치{METHOD OF DISCRIMINATING CLASS OF TARGET IN SYNTHETIC APERTURE RADAR IMAGE AND APPARATUS THEREOF}FIELD OF THE INVENTION AND METHOD AND DEVICE FOR IDENTIFICING TYPE OF TARGET IN SYNTHETIC AROUND RADIOGRAPHIC TECHNICAL FIELD

본 발명은 합성 개구면 레이더 영상에서 표적의 기종을 식별하는 방법 및 그 장치에 관한 것으로서, 더욱 상세하게는 합성 개구면 레이터 영상에서 클러터로부터 지상 표적을 정확하게 변별할 수 있는 합성 개구면 레이더 영상에서 표적의 기종을 식별하는 방법 및 그 장치에 관한 것이다. The present invention relates to a method and apparatus for identifying a target type in a synthetic aperture radar image, and more particularly, to a synthetic aperture radar image capable of accurately distinguishing a ground target from a clutter in a synthetic aperture radar image. A method and apparatus for identifying a model of a target are provided.

일반적으로 공중과 해상 및 지상의 피아 표적을 식별 하고자 할 경우, 표적이 자신의 정보를 제공해 주지 않는 것이 일반적이므로 표적에 대한 정보를 스스로 획득해서 이를 기반으로 해당 표적이 어떤 것인지 구분하는 과정이 필수적이다. 표적 식별을 위해서는 식별해야 할 표적의 고유한 물리적 특성을 얻을 수 있어야 하는데 이 특징을 얻기 위해서 광학 영상, 적외선 영상, 음파, 레이더 신호들이 많이 사용되고 있다. In general, if you want to identify air, sea, and ground PIA targets, it is common that the target does not provide its own information. Therefore, it is essential to acquire the information on the target and identify what the target is based on. . Target identification requires the acquisition of unique physical characteristics of the target to be identified. Optical, infrared, sound, and radar signals are frequently used to achieve this characteristic.

그 중에서도 레이더는 광학영상처럼 빛이 신호원이 아니라 전파를 신호원으로 사용한다. 전파를 사용함으로써 파장이 빛보다 길어서 구름이나 해무 등에 영향을 받지 않는다는 장점이 있다. 따라서 레이더는 정보 획득 거리가 광학에 비하여 길고 날씨에 제약이 없어 전천후 작전운영이 가능하도록 정보를 제공할 수 있다. 특히, 지상의 표적을 식별하고자 할 때 사용할 때 합성 개구면 레이더 영상(synthetic aperture radar, 이하에서는 "SAR 영상"이라 함)을 주로 이용하는데, 전파를 사용하여 획득한 SAR 영상은 인간의 눈에 익숙하도록 정보를 생산하는 광학영상 또는 전자광학영상에 비하여 해상도가 낮다. Among them, radar uses light as a signal source, not light as an optical image. The use of radio waves has the advantage that the wavelength is longer than light and is not affected by clouds or sea fog. Therefore, the radar can provide information to enable the operation of all-weather operation because the information acquisition distance is longer than the optical and the weather is not limited. In particular, when used to identify ground targets, synthetic aperture radar (hereinafter referred to as "SAR image") is mainly used. SAR images obtained using radio waves are familiar to the human eye. The resolution is lower than that of an optical or electro-optical image that produces information.

도 1은 동일한 지상의 표적을 촬상한 광학 영상과 SAR 영상을 나타낸 것으로, 도 1에서 가장 좌측의 도면이 표적에 해당하는 탱크를 촬상한 광학 영상이고, 나머지 4개의 그림은 동일한 탱크를 다양한 각도에서 촬상한 SAR 영상을 나타낸다. FIG. 1 shows an optical image and a SAR image of a target on the same ground. The leftmost view of FIG. 1 is an optical image of a tank corresponding to the target, and the remaining four figures show the same tank at various angles. The captured SAR image is shown.

도 1에서 보듯이 광학영상은 인간의 눈으로도 표적물에 대한 정보, 즉 탱크인지 항공기인지 탱크라면 어떤 기종인가까지 판단할 수 있으나 SAR 영상으로는 표적물의 기종을 식별하기가 어렵다. As shown in FIG. 1, the optical image may determine information about the target even from the human eye, that is, a tank, an aircraft, or a tank, but it is difficult to identify the type of the target by the SAR image.

또한, SAR 영상은 수 km2에서 수십 km2에 이르는 지역에 대한 영상을 보여주기 때문에 탐지하고자 하는 표적뿐만 아니라 자연 클러터(natural clutter)와 인공 클러터(man-made clutter)가 함께 영상에 나타나게 된다. 따라서 SAR 영상에서 표적의 탐지 및 식별은 판독관의 육안에 의한 판독이 쉽지 않고 정확한 판독을 위하여 수년간의 경험이 필요하다. 또한, 수십 km2에 이르는 지역에 포함된 표적을 찾아내어 변별 및 식별하기 위해서는 많은 시간이 필요기 때문에 실시간 작전수행이 불가능하다는 단점이 있다. 이러한 이유로 SAR 영상에서 클러터로부터 표적을 변별 및 식별하기 위해서는 패턴인식론을 이용한 컴퓨터 신호처리과정이 필수적으로 요구된다.In addition, SAR images can be targeted to detect because it shows an image of the area up to tens of km 2 from km 2, as well as natural clutter (natural clutter) and manmade clutter (man-made clutter) that appear in the video with do. Therefore, detection and identification of targets in SAR images are difficult to read by the reader's naked eye and require years of experience for accurate readings. In addition, there is a disadvantage in that real-time operation is impossible because it takes a lot of time to find, distinguish and identify targets included in an area of several tens of km 2 . For this reason, computer signal processing using pattern recognition is essential to distinguish and identify targets from clutter in SAR images.

본 발명이 해결하고자 하는 과제는 표적뿐만 아니라 표적이 속해있는 클래스를 높은 정확성을 가지고 변별할 수 있는 합성 개구면 레이더 영상에서 표적의 기종을 식별하는 방법 및 장치를 제공하는 것이다.SUMMARY OF THE INVENTION An object of the present invention is to provide a method and apparatus for identifying a target type in a synthetic aperture radar image capable of distinguishing not only the target but also the class to which the target belongs with high accuracy.

이러한 과제를 해결하기 위한 본 발명의 한 실시예에 따른 합성 개구면 레이더 영상에서 표적의 기종을 식별하는 방법은, 미확인 표적에 대한 합성 개구면 레이더 영상을 획득하는 단계, 상기 합성 개구면 레이더 영상을 정규화 시키는 단계, 상기 정규화된 합성 개구면 레이더 영상을 극사상 처리하여 극영상을 생성하는 단계, 상기 극영상으로부터 특성벡터를 추출하는 단계, 그리고 상기 추출된 특성벡터를 데이터베이스에 저장되어 있는 변별하고자 하는 표적들에 대한 특성벡터와 비교하여, 상기 미확인 표적의 기종을 식별하는 단계를 포함한다.According to an embodiment of the present invention, a method for identifying a model of a target in a synthetic aperture radar image may include obtaining a synthetic aperture radar image for an unidentified target, and performing the synthesis aperture radar image. Normalizing, generating a polar image by subjecting the normalized synthesized aperture radar image to extreme image processing, extracting a characteristic vector from the polar image, and discriminating the extracted characteristic vector stored in a database. Comparing with the characteristic vector for the targets, identifying the type of the unknown target.

상기 합성 개구면 레이더 영상을 정규화 시키는 단계는, 다음의 수학식을 이용하여 상기 합성 개구면 레이더 영상을 정규화 시킨다. In normalizing the composite aperture radar image, the composite aperture radar image is normalized using the following equation.

Figure 112010002576229-pat00001
Figure 112010002576229-pat00001

여기서, In(xi, yi)은 정규화된 합성 개구면 레이더 영상이고, I0(xi, yi)는 정규화 되기 전의 합성 개구면 레이더 영상이며, x, y는 각각 합성 개구면 레이터 영상의 횡축, 종축 차원을 나타내며, M, N은 각각의 x, y 차원에 대한 화소 수를 나타낸다. Where I n (x i , y i ) is a normalized composite aperture radar image, I 0 (x i , y i ) is a composite aperture radar image before normalization, and x and y are composite aperture radar images, respectively. The horizontal and vertical axis dimensions of the image are represented, and M and N represent the number of pixels for each of the x and y dimensions.

상기 정규화된 합성 개구면 레이더 영상을 극사상 처리하여 극영상을 생성하는 단계는, 상기 정규화된 합성 개구면 레이더 영상을 모폴로지 처리하여 이진영상을 생성하는 단계, 상기 이진영상으로부터 중심점을 검출하는 단계, 그리고 상기 정규화된 합성 개구면 레이더 영상의 중심점을 기준으로 거리 방향과 방위각 방향으로 샘플링하여 극영상을 생성하는 단계를 포함한다.The generating of the polar image by performing the ultra-fine processing of the normalized synthetic aperture radar image may include generating a binary image by morphologically processing the normalized synthetic aperture radar image, detecting a center point from the binary image; And generating a polar image by sampling in a distance direction and an azimuth direction based on the center point of the normalized synthesized aperture radar image.

상기 극영상으로부터 추출된 특성벡터는, 상기 극영상의 거리방향 사상영상에 대한 제1 특성 벡터, 상기 극영상의 방위각방향 사상영상에 대한 제2 특성 벡터, 그리고 상기 극영상을 영상주성분분석법(IMPCA)에 의해 압축하여 생성한 제3 특성벡터를 포함하며, 상기 거리방향 사상영상과 상기 방위각방향 사상영상은 각각 다음의 수학식으로 표현된다. The feature vector extracted from the pole image may include a first feature vector for the distance mapping image of the pole image, a second feature vector for the azimuth mapping image of the pole image, and the pole image. And a third characteristic vector generated by compression), wherein the distance direction mapping image and the azimuth mapping image are each expressed by the following equation.

Figure 112010002576229-pat00002
Figure 112010002576229-pat00002

Figure 112010002576229-pat00003
Figure 112010002576229-pat00003

여기서, Ir(r)은 거리(r)방향 사상영상이고, Iθ(θ)은 방위각(θ)방향 사상영상이며, Ip(rmn)은 p번째 극영상을 나타내며, Rmin은 최소 샘플링 반경이고, Rmax는 최대 샘플링 반경을 나타낸다. Here, I r (r) is the mapping image in the direction of distance r, I θ (θ) is the mapping image in the azimuth (θ) direction, I p (r m , θ n ) represents the p-th pole image, R min is the minimum sampling radius and R max represents the maximum sampling radius.

상기 데이터베이스에 저장되는 특성벡터는, 상기 식별하고자 하는 표적들의 극영상의 거리방향 사상영상에 대한 제4 특성벡터, 상기 식별하고자 하는 표적들의 극영상의 방위각방향 사상영상에 대한 제5 특성벡터, 그리고 상기 식별하고자 하는 표적들의 극영상을 영상주성분분석법(IMPCA)에 의해 압축하여 생성한 제6 특성벡터를 포함한다. The feature vector stored in the database includes a fourth feature vector for a distance mapping image of the pole images of the targets to be identified, a fifth feature vector for the azimuth mapping image of the pole images of the targets to be identified, and And a sixth characteristic vector generated by compressing the polar image of the target to be identified by image principal component analysis (IMPCA).

상기 미확인 표적을 식별하는 단계는, 상기 추출된 제1 특성 벡터를 상기 제4 특성 벡터와 비교하여 유사도가 높은 제1 그룹의 표적들을 선택하는 단계, 상기 미확인 표적의 극영상을 정렬하여 상기 제2 특성 벡터를 추출하고, 상기 추출된 제2 특성 벡터를 상기 제1 그룹에 속하는 표적들의 상기 제5 특성 벡터와 비교하여 최대 정규화 상관 계수가 높은 제2 그룹의 표적들을 선택하는 단계, 그리고 정렬된 상기 미확인 표적의 극영상으로부터 상기 제3 특성 벡터를 추출하고, 상기 제3 특성 벡터를 상기 제2 그룹에 속하는 표적들의 상기 제6 특성 벡터와 연산하여, 상기 제2 그룹에 속하는 표적들 중에서 차이 값이 가장 작은 표적을 상기 미확인 표적이 속한 기종으로 선택하는 단계를 포함한다. The identifying the unidentified target may include selecting a first group of targets having a high similarity by comparing the extracted first characteristic vector with the fourth characteristic vector, and aligning the polar images of the unidentified target to the second image. Extracting a feature vector and comparing the extracted second feature vector with the fifth feature vector of targets belonging to the first group to select targets of a second group with a high maximum normalized correlation coefficient, and the aligned The third characteristic vector is extracted from the polar image of the unidentified target, and the third characteristic vector is calculated with the sixth characteristic vector of targets belonging to the second group, so that a difference value among targets belonging to the second group is obtained. And selecting the smallest target as the model to which the unidentified target belongs.

상기 유사도는 다음의 수학식과 같이 표현된다. The similarity is expressed by the following equation.

Figure 112010002576229-pat00004
Figure 112010002576229-pat00004

여기서, g1(pu, qu)는 미확인 표적의 임의의 각도에 대한 거리방향 사상영상이며, f1 T(p, q)는 데이터베이스에 저장되어 있는 식별하고자 하는 표적의 제4 특성벡터의 전체 행렬이고, P는 표적의 클래스 개수, Q는 데이터베이스를 구성하는 표적의 촬상 각도를 나타낸다. Where g 1 (p u , q u ) is the distance mapping image for any angle of the unidentified target, and f 1 T (p, q) is the fourth characteristic vector of the target to be identified stored in the database. It is an overall matrix, P is the number of classes of the target, and Q is the imaging angle of the target constituting the database.

본 발명의 다른 실시예에 따른 합성 개구면 레이더 영상에서 표적의 기종을 식별하는 장치는, 미확인 표적에 대한 합성 개구면 레이더 영상을 획득하는 SAR 영상 획득부, 상기 합성 개구면 레이더 영상을 정규화 시키는 정규화부, 상기 정규화된 합성 개구면 레이더 영상을 극사상 처리하여 극영상을 생성하는 극영상 생성부, 상기 극영상으로부터 특성벡터를 추출하는 특성벡터 추출부, 변별하고자 하는 표적들에 대한 특성벡터를 저장하는 데이터베이스, 그리고 상기 추출된 특성벡터를 상기 변별하고자 하는 표적에 대한 특성벡터와 비교하여, 상기 미확인 표적을 식별하는 변별부를 포함한다. An apparatus for identifying a model of a target in a composite aperture radar image according to another embodiment of the present invention includes a SAR image acquisition unit for obtaining a composite aperture radar image for an unidentified target, and a normalization for normalizing the synthesized aperture radar image. A polar image generating unit generating a polar image by performing extreme image processing on the normalized synthetic aperture radar image, a characteristic vector extracting unit extracting a characteristic vector from the polar image, and storing characteristic vectors of targets to be discriminated. And a discriminating unit for identifying the unidentified target by comparing the extracted characteristic vector with the characteristic vector for the target to be discriminated.

상기 정규화부는, 다음의 수학식을 이용하여 상기 합성 개구면 레이더 영상을 정규화 시킬 수 있다. The normalizer may normalize the synthesized aperture radar image using the following equation.

Figure 112010002576229-pat00005
Figure 112010002576229-pat00005

여기서, In(xi, yi)은 정규화된 합성 개구면 레이더 영상이고, I0(xi, yi)는 정규화 되기 전의 합성 개구면 레이더 영상이며, x, y는 각각 합성 개구면 레이터 영상의 횡축, 종축 차원을 나타내며, M, N은 각각의 x, y 차원에 대한 화소 수를 나타낸다. Where I n (x i , y i ) is a normalized composite aperture radar image, I 0 (x i , y i ) is a composite aperture radar image before normalization, and x and y are composite aperture radar images, respectively. The horizontal and vertical axis dimensions of the image are represented, and M and N represent the number of pixels for each of the x and y dimensions.

이와 같이 본 발명에 따르면 SAR 영상에 대하여 다양한 특성벡터를 통하여 표적뿐만 아니라 표적의 기종까지 높은 정확성을 가지고 변별할 수 있다. 또한 본 발명의 실시예에 따른 특성벡터는 임의의 구분 알고리즘(패턴인식기법, 신경망, 퍼지 이론 등) 및 정보 융합 기법(information fusion)과 결합할 수 있으며, 레이더, 전자광학센서, 적외선 센서 등을 사용하여 지상의 표적을 식별하기 위한 ATR(Automatic Target Recognition) 분야에 직접적인 적용이 가능하다. As described above, according to the present invention, it is possible to discriminate not only the target but also the model of the target with high accuracy through various characteristic vectors. In addition, the feature vector according to the embodiment of the present invention can be combined with any classification algorithm (pattern recognition technique, neural network, fuzzy theory, etc.) and information fusion technique (information fusion), and radar, electro-optical sensor, infrared sensor, etc. It can be applied directly to the field of Automatic Target Recognition (ATR) for identifying ground targets.

도 1은 동일한 지상의 표적을 촬상한 광학 영상과 SAR 영상을 나타낸 것이다.
도 2는 본 발명의 실시예에 따른 SAR 영상에서 표적의 기종을 식별하는 장치의 구성을 나타낸 도면이다.
도 3은 본 발명의 실시예에 따른 변별하고자 하는 표적에 대한 특성벡터를 데이터베이스에 저장하는 과정을 설명하기 위한 순서도이다.
도 4a는 본 발명의 실시예에 따른 식별하고자 하는 표적의 SAR 영상을 나타낸 것이다.
도 4b는 도 4a에 나타낸 SAR 영상을 정규화 시킨 영상이다.
도 5는 본 발명의 실시예에 따른 극사상 과정을 위한 극격자를 나타낸다.
도 6은 도 5에 따른 극격자를 보정한 극좌표계의 기하학적 구조를 나타낸다.
도 7a는 SAR 영상을 나타내며, 도 7b는 ISAR 영상을 나타낸 것이다.
도 8은 도 4b에 나타낸 정규화된 SAR 영상을 모폴로지 처리하여 생성한 이진영상을 나타낸다.
도 9a는 표적의 중심에 위치시킨 극격자를 나타내고, 도 9b는 도 9a를 샘플링하여 생성한 극영상을 나타낸다.
도 10a는 도 9a에 나타낸 표적을 90° 회전시킨 SAR 영상을 나타내고, 도 10b는 도 10a를 샘플링하여 생성한 극영상을 나타낸다.
도 11a는 도 9b에 나타낸 SAR 영상의 극영상과 추출된 특성벡터를 나타내며, 도 11b는 도 10b에 나타낸 SAR 영상의 극영상과 추출된 특성벡터를 나타낸 것이다.
도 12는 본 발명의 실시예에 따른 특성벡터를 저장하는 데이터베이스의 구조를 나타낸 도면이다.
도 13은 본 발명의 실시예에 따른 감시지역의 SAR 영상에서 표적의 기종을 식별하는 방법을 설명하기 위한 순서도이다.
1 illustrates an optical image and a SAR image of a target on the same ground.
2 is a diagram showing the configuration of an apparatus for identifying a model of a target in a SAR image according to an embodiment of the present invention.
3 is a flowchart illustrating a process of storing a characteristic vector of a target to be discriminated in a database according to an embodiment of the present invention.
4A shows a SAR image of a target to be identified according to an embodiment of the present invention.
FIG. 4B is a normalized image of the SAR image shown in FIG. 4A.
5 shows a polar lattice for the extreme projection process according to the embodiment of the present invention.
6 shows the geometry of the polar coordinate system correcting the polar lattice according to FIG. 5.
FIG. 7A shows a SAR image, and FIG. 7B shows an ISAR image.
FIG. 8 illustrates a binary image generated by morphologically processing the normalized SAR image illustrated in FIG. 4B.
FIG. 9A illustrates a polar grid positioned at the center of the target, and FIG. 9B illustrates a polar image generated by sampling FIG. 9A.
FIG. 10A illustrates a SAR image obtained by rotating the target shown in FIG. 9A by 90 °, and FIG. 10B illustrates a polar image generated by sampling FIG. 10A.
FIG. 11A shows the polar image and the extracted feature vector of the SAR image shown in FIG. 9B, and FIG. 11B shows the polar image and the extracted feature vector of the SAR image shown in FIG. 10B.
12 is a diagram showing the structure of a database for storing characteristic vectors according to an embodiment of the present invention.
13 is a flowchart illustrating a method of identifying a model of a target in a SAR image of a surveillance area according to an embodiment of the present invention.

첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다.DETAILED DESCRIPTION Embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art may easily implement the present invention.

도 2는 본 발명의 실시예에 따른 SAR 영상에서 표적의 기종을 식별하는 장치의 구성을 나타낸 도면이다. 도 2에 따른 SAR 영상 변별 장치(200)는 SAR 영상 획득부(210), 정규화부(220), 극영상 생성부(230), 특성벡터 추출부(240), 데이터베이스(250), 변별부(260)를 포함한다. 2 is a diagram showing the configuration of an apparatus for identifying a model of a target in a SAR image according to an embodiment of the present invention. The SAR image discrimination apparatus 200 according to FIG. 2 includes a SAR image acquisition unit 210, a normalization unit 220, a polar image generation unit 230, a feature vector extractor 240, a database 250, and a discrimination unit ( 260).

SAR 영상 획득부(210)는 미확인 표적에 대한 SAR 영상을 획득한다. 정규화부(220)는 획득한 SAR 영상을 정규화 처리를 수행한다. The SAR image acquisition unit 210 acquires a SAR image for the unidentified target. The normalizer 220 normalizes the acquired SAR image.

극영상 생성부(230)는 정규화된 SAR 영상을 극사상 처리하여 극영상을 생성한다. 특성벡터 추출부(240)는 극영상으로부터 특성벡터를 추출한다. The pole image generator 230 generates a pole image by performing extreme mirror processing on the normalized SAR image. The feature vector extractor 240 extracts the feature vector from the polar image.

데이터베이스(250)는 변별하고자 하는 표적들에 대한 특성벡터를 저장한다. 즉, 데이터베이스(250)에는 변별하고자 하는 다양한 기종(class)의 표적과 그 표적을 다양한 각도에서 촬상한 SAR 영상에 대한 특성벡터들이 저장되어 있다. The database 250 stores characteristic vectors for targets to be discriminated. That is, the database 250 stores targets of various classes to be discriminated and characteristic vectors of SAR images obtained by photographing the targets from various angles.

변별부(260)는 추출된 특성벡터를 변별하고자 하는 표적에 대한 특성벡터와 비교하여 미확인 표적의 기종을 식별한다. The discriminating unit 260 identifies the model of the unidentified target by comparing the extracted characteristic vector with the characteristic vector for the target to be discriminated.

한편, SAR 영상을 직접 변별에 사용하려면 각각의 표적에 대한 SAR 영상을 데이터베이스에 저장해야 하는데, 이 경우 SAR 영상이 내림각(depression angle)과 방위각(azimuth angle)에 의해 변하는 점을 감안하면 동일한 기종의 표적에 대해 수 많은 SAR 영상이 필요하다. 따라서, 데이터베이스의 저장 공간이 많이 필요할 뿐만 아니라 비교 영상의 수가 많아짐으로 인해 계산 시간도 많이 소요된다. On the other hand, in order to directly use SAR images, SAR images for each target must be stored in a database. In this case, the same model is considered considering that SAR images are changed by depression angle and azimuth angle. Numerous SAR images are needed for the target. Therefore, not only a large amount of storage space of the database is required, but also a large amount of calculation time is required due to the large number of comparison images.

하지만, 본 발명의 실시예와 같이 패턴 인식 기법을 적용하여 각각의 표적의 특징만을 추출하여 데이터베이스(250)에 저장하면 데이터베이스의 저장 공간도 줄일 뿐만 아니라 계산 시간도 줄일 수 있는 장점이 있는바, 이하에서는 도 3을 통하여 변별하고자 하는 표적에 대한 특성벡터를 추출하여 데이터베이스(250)에 저장하는 방법에 대하여 설명한다. However, by extracting only the features of each target by applying a pattern recognition technique as in the embodiment of the present invention and storing them in the database 250, the storage space of the database can be reduced as well as the calculation time. In FIG. 3, a method of extracting a characteristic vector for a target to be discriminated and storing it in the database 250 will be described.

도 3은 본 발명의 실시예에 따른 변별하고자 하는 표적에 대한 특성벡터를 데이터베이스에 저장하는 과정을 설명하기 위한 순서도이다. 3 is a flowchart illustrating a process of storing a characteristic vector of a target to be discriminated in a database according to an embodiment of the present invention.

먼저, SAR 영상 획득부(210)는 데이터베이스 구축을 위해 변별하고자 하는 표적의 SAR 영상을 획득한다(S310). 여기서 표적이란 지상 군사 표적물을 의미하며, 탱크, 장갑차, 미사일 등과 같은 이동 표적물뿐만 아니라 각종 군사 기지 등과 같은 고정 표적물을 포함한다. SAR 영상은 비행기가 한대 또는 다수의 표적이 위치하고 있는 지점의 지상 위를 순환 비행하면서 촬상하여 획득한다. SAR 영상 획득부(210)에 의하여 획득된 영상은 데이터베이스를 구성하는 특성벡터(feature vector)를 생성하는데 사용된다. First, the SAR image acquisition unit 210 acquires a SAR image of a target to be discriminated for building a database (S310). Here, the target means a ground military target, and includes fixed targets such as various military bases as well as moving targets such as tanks, armored vehicles, missiles, and the like. SAR images are obtained by capturing images as the aircraft revolves around the ground at the point where one or more targets are located. The image acquired by the SAR image acquisition unit 210 is used to generate a feature vector constituting a database.

다음으로 정규화부(220)는 전처리 과정으로서, SAR 영상을 전체 에너지로 나누는 정규화 과정을 수행한다(S320). 레이더 영상은 센서와 표적 사이의 거리에 따라 신호 레벨의 변화가 나타나므로, 정규화 과정을 통하여 이런 현상을 줄이도록 한다. 도 4a는 본 발명의 실시예에 따른 식별하고자 하는 표적의 SAR 영상을 나타내며, 도 4b는 도 4a에 나타낸 SAR 영상을 정규화 시킨 영상이다. 도 4a 및 도 4b에 나타낸 것과 같이 표적뿐만 아니라 표적의 그림자(도 4a 및 도 4b에서 검은 색으로 표시된 부분)도 같이 SAR 영상에 포함되어 있다.Next, the normalization unit 220 performs a normalization process of dividing the SAR image into total energy as a preprocessing process (S320). The radar image changes the signal level according to the distance between the sensor and the target, so the normalization process reduces this phenomenon. 4A illustrates a SAR image of a target to be identified according to an embodiment of the present invention, and FIG. 4B is an image obtained by normalizing the SAR image shown in FIG. 4A. As shown in FIGS. 4A and 4B, not only the target but also the shadow of the target (parts shown in black in FIGS. 4A and 4B) are also included in the SAR image.

도 4b와 같이 SAR 영상을 정규화 시키면, 정규화된 SAR 영상(In(xi, yi))의 전체 에너지는 1이 된다. 수학식 1은 정규화된 SAR 영상(In(xi, yi))을 나타낸 식이다. If the SAR image is normalized as shown in FIG. 4B, the total energy of the normalized SAR image I n (x i , y i ) becomes 1. Equation 1 shows a normalized SAR image (I n (x i , y i )).

Figure 112010002576229-pat00006
Figure 112010002576229-pat00006

여기서, 2차원 SAR 영상을 (I0(xi, yi)), i = 1,2,…,M, j = 1,2,…,N으로 표현하며, (x, y)는 각각 SAR 영상의 횡축, 종축 차원을 나타내며, M, N은 각각의 x, y 차원에 대한 화소 수를 나타낸다. Here, a two-dimensional SAR image is obtained by (I 0 (x i , y i )), i = 1,2,... , M, j = 1,2,... (X, y) represents the horizontal and vertical axis dimensions of the SAR image, and M and N represent the number of pixels for each of the x and y dimensions.

다음으로 극영상 생성부(230)는 표적식별에 사용되는 특성벡터를 추출하기 위하여 극사상 과정을 통하여 극영상(polar image)를 생성한다. 이하에서는 도 5 내지 도 7b를 통하여 SAR 영상으로부터 극영상을 생성하는 방법에 대해 설명한다.Next, the polar image generator 230 generates a polar image through a polar projection process in order to extract a feature vector used for target identification. Hereinafter, a method of generating a polar image from a SAR image will be described with reference to FIGS. 5 through 7B.

도 5는 본 발명의 실시예에 따른 극사상 과정을 위한 극격자를 나타내며, 도 6은 도 5에 따른 극격자를 보정한 극좌표계의 기하학적 구조를 나타낸다. FIG. 5 shows a polar lattice for a polar projection process according to an embodiment of the present invention, and FIG. 6 shows the geometry of a polar coordinate system correcting the polar lattice according to FIG. 5.

먼저 SAR 영상의 중심에서 멀리 떨어진 산란점들은 주로 표적의 모서리에서 회절현상에 의한 것으로 표적식별에 중요한 정보를 제공한다. 따라서, 샘플링 간격을 일정하게 함으로서 중심으로부터 먼 산란점들에 대한 정보의 손실을 최소화하는 작업이 필요하다. 극사상 과정은 SAR 영상의 중심에 도 5와 같은 극격자(polar grid)를 두고 거리(r) 방향과 방위각(θ) 방향으로 샘플링하여 극영상(Ip(rmn))을 얻는 과정을 나타낸다. 여기서, m = 1,2,…,Nr, n = 1,2,…,Nθ이고, Nr은 거리 방향, Nθ은 방위각 방향의 샘플링 개수이다. 도 6은 도 5에 나타낸 극영상의 기하학적 구조를 나타내는 것으로서, 도 5와 도 6의 변수들 사이에는 다음의 수학식 2와 같은 관계를 나타낸다. First, scattering points far from the center of the SAR image are mainly due to diffraction at the edge of the target, which provides important information for target identification. Therefore, there is a need to minimize the loss of information for scattering points far from the center by keeping the sampling interval constant. The polar projection process obtains a polar image (I p (r m , θ n )) by sampling in the direction of distance (r) and azimuth (θ) with a polar grid as shown in FIG. 5 at the center of the SAR image. Indicate the process. Where m = 1,2,... , N r , n = 1,2,... , N θ , N r is the distance direction, and N θ is the number of sampling in the azimuth direction. FIG. 6 illustrates the geometry of the polar image shown in FIG. 5, and shows a relationship as shown in Equation 2 between the variables of FIGS. 5 and 6.

Figure 112010002576229-pat00007
Figure 112010002576229-pat00007

여기서, (xc,yc)는 SAR 영상의 중심점 좌표를 나타내고, △r과 △θ는 각각 거리 방향과 방위각 방향으로의 샘플링 간격을 나타낸다. Rmin은 최소 샘플링 반경이며 0보다 크거나 같은 값으로 선택하며, Rmax는 최대 샘플링 반경으로, 표적과 표적의 그림자를 포함하는 값으로 선택한다. 표적의 크기와 내림각의 변화에 따라 SAR 영상에서 표적 및 표적의 그림자의 크기는 변하기 때문에 식별하고자 하는 표적들 중 최대길이에 내림각에 의해 변하는 그림자의 크기를 고려하여 Rmax를 결정하도록 한다. Here, (x c , y c ) represents the coordinates of the center point of the SAR image, and Δr and Δθ represent sampling intervals in the distance direction and the azimuth direction, respectively. R min is the minimum sampling radius and is selected to be greater than or equal to 0. R max is the maximum sampling radius and is selected to include the target and the shadow of the target. Since the size of the target and the shadow of the target changes in the SAR image according to the change of the target size and the angle of inclination, the R max is determined by considering the size of the shadow which is changed by the angle of inclination at the maximum length among the targets to be identified.

한편 SAR 영상과 ISAR 영상의 극사상 과정의 차이를 도 7a 및 도 7b를 통해서 설명한다. 도 7a는 SAR 영상을 나타내며, 도 7b는 ISAR 영상을 나타낸 것이다. On the other hand, the difference between the extreme projection process between the SAR image and the ISAR image will be described with reference to FIGS. 7A and 7B. FIG. 7A shows a SAR image, and FIG. 7B shows an ISAR image.

도 7b에 나타낸 ISAR 영상은 SAR 영상과 마찬가지로 영상의 중심점을 Rmin= 0으로 선택할 수 있다. 그러나 ISAR 영상에는 SAR 영상과 달리 그림자와 클러터가 거의 나타나지 않기 때문에 ISAR 극사상법의 Rmax는 표적만 포함하는 값으로 선택하지만, SAR 극사상법에 따르면 표적과 표적의 그림자를 포함하는 값을 Rmax로 선택하여야 한다. 이는 ISAR 영상은 비행하는 표적에 대한 영상이지만 SAR 영상은 지상 표적에 대한 영상이므로 표적뿐만 아니라 그림자도 고려해야 하기 때문이다. In the ISAR image illustrated in FIG. 7B, the center point of the image may be selected as R min = 0, similar to the SAR image. However, unlike SAR images, shadows and clutters are rarely seen in the SARR image, so the R max of the ISAR microscopic method is selected to include only the target, but according to the SAR microscopic method, a value including the target and the shadow of the target is selected. R max must be selected. This is because ISAR images are images of flying targets, but SAR images are images of ground targets.

또한, ISAR 극사상법의 Rmax는 각각의 영상에서 Rmax를 영상의 표적만 포함하는 값으로 선택하기 때문에 각각의 영상마다 Rmax가 달라져서 표적의 크기 정보를 무시하게 된다. 하지만 SAR 극사상법의 Rmax는 영상에 관계없이 일정한 값을 선택하기 때문에 표적의 크기 정보를 이용한다. In addition, R max of ISAR pole mapping method is to ignore each R max is the target size information of each image dalrajyeoseo the R max because the selected value of the image containing only the target in the respective images. However, R max of SAR microscopic projection uses target size information because it selects a constant value regardless of image.

도 5 내지 도 7b에서 설명한 내용을 참조하여, 극영상 생성부(230)는 정규화된 SAR 영상을 극사상 영상으로 변환하기 위하여 모폴로지 과정을 통하여 정규화된 SAR 영상의 중심을 검출한다(S330). 5 to 7B, the polar image generating unit 230 detects the center of the normalized SAR image through a morphology process in order to convert the normalized SAR image into an ultrafine image (S330).

도 8은 도 4b에 나타낸 정규화된 SAR 영상을 모폴로지 처리하여 생성한 이진영상을 나타낸다. ISAR 영상은 일정 값 이상의 화소들이 표적의 화소로 간주되어지기 때문에 그 화소들의 중심을 쉽게 구할 수 있는 반면 SAR 영상의 경우에는 주변 클러터의 화소 값과 표적의 화소 값의 차이가 크지 않기 때문에 표적의 화소를 찾아내는 과정이 필요하다. FIG. 8 illustrates a binary image generated by morphologically processing the normalized SAR image illustrated in FIG. 4B. In the ISAR image, since the pixels of a certain value or more are regarded as the target pixels, the center of the pixels can be easily obtained. In the case of the SAR image, the difference between the pixel value of the surrounding clutter and the pixel value of the target is not large. The process of finding the pixels is necessary.

도 4b에 나타낸 정규화된 SAR 영상을 모폴로지(morphology) 과정을 수행하여 도 8과 같이 표적의 화소는 1, 표적의 그림자 및 클러터의 화소는 0으로 하는 이진(binary)영상을 생성할 수 있다. 여기서, 정규화된 SAR 영상의 중심(xc, yc)은 수학식 3과 같이 이진영상에서 표적의 화소들의 중심을 이용하여 구한다.A morphology process is performed on the normalized SAR image illustrated in FIG. 4B to generate a binary image in which the pixel of the target is 1, the shadow of the target and the pixel of the clutter are 0. Here, the center (x c , y c ) of the normalized SAR image is obtained by using the centers of the pixels of the target in the binary image as shown in Equation 3 below.

Figure 112010002576229-pat00008
Figure 112010002576229-pat00008

여기서, (xt, yt)는 이진영상에서 표적의 화소의 좌표값이다.Here, (x t , y t ) is the coordinate value of the pixel of the target in the binary image.

SAR 영상의 중심(xc, yc)이 결정되면 극영상 생성부(230)는 극사상 과정을 통하여 극영상(polar image)를 생성한다(S340). .When the center (x c , y c ) of the SAR image is determined, the polar image generator 230 generates a polar image through a polar projection process (S340). .

도 9a는 표적의 중심에 위치시킨 극격자를 나타내고, 도 9b는 도 9a를 샘플링하여 생성한 극영상을 나타낸다. 도 9a에 나타낸 것처럼, 정규화된 SAR 영상의 중심에 도 5에서 설명한 극격자를 위치시키고 샘플링하여 도 9b와 같은 극영상을 얻을 수 있다. 도 9b의 극영상은 Nr = Nθ = 100, Rmax = 50으로 선택하여 생성한 극영상이다. FIG. 9A illustrates a polar grid positioned at the center of the target, and FIG. 9B illustrates a polar image generated by sampling FIG. 9A. As shown in FIG. 9A, the polar grid illustrated in FIG. 5 may be positioned and sampled at the center of the normalized SAR image to obtain the polar image as illustrated in FIG. 9B. The polar image of Fig. 9b is N r = N θ = 100, R max = 50 to create a polar image.

여기서 도 10a는 도 9a에 나타낸 표적을 90° 회전시킨 SAR 영상을 나타내고, 도 10b는 도 10a를 샘플링하여 생성한 극영상을 나타낸다. FIG. 10A illustrates a SAR image obtained by rotating the target shown in FIG. 9A by 90 °, and FIG. 10B illustrates a polar image generated by sampling FIG. 10A.

SAR 영상에서 그림자는 표적의 뒤편에 나타나기 때문에, 레이더가 남쪽에서 북쪽으로 볼 때와 서쪽에서 동쪽으로 볼 때의 영상을 지도상에 표시하면 표적의 뒤편에 있는 그림자의 방향이 도 9a와 도 10a처럼 서로 다르게 된다. 즉, SAR 영상 생성방법 및 레이더와 표적의 지도상의 절대 위치에 따라 영상이 회전된 형태로 나타날 수 있다. 그러나 도 9b와 도 10b를 비교해보면, 도 10b에 나타낸 극영상은 도 9b와 비교할 때, 거리 방향(Nr)으로는 동일하며, 단지 방위각 방향(Nθ)으로 이동된 형상을 나타낸다는 것을 알 수 있다. In the SAR image, the shadow appears behind the target, so when the radar is shown on the map when viewed from south to north and from west to east, the direction of the shadow behind the target is as shown in FIGS. 9A and 10A. Will be different. That is, the image may be rotated according to the SAR image generation method and the absolute position on the map of the radar and the target. However, when comparing FIG. 9B and FIG. 10B, it can be seen that the polar image shown in FIG. 10B is the same in the distance direction N r as shown in FIG. 9B and merely shows a shape shifted in the azimuth direction N θ . Can be.

이와 같은 SAR 영상의 특성을 이용하여, 특성벡터 추출부(240)는 SAR 영상의 극사상 영상으로부터 특성벡터를 추출한다(S350). Using the characteristic of the SAR image, the characteristic vector extractor 240 extracts the characteristic vector from the extreme image of the SAR image (S350).

극영상으로부터 추출하는 특성벡터는 거리방향 사상(projection)영상(Ir(r)), 방위각방향 사상영상(Iθ(θ)), 그리고 영상주성분분석법(image principal component analysis, 이하 "IMPCA"라 함)에 의해 압축된 극영상으로 구성된다. The feature vectors extracted from the polar images are the distance projection image (I r (r)), the azimuthal mapping image (I θ (θ)), and image principal component analysis (IMPCA). It consists of the extreme image compressed.

도 11a는 도 9b에 나타낸 SAR 영상의 극영상과 추출된 특성벡터를 나타내며, 도 11b는 도 10b에 나타낸 SAR 영상의 극영상과 추출된 특성벡터를 나타낸 것이다.FIG. 11A shows the polar image and the extracted feature vector of the SAR image shown in FIG. 9B, and FIG. 11B shows the polar image and the extracted feature vector of the SAR image shown in FIG. 10B.

Nr × Nθ 차원의 극영상의 모든 화소를 특성벡터로 이용하면 데이터베이스의 용량이 커지는 문제가 발생한다. 특성벡터의 차원을 줄이기 위해 도 11a 및 도 11b와 같이 극영상을 거리 방향(Nr)과 방위각 방향(Nθ)으로 사영(projection)시킴으로써 극영상이 가지는 차원을 줄일 수 있다. When all the pixels of the polar image having the dimension of N r × N θ are used as the characteristic vectors, the capacity of the database increases. In order to reduce the dimension of the characteristic vector, the dimension of the polar image may be reduced by projecting the polar image in the distance direction N r and the azimuth direction N θ as shown in FIGS. 11A and 11B.

SAR 극영상을 정사영 시켜 생성한 극영상에 대한 거리방향 사상영상 Ir(r)과 방위각방향 사상영상 Iθ(θ)은 각각 다음의 수학식 4 및 수학식 5와 같이 나타낼 수 있다. The distance mapping image I r (r) and the azimuthal mapping image I θ (θ) for the polar image generated by orthogonal SAR SAR images may be represented by Equations 4 and 5, respectively.

Figure 112010002576229-pat00009
Figure 112010002576229-pat00009

Figure 112010002576229-pat00010
Figure 112010002576229-pat00010

여기서, Ir(r)은 거리(r)방향 사상영상이고, Iθ(θ)은 방위각(θ)방향 사상영상이며, Ip(rmn)은 p번째 극영상을 나타내며, Rmin은 최소 샘플링 반경이고, Rmax는 최대 샘플링 반경을 나타낸다. Here, I r (r) is the mapping image in the direction of distance r, I θ (θ) is the mapping image in the azimuth (θ) direction, I p (r m , θ n ) represents the p-th pole image, R min is the minimum sampling radius and R max represents the maximum sampling radius.

도 11a 및 도 11b에 나타낸 것처럼, 두 극영상의 거리방향(Nr)으로 사영된 영상은 거의 같은 모양을 보이고 있으며, 방위각방향(Nθ)으로 사영된 영상은 단순히 이동된 형태를 보인다. As illustrated in FIGS. 11A and 11B, images projected in the distance direction N r of two polar images have almost the same shape, and images projected in the azimuth direction N θ are simply moved.

여기서 Ir(r)과 Iθ(θ)만으로는 극영상 Ip(rmn)가 가지는 모든 정보를 표현하기 어렵기 때문에, ISAR 극사상법에서 주성분분석법(PCA)을 이용하여 극영상의 차원보다 작은 차원으로 극영상의 정보 손실을 최소화하여 극영상을 표현하는 특성벡터를 추출한다. Since I r (r) and I θ (θ) alone are difficult to represent all the information of the polar image I p (r m , θ n ), ISAR polar projection uses the principal component analysis (PCA) The feature vector representing the extreme image is extracted by minimizing the information loss of the polar image with a dimension smaller than the dimension of.

일반적으로 2차원 영상은 높은 차원을 가지므로, 높은 차원의 수를 가지는 영상에 주성분분석법(PCA)을 적용하기는 쉽지 않다. 그 이유는 영상에 대한 공분산행렬(covariance matrix)를 생성하여 고유값 분해(eigenvalue decompositon)과정을 수행하여 큰 값을 가지는 고유값에 해당하는 고유벡터를 이용하여 변환행렬(transform matrix, 이하 "B"로 나타냄)을 생성하고 이를 이용하여 압축된 특성벡터를 생성하기 때문이다. 예를 들어 Nr×Nθ 차원을 가지는 영상을 주성분분석법(PCA)을 적용하여 특성벡터를 생성한다고 가정하면, Nr×Nθ 차원의 영상에 대한 공분산행렬의 크기는 (Nr×Nθ)×(Nr×Nθ) 차원을 가지게 되며 이 공분산행렬을 고유값 분해를 하기는 매우 어렵다. In general, since two-dimensional images have a high dimension, it is not easy to apply PCA to an image having a high number of dimensions. The reason for this is to generate a covariance matrix for the image, perform an eigenvalue decompositon process, and use a transform matrix (“B”) using an eigenvector corresponding to a eigenvalue having a large value. This is because it generates a compressed feature vector using For example, N r × N if the image having the θ dimension by applying a principal component analysis (PCA) assumed to generate the feature vector, N r × N θ D image size of the covariance matrix of the of the (N r × N θ ) × (N r × N θ ) have a dimension, and so it is difficult to decompose the eigenvalues of the covariance matrix.

따라서, 본 발명의 실시예에 따른 SAR 극사상법에는 영상주성분분석법(IMPCA)을 적용한다. 먼저 영상공분산행렬(image covariance matrix, G)은 다음의 수학식 6과 같이 나타낸다. Therefore, the image principal component analysis method (IMPCA) is applied to the SAR ultra-thin image method according to the embodiment of the present invention. First, an image covariance matrix (G) is represented by Equation 6 below.

Figure 112010002576229-pat00011
Figure 112010002576229-pat00011

여기서, G는 n×n 차원의 영상공분산행렬이고 Aj는 m×n 차원의 j번째 식별하고자 하는 표적에 대한 극영상이며

Figure 112010002576229-pat00012
는 식별하고자 하는 표적에 대한 극영상의 평균영상으로 m×n 차원이다. G를 고유값 분해(eigenvalue decompositon)를 하면 다음의 수학식 7과 같이 된다. Where G is the image covariance matrix in the n × n dimension, and A j is the pole image of the j-th target of the m × n dimension.
Figure 112010002576229-pat00012
Is the mean image of the pole image of the target to be identified, which is m × n dimension. When eigenvalue decompositon is performed on G, Equation 7 is obtained.

Figure 112010002576229-pat00013
Figure 112010002576229-pat00013

여기서, A는 G의 고유값을 원소로 가지는 대각행렬이고, X 는 G의 고유벡터를 원소로 가지는 n×n의 정방행렬이다. Here, A is a diagonal matrix having an eigenvalue of G as an element, and X is an n × n square matrix having an eigenvector of G as an element.

영상공분산행렬의 고유값 분해를 통해 d(d<n)개의 고유값을 가지는 고유벡터(eigenvector)를 이용하여 다음의 수학식 8과 같이 변환행렬(B)을 생성할 수 있다. By transforming the eigenvalues of the image covariance matrix, a transformation matrix B may be generated as shown in Equation 8 by using an eigenvector having d (d <n) eigenvalues.

Figure 112010002576229-pat00014
Figure 112010002576229-pat00014

즉, 영상주성분분석법(IMPCA)을 통하여 m×n 차원의 극영상을 m×d 차원의 극영상으로 압축할 수 있으므로 용량을 줄일 수 있다. That is, the capacity of the m × n-dimensional polar image can be compressed into the m × d-dimensional polar image through the IMPCA.

그리고 변환행렬(B)에 극영상(A, m×n))를 곱하여 l(=m*d)개의 원소를 가지는 행렬을 생성한 후 벡터화 하면 수학식 9와 같은 특성벡터(IIMPCA(l))를 열(column)벡터 형태로 생성할 수 있다. In addition, a matrix having l (= m * d) elements is generated by multiplying the transformation matrix B by the polar image (A, m × n) and then vectorizing the characteristic vector (I IMPCA (l)). ) Can be created as a column vector.

Figure 112010002576229-pat00015
Figure 112010002576229-pat00015

ISAR 영상은 클러터(clutter)가 거의 없이 표적만 관심영역에 나타난다. 하지만 SAR 영상은 지상을 관측하기 때문에 지표면, 식물, 나무, 인공 구조물등의 다양한 클러터가 존재한다. 그 결과 ISAR 영상의 공분산행렬(G)에 대한 고유값을 계산하면 대부분의 에너지가 소수의 고유값에 존재하며 값을 가지는 고유값은 대부분 표적의 화소의 값을 표현한다. 하지만 SAR 영상의 공분산행렬에 대한 고유값을 계산하면 대부분의 에너지가 몇 개의 값에 큰 고유값뿐만 아니라 작은 값을 가지는 고유값도 다수 존재하며 작은 값을 가지는 고유값들은 표적이나 표적의 그림자의 화소가 아닌 클러터 영상 대한 정보를 포함하기 때문에 적절한 개수의 고유값을 선택하여야한다. ISAR images show only the target in the region of interest with little clutter. However, because SAR images are ground-based, there are many clutters on the surface, plants, trees, and artificial structures. As a result, when the eigenvalues of the covariance matrix (G) of the ISAR image are calculated, most of the energy is present in a few eigenvalues, and the eigenvalues having the values represent the values of the target pixels. However, when calculating the eigenvalues for the covariance matrix of SAR images, there are many eigenvalues in which most of the energy is not only large eigenvalues but also small values. Because it contains information about clutter images, you should select the appropriate number of eigenvalues.

여기서, Nr, Nθ, l값들은 SAR 영상의 해상도 및 SAR 영상에서 상대적으로 표적이 차지하는 면적에 의해 결정된다.Here, N r , N θ , and l values are determined by the resolution of the SAR image and the area occupied by the target in the SAR image.

결과적으로 데이터베이스(250)에는 극영상에 대한 거리방향 사상영상 Ir(r)에 대한 특성벡터, 방위각방향 사상영상Iθ(θ)에 대한 특성벡터, 그리고 영상주성분분석법(IMPCA)에 의해 압축된 특성벡터 IIMPCA(l)를 저장한다. As a result, the database 250 compresses the feature vector of the distance mapping image I r (r) for the extreme image, the feature vector of the azimuth mapping image I θ (θ), and the image principal component analysis method (IMPCA). Stores the characteristic vector I IMPCA (l).

즉, p번째 표적에 대한 q번째 각도에 대한 특성벡터는 f1(p,q), f2(p,q), f3(p,q)로 구성되며 각각 Ir(r), Iθ(θ), 그리고 IIMPCA(l)의 특성벡터를 나타낸다. 본 발명의 실시예에서는 Nr = Nθ = 50, l = 100으로 선택하여 하나의 SAR 영상을 표현하기 위해 200개의 원소를 가지는 특성벡터를 생성하는 것으로 가정한다. 이는 120×120 차원의 SAR 영상을 직접 사용 할 때에 비해 200/1202 = 약 1.4%에 불과하므로 데이터베이스의 저장 용량을 크게 줄일 수 있다. That is, the characteristic vector for the q-th angle for the p-th target is composed of f 1 (p, q), f 2 (p, q), f 3 (p, q), and I r (r) and I θ , respectively. (θ) and the characteristic vector of I IMPCA (l). In the embodiment of the present invention, N r It is assumed that a feature vector having 200 elements is selected to represent one SAR image by selecting = N θ = 50 and l = 100. This is only 200/120 2 = about 1.4% compared to using 120 × 120 SAR images directly, which can significantly reduce the storage capacity of the database.

이와 같은 방법으로 생성된 특성벡터는 미지의 SAR 영상을 변별하는데 사용되며, 생성된 특성벡터는 데이터베이스(250)에 저장된다(S360). The feature vector generated in this manner is used to discriminate the unknown SAR image, and the generated feature vector is stored in the database 250 (S360).

도 12는 본 발명의 실시예에 따른 특성벡터를 저장하는 데이터베이스의 구조를 나타낸 도면이다. 도 12와 같이 각각의 표적에 대하여 다양한 각도에 따른 세가지 특성벡터를 저장하는데, p번째 표적의 경우에는 q번째 각도에 따른 세 가지 특성벡터 f1(p,q), f2(p,q), f3(p,q)를 데이터베이스(250)에 저장하도록 한다.12 is a diagram showing the structure of a database for storing characteristic vectors according to an embodiment of the present invention. As shown in FIG. 12, three characteristic vectors according to various angles are stored for each target. In the case of the p-th target, the three characteristic vectors f 1 (p, q) and f 2 (p, q) according to the q-th angle are stored. , f 3 (p, q) is stored in the database 250.

이하에서는 데이터베이스(250)에 저장된 표적에 대한 특성벡터를 이용하여, 실제 정찰 중에 촬상된 SAR 영상으로부터 표적을 변별하는 방법에 대하여 설명한다. Hereinafter, a method of discriminating a target from a SAR image photographed during actual reconnaissance will be described using the characteristic vector of the target stored in the database 250.

도 13은 본 발명의 실시예에 따른 감시지역의 SAR 영상에서 표적의 기종을 식별하는 방법을 설명하기 위한 순서도이다. 13 is a flowchart illustrating a method of identifying a model of a target in a SAR image of a surveillance area according to an embodiment of the present invention.

먼저, 정찰용 비행기는 감시지역의 상공을 정찰하면서 미확인 표적에 대한 SAR 영상을 촬상하면, SAR 영상 획득부(210)는 미확인 표적이 포함된 SAR 영상을 입력받는다(S1310). SAR 영상 변별 장치(200)가 정찰용 비행기 내에 포함되어 있으면, SAR 영상 획득부(210)는 직접 SAR 영상을 촬상하여 획득할 수 있으며, SAR 영상 변별 장치(200)가 정찰용 비행기 내에 포함되어 있지 않으면, SAR 영상 획득부(210)는 정찰용 비행기로부터 촬상된 SAR 영상을 수신받아 획득할 수도 있다. First, when the reconnaissance plane captures a SAR image of an unidentified target while scouting over a surveillance area, the SAR image acquisition unit 210 receives a SAR image including an unidentified target (S1310). If the SAR image discrimination apparatus 200 is included in the reconnaissance plane, the SAR image acquisition unit 210 may directly acquire and acquire a SAR image, and the SAR image discrimination apparatus 200 is not included in the reconnaissance aircraft. Otherwise, the SAR image acquisition unit 210 may receive and acquire a SAR image photographed from the reconnaissance plane.

다음으로 정규화부(220)는 전처리 과정으로서, SAR 영상을 전체 에너지로 나누는 정규화 과정을 수행한다(S1320). 정규화부(220)의 전처리 과정에 대해서는 도 4a 및 도 4b에서 설명하였으므로, 중복되는 설명은 생략한다. Next, the normalization unit 220 performs a normalization process of dividing the SAR image into total energy as a preprocessing process (S1320). Since the preprocessing process of the normalization unit 220 has been described with reference to FIGS. 4A and 4B, redundant description thereof will be omitted.

극영상 생성부(230)는 정규화된 SAR 영상을 극사상 영상으로 변환하기 위하여 모폴로지 과정을 통하여 정규화된 SAR 영상의 중심을 검출한다(S1330). 그리고 SAR 영상의 중심이 결정되면 극영상 생성부(230)는 극사상 과정을 통하여 극영상을 생성한다(S1340). .The pole image generator 230 detects the center of the normalized SAR image through a morphology process in order to convert the normalized SAR image into an ultrafine image (S1330). When the center of the SAR image is determined, the pole image generator 230 generates a pole image through a process of extreme projection (S1340). .

극영상 생성부(230)가 정규화된 SAR 영상으로부터 극사상 과정을 통하여 극영상을 생성하는 과정에 대해서는 도 8 내지 도 10b를 통하여 설명하였으므로 중복되는 설명은 생략한다. Since the polar image generating unit 230 generates the polar image from the normalized SAR image through the extreme mirror process, the overlapping description will be omitted.

다음으로 특성벡터 추출부(240)는 SAR 영상의 극영상으로부터 특성벡터 f1(p,q), f2(p,q)를 추출한다(S1350). 즉, 도 11a 및 도 11b에서 설명한 바와 같이, 극영상을 거리 방향(Nr)과 방위각 방향(Nθ)으로 사영(projection)시킴으로써, 거리방향 사상영상 Ir(r)에 대한 특성벡터 f1(p,q)와 방위각방향 사상영상 Iθ(θ)에 대한 특성벡터 f2(p,q)를 추출한다.Next, the feature vector extractor 240 extracts the feature vectors f 1 (p, q) and f 2 (p, q) from the polar image of the SAR image (S1350). That is, as described with reference to FIGS. 11A and 11B, by projecting the polar image in the distance direction N r and the azimuth direction N θ , the characteristic vector f 1 for the distance direction mapping image I r (r) is projected. The feature vectors f 2 (p, q) for (p, q) and the azimuth mapped image I θ (θ) are extracted.

그리고, 변별부(260)는 추출한 특성벡터 f1(p,q)를 데이터베이스(250)에 저장된 특성벡터와 비교하여 1차적으로 표적을 변별한다(S1360). 즉, 변별부(260)는 수학식 10과 같이 데이터베이스와 표적의 거리방향 사상영상 Ir(r)의 유사도(C(p,q))를 계산하여 유사도가 높은 표적들만 선택한다. The discriminating unit 260 discriminates the target primarily by comparing the extracted characteristic vector f 1 (p, q) with the characteristic vector stored in the database 250 (S1360). That is, the discriminating unit 260 selects only targets having high similarity by calculating the similarity (C (p, q)) of the distance mapping image I r (r) between the database and the target as shown in Equation 10.

Figure 112010002576229-pat00016
Figure 112010002576229-pat00016

여기서, g1(pu, qu)는 미확인 표적의 임의의 각도에 대한 거리방향(Nr) 사상영상이며, f1 T(p, q)는 데이터베이스에 저장되어 있는 식별하고자 하는 표적의 특성벡터 f1(p, q)의 전체 행렬이다. P는 표적의 클래스 개수, Q는 데이터베이스를 구성하는 표적의 촬상 각도를 나타낸다. Where g 1 (p u , q u ) is the distance (N r ) mapping image for any angle of the unidentified target, and f 1 T (p, q) is the characteristic of the target to be identified stored in the database. Is the entire matrix of the vector f 1 (p, q). P represents the number of classes of the target, and Q represents the imaging angle of the target constituting the database.

이와 같이, 변별부(260)는 C(p,q)를 계산하고 내림차순으로 정렬하여 상위 η%에 해당하는 표적에 대해서만 데이터베이스의 지표로 선택하여 S1 그룹으로 설정한다. In this way, the discriminating unit 260 calculates C (p, q) and sorts in descending order, selecting only the target corresponding to the highest η% as an index of the database and setting it as an S1 group.

다음으로, 변별부(260)는 추출한 특성벡터 f2(p,q)를 데이터베이스(250)에 저장된 특성벡터와 비교하여 2차적으로 표적을 변별한다(S1370). Next, the discriminating unit 260 secondaryly discriminates the target by comparing the extracted characteristic vector f 2 (p, q) with the characteristic vector stored in the database 250 (S1370).

여기서, 방위각방향 사상영상 Iθ(θ)을 방위각방향(Nθ)으로 정렬시키기 위해 이산상관이론(discrete correlation theorem)을 이용한다. 즉, 도 11a 및 도 11b에서 설명한 것처럼, 다른 각도에서 촬상된 두 극영상의 방위각방향(Nθ)으로 사영된 영상은 단순히 이동된 형태를 보이므로, 동일한 영상이 되도록 방위각방향 사상영상 Iθ(θ)을 정렬하도록 한다. 1차 변별 과정(S1360)을 거친 S1 그룹에 이산상관이론을 적용함으로써 계산시간을 줄일 수 있다. Here, a discrete correlation theorem is used to align the azimuth mapping image I θ (θ) in the azimuth direction (N θ ). That is, as described with reference to FIGS. 11A and 11B, since the image projected in the azimuth direction N θ of two polar images captured from different angles is simply moved, the azimuth mapped image I θ ( θ). Computation time can be reduced by applying discrete correlation theory to the S1 group that has undergone the primary discrimination process (S1360).

수학식 11 내지 16은 방위각방향 사상영상 Iθ(θ)을 정렬하는 과정을 설명하기 위한 것이다. k개의 원소를 가지는 임의의 벡터 a를 정의하면, 순환이동(cyclic shift, Sh)는 다음과 수학식 11 및 수학식 12와 같이 나타낼 수 있다.Equations 11 to 16 are for explaining a process of aligning the azimuthal sagittal image I θ (θ). If an arbitrary vector a having k elements is defined, cyclic shift S h can be expressed as in Equations 11 and 12 below.

Figure 112010002576229-pat00017
Figure 112010002576229-pat00017

Figure 112010002576229-pat00018
Figure 112010002576229-pat00018

그리고 수학식 12를 이용하여, 수학식 13과 같이 미확인 표적과 식별하고자 하는 표적 사이의 차이를 구한다.Then, using Equation 12, a difference between an unidentified target and a target to be identified as shown in Equation 13 is obtained.

Figure 112010002576229-pat00019
Figure 112010002576229-pat00019

g2(pu, qu)는 미확인 표적의 임의의 각도에 대한 방위각방향(Nθ) 사상영상이며, f2(p, q)는 데이터베이스에 저장되어 있는 식별하고자 하는 표적의 특성벡터이다. 수학식 13에 나타낸 MS(h)가 최소가 될 때 두 벡터 사이의 유사도는 최대가 된다.g 2 (p u , q u ) is the azimuth (N θ ) mapping image for any angle of the unidentified target, and f 2 (p, q) is the characteristic vector of the target to be identified stored in the database. When MS (h) shown in Equation 13 is minimum, the similarity between the two vectors is maximum.

수학식 13의 우측단은 다음의 수학식 14와 같이 나타낼 수 있다.The right end of Equation 13 may be expressed as Equation 14 below.

Figure 112010002576229-pat00020
Figure 112010002576229-pat00020

여기서 |f2(p,q)|2 와 |g2(p,q)|2 는 고정된 값이므로, 수학식 14에서 가장 우측 성분이 최대가 되면 수학식 13은 최소가 된다. 따라서, 수학식 14의 가장 우측 성분 중 일부를 수학식 15와 같이 나타낸다. Where | f 2 (p, q) | 2 and | g 2 (p, q) | Since 2 is a fixed value, when the rightmost component in Equation 14 becomes the maximum, Equation 13 becomes the minimum. Therefore, some of the rightmost components of Equation 14 are expressed as Equation 15.

Figure 112010002576229-pat00021
Figure 112010002576229-pat00021

수학식 13에 나타낸 MS(h)가 최소가 되도록 하기 위해서 수학식 15가 최대가 되어야 하므로, 수학식 15의 λ(h)가 최대가 되는 h를 구하도록 한다. In order to minimize the MS (h) shown in Equation 13, Equation 15 should be maximized, so h is calculated to be the maximum of λ (h) in Equation 15.

수학식 15를 FFT(fast Fourier transform)을 수행하면 수학식 16과 같다.Performing FFT (fast Fourier transform) on Equation 15 is as follows.

Figure 112010002576229-pat00022
Figure 112010002576229-pat00022

여기서 F2(p,q) = FFT(f2(p,q)), G2(p,q) = FFT(g2(p,q))이며, G2 *(p,q)는 G2(p,q)의 켤레복소수이다. 수학식 16에서 λ값이 최대가 되는 h을 결정한다.Where F 2 (p, q) = FFT (f 2 (p, q)), G 2 (p, q) = FFT (g 2 (p, q)), and G 2 * (p, q) is G Is a conjugate complex of 2 (p, q). In Equation 16, h is determined to be the maximum of the lambda value.

SAR 영상에서 방위각 방향(Nθ)의 회전각도가 극영상에서 h로 나타나므로, 순환이동 과정을 수행하지 않고 방위각방향 사상영상 Iθ(θ)을 정렬할 수 있으며, 변별부(260)는 수학식 17과 같이 데이터베이스와 표적의 거리방향 사상영상 Iθ(θ)의 최대 정규화 상관계수(M(p',q'))를 계산하여 상관계수 값이 높은 표적들만 선택한다. Since the rotation angle of the azimuth direction (N θ ) in the SAR image is represented by h in the polar image, the azimuthal sagittal image I θ (θ) can be aligned without performing a circular movement process, and the discriminating unit 260 is mathematical. As shown in Equation 17, only the targets having a high correlation coefficient value are selected by calculating the maximum normalized correlation coefficient M (p ', q') of the distance mapping image I θ (θ) between the database and the target.

Figure 112010002576229-pat00023
Figure 112010002576229-pat00023

p' 은 S1 그룹에서 선택된 특정 표적을 나타내고, q'은 S1 그룹에서 선택된 특정 표적의 촬상 각도를 나타낸다. p 'represents a specific target selected from the S1 group and q' represents an imaging angle of the specific target selected from the S1 group.

즉, 변별부(260)는 수학식 17과 같이 M(p',q')를 계산하고 내림차순으로 정렬하여 전체 S1 그룹 중 상위 γ%에 속한 S1 그룹의 표적에 대해서만 데이터베이스의 지표로 선택하여 S2 그룹으로 설정한다.That is, the discriminating unit 260 calculates M (p ', q') and sorts in descending order as shown in Equation 17, selecting only the targets of the S1 group belonging to the upper γ% among the entire S1 groups, and selecting S2 as an index of the database. Set as a group.

1차 식별 과정(S1360)과 2차 식별 과정(S1370)에서, η, γ값은 SAR 식별에는 다소 유동적으로 결정할 수 있다. 그 이유는 SAR 영상에는 표적의 그림자와 클러터가 존재하며 클러터가 평야, 숲, 도시 등에 따라 거리방향 사상영상과 방위각방향 사상영상이 변하기 때문이다. In the primary identification process (S1360) and the secondary identification process (S1370), the η and γ values can be determined somewhat flexibly for SAR identification. The reason is that there are shadows and clutter of the target in the SAR image, and the clutter changes in the distance mapping image and the azimuthal mapping image according to the plain, forest, and city.

다음으로, 변별부(260)는 추출한 특성벡터 f3(p,q)를 데이터베이스(250)에 저장된 특성벡터와 비교하여 3차적으로 표적을 변별한다(S1380). Next, the discriminating unit 260 discriminates the target on a third basis by comparing the extracted feature vector f 3 (p, q) with the feature vector stored in the database 250 (S1380).

2차 식별 과정(S1360)에서 저장된 회전각도 h를 이용하여 미확인 표적의 극영상을 S2 그룹에 속한 식별하고자 하는 표적의 SAR 극영상에 정렬한다. 즉, 회전각도 h만큼 미확인 표적의 극영상을 이동시킨 다음에 벡터화 하면 수학식 9와 같은 방식의 영상주성분분석법(IMPCA)에 의해 압축된 특성벡터(IIMPCA(l))를 생성할 수 있다. The polar image of the unidentified target is aligned with the SAR polar image of the target to be identified belonging to the S2 group by using the rotation angle h stored in the second identification process (S1360). That is, if the pole image of the unidentified target is moved by the rotation angle h and then vectorized, the compressed feature vector I IMPCA (l) may be generated by the image principal component analysis method (IMPCA).

그리고, f3(p,q)를 구할 때 사용된 변환행렬(B)을 이용하여 미확인 표적에 대한 각각의 g3(pu,qu)를 수학식 18과 같이 계산한다. Then, each of g 3 (p u , q u ) for the unidentified target is calculated using Equation 18 using the transformation matrix B used to obtain f 3 (p, q).

Figure 112010002576229-pat00024
Figure 112010002576229-pat00024

p"은 S2 그룹에서 선택된 특정 표적을 나타내고 q"은 S2 그룹에서 선택된 특정 표적의 촬상 각도를 나타낸다. p "represents the specific target selected from the S2 group and q" represents the imaging angle of the specific target selected from the S2 group.

설명의 편의상 수학식 18에서는 g3(pu,qu)는 미확인 표적의 영상주성분분석법(IMPCA)에 의해 압축된 극사상의 특성벡터 값이며, f3(p",q")는 데이터베이스에 저장되어 있는 식별하고자 하는 표적의 영상주성분분석법(IMPCA)에 의해 압축된 극사상의 특성벡터 값으로 정의한다. For convenience of description, in Equation 18, g 3 (p u , q u ) is a feature value of the extreme optical image compressed by the IMPCA of an unidentified target, and f 3 (p ", q") is expressed in a database. It is defined as the characteristic vector value compressed by the extreme principal component analysis (IMPCA) of the target to be stored.

(p",q")가 S2 그룹에 포함될 때, d(p0,q0)≤d(p",q")이면 미확인 표적의 클래스는 p0로 선택된다. 즉, d(p",q")가 최소가 되도록 하는 p0를 미확인 표적과 동일한 표적으로 선택한다. When (p ", q") is included in the S2 group, the class of the unidentified target is selected as p 0 if d (p 0 , q 0 ) ≤d (p ", q"). That is, p 0 is selected as the same target as the unidentified target so that d (p ", q") is minimized.

이와 같이 본 발명에 따르면 SAR 영상에 대하여 다양한 특성벡터를 통하여 표적뿐만 아니라 표적의 기종까지 높은 정확성을 가지고 변별할 수 있다. 또한 본 발명의 실시예에 따른 특성벡터는 임의의 구분 알고리즘(패턴인식기법, 신경망, 퍼지 이론 등) 및 정보 융합 기법(information fusion)과 결합할 수 있으며, 레이더, 전자광학센서, 적외선 센서 등을 사용하여 지상의 표적을 식별하기 위한 ATR(Automatic Target Recognition) 분야에 직접적인 적용이 가능하다. As described above, according to the present invention, it is possible to discriminate not only the target but also the model of the target with high accuracy through various characteristic vectors. In addition, the feature vector according to an embodiment of the present invention may be combined with any classification algorithm (pattern recognition technique, neural network, fuzzy theory, etc.) and information fusion technique (information fusion). It can be applied directly to the field of Automatic Target Recognition (ATR) for identifying ground targets.

이상에서 본 발명의 바람직한 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다. Although the preferred embodiments of the present invention have been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improvements of those skilled in the art using the basic concepts of the present invention defined in the following claims are also provided. It belongs to the scope of rights.

200: SAR 영상 변별 장치 210: SAR 영상 획득부
220: 정규화부 230: 극영상 생성부
240: 특성벡터 추출부 250: 데이터베이스
260: 변별부
200: SAR image discrimination apparatus 210: SAR image acquisition unit
220: normalization unit 230: polar image generation unit
240: feature vector extractor 250: database
260: discriminating part

Claims (13)

미확인 표적에 대한 합성 개구면 레이더 영상을 획득하는 단계,
상기 합성 개구면 레이더 영상을 정규화 시키는 단계,
상기 정규화된 합성 개구면 레이더 영상을 극사상 처리하여 극영상을 생성하는 단계,
상기 극영상으로부터 특성벡터를 추출하는 단계, 그리고
상기 추출된 특성벡터를 데이터베이스에 저장되어 있는 변별하고자 하는 표적들에 대한 특성벡터와 비교하여, 상기 미확인 표적의 기종을 식별하는 단계를 포함하며,
상기 정규화된 합성 개구면 레이더 영상을 극사상 처리하여 극영상을 생성하는 단계는,
상기 정규화된 합성 개구면 레이더 영상을 모폴로지 처리하여 이진영상을 생성하는 단계,
상기 이진영상으로부터 중심점을 검출하는 단계, 그리고
상기 정규화된 합성 개구면 레이더 영상의 중심점을 기준으로 거리 방향과 방위각 방향으로 샘플링하여 극영상을 생성하는 단계를 포함하는 합성 개구면 레이더 영상에서 표적의 기종을 식별하는 방법.
Obtaining a synthetic aperture radar image for the unidentified target,
Normalizing the composite aperture radar image;
Extreme image processing of the normalized synthetic aperture radar image to generate a polar image;
Extracting a feature vector from the polar image, and
Comparing the extracted characteristic vector with characteristic vectors of targets to be discriminated stored in a database, and identifying a model of the unidentified target,
The extreme image processing of the normalized synthetic aperture radar image may be performed to generate a polar image.
Generating a binary image by morphologically processing the normalized synthetic aperture radar image,
Detecting a center point from the binary image, and
And generating a pole image by sampling in a distance direction and an azimuth direction based on the center point of the normalized synthetic aperture radar image.
제1항에 있어서,
상기 합성 개구면 레이더 영상을 정규화 시키는 단계는,
다음의 수학식을 이용하여 상기 합성 개구면 레이더 영상을 정규화 시키는 합성 개구면 레이더 영상에서 표적의 기종을 식별하는 방법:
Figure 112010002576229-pat00025

여기서, In(xi, yi)은 정규화된 합성 개구면 레이더 영상이고, I0(xi, yi)는 정규화 되기 전의 합성 개구면 레이더 영상이며, x, y는 각각 합성 개구면 레이터 영상의 횡축, 종축 차원을 나타내며, M, N은 각각의 x, y 차원에 대한 화소 수를 나타낸다.
The method of claim 1,
Normalizing the composite aperture radar image may include:
A method of identifying a target model in a composite aperture radar image for normalizing the composite aperture radar image using the following equation:
Figure 112010002576229-pat00025

Where I n (x i , y i ) is a normalized composite aperture radar image, I 0 (x i , y i ) is a composite aperture radar image before normalization, and x and y are composite aperture radar images, respectively. The horizontal and vertical axis dimensions of the image are represented, and M and N represent the number of pixels for each of the x and y dimensions.
삭제delete 제2항에 있어서,
상기 극영상으로부터 추출된 특성벡터는,
상기 극영상의 거리방향 사상영상에 대한 제1 특성 벡터,
상기 극영상의 방위각방향 사상영상에 대한 제2 특성 벡터, 그리고
상기 극영상을 영상주성분분석법(IMPCA)에 의해 압축하여 생성한 제3 특성벡터를 포함하며,
상기 거리방향 사상영상과 상기 방위각방향 사상영상은 각각 다음의 수학식으로 표현되는 합성 개구면 레이더 영상에서 표적의 기종을 식별하는 방법:
Figure 112011076359017-pat00026

Figure 112011076359017-pat00027

여기서, Ir(r)은 거리(r)방향 사상영상이고, Iθ(θ)은 방위각(θ)방향 사상영상이며, Ip(rmn)은 p번째 극영상을 나타내며, Rmin은 최소 샘플링 반경이고, Rmax는 최대 샘플링 반경을 나타낸다.
The method of claim 2,
The feature vector extracted from the polar image is
A first characteristic vector of the distance mapping image of the polar image;
A second characteristic vector of the azimuth mapping image of the polar image, and
A third characteristic vector generated by compressing the extreme image by an image principal component analysis method (IMPCA);
The distance mapping image and the azimuth mapping image, respectively, a method of identifying a model of a target in a composite aperture radar image represented by the following equation:
Figure 112011076359017-pat00026

Figure 112011076359017-pat00027

Here, I r (r) is the mapping image in the direction of distance r, I θ (θ) is the mapping image in the azimuth (θ) direction, I p (r m , θ n ) represents the p-th pole image, R min is the minimum sampling radius and R max represents the maximum sampling radius.
제4항에 있어서,
상기 데이터베이스에 저장되는 특성벡터는,
상기 식별하고자 하는 표적들의 극영상의 거리방향 사상영상에 대한 제4 특성벡터,
상기 식별하고자 하는 표적들의 극영상의 방위각방향 사상영상에 대한 제5 특성벡터, 그리고
상기 식별하고자 하는 표적들의 극영상을 영상주성분분석법(IMPCA)에 의해 압축하여 생성한 제6 특성벡터를 포함하는 합성 개구면 레이더 영상에서 표적의 기종을 식별하는 방법.
The method of claim 4, wherein
The characteristic vector stored in the database is
A fourth characteristic vector of the distance mapping image of the pole image of the targets to be identified;
A fifth characteristic vector of the azimuth mapping image of the polar images of the targets to be identified; and
And a method of identifying a target type in a synthetic aperture radar image including a sixth characteristic vector generated by compressing the polar image of the targets to be identified by image principal component analysis (IMPCA).
제5항에 있어서,
상기 미확인 표적을 식별하는 단계는,
상기 추출된 제1 특성 벡터를 상기 제4 특성 벡터와 비교하여 유사도가 상대적으로 높은 제1 그룹의 표적들을 선택하는 단계,
상기 미확인 표적의 극영상을 정렬하여 상기 제2 특성 벡터를 추출하고, 상기 추출된 제2 특성 벡터를 상기 제1 그룹에 속하는 표적들의 상기 제5 특성 벡터와 비교하여 최대 정규화 상관 계수가 높은 제2 그룹의 표적들을 선택하는 단계, 그리고
정렬된 상기 미확인 표적의 극영상으로부터 상기 제3 특성 벡터를 추출하고, 상기 제3 특성 벡터를 상기 제2 그룹에 속하는 표적들의 상기 제6 특성 벡터와 연산하여, 상기 제2 그룹에 속하는 표적들 중에서 차이 값이 가장 작은 표적을 상기 미확인 표적이 속한 기종으로 선택하는 단계를 포함하는 합성 개구면 레이더 영상에서 표적의 기종을 식별하는 방법.
The method of claim 5,
Identifying the unidentified target,
Selecting the first group of targets having a relatively high similarity by comparing the extracted first characteristic vector with the fourth characteristic vector;
Extracting the second characteristic vector by aligning the polar images of the unidentified target, and comparing the extracted second characteristic vector with the fifth characteristic vector of the targets belonging to the first group, the second having the highest normalized correlation coefficient; Selecting targets in the group, and
Extracting the third characteristic vector from the polar images of the unidentified targets aligned, and calculating the third characteristic vector with the sixth characteristic vector of targets belonging to the second group, thereby selecting among the targets belonging to the second group And selecting the target having the smallest difference value as the model to which the unidentified target belongs.
제6항에 있어서,
상기 유사도는 다음의 수학식과 같이 표현되는 합성 개구면 레이더 영상에서 표적의 기종을 식별하는 방법:
Figure 112010002576229-pat00028

여기서, g1(pu, qu)는 미확인 표적의 임의의 각도에 대한 거리방향 사상영상이며, f1 T(p, q)는 데이터베이스에 저장되어 있는 식별하고자 하는 표적의 제4 특성벡터의 전체 행렬이고, P는 표적의 클래스 개수, Q는 데이터베이스를 구성하는 표적의 촬상 각도를 나타낸다.
The method of claim 6,
The similarity is to identify the model of the target in the synthetic aperture radar image expressed as the following equation:
Figure 112010002576229-pat00028

Where g 1 (p u , q u ) is the distance mapping image for any angle of the unidentified target, and f 1 T (p, q) is the fourth characteristic vector of the target to be identified stored in the database. It is an overall matrix, P is the number of classes of the target, and Q is the imaging angle of the target constituting the database.
미확인 표적에 대한 합성 개구면 레이더 영상을 획득하는 SAR 영상 획득부,
상기 합성 개구면 레이더 영상을 정규화 시키는 정규화부,
상기 정규화된 합성 개구면 레이더 영상을 극사상 처리하여 극영상을 생성하는 극영상 생성부,
상기 극영상으로부터 특성벡터를 추출하는 특성벡터 추출부,
변별하고자 하는 표적들에 대한 특성벡터를 저장하는 데이터베이스, 그리고
상기 추출된 특성벡터를 상기 변별하고자 하는 표적에 대한 특성벡터와 비교하여, 상기 미확인 표적을 식별하는 변별부를 포함하며,
상기 극영상 생성부는,
상기 정규화된 합성 개구면 레이더 영상을 모폴로지 처리하여 이진영상을 생성하고, 상기 이진영상으로부터 중심점을 검출한 다음, 상기 정규화된 합성 개구면 레이더 영상의 중심점을 기준으로 거리 방향과 방위각 방향으로 샘플링하여 극영상을 생성하는 합성 개구면 레이더 영상에서 표적의 기종을 식별하는 장치.
A SAR image acquisition unit for obtaining a synthetic aperture radar image for an unidentified target,
A normalizer for normalizing the synthesized aperture radar image,
Polar image generating unit for generating a polar image by the extreme image processing of the normalized synthetic aperture radar image,
Feature vector extraction unit for extracting a feature vector from the polar image,
A database that stores characteristic vectors for the targets to discriminate, and
Comprising a discriminating unit for identifying the unidentified target by comparing the extracted characteristic vector with the characteristic vector for the target to be discriminated,
The polar image generating unit,
The binary image is generated by morphologically processing the normalized composite aperture radar image, the center point is detected from the binary image, and then sampled in a distance direction and an azimuth direction based on the center point of the normalized synthetic aperture radar image. An apparatus for identifying a model of a target in a synthetic aperture radar image for generating an image.
제8항에 있어서,
상기 정규화부는,
다음의 수학식을 이용하여 상기 합성 개구면 레이더 영상을 정규화 시키는 합성 개구면 레이더 영상에서 표적의 기종을 식별하는 장치:
Figure 112010002576229-pat00029

여기서, In(xi, yi)은 정규화된 합성 개구면 레이더 영상이고, I0(xi, yi)는 정규화 되기 전의 합성 개구면 레이더 영상이며, x, y는 각각 합성 개구면 레이터 영상의 횡축, 종축 차원을 나타내며, M, N은 각각의 x, y 차원에 대한 화소 수를 나타낸다.
The method of claim 8,
The normalization unit,
An apparatus for identifying a model of a target in a composite aperture radar image for normalizing the composite aperture radar image using the following equation:
Figure 112010002576229-pat00029

Where I n (x i , y i ) is a normalized composite aperture radar image, I 0 (x i , y i ) is a composite aperture radar image before normalization, and x and y are composite aperture radar images, respectively. The horizontal and vertical axis dimensions of the image are represented, and M and N represent the number of pixels for each of the x and y dimensions.
삭제delete 제9항에 있어서,
상기 극영상으로부터 추출된 특성벡터는,
상기 극영상의 거리방향 사상영상에 대한 제1 특성 벡터,
상기 극영상의 방위각방향 사상영상에 대한 제2 특성 벡터, 그리고
상기 극영상을 영상주성분분석법(IMPCA)에 의해 압축하여 생성한 제3 특성벡터를 포함하며,
상기 거리방향 사상영상과 상기 방위각방향 사상영상은 각각 다음의 수학식으로 표현되는 합성 개구면 레이더 영상에서 표적의 기종을 식별하는 장치:
Figure 112011076359017-pat00030

Figure 112011076359017-pat00031

여기서, Ir(r)은 거리(r)방향 사상영상이고, Iθ(θ)은 방위각(θ)방향 사상영상이며, Ip(rmn)은 p번째 극영상을 나타내며, Rmin은 최소 샘플링 반경이고, Rmax는 최대 샘플링 반경을 나타낸다.
10. The method of claim 9,
The feature vector extracted from the polar image is
A first characteristic vector of the distance mapping image of the polar image;
A second characteristic vector of the azimuth mapping image of the polar image, and
A third characteristic vector generated by compressing the extreme image by an image principal component analysis method (IMPCA);
The apparatus for identifying a model of a target in the composite aperture radar image represented by the distance mapping image and the azimuth mapping image, respectively:
Figure 112011076359017-pat00030

Figure 112011076359017-pat00031

Here, I r (r) is the mapping image in the direction of distance r, I θ (θ) is the mapping image in the azimuth (θ) direction, I p (r m , θ n ) represents the p-th pole image, R min is the minimum sampling radius and R max represents the maximum sampling radius.
제11항에 있어서,
상기 데이터베이스에 저장되는 특성벡터는,
상기 식별하고자 하는 표적들의 극영상의 거리방향 사상영상에 대한 제4 특성벡터,
상기 식별하고자 하는 표적들의 극영상의 방위각방향 사상영상에 대한 제5 특성벡터, 그리고
상기 식별하고자 하는 표적들의 극영상을 영상주성분분석법(IMPCA)에 의해 압축하여 생성한 제6 특성벡터를 포함하는 합성 개구면 레이더 영상에서 표적의 기종을 식별하는 장치.
The method of claim 11,
The characteristic vector stored in the database is
A fourth characteristic vector of the distance mapping image of the pole image of the targets to be identified;
A fifth characteristic vector of the azimuth mapping image of the polar images of the targets to be identified; and
An apparatus for identifying a model of a target in a synthetic aperture radar image comprising a sixth characteristic vector generated by compressing the polar image of the target to be identified by an image principal component analysis (IMPCA).
제12항에 있어서,
상기 변별부는,
상기 추출된 제1 특성 벡터를 상기 제4 특성 벡터와 비교하여 유사도가 상대적으로 높은 제1 그룹의 표적들을 선택하며,
상기 미확인 표적의 극영상을 정렬하여 상기 제2 특성 벡터를 추출하고, 상기 추출된 제2 특성 벡터를 상기 제1 그룹에 속하는 표적들의 상기 제5 특성 벡터와 비교하여 최대 정규화 상관 계수가 높은 제2 그룹의 표적들을 선택하며,
정렬된 상기 미확인 표적의 극영상으로부터 상기 제3 특성 벡터를 추출하고, 상기 제3 특성 벡터를 상기 제2 그룹에 속하는 표적들의 상기 제6 특성 벡터와 연산하여, 상기 제2 그룹에 속하는 표적들 중에서 차이 값이 가장 작은 표적을 상기 미확인 표적이 속한 기종으로 선택하는 합성 개구면 레이더 영상에서 표적의 기종을 식별하는 장치.

The method of claim 12,
The discriminating unit,
Comparing the extracted first characteristic vector with the fourth characteristic vector to select targets of a first group having a relatively high similarity,
Extracting the second characteristic vector by aligning the polar images of the unidentified target, and comparing the extracted second characteristic vector with the fifth characteristic vector of the targets belonging to the first group, the second having the highest normalized correlation coefficient; Select targets in the group,
Extracting the third characteristic vector from the polar images of the unidentified targets aligned, and calculating the third characteristic vector with the sixth characteristic vector of targets belonging to the second group, thereby selecting among the targets belonging to the second group A device for identifying a model of a target in a synthetic aperture radar image for selecting a target having a smallest difference value as a model to which the unknown target belongs.

KR1020100003608A 2010-01-14 2010-01-14 Method of discriminating class of target in synthetic aperture radar image and apparatus thereof KR101139588B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100003608A KR101139588B1 (en) 2010-01-14 2010-01-14 Method of discriminating class of target in synthetic aperture radar image and apparatus thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100003608A KR101139588B1 (en) 2010-01-14 2010-01-14 Method of discriminating class of target in synthetic aperture radar image and apparatus thereof

Publications (2)

Publication Number Publication Date
KR20110083397A KR20110083397A (en) 2011-07-20
KR101139588B1 true KR101139588B1 (en) 2012-04-27

Family

ID=44921147

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100003608A KR101139588B1 (en) 2010-01-14 2010-01-14 Method of discriminating class of target in synthetic aperture radar image and apparatus thereof

Country Status (1)

Country Link
KR (1) KR101139588B1 (en)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103675818B (en) * 2013-12-03 2017-01-18 中国科学院深圳先进技术研究院 Method and system for measuring polarimetric synthetic aperture radar data ground object three-dimensional distance
KR101851636B1 (en) * 2016-10-20 2018-06-07 국방과학연구소 Method and device for radar target classification using fusion of complex natural resonance frequency-based feature and waveform structure-based feature
KR101891410B1 (en) * 2016-12-09 2018-08-23 포항공과대학교 산학협력단 Apparatus for classifying target of inverse synthetic aperture radar image using trace transform and method thereof
KR102223078B1 (en) * 2019-12-11 2021-03-04 국방과학연구소 Method for discriminating between synthetic aperture radar images od targets and artificial clutters
RU2741613C1 (en) * 2020-01-14 2021-01-27 Федеральное государственное казенное военное образовательное учреждение высшего образования "Военный учебно-научный центр Военно-воздушных сил "Военно-воздушная академия имени профессора Н.Е. Жуковского и Ю.А. Гагарина" (г. Воронеж) Министерства обороны Российской Федерации Method of identifying ground targets
KR102141163B1 (en) * 2020-05-06 2020-08-04 국방과학연구소 Neural network learning method and apparatus for generating synthetic aperture radar image
KR102482448B1 (en) * 2020-06-12 2022-12-28 엘아이지넥스원 주식회사 System and method for screening priority target to be struck
KR102408417B1 (en) * 2020-08-04 2022-06-13 국방과학연구소 Apparatus, method, computer-readable storage medium and computer program for identifying location of target from image obtained by synthetic aperture radar
KR102234347B1 (en) * 2021-01-19 2021-03-31 주식회사 에스아이에이 Method and apparatus for processing radar image
KR102612681B1 (en) * 2021-12-01 2023-12-13 한국환경연구원 Photovoltaic panel monitoring system and methods using SAR
KR102482150B1 (en) * 2022-05-11 2022-12-29 한화시스템(주) Deep learning training apparatus and method for automatically recognizing target in SAR image, and apparatus for automatically recognizing target in SAR image
KR102501303B1 (en) * 2022-08-19 2023-02-21 국방과학연구소 Method of similarity measurement and recognition between targets of SAR images

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0933649A (en) * 1995-07-21 1997-02-07 Toshiba Corp Discrimination operation apparatus of isar image target
JP2000003436A (en) 1998-06-16 2000-01-07 Mitsubishi Electric Corp Device and method for recognizing isar picture
JP2002006034A (en) * 2000-06-21 2002-01-09 Toshiba Corp Method and apparatus for class discrimination of target in radar
JP2003090879A (en) 2001-09-18 2003-03-28 Toshiba Corp Category identification method of radar targets, computer program and device therefor

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0933649A (en) * 1995-07-21 1997-02-07 Toshiba Corp Discrimination operation apparatus of isar image target
JP2000003436A (en) 1998-06-16 2000-01-07 Mitsubishi Electric Corp Device and method for recognizing isar picture
JP2002006034A (en) * 2000-06-21 2002-01-09 Toshiba Corp Method and apparatus for class discrimination of target in radar
JP2003090879A (en) 2001-09-18 2003-03-28 Toshiba Corp Category identification method of radar targets, computer program and device therefor

Also Published As

Publication number Publication date
KR20110083397A (en) 2011-07-20

Similar Documents

Publication Publication Date Title
KR101139588B1 (en) Method of discriminating class of target in synthetic aperture radar image and apparatus thereof
Qu et al. Vehicle detection from high-resolution aerial images using spatial pyramid pooling-based deep convolutional neural networks
Karami et al. Image identification using SIFT algorithm: performance analysis against different image deformations
Tao et al. Dense point cloud extraction from UAV captured images in forest area
KR101056608B1 (en) Method and apparatus for discriminating target in synthetic aperture radar image
US8330819B2 (en) Method for pose invariant vessel fingerprinting
Kuzmin et al. Automatic segment-level tree species recognition using high resolution aerial winter imagery
Liu et al. Multi-sensor image registration by combining local self-similarity matching and mutual information
Cheng et al. Invariant triangle-based stationary oil platform detection from multitemporal synthetic aperture radar data
Chureesampant et al. Automatic GCP extraction of fully polarimetric SAR images
Estabridis Automatic target recognition via sparse representations
US10753708B2 (en) Missile targeting
Price et al. Automatic detection system for buried explosive hazards in FL-LWIR based on soft feature extraction using a bank of Gabor energy filters
Belloni et al. Comparison of descriptors for SAR ATR
CN116843906A (en) Target multi-angle intrinsic feature mining method based on Laplace feature mapping
Mandroux et al. Wind turbine detection on sentinel-2 images
Hao et al. Robust multisource remote sensing image registration method based on scene shape similarity
Jabari et al. Application of off-nadir satellite imagery in earthquake damage assessment using object-based HOG feature descriptor
Liu et al. Semi-automatic extraction and mapping of farmlands based on high-resolution remote sensing images
Marwaha et al. Object-oriented and pixel-based classification approach for land cover using airborne long-wave infrared hyperspectral data
Lu et al. Research on indoor target positioning system based on image feature extraction and recognition
Mandroux et al. Multi-Date Wind Turbine Detection on Optical Satellite Images
Alonso et al. Classification of multispectral high-resolution satellite imagery using LIDAR elevation data
Ambrosanio et al. Kolgomorov Smirnov test based approach for SAR automatic target recognition
Ying et al. Fully Convolutional Networks tor Street Furniture Identification in Panorama Images.

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20150515

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee