KR101238748B1 - 주사구동 적외선센서장치를 이용한 표적거리 측정시스템 - Google Patents

주사구동 적외선센서장치를 이용한 표적거리 측정시스템 Download PDF

Info

Publication number
KR101238748B1
KR101238748B1 KR1020120095620A KR20120095620A KR101238748B1 KR 101238748 B1 KR101238748 B1 KR 101238748B1 KR 1020120095620 A KR1020120095620 A KR 1020120095620A KR 20120095620 A KR20120095620 A KR 20120095620A KR 101238748 B1 KR101238748 B1 KR 101238748B1
Authority
KR
South Korea
Prior art keywords
target
image
scan
scanning
distance
Prior art date
Application number
KR1020120095620A
Other languages
English (en)
Inventor
김지은
이부환
Original Assignee
국방과학연구소
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 국방과학연구소 filed Critical 국방과학연구소
Priority to KR1020120095620A priority Critical patent/KR101238748B1/ko
Application granted granted Critical
Publication of KR101238748B1 publication Critical patent/KR101238748B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/74Systems using reradiation of electromagnetic waves other than radio waves, e.g. IFF, i.e. identification of friend or foe
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

본 발명은 표적거리 측정시스템에 관한 것으로, 상기 발명은 전면에 배치되어 사전에 정해진 구동주기와 각도범위 내에서 반복 회동하여 표적이 포함된 감지구역으로부터의 적외선을 수광하는 주사거울과, 상기 주사거울의 일측 회동 위치 및 타측 회동 위치에서 각각 수광되어 입사되는 적외선에 의해 상기 표적에 대한 제1 주사영상 및 제2 주사영상을 각각 획득하여 출력하는 IR센서로 이루어진 주사구동 적외선센서장치; 및 상기 주사구동 적외선센서장치로부터 입력되는 영상정보 중 상기 제1 주사영상과 상기 제2 주사영상의 겹침부분에 상기 표적에 대응하는 영상이 동시에 존재하는 경우 상기 제1 주사영상과 상기 제2 주사영상의 상관성을 해석하여 상기 표적의 3차원 거리정보를 계산하는 영상처리장치를 포함하는 것을 특징으로 한다. 이와 같이 본 발명은 능동센서(active sensor)를 이용하는 종래 측정방식 대신 주사구동 적외선센서장치와 같은 수동센서(passive sensor)를 이용한 측정방식을 적용함으로써 외부에서 파악이 용이하지 않아 종래보다 노출 위험이 적은 장점을 가진다.

Description

주사구동 적외선센서장치를 이용한 표적거리 측정시스템{SYSTEM FOR MEASURING DISTANCE OF TARGET USING STEP-STARING INFRARED SENSOR UNIT}
본 발명은 표적거리 측정시스템에 관한 것으로, 구체적으로는 주사구동 적외선센서 장치를 이용하여 표적의 거리를 측정하는 표적거리 측정시스템에 관한 것이다.
레이저나 레이더 등의 능동(active)센서를 이용한 표적거리 측정시스템은 에너지를 표적으로 발사하여 표적의 표면에서 반사하는 에너지를 측정하여 거리를 획득한다.
그러나 레이저 및 레이더와 같은 능동센서(active sensor)를 이용한 종래 표적거리 측정시스템은 표적의 거리 정보를 알아내는 동시에 측정을 수행하는 측정자의 위치가 노출될 위험이 있어 사용상 제한이 따르는 문제가 있다.
또한 종래 표적거리 측정시스템은 전파방해(Electronic countermeasure, ECM)나 다중경로(multi-path)에 의해 표적거리의 측정 성능을 저하시키는 문제가 있다.
KR 10- 2000-0052569 A, 2000. 08. 26, 도면 1e
본 발명의 목적은 레이저나 레이더와 같은 능동센서(active sensor)를 이용하는 측정방식 대신 적외선 센서와 같은 수동센서(passive sensor)를 이용한 측정방식을 적용함으로써 거리 측정자의 위치 노출 없이 종래 능동센서의 사용에 따른 측정오류를 최소화할 수 있는 표적거리 측정시스템을 제공하는 것이다.
상기 목적을 달성하기 위한 본 발명의 일 측면에 따른 표적거리 측정시스템은, 전면에 배치되어 사전에 정해진 구동주기와 각도범위 내에서 반복 회동하여 표적이 포함된 감지구역으로부터의 적외선을 수광하는 주사거울과, 상기 주사거울의 일측 회동 위치 및 타측 회동 위치 각각에 수광되어 입사되는 적외선에 의해 상기 표적에 대한 제1 주사영상 및 제2 주사영상을 각각 획득하여 출력하는 IR센서로 이루어진 주사구동 적외선센서장치; 및 상기 주사구동 적외선센서장치로부터 입력되는 영상정보 중 상기 제1 주사영상과 상기 제2 주사영상의 겹침부분에 상기 표적에 대응하는 영상이 동시에 존재하는 경우 상기 제1 주사영상과 상기 제2 주사영상의 상관성을 해석하여 상기 표적의 3차원 거리정보를 계산하는 영상처리장치를 포함하는 것을 특징으로 한다.
상기 영상처리장치는 상기 획득된 제1 주사영상 및 제2 주사영상으로부터 상기 표적을 탐지하여 영상평면 상의 상기 표적의 위치를 파악하는 표적탐지부와, 상기 파악된 표적의 위치를 이용하여 상기 표적의 움직임을 보상하는 표적움직임보상부와, 상기 파악된 표적의 위치와 상기 표적의 움직임 보상을 이용하여 상기 표적의 3차원 거리정보를 계산하는 표적거리연산부를 포함할 수 있다.
상기 표적탐지부는 상기 주사거울의 구동주기 별로 획득된 상기 제1 주사영상들과 상기 제2 주사영상들 모두에 대해 상기 구동주기 별로 상기 제1 주사영상과 상기 제2 주사영상의 대응관계를 파악하는 것에 의해 수행될 수 있다.
상기 표적탐지부는 상기 제1 주사영상 및 제2 주사영상에서 표적후보를 탐지하기 위한 공간필터링(spatial filtering)모듈과, 사전에 정해진 기준에 의해 상기 탐지된 표적후보들 중 하나의 표적후보를 선정하기 위한 표적선정(target selection)모듈과, 상기 선정된 표적후보의 중심좌표를 연산하는 것에 의해 상기 표적의 위치가 결정되는 표적위치결정(target pointing)모듈을 포함할 수 있다.
상기 공간필터링모듈은 A-TDLF(Approximate Two Dim. Laplacian Filter)에 의해 구현될 수 있다.
상기 표적선정(target selection)모듈은 상기 탐지된 표적후보들 중 11×11이하 크기의 가장 밝은 표적후보를 선정할 수 있다. 즉 상기 표적선정모듈은 상기 탐지된 표적후보들을 사전에 정해진 임계밝기 값을 기준으로 이진화하여 사전에 정해진 클러스터링을 수행하고, CFAR(Constant False Alarm Rate) 검출을 이용하여 상기 클러스터링 후 존재하는 클러터(clutter)를 제거하여 상기 가장 밝은 표적후보를 선정할 수 있다.
상기 표적위치결정(target pointing)모듈에서 상기 표적의 위치는 상기 선정된 표적후보의 클러스터들 중 평균밝기 값이 가장 큰 클러스터의 무게 중심값을 연산하는 것에 의해 결정될 수 있다.
상기 표적움직임보상부는 상기 일측 회동 위치와 상기 타측 회동 위치 사이의 상기 주사거울의 구동시간의 간격 동안 상기 표적이 이동하는 경우, 상기 구동시간의 간격 동안 상기 표적이 이동하는 것을 보상하는 기능을 수행할 수 있다. 상기 표적이 이동하는 것을 보상하는 것은 상기 주사거울의 구동시간의 간격 동안 상기 표적이 이동하는 속도를 이용하여 수행될 수 있다.
상기 표적이 이동하는 속도는, 상기 표적의 위치가 t시점의 제2 주사영상에 대응하여 상기 표적탐지부에 의해 파악된 상기 표적의 위치가
Figure 112012070042527-pat00001
로 표현되고 상기 표적이 이동하는 이동속도가
Figure 112012070042527-pat00002
로 표현되며, x 및 y가 상기 영상평면 상의 2차원 직교좌표계의 좌표값이고, N이 상기 제2 주사영상의 개수이며 2보다 큰 정수인 경우, 상기 이동속도는 제1식으로 표현될 수 있다.
제1식:
Figure 112012070042527-pat00003
상기 구동시간의 간격이 Δt로 표현되고, 상기 제1 주사영상에 대응하여 상기 표적탐지부에 의해 파악된 상기 표적의 위치가
Figure 112012070042527-pat00004
로 표현되는 경우 상기 제1 주사영상의 중심을 기준으로 하는 상기 표적의 위치는 제2식으로 표현되고, 상기 제2 주사영상에 대응하여 상기 표적탐지부에 의해 파악된 상기 표적의 위치가
Figure 112012070042527-pat00005
로 표현되는 상기 제2 주사영상의 중심을 기준으로 하는 상기 표적의 위치는 제3식으로 표현될 수 있다.
제2식:
Figure 112012070042527-pat00006
, d1: 상기 제1 주사영상의 중심을 기준으로 하는 좌우 이격거리, h1: 상기 제1 주사영상의 중심을 기준으로 하는 상하 이격거리
제3식:
Figure 112012070042527-pat00007
, d2: 상기 제2 주사영상의 중심을 기준으로 하는 좌우 이격거리, h2: 상기 제2 주사영상의 중심을 기준으로 하는 상하 이격거리
상기 표적거리연산부는 상기 제1 주사영상과 상기 제2 주사영상의 대응관계와 상기 주사구동 적외선센서장치의 파라미터를 이용하는 것에 의해, 상기 주사구동 적외선센서장치와 상기 표적 사이의 수평거리 및 수직거리를 연산하여 상기 표적의 3차원 거리정보를 계산할 수 있다.
상기 제2식의 d1과 상기 제3식의 d2의 합이 d로 표현되고, 상기 주사구동 적외선센서장치의 초점거리가 f로 표현되며, 상기 제1 주사영상의 중심과 상기 제2 주사영상의 중심 사이의 거리가 b로 표현된 경우, 상기 주사구동 적외선센서장치와 상기 표적 사이의 수평거리 L은 제4식으로 표현되고, 상기 주사구동 적외선센서장치와 상기 표적 사이의 수직거리 H는 제5식으로 표현되며, 상기 3차원 거리정보 R은 제6식으로 표현될 수 있다.
제4식:
Figure 112012070042527-pat00008
제5식:
Figure 112012070042527-pat00009
, IFOV: 상기 주사구동 적외선센서장치의 파라미터인 공간분해능(Instantaneous Field Of View)
제6식:
Figure 112012070042527-pat00010
이와 같이 본 발명은 레이저나 레이더와 같은 능동센서(active sensor)를 이용하는 측정방식 대신 적외선 센서와 같은 수동센서(passive sensor)를 이용한 측정방식을 적용함으로써 외부에서 파악이 용이하지 않아 종래보다 노출 위험이 적은 장점을 가진다.
또한 본 발명은 동일한 적외선센서와 동일한 광학장치를 이용함으로써, 종래 스테레오(stereo) 시스템과 같은 2개의 카메라의 정렬 및 정규화(rectification) 과정을 배제할 수 있어 종래에 비해 정밀한 거리측정이 가능하다.
또한 본 발명은 표적의 대응관계 연산에서도 표적 탐지기법을 적용하고, 표적 움짐임을 보상함으로써 실시간 구현이 가능한 장점을 가진다.
도 1은 본 발명의 일 실시예에 따른 표적거리 측정시스템의 개념도이다.
도 2는 표적거리 측정시스템의 동작에 의한 주사영상의 획득개념을 설명하기 위한 도면이다.
도 3은 종래 stereo 시스템의 영상획득방법을 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시예에 따른 영상처리장치의 블록도이다.
도 5는 본 발명의 일 실시예에 따른 표적탐지부의 블록도이다.
도 6은 도 5에 도시된 표적선정모듈의 블록도이다.
도 7은 도 6의 CFAR(Constant False Alarm Rate) 검출(detection)을 설명하기 위한 도면이다.
도 8은 본 실시예에 따른 표적탐지부에 의한 표적 탐지결과를 설명하기 위한 이미지이다.
도 9는 본 실시예에 따른 제1 주사영상과 제2 주사영상에서의 표적의 위치를 각각의 주사영상의 중심을 원점으로 하여 표시한 도면이다.
도 10은 본 실시예에 따른 표적의 화면상의 위치와 표적과의 수평거리 관계를 나타내기 위한 도면이다.
도 11은 본 실시예에 따른 주사구동 적외선센서장치와 표적의 3차원 위치를 나타내기 위한 도면이다.
이하 첨부된 도면들을 참조하여 본 발명의 일 실시예에 따른 표적거리 측정시스템에 대해 설명한다. 도 1은 본 발명의 일 실시예에 따른 표적거리 측정시스템의 개념도이고, 도 2는 표적거리 측정시스템의 동작에 의한 주사영상의 획득개념을 설명하기 위한 도면이다.
도 1을 참조하면, 본 실시예에 따른 표적거리 측정시스템은 주사구동 적외선센서장치(10)와 이와 연동하는 영상처리장치(20)로 이루어질 수 있다. 주사구동 적외선센서장치(10)는 감지구역(A) 내의 표적을 탐지하기 위해 영상정보를 획득하여 연속하는 주사영상을 영상처리장치(20)로 전달하고, 영상처리장치(20)는 전달된 주사영상을 처리하여 주사구동 적외선센서장치(10)과 표적(T) 사이의 3차원 거리를 계산한다.
주사구동 적외선센서장치(10)는 전면 측에 배치된 주사거울(12)과 입사되는 적외선을 센싱하여 영상을 획득하는 IR센서(14)로 이루어질 수 있다.
주사거울(12)은 사전에 정해진 구동주기와 각도범위 내에서 반복 회동하여 표적이 포함된 감지구역으로부터의 적외선을 수광하여 IR센서(14)로 입사한다. 주사거울(12)은 도 1의 ①에 도시된 일측 회동 위치로 도 1의 ②에 도시된 타측 회동 위치로 반복 회동한다.
도 2에 도시된 바와 같이, IR센서(14)는 주사거울(12)의 일측 회동 위치에서 수광되어 입사되는 적외선에 의해 제1 주사영상(t)을 획득하고, 주사거울(12)의 타측 회동 위치에서 수광되어 입사되는 적외선에 의해 제2 주사영상(t+Δt)을 획득한다.
제1 주사영상(t)는 t시점에서 획득된 주사영상을 의미하고, 제2 주사영상(t+Δt)은 t시점으로부터 Δt만큼 경과한 시점에서 획득된 주사영상을 의미한다. Δt는 일측 회동 위치와 타측 회동 위치 사이의 주사거울(12)의 구동시간의 간격을 의미한다.
본 실시예에 따른 주사구동 적외선센서장치(10)는 표적(T)의 거리를 구하기 위해 적외선영상을 획득한다. 도 1과 같이 주사거울(12)의 방향을 변화시키면 주사거울(12)에 의해 반사되는 감지구역(A)에 대한 영상영역이 변하게 되고 최종적으로 IR센서(14)로 입사되는 영상의 영역도 변하게 된다. 이때 주사거울(12)의 구동각의 차이는 제1 주사영상(t)과 제2 주사영상(t+Δt)의 LOS(Line of Sight) 차이에 해당하며, 이에 의해 주상영상 간 중복 크기가 달라진다.
즉 본 실시예에 따른 주사구동 적외선센서장치(10)는 주사거울(12)이 도 1의 ①과 ②의 방향으로 주기적으로 반복하여 구동하고 각 방향으로 향할 때 마다 도 2의 제1 주사영상(t)과 제2 주사영상(t+Δt)을 각각 획득한다. 이 경우 도 2에 도시된 바와 같이 표적(T)은 제1 주사영상(t)과 제2 주사영상(t+Δt)의 겹침 부분에 동시에 존재해야 한다.
도 3은 종래 stereo 시스템의 영상획득방법을 설명하기 위한 도면으로, 본 실시예에 따른 주사구동 적외선센서장치(10)의 비교예로서 소개한다. 본 실시예가 표적의 촬영을 위해 1개의 주사구동 적외선센서장치(10)를 사용하는 데 반해, 종래 stereo 시스템은 평행한 2개의 카메라로 동시에 물체를 촬영해 영상을 획득한다.
이와 같이, 본 실시예에 따른 표적거리 측정시스템는 동일한 적외선센서와 동일한 광학장치를 이용함으로써, 종래 스테레오(stereo) 시스템과 같은 2개의 카메라의 정렬 및 정규화(rectification) 과정을 배제할 수 있어 종래에 비해 정밀한 거리측정이 가능하다.
영상처리장치(20)는 주사구동 적외선센서장치(10)로부터 입력되는 영상정보 중 제1 주사영상과 제2 주사영상의 겹침부분에 표적(T)에 대응하는 영상이 동시에 존재하는 경우 제1 주사영상과 제2 주사영상의 상관성을 해석하여 표적(T)에 대한 3차원 거리정보를 계산한다.
도 4는 본 발명의 일 실시예에 따른 영상처리장치의 블록도로서, 영상처리장치(20)는 표적탐지부(22), 표적움직임보상부(24) 및 표적거리연산부(26)로 기능상 구분할 수 있다.
표적탐지부(22)는 주사구동 적외선센서장치(10)로부터 입력되는 제1 주사영상과 제2 주사영상으로부터 표적(T)을 탐지하여 영상평면 표적(T)의 위치를 파악할 수 있다.
이하 도 5를 참조하여 표적탐지부(22)에 대해 구체적으로 설명한다. 도 5는 본 발명의 일 실시예에 따른 표적탐지부의 블록도이다. 표적(T)의 탐지는 두 개의 주사영상간의 대응관계를 파악하기 위한 것으로, 주사거울(12)의 구동주기 별로 획득된 제1 주사영상들과 제2 주사영상들 모두에 대해 구동주기 별로 제1 주사영상과 제2 주사영상의 대응관계를 파악하는 것에 의해 수행될 수 있다.
즉 표적탐지부(22)는 제1 주사영상(t)과 제2 주사영상(t+Δt)에 각각 수행하며, 입력되는 모든 시점(...t-2, t-1, t, t+1, t+2, t+3...)의 영상에 대해서도 주사영상별로 수행한다.
도 5를 참조하면, 표적탐지부(22)는 공간필터링(spatial filtering)모듈(222), 표적선정(target selection)모듈(224), 표적위치결정(target pointing)모듈(226)을 통해 사용자의 개입 없이 자동으로 표적을 탐지할 수 있다.
공간필터링(spatial filtering)모듈(222)은 제1 주사영상 및 제2 주사영상에서 표적후보를 탐지하기 위한 것이다. 공간필터링은 일반적으로 화상에 포함되는 특정의 공간 주파수 성분을 강조하거나 감쇠하기 위해 사용되는 필터로서 선명하지 못한 화상의 선명화, 화상의 신호 대 잡음비(S/N)의 향상 등에 사용될 수 있다.
본 실시예에서 공간필터링모듈(222)은 공간필터(spatial filter) 중 하나인 A-TDLF(Approximate Two Dim. Laplacian Filter)에 의해 구현될 수 있다.
A-TDLF는 2D 윈도우내 화소의 평균을 구하여 배경 특성을 측정하고, 이것과 Gaussain filter로 노이즈에 대한 표적 신호를 강화한 영상과의 차로부터 주변 배경보다 밝은 영역을 검출한다. A-TDLF filter는 다음 수학식 1과 같이 표현될 수 있다. x 및 y는 영상평면 상에 정의된 2차원 직교좌표계에 의한 좌표값이다.
Figure 112012070042527-pat00011
여기서
Figure 112012070042527-pat00012
는 입력 영상을 나타내고,
Figure 112012070042527-pat00013
는 A-TDLF의 결과 영상을 나타낸다.
Figure 112012070042527-pat00014
은 중심의 3X3 크기의 Gaussian filter이고,
Figure 112012070042527-pat00015
은 (x,y)중심의 11X11크기의 평균값 필터이다.
표적선정(target selection)모듈(224)은, 공간필터링모듈(222)에 의해 탐지된 표적후보들 중 하나의 표적후보를 사전에 정해진 기준인 임계밝기 값을 기준으로 하여 하나의 표적후보를 선정한다. 즉 표적선정모듈(224)은 공간필터링모듈(222)을 통과한 영상에서 가장 밝은 표적을 선정한다.
도 6을 참조하여 표적선정모듈(224)에 대해 설명한다, 도 6은 표적선정모듈의 블록도로서, 표적선정모듈(224)은 Pre-Thresholding 및 클러스터링(clustering)(2242)과, CFAR(Constant False Alarm Rate) 검출(detection)(2244)에 의해 동작한다. 표적선정모듈(224)은 공간필터링모듈(222)을 통과한 영상에서 11X11이하 크기의 가장 밝은 표적을 선정한다.
Pre-Thresholding 및 클러스터링(2242)은 공간필터링모듈(222)에 의해 탐지된 표적후보들을 임계밝기 값을 기준으로 이진화하여 사전에 정해진 8-neighbor 클러스터링을 수행할 수 있다.
CFAR 검출(2244)은 위의 클러스터링 후 존재하는 클러터(clutter)를 제거하여 가장 밝은 표적후보를 선정할 수 있다.
Figure 112012070042527-pat00016
는 다음 수학식 2와 같이 표현될 수 있다. , 여기서 n은 n번째 클러스터를 의미한다.
Figure 112012070042527-pat00017
Pre-thresholding 이후에도 배경 영상의 종류에 따라 많은 클러터들이 존재할 수 있다. 따라서 CFAR 검출(2244)에 의해 클러터들을 제거하고 표적 선정의 정확성을 높일 수 있다.
CFAR 검출(2244)은 도 7에 도시된 바와 같은 Target cell 영역의 신호값과 Background cell의 신호값의 상대적 비교를 통해 수행된다. Guard cell은 두 영역의 간섭을 막기위한 것으로, μ가 Background cell의 신호 평균, σ가 Background cell의 표준 편차일 때 클러터 제거를 위한 적응적 임계밝기 값이
Figure 112012070042527-pat00018
로 표현되는 경우,
Figure 112012070042527-pat00019
는 다음 수학식 3과 같이 표현될 수 있다. 여기서 n은 n번째 클러스터를 의미하고, k는 2~5사이의 값으로 정해진다.
Figure 112012070042527-pat00020
CFAR 검출(2244)은, 하기의 수학식 4와 같이, 클러스터링 결과에서 적응적 임계밝기 값 이하의 클러스터들은 클러터로 간주하여 제거한다. 이때 Target cell은 클러스터의 가로 및 세로 크기와 일치하며 Background cell의 크기는 Target cell 크기의 2배로. Guard cell은 Background cell과 Target cell의 경계로 폭은 2pixel로 설정된다.
Figure 112012070042527-pat00021
이와 같이 표적선정모듈(224)은 공간필터링모듈(222)에 의해 탐지된 표적후보들 중 가장 밝은 표적후보를 선정할 수 있다. 표적선정모듈(224)에 의해 선정된 표적후보는
Figure 112012070042527-pat00022
와 같이 표현될 수 있다.
표적위치결정(target pointing)모듈(226)은 표적선정모듈(224)에 의해 선정된 표적후보의 중심좌표를 연산하는 것에 의해 표적(T)의 위치를 결정할 수 있다. 즉 표적(T)의 위치는 선정된 표적후보의 클러스터들 중 평균밝기 값이 가장 큰 클러스터의 무게 중심값에 의해 결정될 수 있다. 즉 표적의 위치,
Figure 112012070042527-pat00023
는 다음 수학식 5와 같이 나타낼 수 있다. 여기서 center 함수는 클러스터의 무게 중심을 구하는 함수이다.
Figure 112012070042527-pat00024
도 8은 본 실시예에 따른 표적탐지부에 의한 표적 탐지결과를 설명하기 위한 이미지이다. 좌측 이미지는 제1 주사영상의 평면상에 표시된 표적이고, 우측이미지는 제2 주사영상의 평면상에 표시된 표적이다.
본 실시예에 따른 표적움직임보상부(24)는 주사거울의 일측 회동 위치와 타측 회동 위치 사이의 주사거울의 구동시간의 간격, Δt동안 표적(T)이 이동하는 속도를 이용하여 구동시간의 간격 동안 표적(T)이 이동하는 것을 보상할 수 있다.
표적이 이동하는 속도는, 표적(T)의 위치가 t시점의 제2 주사영상에 대응하여 상기 표적탐지부(22)에 의해 파악된 상기 표적의 위치가
Figure 112012070042527-pat00025
로 표현되고 상기 표적이 이동하는 이동속도가
Figure 112012070042527-pat00026
로 표현되며, N이 상기 제2 주사영상의 개수이며 2보다 큰 정수인 경우, 이동속도는 다음 수학식 6으로 표현될 수 있다.
Figure 112012070042527-pat00027
도 9는 본 실시예에 따른 제1 주사영상과 제2 주사영상에서의 표적의 위치를 각각의 주사영상의 중심을 원점으로 하여 표시한 도면이다. 도 9를 참조하여 표적움직임보상부(24)에 의해 보상된 표적의 위치를 설명한다.
제1 주사영상에 대응하여 표적탐지부(22)에 의해 파악된 표적의 위치가
Figure 112012070042527-pat00028
로 표현되는 경우, 제1 주사영상의 중심을 기준으로 하는 표적의 위치는 다음 수학식 7과 같이 표현될 수 있다. 여기서 d1은 제1 주사영상의 중심을 기준으로 하는 좌우 이격거리이고, h1은 제1 주사영상의 중심을 기준으로 하는 상하 이격거리이다.
Figure 112012070042527-pat00029
제2 주사영상에 대응하여 표적탐지부(22)에 의해 파악된 표적의 위치가
Figure 112012070042527-pat00030
로 표현되는 경우 구동시간의 간격 Δt동안 이동속도
Figure 112012070042527-pat00031
에 의해 보상된 표적의 위치는 제2 주사영상의 중심을 기준으로 수학식 8과 같이 표현될 수 있다. 여기서 d2는 제2 주사영상의 중심을 기준으로 하는 좌우 이격거리이고, h2는 제2 주사영상의 중심을 기준으로 하는 상하 이격거리이다.
Figure 112012070042527-pat00032
이와 같이 본 실시예에 따른 표적거리 측정시스템은 표적의 대응관계 연산에서도 표적 탐지기법을 적용하고, 표적 움짐임을 보상함으로써 실시간 구현이 가능한 장점을 가진다.
본 실시예에 따른 표적거리연산부(26)는 표적탐지부(22)에 의해 파악된 표적의 위치와 표적움직임보상부(24)에 의하여 구동시간의 간격 Δt동안 움직인 표적의 위치를 보상하는 것에 의해 표적의 3차원 거리정보를 계산할 수 있다.
표적거리연산부(26)는 도 10에 도시된 바와 같은 제1 주사영상과 제2 주사영상의 대응관계 및 주사구동 적외선센서장치(10)의 파라미터를 이용하는 것에 의해, 주사구동 적외선센서장치(10)와 표적(T) 사이의 수평거리 및 수직거리를 연산하여 표적의 3차원 거리정보를 계산할 수 있다.
도 10 및 도 11를 참조하여, 표적의 3차원 거리정보 R을 계산하는 방법에 대해 설명한다. 도 10은 표적의 화면상의 위치와 표적과의 수평거리 관계를 나타내기 위한 도면이고, 도 11은 주사구동 적외선센서장치와 표적의 3차원 위치를 나타내기 위한 도면이다.
주사구동 적외선센서장치(10)와 표적(T) 사이의 수평거리 L은, 수학식 7의 d1과 수학식 8의 d2의 합이 d로 표현되고, 주사구동 적외선센서장치(10)의 파라미터 중 초점거리가 f로 표현되며, 도 10에 도시된 제1 주사영상의 중심과 제2 주사영상의 중심 사이의 거리가 b로 표현된 경우, 다음 수학식 9와 같은 비례식을 이용하여 수학식 10과 같이 계산될 수 있다.
Figure 112012070042527-pat00033
Figure 112012070042527-pat00034
주사구동 적외선센서장치(10)와 표적(T) 사이의 수직거리 H는 다음 수학식 11에 의해 구할 수 있다.
Figure 112012070042527-pat00035
수학식 11에서 θ는 주사구동 적외선센서장치(10)의 파라미터인 IFOV(Instantaneous Field Of View, 공간분해능)에 의해 결정될 수 있다. IFOV는 주사기의 지상 분해능의 척도로서 최소 관측 시야 단위로 사용한다.
표적거리연산부(26)는 위에서 계산된 주사구동 적외선센서장치(10)와 표적(T) 사이의 수평거리 L 및 수직거리 H를 이용하여 주사구동 적외선센서장치(10)와 표적(T) 사이의 3차원 거리정보 R를 다음 수학식 12를 통해 얻을 수 있다.
Figure 112012070042527-pat00036
이와 같이, 본 발명의 일 실시예에 따른 표적거리 측정시스템는 종래 레이저나 레이더와 같은 능동센서(active sensor)를 이용하는 측정방식 대신 주사구동 적외선센서장치(10)와 같은 수동센서(passive sensor)를 이용한 측정방식을 적용함으로써 표적(T)의 3차원 정보를 얻을 수 있다.
10: 주사구동 적외선센서장치
12: 주사거울
14: IR센서
20: 영상처리장치
22: 표적탐지부
222: 공간필터링모듈
224: 표적선정모듈
2242: Pre-Thresholding & Clustering
2244: CFAR 검출
226: 표적위치결정모듈
24: 표적움직임보상부
26: 표적거리연산부

Claims (11)

  1. 전면에 배치되어 사전에 정해진 구동주기와 각도범위 내에서 반복 회동하여 표적이 포함된 감지구역으로부터의 적외선을 수광하는 주사거울과, 상기 주사거울의 일측 회동 위치 및 타측 회동 위치에서 각각 수광되어 입사되는 적외선에 의해 상기 표적에 대한 제1 주사영상 및 제2 주사영상을 각각 획득하여 출력하는 IR센서로 이루어진 주사구동 적외선센서장치; 및
    상기 주사구동 적외선센서장치로부터 입력되는 영상정보 중 상기 제1 주사영상과 상기 제2 주사영상의 겹침부분에 상기 표적에 대응하는 영상이 동시에 존재하는 경우 상기 제1 주사영상과 상기 제2 주사영상의 상관성을 해석하여 상기 표적의 3차원 거리정보를 계산하는 영상처리장치를 포함하는 것을 특징으로 하는 표적거리 측정시스템.
  2. 제1항에 있어서,
    상기 영상처리장치는 상기 획득된 제1 주사영상 및 제2 주사영상으로부터 상기 표적을 탐지하여 영상평면 상의 상기 표적의 위치를 파악하는 표적탐지부와, 상기 파악된 표적의 위치를 이용하여 상기 표적의 움직임을 보상하는 표적움직임보상부와, 상기 파악된 표적의 위치와 상기 표적의 움직임 보상을 이용하여 상기 표적의 3차원 거리정보를 계산하는 표적거리연산부를 포함하는 것을 특징으로 하는 표적거리 측정시스템.
  3. 제2항에 있어서,
    상기 표적탐지부는 상기 주사거울의 구동주기 별로 획득된 상기 제1 주사영상들과 상기 제2 주사영상들 모두에 대해 상기 구동주기 별로 상기 제1 주사영상과 상기 제2 주사영상의 대응관계를 파악하는 것에 의해 수행되는 것을 특징으로 하는 표적거리 측정시스템.
  4. 제3항에 있어서,
    상기 표적탐지부는 상기 제1 주사영상 및 제2 주사영상에서 표적후보를 탐지하기 위한 공간필터링(spatial filtering)모듈과, 사전에 정해진 기준에 의해 상기 탐지된 표적후보들 중 하나의 표적후보를 선정하기 위한 표적선정(target selection)모듈과, 상기 선정된 표적후보의 중심좌표를 연산하는 것에 의해 상기 표적의 위치가 결정되는 표적위치결정(target pointing)모듈을 포함하는 것을 특징으로 하는 표적거리 측정시스템.
  5. 제4항에 있어서,
    상기 표적선정(target selection)모듈은 상기 탐지된 표적후보들 중 11×11이하 크기의 가장 밝은 표적후보를 선정하는 것을 특징으로 하는 표적거리 측정시스템.
  6. 제2항에 있어서,
    상기 표적움직임보상부는 상기 일측 회동 위치와 상기 타측 회동 위치 사이의 상기 주사거울의 구동시간의 간격 동안 상기 표적이 이동하는 경우, 상기 구동시간의 간격 동안 상기 표적이 이동하는 것을 보상하는 것을 특징으로 하는 표적거리 측정시스템.
  7. 제6항에 있어서,
    상기 표적이 이동하는 것을 보상하는 것은 상기 주사거울의 구동시간의 간격 동안 상기 표적이 이동하는 속도를 이용하여 수행되는 것을 특징으로 하는 표적거리 측정시스템.
  8. 제7항에 있어서,
    상기 표적이 이동하는 속도는, 상기 표적의 위치가 t시점의 제2 주사영상에 대응하여 상기 표적탐지부에 의해 파악된 상기 표적의 위치가
    Figure 112012070042527-pat00037
    로 표현되고 상기 표적이 이동하는 이동속도가
    Figure 112012070042527-pat00038
    로 표현되며, x 및 y가 상기 영상평면 상의 2차원 직교좌표계의 좌표값이고, N이 상기 제2 주사영상의 개수이며 2보다 큰 정수인 경우, 상기 이동속도는 제1식으로 표현되는 것을 특징으로 하는 표적거리 측정시스템.
    제1식:
    Figure 112012070042527-pat00039
  9. 제8항에 있어서,
    상기 구동시간의 간격이 Δt로 표현되고, 상기 제1 주사영상에 대응하여 상기 표적탐지부에 의해 파악된 상기 표적의 위치가
    Figure 112012070042527-pat00040
    로 표현되는 경우 상기 제1 주사영상의 중심을 기준으로 하는 상기 표적의 위치는 제2식으로 표현되고,
    상기 제2 주사영상에 대응하여 상기 표적탐지부에 의해 파악된 상기 표적의 위치가
    Figure 112012070042527-pat00041
    로 표현되는 상기 제2 주사영상의 중심을 기준으로 하는 상기 표적의 위치는 제3식으로 표현되는 것을 특징으로 하는 표적거리 측정시스템.
    제2식:
    Figure 112012070042527-pat00042
    , d1: 상기 제1 주사영상의 중심을 기준으로 하는 좌우 이격거리, h1: 상기 제1 주사영상의 중심을 기준으로 하는 상하 이격거리
    제3식:
    Figure 112012070042527-pat00043
    , 여기서 d2: 상기 제2 주사영상의 중심을 기준으로 하는 좌우 이격거리, h2: 상기 제2 주사영상의 중심을 기준으로 하는 상하 이격거리
  10. 제9항에 있어서,
    상기 표적거리연산부는 상기 제1 주사영상과 상기 제2 주사영상의 대응관계와 상기 주사구동 적외선센서장치의 파라미터를 이용하는 것에 의해, 상기 주사구동 적외선센서장치와 상기 표적 사이의 수평거리 및 수직거리를 연산하여 상기 표적의 3차원 거리정보를 계산하는 것을 특징으로 하는 표적거리 측정시스템.
  11. 제10항에 있어서,
    상기 제2식의 d1과 상기 제3식의 d2의 합이 d로 표현되고, 상기 주사구동 적외선센서장치의 초점거리가 f로 표현되며, 상기 제1 주사영상의 중심과 상기 제2 주사영상의 중심 사이의 거리가 b로 표현된 경우, 상기 수평거리 L은 제4식으로 표현되고, 상기 수직거리 H는 제5식으로 표현되며, 상기 3차원 거리정보 R은 제6식으로 표현되는 것을 특징으로 하는 표적거리 측정시스템.
    제4식:
    Figure 112012070042527-pat00044

    제5식:
    Figure 112012070042527-pat00045
    , IFOV: 상기 주사구동 적외선센서장치의 파라미터인 공간분해능(Instantaneous Field Of View)
    제6식:
    Figure 112012070042527-pat00046
KR1020120095620A 2012-08-30 2012-08-30 주사구동 적외선센서장치를 이용한 표적거리 측정시스템 KR101238748B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120095620A KR101238748B1 (ko) 2012-08-30 2012-08-30 주사구동 적외선센서장치를 이용한 표적거리 측정시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120095620A KR101238748B1 (ko) 2012-08-30 2012-08-30 주사구동 적외선센서장치를 이용한 표적거리 측정시스템

Publications (1)

Publication Number Publication Date
KR101238748B1 true KR101238748B1 (ko) 2013-03-04

Family

ID=48180995

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120095620A KR101238748B1 (ko) 2012-08-30 2012-08-30 주사구동 적외선센서장치를 이용한 표적거리 측정시스템

Country Status (1)

Country Link
KR (1) KR101238748B1 (ko)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101405115B1 (ko) 2012-10-30 2014-06-10 삼성탈레스 주식회사 다중 분할 검출 영역을 이용한 레이저 탐색기 및 그 방법
CN104931011A (zh) * 2015-06-11 2015-09-23 山东神戎电子股份有限公司 一种红外热像仪的被动式测距方法
WO2017166887A1 (en) * 2016-03-31 2017-10-05 Boe Technology Group Co., Ltd. Imaging device, rotating device, distance measuring device, distance measuring system and distance measuring method
CN112509066A (zh) * 2021-01-21 2021-03-16 深圳市三杰宜科技有限公司 一种适用于多目相机空间外部参数标定的全自动工装
CN117075217A (zh) * 2023-10-12 2023-11-17 北京瑞控信科技股份有限公司 一种基于大角度视场的周扫红外设备及标校方法和***

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050009725A (ko) * 2002-05-30 2005-01-25 라파엘 아마먼트 디벨롭먼트 오쏘리티 엘티디. 항공 정찰 시스템
KR20110075532A (ko) * 2009-12-28 2011-07-06 영남대학교 산학협력단 합성 개구면 레이더 영상에서 표적을 변별하는 방법 및 그 장치
KR20120069487A (ko) * 2010-12-20 2012-06-28 한국전자통신연구원 능동형 광 레이더 장치

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050009725A (ko) * 2002-05-30 2005-01-25 라파엘 아마먼트 디벨롭먼트 오쏘리티 엘티디. 항공 정찰 시스템
KR20110075532A (ko) * 2009-12-28 2011-07-06 영남대학교 산학협력단 합성 개구면 레이더 영상에서 표적을 변별하는 방법 및 그 장치
KR20120069487A (ko) * 2010-12-20 2012-06-28 한국전자통신연구원 능동형 광 레이더 장치

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101405115B1 (ko) 2012-10-30 2014-06-10 삼성탈레스 주식회사 다중 분할 검출 영역을 이용한 레이저 탐색기 및 그 방법
CN104931011A (zh) * 2015-06-11 2015-09-23 山东神戎电子股份有限公司 一种红外热像仪的被动式测距方法
WO2017166887A1 (en) * 2016-03-31 2017-10-05 Boe Technology Group Co., Ltd. Imaging device, rotating device, distance measuring device, distance measuring system and distance measuring method
US10591291B2 (en) 2016-03-31 2020-03-17 Boe Technology Group Co., Ltd. Imaging device, rotating device, distance measuring device, distance measuring system and distance measuring method
CN112509066A (zh) * 2021-01-21 2021-03-16 深圳市三杰宜科技有限公司 一种适用于多目相机空间外部参数标定的全自动工装
CN112509066B (zh) * 2021-01-21 2023-08-22 深圳市三杰宜科技有限公司 一种适用于多目相机空间外部参数标定的全自动工装
CN117075217A (zh) * 2023-10-12 2023-11-17 北京瑞控信科技股份有限公司 一种基于大角度视场的周扫红外设备及标校方法和***
CN117075217B (zh) * 2023-10-12 2024-01-12 北京瑞控信科技股份有限公司 一种基于大角度视场的周扫红外设备及标校方法和***

Similar Documents

Publication Publication Date Title
CN107272021B (zh) 使用雷达和视觉定义的图像检测区域的对象检测
US11243072B2 (en) Method for the three dimensional measurement of moving objects during a known movement
US6297844B1 (en) Video safety curtain
EP3382336B1 (en) Stereo camera device
EP2375216B1 (en) 3-D imaging system and method using partial-coherence speckle interference tomography
KR101238748B1 (ko) 주사구동 적외선센서장치를 이용한 표적거리 측정시스템
CN109313258A (zh) 用于车辆环境检测***的增强的物体检测和运动状态估计
CN105043350A (zh) 一种双目视觉测量方法
EP2106527A2 (en) A method, device and system for imaging
US10801831B2 (en) Speckle measurement apparatus and speckle measurement method
JP2004530144A (ja) 画像情報を提供する方法
EP3312641B1 (en) Method, apparatus and system for scanning and imaging
JP2009146296A (ja) 画像対応点探索装置ならびにそれを用いる測距装置および画像動き検出装置
CN104913762B (zh) 用于估计行驶中的车辆和对象之间的距离的方法和装置
JP2005156199A (ja) 車両検知方法及び車両検知装置
KR20160092289A (ko) 시차 결정 방법 및 장치
RU2576471C2 (ru) Способ обнаружения объектов с повышенным быстродействием на высококонтрастном динамически изменяемом фоне
US10698111B2 (en) Adaptive point cloud window selection
RU152007U1 (ru) Многоканальное устройство обнаружения малогабаритных беспилотных летательных аппаратов и прицеливания
KR102211483B1 (ko) 레이저 어레이 패턴 분석 기반 물체 정보 추정 장치 및 방법
US20210041235A1 (en) Method and device for determining a parallax problem in sensor data of two sensors
EP2729761A1 (en) Device and method for measuring deformation of a metal sheet
Roening et al. Obstacle detection using a light-stripe-based method
Kohoutek Analysis and processing the 3d‐range‐image‐data for robot monitoring
WO2021045698A1 (en) A speed detection system

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160202

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170201

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20180105

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20190207

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20200204

Year of fee payment: 8