KR101437747B1 - Apparatus and method for image processing - Google Patents

Apparatus and method for image processing Download PDF

Info

Publication number
KR101437747B1
KR101437747B1 KR1020120154260A KR20120154260A KR101437747B1 KR 101437747 B1 KR101437747 B1 KR 101437747B1 KR 1020120154260 A KR1020120154260 A KR 1020120154260A KR 20120154260 A KR20120154260 A KR 20120154260A KR 101437747 B1 KR101437747 B1 KR 101437747B1
Authority
KR
South Korea
Prior art keywords
image
target area
air vehicle
flight
terrain
Prior art date
Application number
KR1020120154260A
Other languages
Korean (ko)
Other versions
KR20140084615A (en
Inventor
유창선
구삼옥
Original Assignee
한국항공우주연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국항공우주연구원 filed Critical 한국항공우주연구원
Priority to KR1020120154260A priority Critical patent/KR101437747B1/en
Publication of KR20140084615A publication Critical patent/KR20140084615A/en
Application granted granted Critical
Publication of KR101437747B1 publication Critical patent/KR101437747B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Processing Or Creating Images (AREA)

Abstract

영상 처리 장치가 제공된다. 상기 영상 처리 장치는, 비행체의 비행에 연관되는 목표 지역의 지형에 대한 기하 정보 및 텍스처 정보를 포함하는 3D 모델 데이터를 저장하는 데이터베이스, 및 상기 3D 모델 데이터를 이용하여, 상기 비행체의 임무 카메라 시점에 대응하는 제1 시점에서 상기 지형을 바라본 제1 영상을 렌더링하는 렌더링부를 포함할 수 있다.An image processing apparatus is provided. The image processing apparatus includes a database for storing 3D model data including geometry information and texture information of a terrain of a target area related to a flight of a flight, And a rendering unit that renders a first image viewed from the terrain at a corresponding first point in time.

Description

영상 처리 장치 및 방법{APPARATUS AND METHOD FOR IMAGE PROCESSING}[0001] APPARATUS AND METHOD FOR IMAGE PROCESSING [0002]

비행체와 연관된 영상을 처리하는 장치 및 방법에 연관되며, 보다 특정하게는 비행체에 탑재된 임무 장비로부터 관측 영상을 모사하여 3D 영상으로 재현하는 장치 및 방법에 연관된다.The present invention relates to an apparatus and method for processing an image associated with a flying object, and more particularly, to an apparatus and method for reproducing an observation image from a mission equipment mounted on a flying object to reproduce the 3D image.

비행체의 비행운동과 관련하여, 단순히 비행운동을 모사하여 3D 영상으로 구현하는 방식이 일반적이나, 최근 무인기에 탑재된 임무장비로부터 관측 영상을 모사하는 방식이 이용되고 있다.With regard to the flying motion of a flight body, a method of simulating a flight motion and realizing it as a 3D image is common, but a method of simulating an observation image from mission equipment mounted on a UAV is used.

무인기의 경우, 지상관제, 무선통신, 비행체, 탑재컴퓨터를 통해 비행체가 원격으로 운용된다. 비행 조종은 지상관제 장비를 담당하는 내부 조종사나 지상관제로부터 조종권을 이양받은 외부 조종사에 의해 의하거나, 또는 지상관제로부터 자동조종/임무비행 모드에 선택에 따라 조종권을 이양받은 탑재컴퓨터에 의해서 이루어진다.In the case of unmanned aerial vehicles, aircraft are remotely operated via ground control, radio communications, air vehicles, and onboard computers. Flight control is carried out either by internal pilots responsible for ground control equipment or by external pilots who have transferred control from ground control, or by onboard computers that have been given control over autopilot / mission flight mode from ground control.

지상에서 만들어진 조종명령은 지상관제장비, 무선통신, 탑재컴퓨터를 통해 비행체 조종면을 제어하게 되고, 자동조종/임무비행 모드의 경우 지상이 아닌 탑재컴퓨터에 의해 생성된 조종명령을 통해 자율적인 비행이 이루어진다.Control commands made on the ground control the flight control surface through ground control equipment, radio communication, and onboard computer. In the case of autopilot / mission flight mode, autonomous flight is made through control commands generated by the on-board computer .

무인기의 임무비행은 탑재된 SAR(Synthesis Aperture Radar) 또는 EO/IR(Electro Optical Infra-Red) 카메라를 통해 지상을 관측하고, 그 영상을 무선통신을 거쳐 지상관제 장비로 전송하여 지상에서 관측 영상을 획득할 수 있도록 한다.Unmanned aerial missions are made by observing the ground via a built-in SAR (Synthesis Aperture Radar) or EO / IR (Electro Optical Infra-Red) camera, transmitting the image to the ground control equipment via wireless communication, To be acquired.

일측에 따르면, 비행체의 비행에 연관되는 목표 지역의 지형에 대한 기하 정보 및 텍스처 정보를 포함하는 3D 모델 데이터를 저장하는 데이터베이스, 및 상기 3D 모델 데이터를 이용하여, 상기 비행체의 임무 카메라 시점에 대응하는 제1 시점에서 상기 지형을 바라본 제1 영상을 렌더링하는 렌더링부를 포함하는 영상 처리 장치가 제공된다.According to an aspect of the present invention, there is provided a navigation system including a database for storing 3D model data including geometry information and texture information of a terrain of a target area associated with a flight of a flight, And a rendering unit for rendering the first image viewed from the first viewpoint.

일실시예에 따르면, 상기 비행체가 상기 목표 지역을 실제 비행하여, 상기 제1 시점에서 상기 지형을 바라본 제2 영상이 수신되는 경우, 상기 렌더링부는 상기 제2 영상을 바이패스 하여 디스플레이할 수 있다.According to an embodiment, when the airplane actually travels the target area and receives a second image viewed from the first viewpoint at the first viewpoint, the rendering unit may bypass and display the second image.

일실시예에 따르면, 상기 영상 처리 장치는 상기 비행체가 상기 목표 지역을 실제 비행하여, 상기 제2 영상이 수신되는 중 상기 제2 영상의 수신 감도 지표를 모니터 하여 상기 수신 감도 지표가 임계치 미만이 되는지의 여부를 판단하는 판단부를 더 포함하고, 상기 수신 감도 지표가 상기 임계치 미만이 되는 경우, 상기 렌더링부는 상기 제1 영상을 렌더링 하여 디스플레이 할 수 있다.According to one embodiment, the image processing apparatus monitors the reception sensitivity index of the second image while the airplane actually flows the target area and the second image is received, and determines whether the reception sensitivity index is less than a threshold value The rendering unit may render and display the first image when the reception sensitivity index is less than the threshold value.

일실시예에 따르면, 상기 영상 처리 장치가 시뮬레이션 모드에 있어서 상기 비행체가 상기 목표 지역을 실제 비행하지 않거나 또는 상기 비행체로부터 상기 제2 영상이 수신되지 않는 경우, 상기 렌더링부는 상기 제1 영상을 렌더링 할 수 있다.According to an embodiment, when the image processing apparatus does not actually fly the target area in the simulation mode or when the second image is not received from the air vehicle, the rendering unit may render the first image .

일실시예에 따르면, 상기 제2 영상은 상기 비행체에 탑재된 SAR(Synthesis Aperture Radar)이 생성한 레이더 영상일 수 있다.According to an embodiment, the second image may be a radar image generated by a SAR (Synthesis Aperture Radar) mounted on the air vehicle.

일실시예에 따르면, 상기 제2 영상은 상기 비행체에 탑재된 EO/IR(Electro Optical Infra-Red) 카메라가 촬영한 영상일 수 있다.According to one embodiment, the second image may be an image taken by an EO / IR (Electro Optical Infra-Red) camera mounted on the air vehicle.

다른 일측에 따르면, 비행체의 비행에 연관되는 목표 지역의 지형에 대한 기하 정보 및 텍스처 정보를 포함하는 3D 모델 데이터를 저장하는 단계, 및 상기 3D 모델 데이터를 이용하여, 상기 비행체의 임무 카메라 시점에 대응하는 제1 시점에서 상기 지형을 바라본 제1 영상을 렌더링하는 단계를 포함하는 영상 처리 방법이 제공된다.According to another aspect of the present invention, there is provided a method of designing a 3D model, comprising the steps of: storing 3D model data including geometry information and texture information of a terrain of a target area associated with a flight of a flight, And rendering the first image viewed from the terrain at a first point of time.

일실시예에 따르면, 상기 제1 영상을 렌더링하는 단계는, 상기 비행체가 상기 목표 지역을 실제 비행하여, 상기 제1 시점에서 상기 지형을 바라본 제2 영상이 수신되는 경우, 상기 제2 영상을 바이패스 하여 디스플레이 할 수 있다.According to an embodiment, the rendering of the first image may include: when the airplane actually flows the target area and receives a second image viewed from the first viewpoint at the first viewpoint, Pass display.

일실시예에 따르면, 상기 제1 영상을 렌더링하는 단계는, 상기 비행체가 상기 목표 지역을 실제 비행하지 않거나 또는 상기 비행체로부터 상기 제2 영상이 수신되지 않는 경우, 상기 제1 영상을 렌더링 할 수 있다.According to an exemplary embodiment, the rendering of the first image may render the first image when the air vehicle does not actually fly the target area or when the second image is not received from the air vehicle .

일실시예에 따르면, 상기 비행체가 상기 목표 지역을 실제 비행하여, 상기 제2 영상이 수신되는 중 상기 제2 영상의 수신 감도 지표를 모니터 하여 상기 수신 감도 지표가 임계치 미만이 되는지의 여부를 판단하는 단계를 더 포함할 수 있다.According to an embodiment, the airplane actually fills the target area, monitors the reception sensitivity index of the second image while the second image is being received, and determines whether the reception sensitivity index is less than a threshold value Step < / RTI >

일실시예에 따르면, 상기 수신 감도 지표가 임계치 미만이 되는지의 여부를 판단하는 단계는, 상기 수신 감도 지표가 상기 임계치 미만이 되는 경우, 상기 제1 영상을 렌더링 하여 디스플레이 할 수 있다.According to one embodiment, the step of determining whether the reception sensitivity index is less than the threshold value may render and display the first image when the reception sensitivity index becomes less than the threshold value.

도 1은 일실시예에 따른 영상 처리 장치를 도시하는 블록도이다.
도 2는 일실시예에 따른 비행체의 영상 처리 장치를 나타내는 개념도이다.
도 3은 일실시예에 따른 비행체의 시뮬레이터 구성을 나타내는 도면이다.
도 4는 일실시예에 따라 디스플레이 되는 비행지역 지형 영상 및 임무카메라 관측 영상을 나타내는 도면이다.
도 5는 일실시예에 따른 영상 처리 방법을 도시하는 흐름도이다.
1 is a block diagram showing an image processing apparatus according to an embodiment.
2 is a conceptual diagram illustrating an image processing apparatus of a flight according to an exemplary embodiment.
3 is a view showing a simulator configuration of a flight vehicle according to an embodiment.
FIG. 4 is a view showing an image of a flying regional terrain image and an image of a mission camera displayed according to an embodiment.
5 is a flowchart illustrating an image processing method according to an embodiment.

이하에서, 일부 실시예들을, 첨부된 도면을 참조하여 상세하게 설명한다. 그러나, 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.In the following, some embodiments will be described in detail with reference to the accompanying drawings. However, it is not limited or limited by these embodiments. Like reference symbols in the drawings denote like elements.

아래 설명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 관례, 새로운 기술의 출현 등에 따라 달라질 수 있다.Although the terms used in the following description have selected the general terms that are widely used in the present invention while considering the functions of the present invention, they may vary depending on the intention or custom of the artisan, the emergence of new technology, and the like.

또한 특정한 경우는 이해를 돕거나 및/또는 설명의 편의를 위해 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 설명 부분에서 상세한 그 의미를 기재할 것이다. 따라서 아래 설명에서 사용되는 용어는 단순한 용어의 명칭이 아닌 그 용어가 가지는 의미와 명세서 전반에 걸친 내용을 토대로 이해되어야 한다.Also, in certain cases, there may be terms chosen arbitrarily by the applicant for the sake of understanding and / or convenience of explanation, and in this case the meaning of the detailed description in the corresponding description section. Therefore, the term used in the following description should be understood based on the meaning of the term, not the name of a simple term, and the contents throughout the specification.

명세서 전체에서 제1 시점은 비행체에 탑재된 임무 장비(이를 테면, 임무 카메라 등)의 시점에 대응하는 것으로, 상기 임무 장비로부터 목표 지역을 관측한 시점을 의미한다.In the entire specification, the first viewpoint corresponds to the viewpoint of the mission equipment (for example, a mission camera, etc.) mounted on the air vehicle, and refers to a time when the target area is observed from the mission equipment.

또한, 명세서 전체에서 제1 영상은 상기 임무 장비로부터 상기 제1 시점에서 관측된 상기 목표 지역의 지형에 대한 영상을 의미한다.Also, in the entire specification, the first image means an image of the terrain of the target area observed at the first viewpoint from the mission equipment.

그리고, 명세서 전체에서 제2 영상은 상기 비행체가 실제 비행하는 경우, 상기 제1 시점에서 상기 목표 지역의 지형을 관측하여 실시간 촬영된 영상을 의미한다.In addition, in the entire specification, the second image means an image captured in real time by observing the terrain of the target area at the first time point when the air vehicle actually flows.

도 1은 일실시예에 따른 영상 처리 장치(100)를 도시하는 블록도이다.1 is a block diagram showing an image processing apparatus 100 according to an embodiment.

상기 영상 처리 장치(100)는 데이터베이스(110), 렌더링부(120), 및 판단부(130)로 구성될 수 있다. 다만, 상기 판단부(130)는 선택적인(optional) 구성으로서, 일부 실시예에서는 상기 판단부(130)가 생략될 수도 있다.The image processing apparatus 100 may include a database 110, a rendering unit 120, and a determination unit 130. However, the determination unit 130 may be optional and the determination unit 130 may be omitted in some embodiments.

상기 데이터베이스(110)는 비행체의 비행에 연관되는 목표 지역의 지형에 대한 기하 정보 및 텍스처 정보를 포함하는 3D 모델 데이터를 저장할 수 있다.The database 110 may store 3D model data including geometry information and texture information of the terrain of the target area associated with the flight of the air vehicle.

상기 렌더링부(120)는 상기 3D 모델 데이터를 이용하여, 상기 비행체의 임무 카메라 시점에 대응하는 제1 시점에서 상기 지형을 바라본 제1 영상을 렌더링할 수 있다.The rendering unit 120 may render the first image viewed from the first viewpoint corresponding to the mission camera viewpoint of the air vehicle using the 3D model data.

상기 제1 시점은 비행체에 탑재된 임무 카메라의 시점에 대응하는 것으로, 상기 임무 카메라로부터 목표 지역을 관측한 시점을 의미한다.The first viewpoint corresponds to the viewpoint of the mission camera mounted on the air vehicle, and refers to a time when the target area is observed from the mission camera.

또한, 상기 제1 영상은 상기 임무 카메라로부터 상기 제1 시점에서 관측된 상기 목표 지역의 지형에 대한 영상을 의미한다.Also, the first image means an image of the terrain of the target area observed at the first viewpoint from the mission camera.

일실시예에 따라, 상기 비행체가 상기 목표 지역을 실제 비행하여 상기 제1 시점에서 상기 지형을 바라본 제2 영상이 수신되는 경우, 상기 렌더링부(120)는 상기 제2 영상을 바이패스하여 디스플레이 할 수 있다.According to one embodiment, when a second image of the terrain at the first viewpoint is received by the air vehicle, the rendering unit 120 bypasses the second image and displays the second image .

상기 제2 영상은, 상기 비행체의 실제 비행 시, 상기 제1 시점에서 상기 목표 지역의 지형을 관측하여 실시간 촬영된 영상으로, 상기 비행체에 탑재된 SAR(Synthesis Aperture Radar)이 생성한 레이더 영상이거나, 또는 상기 비행체에 탑재된 EO/IR(Electro Optical Infra-Red) 카메라가 촬영한 영상일 수 있다.The second image may be a real-time photographed image obtained by observing the terrain of the target area at the first time point during actual flight of the airplane, a radar image generated by a SAR (Synthesis Aperture Radar) mounted on the airplane, Or an EO / IR (Electro Optical Infra-Red) camera mounted on the air vehicle.

이 경우, 상기 영상 처리 장치(100)는 판단부(130)를 더 포함할 수 있다.In this case, the image processing apparatus 100 may further include a determination unit 130.

상기 판단부(130)는 상기 비행체가 상기 목표 지역을 실제 비행하여 상기 제2 영상이 수신되는 경우, 상기 제2 영상의 수신 감도 지표를 모니터링 하여 상기 수신 감도 지표가 미리 정해진 임계치 미만이 되는지 여부를 판단할 수 있다.The controller 130 monitors the reception sensitivity index of the second image when the airplane actually receives the second image by flying the target area and determines whether the reception sensitivity index is less than a predetermined threshold value It can be judged.

만약, 상기 판단부(130)의 판단 결과 상기 수신 감도 지표가 상기 임계치 미만이 되는 경우, 상기 렌더링부(120)는 상기 제1 영상을 렌더링 하여 디스플레이 할 수 있다.If the reception sensitivity index is less than the threshold value as a result of the determination by the determination unit 130, the rendering unit 120 may render and display the first image.

또한, 상기 영상 처리 장치(100)가 시뮬레이션 모드에 있어서 상기 비행체가 상기 목표 지역을 실제 비행하지 않거나 또는 상기 비행체로부터 상기 제2 영상이 수신되지 않는 경우, 상기 렌더링부(120)는 상기 제1 영상을 렌더링 하여 디스플레이 할 수 있다.When the image processing apparatus 100 does not actually fly the target area or the second image is not received from the air vehicle in the simulation mode, the rendering unit 120 may generate the first image Can be rendered and displayed.

도 2는 일실시예에 따른 비행체의 영상 처리 장치(100)를 나타내는 개념도이다.2 is a conceptual diagram showing an image processing apparatus 100 of a flight according to an embodiment.

상기 영상 처리 장치(100)는 상기 비행체의 비행과 연관된 목표 지역의 지형을 상기 비행체의 임무 카메라 시점에 대응하는 제1 시점에서 관측하여 영상으로 사용자에 제공할 수 있다.The image processing apparatus 100 can observe the terrain of the target area associated with the flight of the airplane at a first point of time corresponding to the mission camera point of the airplane and provide the image to the user.

상기 비행체가 상기 목표 지역을 실제 비행하는 경우, 상기 영상 처리 장치(100)는 송수신부를 통해, 상기 제1 시점에서 상기 목표 지역의 지형을 바라본 제2 영상을 수신할 수 있다.When the air vehicle actually travels the target area, the image processing apparatus 100 can receive the second image viewed from the first point of view through the transmission / reception unit.

상기 제2 영상은 상기 비행체에 탑재된 SAR(Synthesis Aperture Radar)이 생성한 레이더 영상이거나, 또는 상기 비행체에 탑재된 EO/IR(Electro Optical Infra-Red) 카메라가 실제 촬영한 영상으로, 상기 비행체로부터 실시간으로 수신할 수 있다.The second image is a radar image generated by an SAR (Synthesis Aperture Radar) mounted on the air vehicle or an actual image taken by an EO / IR (Electro Optical Infra-Red) camera mounted on the air vehicle, It can receive in real time.

상기 수신된 제2 영상에 대하여, 상기 판단부(130)는 수신 감도 지표를 모니터링 할 수 있으며, 상기 제2 영상의 수신 감도 지표가 미리 지정된 임계치 미만이 되는지의 여부를 판단할 수 있다.For the received second image, the determination unit 130 may monitor the reception sensitivity index and determine whether the reception sensitivity index of the second image is less than a predetermined threshold value.

상기 판단부(130)의 판단 결과, 상기 제2 영상의 수신 감도 지표가 상기 임계치 이상인 경우에는, 상기 렌더링부(120)가 수신된 상기 제2 영상을 지속적으로 바이패스하여 디스플레이 할 수 있다.As a result of the determination by the determination unit 130, when the reception sensitivity index of the second image is equal to or greater than the threshold value, the rendering unit 120 may continuously display the second image received by bypassing the second image.

그러나, 상기 판단부(130)의 판단 결과, 상기 제2 영상의 수신 감도 지표가 상기 임계치 미만인 경우에는, 상기 렌더링부(120)는 상기 데이터베이스(110)에 저장된 3D 모델 데이터를 이용하여 제1 영상을 렌더링 하여 디스플레이 할 수 있다.However, when the determination unit 130 determines that the reception sensitivity index of the second image is less than the threshold value, the rendering unit 120 uses the 3D model data stored in the database 110, Can be rendered and displayed.

상기 제1 영상은 상기 임무 카메라로부터 상기 제1 시점에서 관측된 상기 목표 지역의 지형에 대한 영상으로, 일실시예에 따라 상기 비행체의 임무 카메라로부터 실시간 수신하는 상기 제2 영상과 달리, 상기 목표 지역의 지형에 대하여 미리 저장된 영상으로 이해될 수 있다.The first image is an image of the terrain of the target area observed at the first point of view from the mission camera, unlike the second image received real-time from the mission camera of the air vehicle according to an embodiment, Can be understood as an image stored in advance with respect to the terrain of FIG.

이를 테면, 상기 비행체에 탑재된 임무 카메라로부터 상기 제2 영상을 수신하는 도중 수신 품질이 낮아지거나, 수신이 단절되는 경우가 발생하면, 상기 데이터베이스(110)에 저장된 3D 모델 데이터를 이용하여 렌더링 되는 영상으로 전환하여 디스플레이 될 수 있다.For example, when the reception quality is lowered or the reception is disconnected during the reception of the second image from the mission camera mounted on the air vehicle, the image that is rendered using the 3D model data stored in the database 110 As shown in FIG.

또한, 상기 영상 처리 장치(100)가 시뮬레이션 모드에 있어서 상기 비행체가 상기 목표 지역을 실제 비행하지 않거나 또는 상기 비행체로부터 상기 제2 영상이 수신되지 않는 경우에도, 상기 렌더링부(120)는 상기 제1 영상을 렌더링 하여 디스플레이 할 수 있다.In addition, when the image processing apparatus 100 does not actually fly the target area in the simulation mode or when the second image is not received from the air vehicle, the rendering unit 120 may perform the first The image can be rendered and displayed.

도 3은 일실시예에 따른 비행체의 시뮬레이터 구성을 나타내는 도면이다.3 is a view showing a simulator configuration of a flight vehicle according to an embodiment.

상기 영상 처리 장치(100)는, 일실시예에 따라 비행체의 시뮬레이터에 적용될 수 있다.The image processing apparatus 100 may be applied to a simulator of a flight vehicle according to an embodiment.

상기 비행체의 시뮬레이터는 시각적, 청각적 효과를 통해 조종사로 하여금 실제 비행과 유사한 환경을 느끼도록 모사해 주는 장치이다.The simulator of the flight simulator is a device simulating the pilot to feel the environment similar to the actual flight through the visual and auditory effects.

상기 비행체의 시뮬레이터는, 비행체의 비행 운동을 모사해주는 시뮬레이션 컴퓨터, 지형과 비행체를 3D 그래픽으로 재현해주는 비주얼 시스템, 청각적 효과를 위한 음향 시스템, 비행 조종과 임무카메라를 조작하는 지상관제장비, 시뮬레이션의 시작/종료/조건부여 등을 부여하는 통제석으로 구성될 수 있다.The simulator of the airplane includes a simulation computer simulating the flying movement of the airplane, a visual system reproducing the terrain and the airplane in 3D graphics, an acoustic system for auditory effects, a ground control device for manipulating the flight control and mission camera, And control seats that grant start / end / conditional assignments.

상기 비행체의 시뮬레이터는 시뮬레이션을 수행하면서 실제 비행시 사용되는 지상관제장비와 비행제어컴퓨터를 사용함으로써, 다양한 비행 환경에서 실제 장비와 비행제어 로직이 잘 동작하는지 시험 평가하고, 조종사가 조종 기술을 습득하는 데에 이용될 수 있다.The simulator of the flight simulator tests and evaluates whether the actual equipment and the flight control logic work well in various flight environments by using the ground control equipment and the flight control computer used in the actual flight while performing the simulation, Can be used for.

도 4는 일실시예에 따라 디스플레이 되는 비행지역 지형 영상(410) 및 임무카메라 관측 영상(420)을 나타내는 도면이다.FIG. 4 is a view showing a flying terrain image 410 and a mission camera observation image 420 displayed according to an embodiment.

일실시예에 따라, 상기 영상 처리 장치(100)는 상기 비행체에 탑재된 임무 카메라 영상을 지상에서 모사할 수 있다.According to one embodiment, the image processing apparatus 100 may simulate a mission camera image mounted on the air vehicle on the ground.

실제 지상관제장비는 비행체에서 전송되는 비행속도, 고도, 자세, 위치 등의 비행 정보를 모니터링 하면서 내부조종사가 비행조종명령을 내리는 기능과 임무카메라에서 관측된 영상을 전송받아 이를 보면서 카메라 조종사가 카메라를 조종하는 기능을 갖는다.The actual ground control equipment monitors the flight information such as flight speed, altitude, posture, and position transmitted from the aviation body while the internal pilot commands the flight control command and receives the observation image from the mission camera. It has the function of steering.

이를 수행하기 위해, 자동비행 및 임무조종 기능을 비행제어 로직이 탑재 컴퓨터를 통해 운용될 수 있다.To accomplish this, the automatic flight and mission control functions can be operated through a computer equipped with flight control logic.

일반적으로 비행 시뮬레이터의 경우, 비행체의 비행운동에 대해서 비주얼 3D 이미지를 모사하여 실제 비행환경을 제공(410)을 하고 있으며, 상기 비행체의 임무비행을 위하여 사용되는 임무 카메라 관측 영상(420)이 추가로 제공될 수 있다.In general, in the case of a flight simulator, a visual 3D image is simulated with respect to a flight motion of a flight object to provide an actual flight environment 410, and a mission camera observation image 420 used for mission flight of the flight object is additionally provided Can be provided.

상기 영상 처리 장치(100)는 상기 비행체가 비행하는 지역의 지형을 3D 그래픽으로 구현하고 있는 비주얼 영상에 대하여, 상기 비행체에 탑재된 임무 카메라 관점에서 관측되는 영상으로 생성할 수 있으며, 이는 420과 같이 지상관제장비의 임무 카메라 관측 영상의 도시화면 모니터에 디스플레이 될 수 있다.The image processing apparatus 100 may generate a visual image of the terrain of the area where the airplane is flying by 3D graphics, as an image observed from the viewpoint of a mission camera mounted on the airplane, The mission of the ground control equipment can be displayed on the city screen monitor of the camera observation image.

상기 지상관제장비 모니터에서는, 비행지역 지형 영상(410)과 함께 임무 카메라 관측 영상(420)을 제공받을 수 있으며, 이를 통해 지상관제장비에서 비행체의 비행을 조종하는 역할과 더불어 임무카메라를 조종하는 역할에 대해서도 훈련할 수 있다. 또한, 임무제어 로직 가운데 카메라가 시선각도의 방향에 따라 비행체가 움직여주는 카메라 유도모드 비행에 대한 모사도 가능하다.In the ground control equipment monitor, the mission camera observation image 420 can be provided together with the flying terrain image 410, thereby controlling the flight of the airplane in the ground control equipment and controlling the mission camera You can also train on. Also, among the mission control logic, it is possible to simulate camera-guided mode flight, in which the camera moves according to the direction of the gaze angle.

상기 임무 카메라 관측 영상(420)을 지상관제장비에서 실시간 모니터링하며 카메라 조종 및 지상관측을 하는 경우, 상기 비행체의 임무 카메라 및 상기 지상관제장비는 무선통신에 의존하므로, 통신환경에 따라 영상 수신이 두절될 수 있다.In the case where the mission camera observation image 420 is monitored in real time on the ground control equipment and the camera control and the ground observation are performed, since the mission camera and the ground control equipment of the air vehicle depend on wireless communication, .

이 경우, 기 제작된 지형 맵과 항공기에서 수신되는 항공기 위치, 자세에 대한 비행 상태 정보를 이용하여 카메라 영상을 3D 그래픽으로 재현할 수 있으며, 이를 이용하여 무선통신 두절에 의한 카메라 영상 미수신시에도 상기 비행체 시뮬레이터에서 카메라 영상을 지속적으로 생성, 도시할 수 있다.In this case, the camera image can be reproduced in 3D graphics using the previously prepared terrain map and the flight state information of the aircraft position and attitude received from the aircraft. Also, when the camera image is not received by the wireless communication disconnection, The camera image can be continuously generated and displayed in the flight simulator.

한편, 3D 그래픽 영상은 항공기 비행상태를 모니터링하는 지상관제에서 410과 같이 수신된 항공기 위치, 고도, 자세 정보를 이용하여 항공기의 비행모습을 관측할 수 있도록 생성될 수 있다.Meanwhile, the 3D graphic image can be generated so as to observe the flight state of the aircraft using the received position, altitude, and attitude information of the aircraft 410, for example, in the ground control for monitoring the flight state of the aircraft.

이는, 계기 형태로 항공기의 비행위치와 자세 정보를 3D 그래픽에서 다양한 항공기 관찰관점에서 보게 함으로써, 항공기의 자세와 조종면의 움직임(에일러론, 승강키, 방향키, 착륙장치 등)을 보다 가까이서 관찰할 수 있으며, 조종사가 실제적인 감을 갖고 비행을 모니터링 하도록 할 수 있다.This makes it possible to observe the aircraft's posture and the movement of the pilot's plane (aileron, elevator key, direction key, landing gear, etc.) more closely by viewing the flight position and attitude information of the aircraft in the form of a gauge from various viewpoints of the aircraft in 3D graphics , Allowing the pilot to monitor the flight with a real sense.

도 5는 일실시예에 따른 영상 처리 방법을 도시하는 흐름도이다.5 is a flowchart illustrating an image processing method according to an embodiment.

단계 510에서는, 상기 데이터베이스(110)가 비행체의 비행에 연관되는 목표 지역의 지형에 대한 기하 정보 및 텍스처 정보를 포함하는 3D 모델 데이터를 저장할 수 있다.In step 510, the database 110 may store 3D model data including geometry information and texture information for the terrain of the target area associated with flight of the air vehicle.

단계 520에서는, 상기 렌더링부(120)가 상기 3D 모델 데이터를 이용하여, 상기 비행체의 임무 카메라 시점에 대응하는 제1 시점에서 상기 지형을 바라본 제1 영상을 렌더링할 수 있다.In operation 520, the rendering unit 120 may render the first image viewed from the first viewpoint corresponding to the mission camera viewpoint of the air vehicle using the 3D model data.

상기 제1 시점은 비행체에 탑재된 임무 카메라의 시점에 대응하는 것으로, 상기 임무 카메라로부터 목표 지역을 관측한 시점을 의미하고, 상기 제1 영상은 상기 임무 카메라로부터 상기 제1 시점에서 관측된 상기 목표 지역의 지형에 대한 영상을 의미한다.Wherein the first viewpoint corresponds to a viewpoint of a mission camera mounted on a flying vehicle and refers to a viewpoint of a target area from the mission camera and the first image indicates a viewpoint of the target viewed from the first viewpoint It means the image of the terrain of the area.

단계 520에서, 일실시예에 따라 상기 비행체가 상기 목표 지역을 실제 비행하여 상기 제1 시점에서 상기 지형을 바라본 제2 영상이 수신되는 경우, 상기 렌더링부(120)는 상기 제2 영상을 바이패스하여 디스플레이 할 수 있다.In operation 520, when the second object image is viewed from the first viewpoint and the airplane actually travels the target area according to an embodiment, the rendering unit 120 may bypass the second image .

상기 제2 영상은, 상기 비행체의 실제 비행 시, 상기 제1 시점에서 상기 목표 지역의 지형을 관측하여 실시간 촬영된 영상으로, 상기 비행체에 탑재된 SAR(Synthesis Aperture Radar)이 생성한 레이더 영상이거나, 또는 상기 비행체에 탑재된 EO/IR(Electro Optical Infra-Red) 카메라가 촬영한 영상일 수 있다.The second image may be a real-time photographed image obtained by observing the terrain of the target area at the first time point during actual flight of the airplane, a radar image generated by a SAR (Synthesis Aperture Radar) mounted on the airplane, Or an EO / IR (Electro Optical Infra-Red) camera mounted on the air vehicle.

이 경우, 상기 영상 처리 장치(100)는 판단부(130)를 더 포함할 수 있다.In this case, the image processing apparatus 100 may further include a determination unit 130.

상기 판단부(130)는 단계 520에서, 상기 비행체가 상기 목표 지역을 실제 비행하여 상기 제2 영상이 수신되는 경우, 상기 제2 영상의 수신 감도 지표를 모니터링 하여 상기 수신 감도 지표가 미리 정해진 임계치 미만이 되는지 여부를 판단할 수 있다.In step 520, the controller 130 monitors the reception sensitivity index of the second image when the airplane actually travels the target area and receives the second image, so that the reception sensitivity index is less than a predetermined threshold value It can be judged whether or not it is.

만약, 상기 판단부(130)의 판단 결과 상기 수신 감도 지표가 상기 임계치 미만이 되는 경우, 상기 렌더링부(120)는 상기 제1 영상을 렌더링 하여 디스플레이 할 수 있다.If the reception sensitivity index is less than the threshold value as a result of the determination by the determination unit 130, the rendering unit 120 may render and display the first image.

또한, 상기 영상 처리 장치(100)가 시뮬레이션 모드에 있어서 상기 비행체가 상기 목표 지역을 실제 비행하지 않거나 또는 상기 비행체로부터 상기 제2 영상이 수신되지 않는 경우, 상기 렌더링부(120)는 상기 제1 영상을 렌더링 하여 디스플레이 할 수 있다.When the image processing apparatus 100 does not actually fly the target area or the second image is not received from the air vehicle in the simulation mode, the rendering unit 120 may generate the first image Can be rendered and displayed.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components. For example, the apparatus and components described in the embodiments may be implemented within a computer system, such as, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA) A programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For ease of understanding, the processing apparatus may be described as being used singly, but those skilled in the art will recognize that the processing apparatus may have a plurality of processing elements and / As shown in FIG. For example, the processing unit may comprise a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as a parallel processor.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the foregoing, and may be configured to configure the processing device to operate as desired or to process it collectively or collectively Device can be commanded. The software and / or data may be in the form of any type of machine, component, physical device, virtual equipment, computer storage media, or device , Or may be permanently or temporarily embodied in a transmitted signal wave. The software may be distributed over a networked computer system and stored or executed in a distributed manner. The software and data may be stored on one or more computer readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (12)

비행체의 비행에 연관되는 목표 지역의 지형에 대한 기하 정보 및 텍스처 정보를 포함하는 3D 모델 데이터를 저장하는 데이터베이스; 및
상기 3D 모델 데이터를 이용하여, 상기 비행체의 임무 카메라 시점에 대응하는 제1 시점에서 상기 지형을 바라본 제1 영상을 렌더링하는 렌더링부
를 포함하며,
상기 비행체가 상기 목표 지역을 실제 비행하여, 상기 제1 시점에서 상기 지형을 바라본 제2 영상이 수신되는 경우, 상기 렌더링부는 상기 제2 영상을 바이패스 하여 디스플레이 하는 영상 처리 장치.
A database for storing 3D model data including geometry information and texture information for the terrain of the target area associated with the flight of the air vehicle; And
A rendering unit for rendering a first image viewed from the terrain at a first point of time corresponding to a mission camera view of the air vehicle using the 3D model data;
/ RTI >
Wherein the rendering unit bypasses and displays the second image when the airplane actually flows the target area and receives the second image viewed from the first viewpoint at the first viewpoint.
삭제delete 제1항에 있어서,
상기 비행체가 상기 목표 지역을 실제 비행하여, 상기 제2 영상이 수신되는 중 상기 제2 영상의 수신 감도 지표를 모니터 하여 상기 수신 감도 지표가 임계치 미만이 되는지의 여부를 판단하는 판단부
를 더 포함하고,
상기 수신 감도 지표가 상기 임계치 미만이 되는 경우, 상기 렌더링부는 상기 제1 영상을 렌더링 하여 디스플레이 하는 영상 처리 장치.
The method according to claim 1,
And a determination unit for determining whether the reception sensitivity index is less than a threshold value by monitoring the reception sensitivity index of the second image while the airplane is actually flying the target area and receiving the second image,
Further comprising:
Wherein when the reception sensitivity index is less than the threshold value, the rendering unit renders the first image and displays the first image.
제1항에 있어서,
상기 영상 처리 장치가 시뮬레이션 모드에 있어서 상기 비행체가 상기 목표 지역을 실제 비행하지 않거나 또는 상기 비행체로부터 상기 제2 영상이 수신되지 않는 경우, 상기 렌더링부는 상기 제1 영상을 렌더링 하는 영상 처리 장치.
The method according to claim 1,
Wherein the rendering unit renders the first image when the image processing apparatus does not actually fly the target area in the simulation mode or when the second image is not received from the air vehicle.
제1항에 있어서,
상기 제2 영상은 상기 비행체에 탑재된 SAR(Synthesis Aperture Radar)이 생성한 레이더 영상인 영상 처리 장치.
The method according to claim 1,
And the second image is a radar image generated by an SAR (Synthesis Aperture Radar) mounted on the air vehicle.
제1항에 있어서,
상기 제2 영상은 상기 비행체에 탑재된 EO/IR(Electro Optical Infra-Red) 카메라가 촬영한 영상인 영상 처리 장치.
The method according to claim 1,
And the second image is an image taken by an EO / IR (Electro Optical Infra-Red) camera mounted on the air vehicle.
비행체의 비행에 연관되는 목표 지역의 지형에 대한 기하 정보 및 텍스처 정보를 포함하는 3D 모델 데이터를 저장하는 단계; 및
상기 3D 모델 데이터를 이용하여, 상기 비행체의 임무 카메라 시점에 대응하는 제1 시점에서 상기 지형을 바라본 제1 영상을 렌더링하는 단계
를 포함하며,
상기 제1 영상을 렌더링하는 단계는, 상기 비행체가 상기 목표 지역을 실제 비행하여 상기 제1 시점에서 상기 지형을 바라본 제2 영상이 수신되는 경우, 상기 제2 영상을 바이패스 하여 디스플레이 하는 영상 처리 방법.
Storing 3D model data including geometry information and texture information for a terrain of a target area associated with a flight of a flight; And
Rendering the first image viewed from the terrain at a first point of time corresponding to a mission camera view of the air vehicle using the 3D model data
/ RTI >
The method of claim 1, wherein the rendering of the first image is performed by bypassing the second image when a second image of the airplane actually flying the target area and viewing the terrain at the first viewpoint is received, .
삭제delete 제7항에 있어서,
상기 제1 영상을 렌더링하는 단계는,
상기 비행체가 상기 목표 지역을 실제 비행하지 않거나 또는 상기 비행체로부터 상기 제2 영상이 수신되지 않는 경우, 상기 제1 영상을 렌더링 하는 영상 처리 방법.
8. The method of claim 7,
Wherein rendering the first image comprises:
Wherein the first image is rendered when the air vehicle does not actually fly the target area or when the second image is not received from the air vehicle.
제7항에 있어서,
상기 비행체가 상기 목표 지역을 실제 비행하여, 상기 제2 영상이 수신되는 중 상기 제2 영상의 수신 감도 지표를 모니터 하여 상기 수신 감도 지표가 임계치 미만이 되는지의 여부를 판단하는 단계
를 더 포함하는 영상 처리 방법.
8. The method of claim 7,
Determining whether the reception sensitivity index is less than a threshold value by monitoring the reception sensitivity index of the second image while the airplane is actually flying the target area and receiving the second image;
Further comprising the steps of:
제10항에 있어서,
상기 수신 감도 지표가 임계치 미만이 되는지의 여부를 판단하는 단계는,
상기 수신 감도 지표가 상기 임계치 미만이 되는 경우, 상기 제1 영상을 렌더링 하여 디스플레이 하는 영상 처리 방법.
11. The method of claim 10,
Wherein the step of determining whether the reception sensitivity index is less than a threshold value comprises:
And rendering and displaying the first image when the reception sensitivity index becomes less than the threshold value.
제7항, 제9항 내지 제11항 중 어느 한 항의 영상 처리 방법을 수행하는 프로그램을 수록한 컴퓨터 판독 가능 기록 매체.A computer-readable recording medium storing a program for performing the image processing method according to any one of claims 7 to 11.
KR1020120154260A 2012-12-27 2012-12-27 Apparatus and method for image processing KR101437747B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120154260A KR101437747B1 (en) 2012-12-27 2012-12-27 Apparatus and method for image processing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120154260A KR101437747B1 (en) 2012-12-27 2012-12-27 Apparatus and method for image processing

Publications (2)

Publication Number Publication Date
KR20140084615A KR20140084615A (en) 2014-07-07
KR101437747B1 true KR101437747B1 (en) 2014-09-05

Family

ID=51734465

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120154260A KR101437747B1 (en) 2012-12-27 2012-12-27 Apparatus and method for image processing

Country Status (1)

Country Link
KR (1) KR101437747B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200061018A (en) 2018-11-23 2020-06-02 주식회사 유텔 Synthetic aperture radar system
KR20200105060A (en) 2019-02-28 2020-09-07 주식회사 유텔 Multi band aperture synthetic aperture radar system
KR20210091914A (en) 2020-01-15 2021-07-23 주식회사 유텔 Synthetic aperture radar system
KR20210091912A (en) 2020-01-15 2021-07-23 주식회사 유텔 Synthetic aperture radar system
KR20220096549A (en) 2020-12-31 2022-07-07 주식회사 유텔 Stepped fm modulated pulse signal count for synthetic aperture radar system

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102471842B1 (en) * 2022-03-30 2022-11-30 (주)디투이노베이션 Electro optical/infrared ray image simulation method for live virtual constructive based drone tactical training

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100136604A (en) * 2009-06-19 2010-12-29 (주)이지스 Real-time visualization system of 3 dimension terrain image
KR20110134076A (en) * 2010-06-08 2011-12-14 (주) 충청에스엔지 Construction method of 3d spatial information using position controlling of uav

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100136604A (en) * 2009-06-19 2010-12-29 (주)이지스 Real-time visualization system of 3 dimension terrain image
KR20110134076A (en) * 2010-06-08 2011-12-14 (주) 충청에스엔지 Construction method of 3d spatial information using position controlling of uav

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200061018A (en) 2018-11-23 2020-06-02 주식회사 유텔 Synthetic aperture radar system
KR20200105060A (en) 2019-02-28 2020-09-07 주식회사 유텔 Multi band aperture synthetic aperture radar system
KR20210091914A (en) 2020-01-15 2021-07-23 주식회사 유텔 Synthetic aperture radar system
KR20210091912A (en) 2020-01-15 2021-07-23 주식회사 유텔 Synthetic aperture radar system
KR20220096549A (en) 2020-12-31 2022-07-07 주식회사 유텔 Stepped fm modulated pulse signal count for synthetic aperture radar system

Also Published As

Publication number Publication date
KR20140084615A (en) 2014-07-07

Similar Documents

Publication Publication Date Title
US11276325B2 (en) Systems and methods for flight simulation
US10134298B2 (en) System and method for supporting simulated movement
KR101437747B1 (en) Apparatus and method for image processing
US10678238B2 (en) Modified-reality device and method for operating a modified-reality device
KR101492271B1 (en) Method and system to control operation of a device using an integrated simulation with a time shift option
US9563276B2 (en) Tactile and peripheral vision combined modality hover drift cueing
US20210271792A1 (en) Systems and methods for autonomous vehicle systems testing
US10054957B2 (en) Haptic feedback for realtime trajectory constraints
US10964226B2 (en) Instructional assessment system for a vehicle
KR101408077B1 (en) An apparatus and method for controlling unmanned aerial vehicle using virtual image
US9529357B1 (en) Method and apparatus for operator supervision and direction of highly autonomous vehicles
WO2016149039A1 (en) Trajectory control of a vehicle
EP2523062B1 (en) Time phased imagery for an artificial point of view
WO2021038834A1 (en) Operation simulation system and method for unmanned aircraft
Ai et al. Real-time unmanned aerial vehicle 3D environment exploration in a mixed reality environment
EP2846134B1 (en) Helicopter system and method for integrating collective flight director cues
KR20190016841A (en) Multi-copter UAV Simulator System using 10-axis sensor
WO2021133449A1 (en) Vehicle control system
EP4047434B1 (en) Apparatus, method and software for assisting an operator in flying a drone using a remote controller and ar glasses
KR20150051715A (en) Apparatus and method for playing video based on real-time data
Guerra et al. Mobile ground control station development for fault tolerant UAV research
Gawron et al. Ground control systems
KR102263227B1 (en) Method and apparatus for control unmanned vehicle using artificial reality with relative navigation information
US11238200B2 (en) Targeting system and simulator therefor
KR102525912B1 (en) Unmanned Air Vehicle and Control Method Thereof

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180620

Year of fee payment: 5