KR101917110B1 - Electro-optic device capable of changing a main target and method for controlling the same - Google Patents

Electro-optic device capable of changing a main target and method for controlling the same Download PDF

Info

Publication number
KR101917110B1
KR101917110B1 KR1020180102203A KR20180102203A KR101917110B1 KR 101917110 B1 KR101917110 B1 KR 101917110B1 KR 1020180102203 A KR1020180102203 A KR 1020180102203A KR 20180102203 A KR20180102203 A KR 20180102203A KR 101917110 B1 KR101917110 B1 KR 101917110B1
Authority
KR
South Korea
Prior art keywords
target
camera
distance
difference
main
Prior art date
Application number
KR1020180102203A
Other languages
Korean (ko)
Inventor
정영진
이종한
Original Assignee
국방과학연구소
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 국방과학연구소 filed Critical 국방과학연구소
Priority to KR1020180102203A priority Critical patent/KR101917110B1/en
Application granted granted Critical
Publication of KR101917110B1 publication Critical patent/KR101917110B1/en

Links

Images

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/14Indirect aiming means
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G11/00Details of sighting or aiming apparatus; Accessories
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/06Aiming or laying means with rangefinder
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/56Accessories
    • G03B17/561Support related camera accessories
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N5/225

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

The present invention relates to electro-optical equipment for simultaneously sensing a plurality of targets, and comprises: a camera for sensing a target image including the plurality of targets and directing a target set as a main target among the plurality of targets; a driving unit for rotating the camera horizontally and vertically to change an azimuth angle and an elevation angle of the direction of the camera; a sensor for measuring a distance between the camera and the target set as a main target among the plurality of targets; and a control unit calculating horizontal and vertical rotational displacements of the camera based on an azimuth difference and an elevation difference between a second target and a first target, and controlling the driving unit to change the azimuth angle and the elevation angle in the direction in which the camera is oriented in accordance with the calculated horizontal and vertical rotational displacements, so that the main target is changed from the first target to the second target if the first target of the plurality of targets is set as the main target and the second target is selected as the main target.

Description

주 표적을 변경할 수 있는 전자광학장비 및 그 전자광학장비의 제어 방법{ELECTRO-OPTIC DEVICE CAPABLE OF CHANGING A MAIN TARGET AND METHOD FOR CONTROLLING THE SAME}TECHNICAL FIELD [0001] The present invention relates to an electro-optical device capable of changing a main target, and a control method of the electro-

본 발명은 전자광학장비에 대한 것으로, 특히 복수의 표적을 동시에 센싱하는 전자광학장비에 대한 것이다. The present invention relates to electro-optical equipment, and more particularly to an electro-optical equipment for sensing a plurality of targets simultaneously.

일반적으로 전자광학장비는 카메라를 포함하여, 상기 카메라를 통해 센싱되는 영상으로부터 표적을 추적하는 다양한 장비를 통칭할 수 있다.  Generally, electro-optical equipment can be referred to as various devices including a camera and tracking a target from an image sensed through the camera.

이러한 전자광학장비는 광학 기술 및 센서 기술의 발달로 인하여 거리 추적 센서 등 다양한 센서를 포함하는 형태로 발전하게 되었다. 그리고 이러한 전자광학장비 관련 기술의 발전으로 인하여 오늘날의 전자광학장비는 표적의 영상으로부터 표적을 검출할 뿐만 아니라 표적과의 거리 등 다양한 정보를 추가로 센싱할 수 있도록 발전하였다. Due to the development of optical technology and sensor technology, these electro-optical devices have developed into a form including various sensors such as distance tracking sensors. Due to the development of the technology related to the electro-optic equipment, today's electro-optic equipment is developed not only to detect the target from the target image but also to sense various information such as the distance to the target.

한편, 통상적인 전자광학 장비는 영상내 다수의 표적이 포함되어 있는 경우, 사용자로부터 어느 하나의 표적을 선택받을 수 있으며, 선택된 표적에 대한 거리 정보를 획득할 수 있다. 일반적으로 이처럼 선택된 표적의 경우 카메라에서 센싱되는 영상의 중심에 위치하게 되는데, 상기 영상의 중심, 즉 전자광학장비에 구비된 카메라의 뷰(view) 중심은 십자가 모양의 십자망선으로 표시될 수 있다. 즉 십자망선에 의해 표시되는 주 표적에 대하여 전자광학장비는 LRF(Laser Range Finder)를 통해 거리를 측정하여 거리 정보 등의 표적 정보를 획득할 수 있다. On the other hand, when a plurality of targets are included in an image, a typical electro-optical apparatus can select one of the targets from the user and obtain distance information on the selected target. Generally, in the case of the selected target, the center of the image to be sensed by the camera is located. The center of the image, that is, the center of the view of the camera provided in the electro-optical equipment, may be displayed as a cross-shaped cruciform line. That is, with respect to the main target displayed by the cruciform, the electro-optical equipment can acquire target information such as distance information by measuring the distance through the LRF (Laser Range Finder).

이처럼 통상적인 전자광학장비에서 표적정보를 획득할 때는 기본적으로 한 표적만 선택하여 식별/추적하거나, 또는 협시계(NFOV)로 현재 십자망선에 의해 선택된 어느 하나의 표적을 식별 및 추적하며 정보를 획득한다. 그래야 표적을 자세히 검토할 수 있고 추적하기도 용이하기 때문이다. 이 때 영상 배율이 높아질수록 영상에 보이는 표적은 확대되지만, 시야가 좁아져서 표적 주변의 배경의 변화까지 인식하기 어렵다. 그래서 지정된 한 표적 외에 다른 표적의 위치정보까지 신속하게 획득하려는 경우가 매우 드물다. 따라서 통상적인 전자광학장비에서, 비록 전자광학장비에서 다수의 표적이 동시에 센싱되는 경우라고 할지라도, 상기 다수의 표적 중 현재 주 표적으로 선택된 표적을 다른 표적으로 변경할 수 있도록 하는 방법에 대한 연구는 거의 이루어지지 않은 실정이다. When acquiring the target information from the conventional electro-optical equipment, basically, only one target is selected and tracked, or NFOV is used to identify and track any one of the targets currently selected by the cruciform and obtain information do. This is because the target can be reviewed and tracked easily. At this time, the higher the image magnification, the larger the target seen in the image, but the narrower the field of view, and it is difficult to recognize the change in the background around the target. Therefore, it is very rare to acquire location information of a target other than a designated target quickly. Thus, in conventional electro-optic equipment, even if multiple targets are simultaneously sensed in an electro-optic equipment, there is little research into a method that allows the currently selected target to be changed to another target among the plurality of targets This is not the case.

이에 통상적인 전자광학장비에서 현재 설정된 주 표적을 다른 표적으로 변경하기 위해서는, 영상 내에서 카메라의 지향 방향을 선택된 다른 표적의 위치로 이동시키는 방법이 사용되고 있다. 이 방법의 경우 주 표적에 대한 영상 추적 상태를 확인하면서 카메라의 뷰 중심, 즉 십자망선을 상기 선택된 다른 표적에 대응하는 방향으로 조금씩 이동시키는 방법이다. 이 경우 전자광학장비는 영상의 추적 상태를 확인하면서 카메라를 지속적으로 구동하여 상기 뷰 중심을 이동시킨다. In order to change the currently set main target to another target in a conventional electro-optical apparatus, a method of moving the direction of the camera in the image to the position of another selected target is used. In this method, the view center of the camera, that is, the crosswave line is moved little by little in the direction corresponding to the selected other target while confirming the image tracking state with respect to the main target. In this case, the electro-optical device continuously drives the camera while moving the view center while confirming the tracking state of the image.

그런데 이러한 통상적인 전자광학장비에서 표적을 변경하는 방법은 영상의 추적 상태를 기반으로 하기에, 상기 영상 추적 상태가 표적의 이동에 결정적인 영향을 주게 된다. 영상 추적 상태, 즉 변경 전 주 표적의 영상 추적 상태 또는 현재 선택된 표적의 영상 추적 상태가 양호한 경우, 통상적인 전자광학장비는 양호하게 표적의 변경을 수행할 수 있다. However, in this conventional electro-optical apparatus, the method of changing the target is based on the tracking state of the image, so that the tracking state of the image has a decisive influence on the movement of the target. If the image tracking state, i. E. The image tracking state of the main target prior to the change, or the image tracking state of the currently selected target is good, conventional electro-optical equipment can preferably perform a target change.

그러나 변경 전 주 표적의 영상 추적이 어렵거나, 또는 다음의 주 표적으로 선택된 다른 표적의 영상 추적이 어려운 경우, 상기 전자광학장비는 카메라를 이동시키지 않는다는 문제가 있다. 이는 이동에 대한 기준점이 식별되지 않거나(주 표적의 영상 추적이 어려운 경우) 또는 이동의 목적지가 식별되지 않기 때문이다(상기 선택된 다른 표적의 영상 추적이 어려운 경우). 따라서 현재 추적하고 있는 주 표적을 놓치게 되거나, 또는 다른 표적을 추적하는 경우를 방지하기 위해 영상 추적 상태가 양호하지 않은 경우 주 표적의 변경이 이루어지지 않는다는 문제가 있다. However, there is a problem in that when the image tracking of the main target before the change is difficult, or the image tracking of the other target selected as the next main target is difficult, the electro-optical equipment does not move the camera. This is because the reference point for the movement is not identified (if the tracking of the main target is difficult) or the destination of the movement is not identified (if the tracking of the selected target is difficult). Therefore, there is a problem that the main target is not changed if the image tracking state is not good in order to prevent the main target being tracked from being missed or to track another target.

본 발명은 전술한 문제 및 다른 문제를 해결하는 것을 목적으로 하는 것으로, 본 발명의 목적은 주 표적의 변경이 선택되는 경우, 영상 추적 상태와 상관없이 선택된 표적으로 주 표적이 변경될 수 있도록 하는 전자광학장비 및 그 전자광학장비의 제어 방법을 제공하는 것이다. SUMMARY OF THE INVENTION It is an object of the present invention to solve the above-mentioned problems and other problems, and it is an object of the present invention to provide an image processing apparatus, an image processing method, Optical equipment and a control method of the electro-optical equipment.

또한 본 발명의 다른 목적은 주 표적의 변경이 선택되는 경우, 보다 짧은 시간 내에 선택된 다른 표적으로 주 표적이 정확하게 변경 및, 변경된 주 표적에 대한 추적이 시작될 수 있도록 하는 전자광학장비 및 그 전자광학장비의 제어 방법을 제공하는 것이다. Another object of the present invention is to provide an electro-optical apparatus and an electro-optical apparatus therefor, in which, when a change of the main target is selected, the main target can be accurately changed and the tracking of the changed main target can be started with another target selected within a shorter time And to provide a control method thereof.

상기 또는 다른 목적을 달성하기 위해 본 발명의 일 측면에 따르면, 본 발명의 실시 예에 따른 전자광학장비는, 복수의 표적을 포함하는 표적 영상을 센싱하며, 상기 복수의 표적 중 주 표적으로 설정된 표적을 지향하는 카메라와, 상기 카메라를 수평 및 수직 방향으로 회전시켜 상기 카메라가 지향하는 방향의 방위각 및 고각을 변경하는 구동부와, 상기 복수의 표적 중 주 표적으로 설정된 표적과 상기 카메라 사이의 거리를 측정하는 센서 및, 상기 복수의 표적 중 제1 표적이 주 표적으로 설정된 상태에서 제2 표적이 주 표적으로 선택되면, 상기 제2 표적과 상기 제1 표적의 방위각 차 및 고각 차에 근거하여 상기 카메라의 수평 및 수직 방향 회전 변위를 산출하고, 산출된 수평 및 수직 방향 회전 변위에 따라 상기 카메라가 지향하는 방향의 방위각 및 고각을 변경하도록 상기 구동부를 제어하여, 주 표적을 상기 제1 표적에서 상기 제2 표적으로 변경하는 제어부를 포함하는 것을 특징으로 한다. According to an aspect of the present invention, there is provided an electro-optical apparatus for sensing a target image including a plurality of targets, A driving unit for rotating the camera in the horizontal and vertical directions to change an azimuth angle and an elevation angle in a direction in which the camera is directed; a distance measuring unit for measuring a distance between a target set as a main target of the plurality of targets and the camera And a second target is selected as a main target while the first target of the plurality of targets is set as the main target, the second target is selected as the main target based on the azimuth difference and the elevation difference between the second target and the first target. Calculating an azimuth angle in a direction in which the camera is oriented in accordance with the calculated horizontal and vertical rotational displacements, By controlling the driving unit so as to change the angle, and the main target in the first target, it characterized in that it comprises a control unit for changing into the second mark.

일 실시 예에 있어서, 상기 제어부는, 상기 표적 영상 내에서 상기 제1 표적의 픽셀 위치와 상기 제2 표적의 픽셀 위치의 차이, 그리고 상기 제1 표적과 상기 카메라 사이의 거리에 근거하여 상기 방위각 차 및 고각 차를 산출하는 것을 특징으로 한다. In one embodiment, the control unit may be configured to determine, based on the difference between the pixel position of the first target and the pixel position of the second target in the target image, and the distance between the first target and the camera, And an elevation angle difference.

일 실시 예에 있어서, 상기 제어부는, 상기 복수의 표적을 포함하는 표적 영상이 센싱되면, 각 표적과 상기 카메라 사이의 거리들을 측정 및, 각 표적별로 카메라까지의 거리 차이들을 산출하여 저장하며, 상기 제1 표적이 주 표적으로 설정된 상태에서 제2 표적이 주 표적으로 선택되면, 상기 저장된 제1 표적으로부터 카메라까지 거리와 제2 표적으로부터 카메라까지 거리의 거리 차이와, 상기 제1 표적이 주 표적으로 설정된 상태에서 측정된 상기 제1 표적과 상기 카메라 사이의 거리를 합산한 거리에 근거하여, 상기 제1 표적의 픽셀 위치와 상기 제2 표적의 픽셀 위치 차이에 따른 방위각 차 및 고각 차를 산출하는 것을 특징으로 한다. In one embodiment, when the target image including the plurality of targets is sensed, the control unit measures the distances between each target and the camera, calculates and stores distance differences to the cameras for each target, If the second target is selected as the primary target with the first target set as the primary target, a distance difference between the distance from the stored first target to the camera and the distance from the second target to the camera, Calculating an azimuth difference and an elevation difference according to a pixel position of the first target and a pixel position of the second target based on a distance obtained by adding the distance between the first target and the camera measured in the set state .

일 실시 예에 있어서, 거리 정보와 상기 전자광학장비의 위치 정보 및 상기 카메라의 방위각 및 고각에 근거하여 특정 표적의 위치 정보를 획득하는 위치 정보 획득부를 더 포함하며, 상기 제어부는, 상기 제1 표적에서 제2 표적으로의 주 표적 변경이 완료되면, 상기 제2 표적과 상기 카메라 사이의 거리 및 상기 주 표적의 변경에 따라 변경된 방위각과 고각, 그리고 상기 전자광학장비의 위치 정보에 따라 상기 제2 표적의 위치 정보를 획득하는 것을 특징으로 한다. In one embodiment, the apparatus further includes a position information obtaining unit for obtaining position information of a specific target based on the distance information, the position information of the electro-optical device, and the azimuth and elevation of the camera, To the second target in accordance with the distance between the second target and the camera, the azimuth and elevation angle changed in accordance with the change of the main target, and the position information of the electro-optical equipment, And acquires the position information of the position information.

일 실시 예에 있어서, 상기 제어부는, 상기 구동부를 제어하여 주 표적으로 설정된 표적의 중심과 상기 표적 영상의 중심이 정렬되도록 상기 카메라가 지향하는 방향을 조정하고, 현재 추적중인 주 표적으로 설정된 표적이 다른 표적과 구분되도록 상기 표적 영상의 중심을 구분되게 표시하는 것을 특징으로 한다. In one embodiment, the control unit controls the driving unit to adjust the direction that the camera is aimed so that the center of the target image is aligned with the center of the target set as the main target, And the center of the target image is displayed so as to be distinguished from other targets.

일 실시 예에 있어서, 상기 제어부는, 상기 복수의 표적 중 제1 표적이 주 표적으로 설정된 상태에서 제2 표적이 주 표적으로 선택되면, 상기 표적 영상을 저장 및 표적 추적을 일시 정지하고, 상기 카메라가 지향하는 방향의 방위각 및 고각이 변경되면 표적 영상에 대한 표적 추적을 재개하여 주 표적으로 설정된 제2 표적에 대한 추적을 수행하는 것을 특징으로 한다. In one embodiment, when the second target is selected as the main target while the first target of the plurality of targets is set as the main target, the controller temporarily stores the target image and pauses the target tracking, When the azimuth angle and the elevation angle of the target are changed, the target tracking for the target image is resumed and the tracking for the second target set as the main target is performed.

상기 또는 다른 목적을 달성하기 위해 본 발명의 일 측면에 따르면, 본 발명의 실시 예에 따른 전자광학장비의 제어 방법은, 복수의 표적을 포함하는 표적 영상을 센싱하는 단계와, 상기 복수의 표적 중 주 표적으로 설정된 제1 표적과 다른 제2 표적을 선택받는 단계와, 상기 제1 표적에 대응하는 방위각 및 고각과, 상기 제2 표적에 대응하는 방위각과 고각의 방위각 차 및 고각 차를 산출하는 단계와, 산출된 방위각 차 및 고각 차에 따라 카메라의 수평 및 수직 방향 회전 변위를 산출하는 단계와, 상기 산출된 수평 및 수직 방향 회전 변위에 따라 상기 카메라를 회전시켜 상기 카메라가 상기 제2 표적을 지향하도록, 상기 카메라 지향 방향을 변경하는 단계 및, 상기 카메라의 지향 방향 변경에 따라 주 표적으로 설정된 제2 표적에 대한 거리 정보를 포함하는 표적 정보를 획득하는 단계를 포함하는 것을 특징으로 한다. According to an aspect of the present invention, there is provided a method of controlling an electro-optical apparatus, comprising: sensing a target image including a plurality of targets; Selecting an azimuth and an elevation corresponding to the first target and an azimuth difference and an elevation difference between the azimuth and elevation corresponding to the second target, selecting the second target different from the first target set as the main target, Calculating horizontal and vertical rotational displacements of the camera in accordance with the calculated azimuth difference and elevation difference, and rotating the camera in accordance with the calculated horizontal and vertical rotational displacements so that the camera directs the second target Changing the direction of camera orientation, and including distance information on a second target set as a main target in accordance with a change in the direction of the camera And acquiring the target information.

일 실시 예에 있어서, 상기 방위각 차 및 고각 차를 산출하는 단계는, 상기 표적 영상 내에서 상기 제1 표적의 픽셀 위치와 상기 제2 표적의 픽셀 위치의 차이를 산출하는 단계 및, 상기 제1 표적과 상기 카메라 사이의 제1 거리 및 상기 픽셀 위치의 차이에 근거하여 상기 방위각 차 및 고각 차를 산출하는 단계를 포함하는 것을 특징으로 한다. In one embodiment, calculating the azimuth difference and the elevation angle comprises: calculating a difference between a pixel location of the first target and a pixel location of the second target in the target image; And calculating the azimuth difference and the elevation difference based on the difference between the first distance between the camera and the camera and the pixel position.

일 실시 예에 있어서, 상기 표적 영상을 센싱하는 단계는, 상기 표적 영상에 포함된 각 표적과 카메라 사이의 거리들을 측정하는 단계 및, 각 표적별로 카메라까지의 거리 차이들을 산출 및 산출된 거리 차이들을 저장하는 단계를 더 포함하며, 상기 제1 거리 및 상기 픽셀 위치의 차이에 근거하여 방위각 차 및 고각 차를 산출하는 단계는, 현재 주 표적으로 설정된 제1 표적과 상기 카메라 사이의 상기 제1 거리를 측정하는 단계와, 상기 저장된 거리 차이들 중, 제1 표적과 상기 카메라 사이의 거리와 제2 표적과 상기 카메라 사이의 거리 사이의 거리 차이를 검출하는 단계 및, 상기 검출된 거리 차이와 상기 제1 거리를 합산한 거리 및 상기 픽셀 위치의 차이에 근거하여 상기 방위각 차 및 고각 차를 산출하는 단계를 포함하는 것을 특징으로 한다. In one embodiment, sensing the target image comprises: measuring distances between each of the targets and the camera included in the target image; calculating distances to the camera for each target; Wherein the step of calculating an azimuth difference and an elevation angle based on the difference between the first distance and the pixel position further comprises the steps of: Detecting a distance difference between a distance between the first target and the camera and a distance between the second target and the camera among the stored distance differences; And calculating the azimuth difference and the elevation difference based on the difference between the distance obtained by adding the distances and the pixel position.

일 실시 예에 있어서, 상기 제1 표적에서 제2 표적으로의 주 표적 변경이 완료되면, 상기 제2 표적과 상기 카메라 사이의 거리 및 상기 주 표적의 변경에 따라 변경된 방위각과 고각, 그리고 상기 전자광학장비의 위치 정보에 따라 상기 제2 표적의 위치 정보를 획득하는 단계를 더 포함하는 것을 특징으로 한다. In one embodiment, when the main target change from the first target to the second target is completed, the azimuth and elevation angle changed according to the distance between the second target and the camera and the change in the main target, And acquiring position information of the second target in accordance with position information of the equipment.

일 실시 예에 있어서, 상기 표적 영상은, 상기 표적 영상의 중심이 구분되게 표시되며, 상기 주 표적은, 상기 표적 영상의 중심에 대응하는 표적임을 특징으로 한다. In one embodiment, the center of the target image is displayed separately from the target image, and the main target is a target corresponding to the center of the target image.

일 실시 예에 있어서, 상기 제2 표적을 선택받는 단계는, 상기 표적의 추적을 일시 정지 및 상기 표적 영상을 저장하는 단계를 더 포함하며, 상기 카메라 지향 방향을 변경하는 단계는, 상기 카메라의 지향 방향 변경이 완료되면, 상기 제2 표적을 주 표적으로 표적 추적을 재개하는 단계를 더 포함하는 것을 특징으로 한다. In one embodiment, the step of selecting the second target further comprises pausing the tracking of the target and storing the target image, wherein the step of changing the camera orientation comprises: When the direction change is completed, resuming the target tracking as the main target of the second target.

본 발명에 따른 전자광학장비 및 그 전자광학장비의 제어 방법의 효과에 대해 설명하면 다음과 같다.Effects of the electro-optical equipment and the control method of the electro-optical equipment according to the present invention will be described as follows.

본 발명의 실시 예들 중 적어도 하나에 의하면, 본 발명은 다른 표적으로의 주 표적 변경이 선택되면, 선택된 다른 표적과 기존 주 표적 간의 방위각 및 고각 차를 산출하고, 산출된 방위각 차 및 고각 차에 근거하여 카메라의 지향 방향이 변경되도록 카메라를 구동함으로써, 보다 빠른 시간 내에 주 표적을 다른 표적으로 변경할 수 있다는 효과가 있다. According to at least one of the embodiments of the present invention, when the main target change to another target is selected, the present invention calculates the azimuth and elevation difference between the selected other target and the existing main target, and based on the calculated azimuth difference and elevation difference So that the main target can be changed to another target within a shorter time by driving the camera such that the direction of the camera is changed.

본 발명의실시 예들 중 적어도 하나에 의하면, 본 발명은 선택된 다른 표적과 기존 주 표적 간의 방위각 및 고각 차를 산출하고, 산출된 방위각 차 및 고각 차에 근거하여 카메라의 지향 방향이 변경되도록 카메라를 구동함으로써, 주 표적 또는 선택된 다른 표적에 대한 영상 추적 상태가 양호하지 않은 경우에도 주 표적을 다른 표적으로 쉽게 변경할 수 있다는 효과가 있다. According to at least one of the embodiments of the present invention, the present invention calculates azimuth and elevation difference between another selected target and existing main target, and drives the camera so that the direction of the camera is changed based on the calculated azimuth difference and elevation difference So that the main target can easily be changed to another target even when the image tracking status for the main target or another selected target is not good.

도 1은 본 발명의 실시 예에 따른 전자광학장비의 구조를 도시한 블록도이다.
도 2는 본 발명의 실시 예에 따른 전자광학장비의 예 및 상기 전자광학장비에서 센싱되는 표적들을 포함하는 영상의 예를 도시한 예시도이다.
도 3은 본 발명의 실시 예에 따른 전자광학장비에서 선택된 다른 표적으로 주 표적이 변경되는 동작 과정의 예를 도시한 흐름도이다.
도 4는 본 발명의 실시 예에 따른 전자광학장비에서 선택된 다른 표적으로 주 표적이 변경될 때에 카메라 지향 방향의 방위각 및 고각을 변경하는 다른 동작 과정을 도시한 흐름도이다.
도 5는 본 발명의 실시 예에 따른 전자광학장비에서 주 표적의 영상 추적 상태가 양호하지 않은 경우 주 표적이 변경되는 예를 도시한 예시도이다.
도 6은 본 발명의 실시 예에 따른 전자광학장비에서 주 표적으로 변경될 표적의 추적 상태가 양호하지 않은 경우에 주 표적이 변경되는 예를 도시한 예시도이다.
1 is a block diagram showing the structure of an electro-optical apparatus according to an embodiment of the present invention.
2 is an exemplary diagram illustrating an example of an electro-optical device according to an embodiment of the present invention and an image including targets that are sensed in the electro-optical device.
3 is a flowchart illustrating an example of an operation procedure in which the main target is changed to another target selected in the electro-optical apparatus according to the embodiment of the present invention.
4 is a flowchart illustrating another operation procedure for changing the azimuth and elevation angle of the camera-oriented direction when the main target is changed to another target selected in the electro-optical apparatus according to the embodiment of the present invention.
FIG. 5 is an exemplary view showing an example in which the main target is changed when the image tracking state of the main target is not good in the electro-optical apparatus according to the embodiment of the present invention.
6 is an exemplary view showing an example in which the main target is changed when the tracking state of the target to be changed to the main target in the electro-optical apparatus according to the embodiment of the present invention is not good.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 동일하거나 유사한 구성요소에는 동일, 유사한 도면 부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, wherein like or similar elements are denoted by the same or similar reference numerals, and redundant description thereof will be omitted. The suffix "module" and " part "for the components used in the following description are given or mixed in consideration of ease of specification, and do not have their own meaning or role. In the following description of the embodiments of the present invention, a detailed description of related arts will be omitted when it is determined that the gist of the embodiments disclosed herein may be blurred. It is to be understood that both the foregoing general description and the following detailed description are exemplary and explanatory and are intended to provide further explanation of the invention as claimed. , ≪ / RTI > equivalents, and alternatives.

또한, 본 명세서에 개시된 기술을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 기술의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. Further, in the description of the technology disclosed in this specification, a detailed description of related arts will be omitted if it is determined that the gist of the technology disclosed in this specification may be obscured.

이하 첨부된 도면을 참조하여 본 발명을 자세하게 설명하기로 한다. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 실시 예에 따른 전자광학장비(1)의 구조를 도시한 블록도이다. 그리고 도 2는 본 발명의 실시 예에 따른 전자광학장비의 예 및 상기 전자광학장비에서 센싱되는 표적들을 포함하는 영상의 예를 도시한 예시도이다. 1 is a block diagram showing the structure of an electro-optical device 1 according to an embodiment of the present invention. And Fig. 2 is an exemplary view showing an example of an electro-optical equipment according to an embodiment of the present invention and an image including targets to be sensed in the electro-optical equipment.

먼저 도 1을 참조하여 살펴보면, 본 발명의 실시 예에 따른 전자광학장비(1)는 제어부(100)와 상기 제어부(100)에 연결되며, 상기 제어부(100)에 의해 제어되는 입력부(110), 광학부(120), 표시부(130), 메모리(140)를 포함하여 구성될 수 있다. 그리고 위치 정보 획득부(150)를 더 포함하여 구성될 수 있다. 도 1에 도시된 구성요소들은 전자광학장비(1)를 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 전자광학장비(1)는 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다. 1, an electro-optical apparatus 1 according to an embodiment of the present invention includes a control unit 100, an input unit 110 connected to the control unit 100 and controlled by the control unit 100, An optical unit 120, a display unit 130, and a memory 140. And a location information obtaining unit 150. [ The components shown in Fig. 1 are not essential to the implementation of the electro-optical equipment 1, so that the electro-optical equipment 1 described herein can have more or less components than the components listed above Lt; / RTI >

먼저 입력부(110)는 사용자로부터 정보를 입력받기 위한 정보의 입력을 위한 것으로 기계식 (mechanical) 입력수단 및 터치식 입력수단을 포함할 수 있다. 일 예로서, 터치식 입력수단은, 소프트웨어적인 처리를 통해 터치스크린에 표시되는 가상 키(virtual key), 소프트 키(soft key) 또는 비주얼 키(visual key)로 이루어지거나, 상기 터치스크린 이외의 부분에 배치되는 터치 키(touch key)로 이루어질 수 있다. 한편, 상기 가상키 또는 비주얼 키는, 다양한 형태를 가지면서 터치스크린 상에 표시되는 것이 가능하며, 예를 들어, 그래픽(graphic), 텍스트(text), 아이콘(icon), 비디오(video) 또는 이들의 조합으로 이루어질 수 있다. First, the input unit 110 is for inputting information for receiving information from a user, and may include a mechanical input unit and a touch input unit. For example, the touch-type input means may comprise a virtual key, a soft key or a visual key displayed on the touch screen through software processing, And a touch key disposed on the touch panel. Meanwhile, the virtual key or the visual key can be displayed on a touch screen having various forms, for example, a graphic, a text, an icon, a video, As shown in FIG.

광학부(120)는 영상을 센싱하기 위한 카메라(122) 및 상기 카메라(122)를 특정 방향으로 회전시키기 위한 구동부(124) 그리고 센싱된 영상에 포함된 표적에 대해 거리 정보 등 다양한 정보를 센싱할 수 있는 적어도 하나의 센서를 포함하는 센서부(126)를 포함할 수 있다. 여기서 카메라(122)는 주시하는 방향에 대한 영상을 센싱할 수 있으며, IR(Infrared) 카메라 또는 EO(Electro-Optica) 카메라 중 적어도 하나를 포함할 수 있다. 그리고 상기 제어부(100)의 제어에 따라 영상을 센싱하는 배율이 조정될 수 있다. The optical unit 120 includes a camera 122 for sensing an image, a driving unit 124 for rotating the camera 122 in a specific direction, and various information such as distance information about a target included in the sensed image And a sensor portion 126 including at least one sensor. Here, the camera 122 may sense an image with respect to a direction to be viewed, and may include at least one of an IR (Infrared) camera or an EO (Electro-Optica) camera. The magnification for sensing an image under the control of the controller 100 can be adjusted.

예를 들어 제어부(100)의 제어에 따라 배율이 높아지는 경우 상기 카메라(122)는 현재 주 표적으로 설정된 표적이 위치하는 방향에 대한 보다 확대된 영상을 센싱함으로써 NFOV(Narrow Field Of View) 영상을 제공할 수 있다. 이 경우 표적의 영상은 확대되지만 시야는 좁아질 수 있다. 반면 제어부(100)의 제어에 따라 배율이 낮아지는 경우 주 표적의 크기는 작아지지만 상기 주 표적을 중심으로 하는 보다 넓은 영역의 영상을 센싱할 수 있다. For example, when the magnification is increased according to the control of the control unit 100, the camera 122 senses an enlarged image with respect to a direction in which a target set as a main target is located, thereby providing an NFOV (Narrow Field Of View) can do. In this case, the image of the target is enlarged, but the field of view can be narrowed. On the other hand, when the magnification is lowered under the control of the control unit 100, a larger target image centered on the main target can be sensed although the size of the main target is smaller.

도 2의 (a)는 이러한 본 발명의 실시 예에 따른 전자광학장비(1)의 외관을 도시한 것이다. 2 (a) shows the appearance of the electro-optical device 1 according to the embodiment of the present invention.

도 2의 (a)를 참조하여 살펴보면, 상기 광학부(120)는 카메라 본체(120) 및 구동부(240)를 포함하여 구성될 수 있다. 여기서 상기 카메라(200)는 EO 카메라 또는 적외선(IR) 카메라일 수 있다. 그리고 상기 센서들(210, 220) 중 적어도 하나는 표적과의 거리 측정을 위한 LRF 일 수 있다.2 (a), the optical unit 120 may include a camera body 120 and a driving unit 240. Referring to FIG. The camera 200 may be an EO camera or an infrared (IR) camera. And at least one of the sensors 210 and 220 may be an LRF for distance measurement with the target.

한편 구동부(124)는 카메라(200)가 주시하는 방향의 방위각 및 고각을 변경할 수 있도록 형성될 수 있다. 또한 상기 구동부(124)는 현재 카메라(200)가 주시하는 방향에 대응하는 방위각 및 고각을 측정할 수 있는 센서일 수 있다. On the other hand, the driving unit 124 may be configured to change an azimuth angle and an elevation angle of a direction in which the camera 200 is viewed. The driving unit 124 may be a sensor capable of measuring an azimuth angle and an elevation angle corresponding to a direction in which the camera 200 is currently viewed.

한편 구동부(124)는 제어부(100)의 제어에 따라 상기 카메라(122)가 주시하는 방향, 즉 카메라(122) 렌즈가 바라보고 있는 방향의 방위각 및 고각을 변경할 수 있는 다수의 구동기 및 모터를 포함할 수 있다. 예를 들어 상기 구동부(124)는 상기 카메라(122)를, 상기 제어부(100)의 제어에 따른 방위각만큼 수평 방향으로 회전시킬 수 있으며, 상기 제어부(100)의 제어에 따른 고각만큼 카메라(122)를 수직 방향으로 회전시킬 수 있다. On the other hand, the driving unit 124 includes a plurality of drivers and motors that can change the azimuth angle and elevation angle in the direction that the camera 122 is looking at, that is, the direction in which the camera 122 is looking, under the control of the controller 100 can do. For example, the driving unit 124 may rotate the camera 122 in the horizontal direction by an azimuth angle under the control of the controller 100, and the camera 122 may be rotated by an elevation angle controlled by the controller 100, Can be rotated in the vertical direction.

한편 센서부(126)는 표적에 관련된 표적 정보를 수집하기 위한 적어도 하나의 센서를 구비할 수 있다. 예를 들어 상기 센서부(126)는 거리 센서를 포함할 수 있다. 여기서 상기 거리 센서는 LRF(Laser Range Finder) 일 수 있다. 그리고 센서부(126)는 상기 거리 센서를 이용하여 상기 카메라(122)의 지향 방향에 위치한 표적과 상기 카메라(122) 사이의 거리를 측정할 수 있다. Meanwhile, the sensor unit 126 may include at least one sensor for collecting target information related to the target. For example, the sensor unit 126 may include a distance sensor. The distance sensor may be an LRF (Laser Range Finder). The sensor unit 126 may measure the distance between the camera 122 and the target positioned in the direction of the camera 122 using the distance sensor.

그리고 표시부(130)는 상기 광학부(120)에서 센싱된 다양한 정보들을 표시할 수 있다. 예를 들어 상기 표시부(130)는 상기 카메라(122)에서 센싱된 적어도 하나의 표적을 포함하는 표적 영상을 표시할 수 있다. 한편 상기 표적 영상은 상기 카메라(122)의 지향 방향 중심을 나타내는 십자 모양의 십자망선이 표시될 수 있다. 그리고 상기 광학부(120)가 주 표적으로 설정된 표적을 추적하고 있는 상태라면, 상기 표적 영상 중, 상기 십자망선은 현재 주 표적으로 설정된 표적의 이미지 중심에 위치할 수 있다. The display unit 130 may display various information sensed by the optical unit 120. For example, the display unit 130 may display a target image including at least one target sensed by the camera 122. On the other hand, a cross-shaped cruciform line representing the center of the direction of the camera 122 may be displayed on the target image. If the optical unit 120 is tracking a target set as a main target, the crosshairs may be located at the center of the image of the target that is currently set as the main target.

도 2의 (b)는 본 발명의 실시 예에 따른 전자광학장비(1)에서 센싱되는 표적들을 포함하는 영상의 예를 도시한 것이다.FIG. 2 (b) shows an example of an image including targets to be sensed in the electro-optical apparatus 1 according to the embodiment of the present invention.

도 2의 (b)를 참조하여 살펴보면, 본 발명의 실시 예에 따른 전자광학장비(1)의 광학부(120)에서 센싱된 표적 영상(250)은 그 중심에 십자망선(260)이 표시될 수 있다. 그리고 상기 십자망선(260)의 중심은 현재 주 표적으로 설정된 어느 하나의 표적(270)의 이미지 중심과 정렬될 수 있다. 이에 사용자는 현재 표적 영상(250)에 포함된 표적들(270, 272, 274, 276) 중 주 표적으로 설정된 표적(270)을 식별할 수 있다. 그리고 상기 주 표적으로 설정된 제1 표적(270)에 대한 표적 정보를 수집할 수 있다. 일 예로 상기 표적 정보는 상기 제1 표적(270)과 카메라(122) 사이의 거리 및 상기 제1 표적(510)의 위치 정보일 수 있다. 2 (b), a target image 250 sensed by the optical unit 120 of the electro-optical apparatus 1 according to the embodiment of the present invention is displayed with a cruciform line 260 at the center thereof . The center of the cruciform line 260 may be aligned with the center of the image of one target 270 currently set as the main target. Accordingly, the user can identify the target 270 set as the main target among the targets 270, 272, 274, and 276 included in the current target image 250. The target information for the first target 270 set as the main target may be collected. For example, the target information may be the distance between the first target 270 and the camera 122 and the position information of the first target 510.

한편 상기 표시부(130)는 터치 센서를 포함하는 터치 스크린의 형태로 형성될 수 있다. 이 경우 상기 표시부(130)는 입력부(110)로서의 기능을 함께 수행할 수 있다. 즉, 도 2의 (b)에서 보이고 있는 바와 같이, 표시부(130)에 주 표적으로 설정된 표적을 포함하여 다수의 표적이 표시되는 경우, 사용자가 현재 주 표적으로 설정된 표적(270) 외에 다른 표적들(272, 274, 276) 중 어느 하나가 표시되는 표시부(130) 상의 일 지점을 터치하면, 상기 터치 입력은 상기 어느 하나의 표적으로 주 표적을 변경하기 위한 사용자의 입력이 될 수 있다. Meanwhile, the display unit 130 may be formed as a touch screen including a touch sensor. In this case, the display unit 130 may also function as the input unit 110. That is, as shown in FIG. 2B, when a plurality of targets including the target set as the main target is displayed on the display unit 130, when the user selects the target 270 other than the target 270 currently set as the main target The touch input may be a user's input for changing the main target to any one of the targets when the user touches one point on the display unit 130 on which one of the keys 272, 274, and 276 is displayed.

위치 정보 획득부(150)는 현재 주 표적으로 설정된 표적의 위치 정보를 획득하기 위한 것일 수 있다. 상기 위치 정보 획득부(150)는, GPS(Global Positioning System) 모듈과 같이 상기 표적의 위치를 획득하기 위한 적어도 하나의 모듈을 포함할 수 있다. 상기 위치 정보 획득부(150)는 전자광학장비(1)의 현재 위치, 그리고 상기 카메라(122)의 현재 방위각과 고각, 그리고 현재 센싱되는 주 표적과 카메라(122) 사이의 거리에 근거하여, 주 표적으로 센싱된 표적의 위치 정보를 획득할 수 있다. The location information acquisition unit 150 may be for acquiring location information of a target currently set as a main target. The position information obtaining unit 150 may include at least one module for obtaining the position of the target, such as a Global Positioning System (GPS) module. The positional information obtaining unit 150 obtains the positional information of the camera 122 based on the current position of the electro-optical device 1 and the current azimuth and elevation of the camera 122 and the distance between the main target and the camera 122, The position information of the target sensed by the target can be obtained.

그리고 메모리(140)는 본 발명의 실시 예에 따른 전자광학장비(1)가 구동 및 동작을 위한 다양한 데이터들을 포함할 수 있다. 상기 메모리(140)는 상기 전자광학장비(1)가 표적을 센싱하고 추적하기 위한 다양한 소프트웨어 및 관련된 다양한 데이터를 포함할 수 있다. 또한 상기 센서부(126)에서 센싱되는 각각의 데이터들이 저장될 수 있으며, 센싱된 표적 영상 및 저장된 표적 영상에 포함된 표적의 거리 정보 및 위치 정보를 포함하는 다양한 표적 정보가 저장될 수 있다. The memory 140 may include various data for driving and operating the electro-optical apparatus 1 according to the embodiment of the present invention. The memory 140 may include various software and various data related to the sensing and tracking of the target by the electro-optical equipment 1. In addition, each data sensed by the sensor unit 126 may be stored, and various target information including distance information and position information of the target included in the sensed target image and the stored target image may be stored.

한편 제어부(100)는 본 발명의 실시 예에 따른 전자광학장비(1)의 전반적인 동작을 제어할 수 있다. 제어부(100)는 사용자에 의해 주 표적의 변경이 선택되는 경우, 센싱된 표적 영상으로부터 현재 주 표적으로 설정된 제1 표적을 기준으로, 다음 주 표적으로 설정된 제2 표적과의 방위각 및 고각의 차를 산출할 수 있다. 일 예로 제어부(100)는 상기 표적 영상의 중심인 제1 표적 중심으로부터, 상기 제2 표적 중심에 대한 방위각 및 고각을 산출할 수 있다. 그리고 산출된 방위각 및 고각에 근거하여 상기 광학부(120)의 구동부(124)를 제어할 수 있다. 이에 따라 카메라(122)가 주시하는 방향이 상기 방위각 및 고각만큼 변경될 수 있으며, 이에 따라 상기 카메라(122)가 주시하는 방향이 상기 제2 표적의 중심을 향하도록 변경될 수 있다. Meanwhile, the controller 100 may control the overall operation of the electro-optical device 1 according to the embodiment of the present invention. When the main target change is selected by the user, the control unit 100 determines the difference between the azimuth angle and the elevation angle with respect to the second target set as the next main target on the basis of the first target set as the main target from the sensed target image Can be calculated. For example, the controller 100 may calculate the azimuth angle and the elevation angle with respect to the second target center from the first target center, which is the center of the target image. The driving unit 124 of the optical unit 120 can be controlled based on the calculated azimuth angle and elevation angle. Accordingly, the direction in which the camera 122 is viewed can be changed by the azimuth angle and the elevation angle, so that the direction in which the camera 122 is viewed can be changed so as to face the center of the second target.

이처럼 본 발명의 실시 예에 따른 전자광학장비(1)는 변경될 주 표적으로 선택된 제2 표적과, 현재 주 표적으로 설정된 제1 표적의 방위각 및 고각의 차이를 산출하고, 산출된 방위각 및 고각 차에 따라 카메라(122)의 지향 방향이 변경되도록 한다. 따라서 본 발명은 상기 제2 표적이 선택된 이후에 영상 추적 상태가 양호하지 않은 경우라도 상기 제2 표적에 해당하는 방향으로 카메라(122)의 지향 방향이 변경될 수 있다. 또한 이처럼 영상 추적 상태와 상관없이 기 산출된 방위각 차 및 고각 차에 따라 카메라(122)의 지향 방향이 변경되도록 함으로써, 보다 빠른 시간 내에 상기 제2 표적으로 주 표적이 변경될 수 있다. As described above, the electro-optical apparatus 1 according to the embodiment of the present invention calculates the difference between the azimuth angle and the elevation angle of the first target set as the main target and the second target selected as the main target to be changed, So that the direction of the camera 122 is changed. Therefore, even if the image tracking state is not good after the second target is selected, the direction of the camera 122 may be changed in the direction corresponding to the second target. Also, since the direction of the camera 122 is changed according to the calculated azimuth angle difference and the high angle difference irrespective of the image tracking state, the main target can be changed to the second target in a shorter time.

도 3은 이러한 본 발명의 실시 예에 따른 전자광학장비(1)에서 선택된 다른 표적으로 주 표적이 변경되는 동작 과정의 예를 도시한 흐름도이다. 3 is a flowchart showing an example of an operation procedure in which the main target is changed to another target selected in the electro-optical apparatus 1 according to the embodiment of the present invention.

먼저 본 발명의 실시 예에 따른 전자광학장비(1)는 상술한 바와 같이 다수의 표적이 센싱되는 상태에서, 어느 하나의 표적, 즉 제1 표적을 주 표적으로 설정하고 추적하는 상태일 수 있다. 이러한 경우 제어부(100)는 센서부(126)에서 센싱되는 거리 정보 및 전자광학장비(1)의 방위각 및 고각에 근거하여, 현재 주 표적으로 설정된 상기 제1 표적의 위치 정보를 획득할 수 있다. 또한 이러한 상태에서 현재 주 표적으로 설정되어 있는 표적(이하 제1 표적이라 칭한다.) 외에 다른 표적(이하 제2 표적이라 칭한다.)이 선택되는 경우, 제어부(100)는 하기 도 3의 과정을 통해 주 표적을 제1 표적에서 제2 표적으로 변경할 수 있다. First, the electro-optical device 1 according to the embodiment of the present invention may be a state in which a target, that is, a first target is set and tracked as a main target in a state in which a plurality of targets are sensed as described above. In this case, the controller 100 may acquire the position information of the first target currently set as the main target, based on the distance information sensed by the sensor unit 126 and the azimuth and elevation of the electro-optical device 1. [ In addition, when another target (hereinafter referred to as the second target) other than the target currently set as the main target (hereinafter, referred to as the first target) is selected in this state, the control unit 100 performs the process of FIG. 3 The primary target can be changed from the primary target to the secondary target.

도 3을 참조하여 살펴보면, 본 발명의 실시 예에 따른 전자광학장비(1)의 제어부(100)는 먼저 상기 제1 표적의 방위각 및 고각과 상기 제2 표적의 방위각 및 고각의 차이들을 산출할 수 있다(S300). 예를 들어 제어부(100)는 현재 센싱된 영상에 포함된 제1 표적에 대한 제2 표적의 픽셀 위치의 차이로부터 상기 방위각 및 고각의 차이를 산출할 수 있다. 그리고 산출된 방위각 차와 고각 차로부터 변경될 카메라(122) 지향 방향의 방위각 및 고각을 결정할 수 있다. 3, the controller 100 of the electro-optical apparatus 1 according to the embodiment of the present invention may first calculate the azimuth and elevation of the first target and the azimuth and elevation of the second target (S300). For example, the control unit 100 may calculate the difference between the azimuth angle and the elevation angle from the difference between the pixel positions of the second target with respect to the first target included in the currently sensed image. The azimuth angle and the elevation angle of the camera 122 direction to be changed can be determined from the calculated azimuth difference and elevation angle.

이 경우 결정되는 방위각 및 고각은, 현재 주 표적으로 설정된 제1 표적과 카메라(122)와의 거리에 따라 결정될 수 있다. 즉, 제1 표적으로부터 산출된 거리에 근거하여, 상기 픽셀 위치의 차이에 따른 방위각 차 및 고각 차가 산출될 수 있다. 그리고 산출된 방위각 차 및 고각 차에 근거하여 구동부(124)의 수평 방향 회전 변위(방위각) 및 수직 방향 회전 변위(고각)가 결정될 수 있다. In this case, the determined azimuth angle and elevation angle can be determined according to the distance between the camera 122 and the first target currently set as the main target. That is, based on the distances calculated from the first target, the azimuth difference and the elevation difference according to the difference of the pixel positions can be calculated. Then, the horizontal rotational displacement (azimuth) and the vertical rotational displacement (elevation angle) of the driving unit 124 can be determined based on the calculated azimuth difference and elevation angle difference.

한편 상기 제2 표적이 선택되는 경우 제어부(100)는 현재 추적 중인 제1 표적 및 제2 표적을 포함하는 표적 영상을 메모리(140)에 저장할 수 있다(S302). 이 경우 상기 표적 영상이 저장되는 경우 표적의 추적을 일시 정지할 수도 있다. 그리고 제어부(100)는 상기 일시 정지된 상태의 표적 영상을 저장할 수 있다. 이는 카메라(122)가 표적 영상을 센싱하는 중에 수평 방향 또는 수직 방향으로 회전하는 경우, 카메라(122)의 회전에 따라 표적의 영상이 늘어지거나 영상의 경계선이 모호해지는 블러(blur) 현상 등 센싱되는 영상에 오류가 발생할 수 있기 때문이다. If the second target is selected, the controller 100 may store the target image including the first target and the second target currently being tracked in the memory 140 (S302). In this case, if the target image is stored, the tracking of the target may be suspended. The control unit 100 may store the target image in the paused state. This is because when the camera 122 rotates in the horizontal direction or the vertical direction while sensing the target image, a blur phenomenon in which the image of the target is stretched or the boundary of the image is blurred is sensed according to the rotation of the camera 122 This is because an error may occur in the image.

그리고 제어부(100)는 상기 산출된 방위각 및 고각에 따라 카메라(122)가 주시하는 방향이 변경되도록, 구동부(124)를 제어할 수 있다(S304). 따라서 상기 구동부(124)의 구동에 따라 카메라(122)는 수평 방향 및 수직 방향으로 회전하여 제1 표적 중심에서 제2 표적 중심으로 카메라의 지향 방향이 변경될 수 있다. The control unit 100 may control the driving unit 124 to change the direction that the camera 122 looks at according to the calculated azimuth and elevation angle at step S304. Accordingly, the camera 122 may rotate in the horizontal direction and the vertical direction according to the driving of the driving unit 124, and the direction of the camera may be changed from the first target center to the second target center.

그리고 지향 방향이 변경되면, 제어부(100)는 변경된 지향 방향에 따라 제2 표적을 주 표적으로 설정할 수 있다. 그리고 제2 표적을 중심으로 추적을 재시작 할 수 있다(S306). 이 경우 만약 상기 S302 단계에서 추적이 일시 정지된 상태였다면, 상기 S304 단계에서 상기 제2 표적으로 카메라의 지향 방향이 변경된 이후 다시 추적이 재수행될 수 있다. If the direction is changed, the control unit 100 may set the second target as the main target according to the changed orientation direction. The tracking can be restarted around the second target (S306). In this case, if the tracking is paused in step S302, tracking may be performed again after the direction of the camera is changed to the second target in step S304.

한편 상기 S306 단계에서 제어부(100)는 추적을 재수행하기 전에 카메라(122)의 배율을 일정 수준 낮출 수 있다. 이 경우 제2 표적으로 주 표적이 변경될 때에, 표적 탐색 영역이 보다 확장될 수 있으며, 따라서 방위각 및 고각의 오차가 보다 적어질 수 있기 때문이다. 또한 탐색 영역을 보다 넓힘으로써 현재 표시되는 표적 영상의 범위 외부로 상기 제2 표적이 이탈하는 경우를 방지하기 위함이다. Meanwhile, in step S306, the controller 100 may lower the magnification of the camera 122 to a certain level before performing the tracking again. In this case, when the main target is changed to the second target, the target search area can be further expanded, and thus the error of the azimuth and elevation can be reduced. In addition, the search area is widened to prevent the second target from deviating from the range of the target image currently displayed.

한편 상기 S306 단계에 따라 주 표적이 제2 표적으로 변경되어 상기 제2 표적에 대한 재추적이 수행되면, 제어부(100)는 제2 표적과 카메라(122)의 거리를 센싱할 수 있다. 그리고 센싱된 거리 정보에 근거하여 방위각 및 고각을 보정할 수 있다. 이에 따라 상기 제1 표적과 제2 표적 사이의 거리가 차이가 있는 경우에도, 상기 재추적시에 수행되는 보정에 따라 상기 제2 표적의 이미지 중심으로 십자망선의 위치가 보정될 수 있다. 그리고 제어부(100)는 영상 내에서 센싱되는 제2 표적 위치에 따라 추적을 수행할 수 있다. If the main target is changed to the second target in step S306 and the second target is re-traced, the controller 100 may sense the distance between the second target and the camera 122. [ The azimuth angle and elevation angle can be corrected based on the sensed distance information. Accordingly, even when the distance between the first target and the second target is different, the position of the crosshatch line can be corrected to the center of the image of the second target according to the correction performed at the time of re-tracing. The control unit 100 may perform tracking according to the second target position sensed in the image.

한편 상기 S306 단계에서 제2 표적으로 주 표적이 설정되면, 제어부(100)는 상기 제2 표적에 대한 표적 정보를 획득할 수 있다(S308). 일 예로 상기 표적 정보는 상기 제2 표적과 카메라(122) 사이의 거리 정보일 수 있다. 그리고 상기 거리 정보에 근거하여 획득되는 위치 정보일 수 있다. 이 경우 제어부(100)는 전자광학장비(1)의 현재 위치 및, 현재 추적 중인 제2 표적에 대한 방위각 및 고각, 그리고 거리에 근거하여, 상기 제2 표적의 위치를 획득할 수 있다. 이를 위해 상기 S308 단계는 위치 정보 획득부(150)에 구비된 GPS 모듈을 이용할 수 있다. On the other hand, if the main target is set as the second target in step S306, the controller 100 may acquire the target information on the second target (S308). For example, the target information may be distance information between the second target and the camera 122. And location information obtained based on the distance information. In this case, the control unit 100 can acquire the position of the second target based on the current position of the electro-optical equipment 1, the azimuth and elevation angle and the distance to the second target currently being tracked. For this, the GPS module provided in the location information obtaining unit 150 may be used in step S308.

한편 상술한 도 3의 설명에서는 표적 영상 내에서 산출된 픽셀 위치 차이와 상기 제1 표적과 카메라(122) 사이의 거리 정보에 근거하여 구동부(124)의 수평 방향 회전 변위(방위각) 및 수직 방향 회전 변위(고각)을 결정하는 구성을 설명하였으나, 본 발명이 이에 한정되는 것이 아님은 물론이다. In the description of FIG. 3, based on the pixel position difference calculated in the target image and the distance information between the first target and the camera 122, the horizontal rotation displacement (azimuth) and the vertical rotation And the displacement (elevation angle) is determined. However, the present invention is not limited thereto.

예를 들어 본 발명의 실시 예에 따른 전자광학장비(1)의 제어부(100)는 초기에 다수의 표적이 센싱되는 경우, 각 표적을 차례로 센싱하여 각 표적과 카메라(122) 사이의 거리를 측정할 수 있다. 그리고 각 표적별로, 카메라(122) 까지의 거리 차이들을 산출할 수 있다. 그리고 산출된 거리 차이들을 데이터베이스화하여 메모리(140)에 저장할 수 있다. For example, when a plurality of targets are initially sensed, the control unit 100 of the electro-optical device 1 according to the embodiment of the present invention sequentially measures each target and measures the distance between each target and the camera 122 can do. Then, distance differences to the camera 122 can be calculated for each target. The calculated distance differences can be stored in the memory 140 in the form of a database.

즉, 제어부(100)는 초기에 3개의 표적이 센싱되는 경우, 제1 표적과 카메라(122) 사이의 제1 거리를 측정하고, 제2 표적과 카메라(122) 사이의 제2 거리 및 제3 표적과 카메라(122) 사이의 제3 거리를 산출할 수 있다. 그리고 제1 거리를 기준(제1 표적 기준)으로 제1 거리와 제2 거리의 차이를 산출하여 제2 표적에 대응되게 저장하고, 제1 거리와 제3 거리의 차이를 산출하여 제3 표적에 대응되게 저장할 수 있다. 그리고 기준이 되는 표적을 변경하여 기준 표적과 카메라 사이의 거리를 기준으로 다른 표적과 카메라 사이의 거리들 각각과의 차이들을 저장할 수 있다. That is, when three targets are initially sensed, the control unit 100 measures a first distance between the first target and the camera 122, measures a second distance between the second target and the camera 122, The third distance between the target and the camera 122 can be calculated. Then, the difference between the first distance and the second distance is calculated based on the first distance as a reference (first target reference), the difference is stored in correspondence with the second target, the difference between the first distance and the third distance is calculated, Can be stored correspondingly. And the target can be changed to store differences between each of the distances between the target and the camera based on the distance between the reference target and the camera.

이러한 상태에서, 제어부(100)는 제2 표적의 선택에 따라 주 표적의 변경이 결정되면, 현재 주 표적으로 설정되어 있는 제1 표적과 카메라(122) 사이의 거리 및, 상기 메모리(140)에 저장된 제1 표적과 카메라(122) 사이의 거리와 상기 제2 표적과 카메라(122) 사이의 거리의 차에 근거하여, 상기 제2 표적과 카메라(122) 사이의 거리를 추정할 수 있다. 그리고 추정된 제2 표적과의 거리에 근거하여 구동부(124)의 수평 방향 회전 변위(방위각) 및 수직 방향 회전 변위(고각)를 결정할 수 있다. In this state, when the change of the main target is determined according to the selection of the second target, the control unit 100 determines the distance between the first target set as the main target and the camera 122, The distance between the second target and the camera 122 may be estimated based on the difference between the distance between the stored first target and the camera 122 and the distance between the second target and the camera 122. [ Then, based on the distance from the estimated second target, the horizontal rotational displacement (azimuth) and the vertical rotational displacement (elevation angle) of the driving unit 124 can be determined.

도 4는 이러한 경우에 본 발명의 실시 예에 따른 전자광학장비(1)에서 선택된 다른 표적으로 주 표적이 변경될 때에 카메라 지향 방향의 방위각 및 고각을 변경하는 S304 단계의 동작 과정을 도시한 흐름도이다. 4 is a flowchart showing an operation procedure of the step S304 of changing the azimuth angle and elevation angle of the camera-oriented direction when the main target is changed to another target selected in the electro-optical apparatus 1 according to the embodiment of the present invention .

도 4를 참조하여 살펴보면, 본 발명의 실시 예에 따른 전자광학장비(1)의 제어부(100)는 제1 표적이 주 표적으로 추적되는 상태에서, 상기 제1 표적과 다른 제2 표적이 선택되면, 기 저장된 거리 차이들 중 상기 제1 표적과 카메라 사이의 거리 및 제2 표적과 카메라 사이의 기 산출된 거리 차이를 검출할 수 있다(S400). 여기서 상기 거리 차이는, 초기 복수의 표적이 센싱될 때에 각각의 표적을 센싱하는 과정에서 산출되는 각 표적과 카메라(122) 사이 거리들의 차이 데이터베이스로부터 검출될 수 있다. 이 경우 현재 주 표적으로 설정된 표적이 기준으로 설정될 수 있다. 따라서 제1 표적이 주 표적으로 설정된 상태라면, 상기 거리 차이 데이터베이스로부터 제1 표적과 카메라(122) 사이의 거리와, 제2 표적과 카메라(122) 사이의 거리의 차이가 상기 데이터베이스로부터 검출될 수 있다. Referring to FIG. 4, the controller 100 of the electro-optical apparatus 1 according to the embodiment of the present invention, when the first target is tracked as the main target and the second target different from the first target is selected The distance between the first target and the camera, and the difference between the second target and the camera calculated in step S400. Where the distance difference can be detected from a difference database of distances between each target and the camera 122 that are generated in sensing each target when an initial plurality of targets are sensed. In this case, the target set as the current main target may be set as the reference. Thus, if the first target is set as the primary target, a difference between the distance from the distance difference database to the first target and the camera 122 and the distance between the second target and the camera 122 can be detected from the database have.

그리고 제어부(100)는 상기 S400 단계에서 산출된 거리 차이와 제1 표적과 카메라(122) 사이의 거리에 근거하여, 현재 선택된 제2 표적과 카메라(122) 사이의 거리를 추정할 수 있다(S402). 여기서 상기 제1 표적과 카메라(122) 사이의 거리는, 현재 상기 제1 표적이 주 표적으로 설정된 상태이므로, 추적을 통해 지속적으로 측정될 수 있다. 그리고 제어부(100)는 상기 제1 표적과 카메라(122) 사이의 거리에, 상기 S400 단계에서 검출된 거리 차이를 합하여 상기 제2 표적과 카메라(122) 사이의 거리를 추정할 수 있다. The control unit 100 may estimate the distance between the currently selected second target and the camera 122 based on the distance difference calculated in step S400 and the distance between the first target and the camera 122 ). Here, the distance between the first target and the camera 122 can be continuously measured through tracking since the first target is currently set as the main target. The control unit 100 may estimate the distance between the second target and the camera 122 by adding the distance difference detected in step S400 to the distance between the first target and the camera 122. [

한편 상기 S402 단계에서 제2 표적과 카메라(122) 사이의 거리가 산출되면, 제어부(100)는 산출된 거리에 근거하여, 표적 영상 내 픽셀 위치의 차이에 따른 방위각 차 및 고각 차를 산출할 수 있다. 그리고 산출된 방위각 차 및 고각 차에 대응하는 카메라(122)의 수평 회전 변위(방위각) 및 수직 회전 변위(고각)를 결정할 수 있다(S404). On the other hand, if the distance between the second target and the camera 122 is calculated in step S402, the controller 100 may calculate the azimuth difference and the elevation difference according to the difference in pixel positions in the target image, based on the calculated distance have. Then, the horizontal rotation displacement (azimuth) and the vertical rotation displacement (elevation angle) of the camera 122 corresponding to the calculated azimuth difference and elevation angle can be determined (S404).

그리고 제어부(100)는 상기 산출된 수평 회전 변위(방위각) 및 수직 회전 변위(고각)에 따라 카메라(122) 지향 방향이 변경되도록 구동부(124)를 제어할 수 있다(S406). 이 경우 상기 제1 표적과 제2 표적 각각에 대한 카메라(122)의 거리 차이가 반영되므로, 제2 표적에 대한 보다 정확한 카메라(122) 지향 방향의 방위각 및 고각이 산출될 수 있다.The control unit 100 may control the driving unit 124 to change the direction of the camera 122 according to the calculated horizontal rotation displacement (azimuth angle) and vertical rotation displacement (elevation angle) (S406). In this case, since the distance difference of the camera 122 to the first target and the second target is reflected, a more accurate azimuth and elevation angle of the camera 122 directional direction for the second target can be calculated.

한편 도 5는 본 발명의 실시 예에 따른 전자광학장비에서 주 표적의 영상 추적 상태가 양호하지 않은 경우 주 표적이 변경되는 예를 도시한 예시도이다. 5 is an exemplary diagram illustrating an example in which the main target is changed when the image tracking state of the main target is not good in the electro-optical device according to the embodiment of the present invention.

한편 이하의 도면들은 좌측 상단의 도면을 시작으로, 시계 방향 순서로 설명하며, 좌측 상단의 도면은, '첫 번째 도면', 우측 상단의 도면은 '두 번째 도면', 우측 하단의 도면은 '세 번째 도면', 좌측 하단의 도면은 '네 번째 도면'으로 명명하여 설명하기로 한다. The following drawings are described in the order starting from the upper left corner in clockwise order. In the upper left figure, the first drawing, the upper right drawing is the second drawing, and the lower right drawing is the three , And the lower left drawing will be referred to as the " fourth drawing ".

도 5를 참조하여 살펴보면, 먼저 첫 번째 도면은 제1 표적(510), 제2 표적(520), 그리고 제3 표적 및 제4 표적을 포함하는 표적 영상이 센싱된 상태에서, 제1 표적(510)이 주 표적으로 설정된 예를 보이고 있는 것이다. 이처럼 제1 표적(510)이 주 표적으로 설정되는 경우 표적 영상의 십자망선(500)의 중심은 상기 제1 표적(510)의 이미지 중심에 정렬되어 상기 제1 표적(510)이 현재 추적 중인 상태임을 나타낼 수 있다. Referring to FIG. 5, the first diagram illustrates a first target 510, a second target 520, and a second target 510, with the target image including the third target and the fourth target being sensed. ) Is set as the main target. When the first target 510 is set as the main target, the center of the cruciform line 500 of the target image is aligned with the center of the image of the first target 510 so that the first target 510 .

이처럼 제1 표적(510)이 추적되는 상태인 경우, 제어부(100)는 상기 제1 표적(510)으로부터 다양한 표적 정보를 획득할 수 있다. 예를 들어 상기 표적 정보는 상기 제1 표적(510)과 카메라(122) 사이의 거리 정보 또는 상기 제1 표적(510)의 위치 정보를 포함할 수 있다. If the first target 510 is tracked, the control unit 100 may obtain various target information from the first target 510. In this case, For example, the target information may include distance information between the first target 510 and the camera 122, or location information of the first target 510.

한편 이처럼 제1 표적(510)이 추적되는 상태에서, 제어부(100)는 주 표적으로 설정된 표적을 변경하기 위한 사용자의 입력을 감지할 수 있다. 일 예로 상기 사용자의 입력은 현재 주 표적으로 설정된 표적, 즉 제1 표적(510)과 다른 표적에 인가되는 사용자의 입력일 수 있다. Meanwhile, in a state where the first target 510 is tracked, the controller 100 can sense the user's input to change the target set as the main target. For example, the input of the user may be a target currently set as the main target, i.e., the input of the user applied to a different target than the first target 510.

일 예로 도 5의 첫 번째 도면에서 보이고 있는 바와 같이 제2 표적(520)에 대해 사용자의 입력이 인가되는 경우, 제어부(100)는 이러한 사용자의 입력을 주 표적을 제2 표적(520)으로 변경하기 위한 입력으로 감지할 수 있다. 여기서 사용자의 입력은 입력부(110)를 통해 인가될 수 있다. 또는 표시부(130)가 터치 스크린으로 형성되는 경우, 상기 사용자의 입력은 상기 제2 표적(520)이 표시되는 표시부(130) 상의 일 지점에 인가되는 터치 입력일 수 있다. 5, when the user's input is applied to the second target 520, the control unit 100 changes the input of the user to the second target 520 Can be sensed as an input to. Here, the user's input may be applied through the input unit 110. Or when the display unit 130 is formed of a touch screen, the input of the user may be a touch input applied to a point on the display unit 130 on which the second target 520 is displayed.

한편 도 5의 첫 번째 도면에서 보이고 있는 바와 같이, 제2 표적(520)에 대한 사용자의 선택이 있는 경우, 제어부(100)는 주 표적을 제1 표적(510)에서 제2 표적(520)으로 변경할 수 있다. 그리고 제어부(100)는 상기 도 3에서 설명한 과정에서 보이고 있는 바와 같이, 현재 제1 표적(510)과 제2 표적(520)의 표적 영상 내에서의 픽셀 위치 차에 근거하여 방위각 차 및 고각 차를 산출할 수 있다. 5, if there is a user's selection of the second target 520, the control unit 100 may move the main target from the first target 510 to the second target 520 Can be changed. 3, the control unit 100 calculates the azimuth difference and the elevation difference based on the pixel position difference in the target image of the first target 510 and the second target 520, Can be calculated.

여기서 상기 방위각 차 및 고각 차는, 현재 추적중인 제1 표적(510)과 카메라(122) 사이의 거리에 근거하여 산출될 수 있다. 그리고 산출된 방위각 차 및 고각 차에 근거하여 카메라(122)의 수평 회전 방향 변위 및 수직 회전 방향 변위를 산출할 수 있다. 그리고 산출된 수평 및 수직 방향 회전 변위들에 근거하여 카메라(122)를 회전시킴으로서, 카메라(122)의 지향 방향을 변경할 수 있다. Where the azimuth difference and elevation difference can be calculated based on the distance between the first target 510 being tracked and the camera 122. [ The horizontal rotation direction displacement and the vertical rotation direction displacement of the camera 122 can be calculated based on the calculated azimuth difference and elevation angle difference. Then, by rotating the camera 122 based on the calculated horizontal and vertical rotational displacements, the direction of the camera 122 can be changed.

따라서 변경되기 이전의 주 표적, 즉 제1 표적(510)의 영상 추적 상태와 상관없이 카메라(122)의 지향 방향이 변경될 수 있다. 그러므로 도 5의 두 번째 도면에서 보이고 있는 바와 같이, 제1 표적(510)이 안개나 연기 또는 지형, 지물과 같은 장애물(550)의 영향으로 가려짐으로 인해 제1 표적(510)의 영상 추적 상태가 좋지 않은 경우에도, 이와 상관없이 본 발명의 실시 예에 따른 전자광학장비(1)는 카메라(122)가 주시하는 방향을 변경할 수 있다. 따라서 도 5의 세 번째 도면에서 보이고 있는 바와 같이, 장애물(550)에 의해 제1 표적(510)이 가려진 상태에서도 십자망선(500)이 제2 표적(520)의 이미지 중심으로 이동할 수 있다. 그리고 구동부(124)의 구동에 따라 카메라(122)가 수평 방향 및 수직 방향으로 회전할 수 있다. 따라서 도 5의 네 번째 도면에서 보이고 있는 바와 같이 표적 영상의 중심이 제2 표적(520)을 중심으로 표시되도록 FOV(Field Of View)가 설정될 수 있다. Accordingly, the direction of the camera 122 may be changed regardless of the main target before the change, that is, the image tracking state of the first target 510. Thus, as shown in the second diagram of FIG. 5, the first target 510 is obscured by the effects of obstacles 550, such as fog or smoke or terrain, The electro-optical device 1 according to the embodiment of the present invention can change the direction in which the camera 122 looks. Thus, as shown in the third diagram of FIG. 5, the cruciform 500 can move to the center of the image of the second target 520 even with the first target 510 obscured by the obstacle 550. In addition, the camera 122 can be rotated in the horizontal direction and the vertical direction according to the driving of the driving unit 124. Therefore, as shown in the fourth diagram of FIG. 5, a field of view (FOV) may be set so that the center of the target image is displayed centered on the second target 520.

한편 상기 도 5는 제1 표적(510)이 장애물(550) 등에 의해 가려져서 제1 표적(510)의 영상 추적 상태가 양호하지 않은 경우를 예로 들어 설명하였다. 그러나 본 발명은 주 표적으로 설정되어있던 표적 뿐만 아니라, 주 표적으로 변경될 표적, 즉 사용자에 의해 선택된 제2 표적(520)의 이미지가 명확하게 표시되지 않는 상태에서도 카메라(122) 지향 방향의 변경이 쉽게 이루어질 수 있다. 이는 상술한 바와 같이, 사용자가 제2 표적(520)을 선택할 때에, 상기 선택된 제2 표적(520)과 현재 주 표적(제1 표적 : 510)간의 방위각 차와 고각 차에 근거하여 카메라(122)가 회전하도록 구동부(124)를 구동시키기 때문이다. 5 illustrates an example in which the first target 510 is obscured by the obstacle 550 and the first target 510 is not in good image tracking state. However, the present invention is not limited to changing the orientation of the camera 122 direction, even when the target to be changed to the primary target, i.e., the image of the second target 520 selected by the user, Can be easily achieved. This is because, as described above, when the user selects the second target 520, the camera 122 is moved based on the azimuth difference and the elevation difference between the selected second target 520 and the current main target (first target 510) The driving unit 124 is driven to rotate.

도 6은 이러한 경우에 본 발명의 실시 예에 따른 전자광학장비(1)에서 주 표적으로 변경될 표적의 추적 상태가 양호하지 않은 경우에 주 표적이 변경되는 예를 도시한 예시도이다. Fig. 6 is an exemplary diagram showing an example in which the main target is changed when the tracking state of the target to be changed to the main target in the electro-optical equipment 1 according to the embodiment of the present invention is not good in such a case.

먼저 도 6을 참조하여 살펴보면, 첫 번째 도면은 제1 표적(510), 제2 표적(520), 그리고 제3 표적 및 제4 표적을 포함하는 표적 영상이 센싱된 상태에서, 제1 표적(510)이 주 표적으로 설정된 예를 보이고 있는 것이다. 이처럼 제1 표적(510)이 주 표적으로 설정되는 경우 표적 영상의 십자망선(500)의 중심은 상기 제1 표적(510)의 이미지 중심에 정렬되어 상기 제1 표적(510)이 현재 추적 중인 상태임을 나타낼 수 있다. First, referring to FIG. 6, the first drawing shows the first target 510, the second target 520, and the first target 510, with the target image including the third target and the fourth target being sensed ) Is set as the main target. When the first target 510 is set as the main target, the center of the cruciform line 500 of the target image is aligned with the center of the image of the first target 510 so that the first target 510 .

그리고 이러한 상태에서 상기 제2 표적(520)에 대한 사용자의 선택이 있는 경우, 제어부(100)는 선택된 제2 표적(520)으로 주 표적을 변경할 수 있다. 즉 제어부(100)는 주 표적인 제1 표적(510)을 기준으로, 상기 제2 표적(520)과 상기 제1 표적(510)의 픽셀 위치 차이에 따른 방위각 차와 고각 차를 산출하고, 산출된 방위각 차 및 고각 차에 따라 카메라(122)의 수평 회전 변위 및 수직 회전 변위를 산출할 수 있다.And if there is a user's selection of the second target 520 in this state, the control unit 100 may change the main target to the selected second target 520. [ That is, the control unit 100 calculates the azimuth difference and the elevation difference according to the pixel position difference between the second target 520 and the first target 510 on the basis of the first target 510 as the main target, The horizontal rotation displacement and the vertical rotation displacement of the camera 122 can be calculated according to the azimuth angle difference and the elevation angle difference.

한편 도 6의 첫 번째 도면에서 주 표적으로 변경될 표적(제2 표적 : 520)이 선택되면, 본 발명의 실시 예에 따른 전자광학장비(1)는 제2 표적(520)의 영상 표시 상태에 상관없이 주 표적을 변경할 수 있다. 즉 도 6의 두 번째 도면에서 보이고 있는 바와 같이, 장애물(650)에 의하여 제2 표적(520)이 가려지거나 영상 수신 상태가 악화됨에 따라 상기 제2 표적(520)이 식별되지 않는 경우라고 할지라도, 도 6의 세 번째 도면에서 보이고 있는 바와 같이 주 표적의 변경이 이루어질 수 있다. On the other hand, if the target (second target 520) to be changed to the main target in the first drawing of FIG. 6 is selected, the electro-optical equipment 1 according to the embodiment of the present invention is displayed in the video display state of the second target 520 You can change the main target regardless. 6, even if the second target 520 is obscured by the obstacle 650 or the second target 520 is not identified as the image reception condition deteriorates, as shown in the second diagram of FIG. 6 , The main target can be changed as shown in the third diagram of Fig.

그리고 제2 표적(520)의 이미지 중심에 표적 영상의 중심이 정렬되도록 FOV가 설정될 수 있다. 따라서 표적 영상의 중심에 설정되는 십자망선(500)은 제2 표적(520)의 중심에 표시되어, 현재 주 표적으로 설정된 표적이 제2 표적(520)임을 나타낼 수 있다. 그리고 이처럼 제2 표적(520)이 주 표적으로 설정되는 경우, 제어부(100)는 주 표적인 제2 표적(520)을 추적할 수 있다. 그리고 상기 제2 표적(520)의 표적 정보, 즉 제2 표적(520)과 카메라(122) 사이의 거리 정보 및, 상기 거리 정보에 따른 제2 표적(520)의 위치 정보를 획득 및 저장할 수 있다. And the FOV may be set such that the center of the target image is aligned with the center of the image of the second target 520. [ Accordingly, the crosshairs 500 set at the center of the target image may be displayed at the center of the second target 520, indicating that the target currently set as the main target is the second target 520. [ If the second target 520 is thus set as the main target, the control unit 100 may track the second target 520 as the main target. And acquire and store the target information of the second target 520, that is, the distance information between the second target 520 and the camera 122, and the position information of the second target 520 according to the distance information .

전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 따라서 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.The present invention described above can be embodied as computer-readable codes on a medium on which a program is recorded. The computer readable medium includes all kinds of recording devices in which data that can be read by a computer system is stored. Examples of the computer readable medium include a hard disk drive (HDD), a solid state disk (SSD), a silicon disk drive (SDD), a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, , And may also be implemented in the form of a carrier wave (e.g., transmission over the Internet). The foregoing detailed description, therefore, should not be construed in a limiting sense in all respects and should be considered illustrative. The scope of the present invention should be determined by rational interpretation of the appended claims, and all changes within the scope of equivalents of the present invention are included in the scope of the present invention.

1 : 전자광학장비 100 : 제어부
110 : 입력부 120 : 광학부
122 : 카메라 124 : 구동부
126 : 센서부 130 : 표시부
140 : 메모리 150 : 위치 정보 획득부
1: Electro-optical equipment 100:
110: input unit 120: optical unit
122: camera 124:
126: sensor unit 130: display unit
140: memory 150: position information obtaining unit

Claims (12)

표적 영상에서 주 표적을 추적하는 전자광학장비에 있어서,
복수의 표적을 포함하는 표적 영상을 센싱하며, 상기 복수의 표적 중 주 표적으로 설정된 표적을 지향하는 카메라;
상기 카메라를 수평 및 수직 방향으로 회전시켜 상기 카메라가 지향하는 방향의 방위각 및 고각을 변경하는 구동부;
상기 복수의 표적 중 주 표적으로 설정된 표적과 상기 카메라 사이의 거리를 측정하는 센서; 및,
상기 복수의 표적 중 제1 표적이 주 표적으로 설정된 상태에서 제2 표적이 주 표적으로 선택되면, 상기 제2 표적과 상기 제1 표적의 방위각 차 및 고각 차에 근거하여 상기 카메라의 수평 및 수직 방향 회전 변위를 산출하고, 산출된 수평 및 수직 방향 회전 변위에 따라 상기 카메라가 지향하는 방향의 방위각 및 고각을 변경하도록 상기 구동부를 제어하여, 주 표적을 상기 제1 표적에서 상기 제2 표적으로 변경하는 제어부를 포함하는 것을 특징으로 하는 전자광학장비.
1. An electro-optical device for tracking a main target in a target image,
A camera for sensing a target image including a plurality of targets and directing a target set as a main target among the plurality of targets;
A driving unit for rotating the camera horizontally and vertically so as to change an azimuth angle and an elevation angle of a direction in which the camera is oriented;
A sensor for measuring a distance between the camera and a target set as a main target among the plurality of targets; And
When the first target of the plurality of targets is set as the main target and the second target is selected as the main target, the azimuth difference and the azimuth difference between the second target and the first target, And controls the driving unit to change the azimuth and elevation angle of the direction in which the camera is oriented in accordance with the calculated horizontal and vertical rotational displacements to change the main target from the first target to the second target And a control unit.
제1항에 있어서, 상기 제어부는,
상기 표적 영상 내에서 상기 제1 표적의 픽셀 위치와 상기 제2 표적의 픽셀 위치의 차이, 그리고 상기 제1 표적과 상기 카메라 사이의 거리에 근거하여 상기 방위각 차 및 고각 차를 산출하는 것을 특징으로 하는 전자광학장비.
The apparatus of claim 1,
Wherein the azimuth angle difference and the elevation angle difference are calculated based on a difference between a pixel position of the first target and a pixel position of the second target in the target image and a distance between the first target and the camera Electro - optical equipment.
제2항에 있어서, 상기 제어부는,
상기 복수의 표적을 포함하는 표적 영상이 센싱되면, 각 표적과 상기 카메라 사이의 거리들을 측정 및, 각 표적별로 카메라까지의 거리 차이들을 산출하여 저장하며,
상기 제1 표적이 주 표적으로 설정된 상태에서 제2 표적이 주 표적으로 선택되면, 상기 저장된 제1 표적으로부터 카메라까지 거리와 제2 표적으로부터 카메라까지 거리의 거리 차이와, 상기 제1 표적이 주 표적으로 설정된 상태에서 측정된 상기 제1 표적과 상기 카메라 사이의 거리를 합산한 거리에 근거하여, 상기 제1 표적의 픽셀 위치와 상기 제2 표적의 픽셀 위치 차이에 따른 방위각 차 및 고각 차를 산출하는 것을 특징으로 하는 전자광학장비.
3. The apparatus of claim 2,
When the target image including the plurality of targets is sensed, measures the distances between each target and the camera, calculates and stores distance differences to the cameras for each target,
Wherein if the first target is selected as the primary target while the first target is selected as the primary target, then a difference between the distance from the stored first target to the camera and the distance from the second target to the camera, An azimuth angle difference and an elevation angle difference corresponding to a pixel position of the first target and a pixel position of the second target are calculated based on a distance obtained by summing the distance between the first target and the camera measured in the state Wherein the electro-optical device comprises:
제1항에 있어서,
거리 정보와 상기 전자광학장비의 위치 정보 및 상기 카메라의 방위각 및 고각에 근거하여 특정 표적의 위치 정보를 획득하는 위치 정보 획득부를 더 포함하며,
상기 제어부는,
상기 제1 표적에서 제2 표적으로의 주 표적 변경이 완료되면, 상기 제2 표적과 상기 카메라 사이의 거리 및 상기 주 표적의 변경에 따라 변경된 방위각과 고각, 그리고 상기 전자광학장비의 위치 정보에 따라 상기 제2 표적의 위치 정보를 획득하는 것을 특징으로 하는 전자광학장비.
The method according to claim 1,
Further comprising a position information obtaining unit for obtaining position information of a specific target based on the distance information, the position information of the electro-optical equipment, and the azimuth and elevation of the camera,
Wherein,
Wherein the main target change from the first target to the second target is completed, the distance between the second target and the camera, the azimuth and elevation angle changed according to the change of the main target, and the position information of the electro- And acquires position information of the second target.
제1항에 있어서, 상기 제어부는,
상기 구동부를 제어하여 주 표적으로 설정된 표적의 중심과 상기 표적 영상의 중심이 정렬되도록 상기 카메라가 지향하는 방향을 조정하고,
현재 추적중인 주 표적으로 설정된 표적이 다른 표적과 구분되도록 상기 표적 영상의 중심을 구분되게 표시하는 것을 특징으로 하는 전자광학장비.
The apparatus of claim 1,
The controller controls the driving unit to adjust the direction of the camera so that the center of the target image is aligned with the center of the target set as the main target,
Wherein the center of the target image is displayed separately so that the target set as the main target currently being tracked is distinguished from other targets.
제1항에 있어서, 상기 제어부는,
상기 복수의 표적 중 제1 표적이 주 표적으로 설정된 상태에서 제2 표적이 주 표적으로 선택되면, 상기 표적 영상을 저장 및 표적 추적을 일시 정지하고, 상기 카메라가 지향하는 방향의 방위각 및 고각이 변경되면 표적 영상에 대한 표적 추적을 재개하여 주 표적으로 설정된 제2 표적에 대한 추적을 수행하는 것을 특징으로 하는 전자광학장비.
The apparatus of claim 1,
When the first target of the plurality of targets is set as the main target and the second target is selected as the main target, the target image is stored and the target tracking is temporarily stopped, and the azimuth and elevation angle of the direction Wherein tracking of the second target set as the main target is performed by resuming the target tracking on the target image.
표적 영상에서 주 표적을 추적하는 전자광학장비의 제어 방법에 있어서,
복수의 표적을 포함하는 표적 영상을 센싱하는 단계;
상기 복수의 표적 중 주 표적으로 설정된 제1 표적과 다른 제2 표적을 선택받는 단계;
상기 제1 표적에 대응하는 방위각 및 고각과, 상기 제2 표적에 대응하는 방위각과 고각의 방위각 차 및 고각 차를 산출하는 단계;
산출된 방위각 차 및 고각 차에 따라 카메라의 수평 및 수직 방향 회전 변위를 산출하는 단계;
상기 산출된 수평 및 수직 방향 회전 변위에 따라 상기 카메라를 회전시켜 상기 카메라가 상기 제2 표적을 지향하도록, 상기 카메라 지향 방향을 변경하는 단계; 및,
상기 카메라의 지향 방향 변경에 따라 주 표적으로 설정된 제2 표적에 대한 거리 정보를 포함하는 표적 정보를 획득하는 단계를 포함하는 것을 특징으로 하는 전자광학장비의 제어 방법.
A control method of an electro-optical apparatus for tracking a main target in a target image,
Sensing a target image including a plurality of targets;
Selecting a second target different from the first target set as the main target among the plurality of targets;
Calculating an azimuth and elevation angle corresponding to the first target and an azimuth angle and elevation angle corresponding to the second target;
Calculating horizontal and vertical rotational displacements of the camera in accordance with the calculated azimuth difference and elevation angle;
Changing the camera-oriented direction so that the camera directs the second target by rotating the camera in accordance with the calculated horizontal and vertical rotational displacements; And
And acquiring target information including distance information on a second target set as a main target in accordance with the change of the direction of the camera.
제7항에 있어서, 상기 방위각 차 및 고각 차를 산출하는 단계는,
상기 표적 영상 내에서 상기 제1 표적의 픽셀 위치와 상기 제2 표적의 픽셀 위치의 차이를 산출하는 단계; 및,
상기 제1 표적과 상기 카메라 사이의 제1 거리 및 상기 픽셀 위치의 차이에 근거하여 상기 방위각 차 및 고각 차를 산출하는 단계를 포함하는 것을 특징으로 하는 전자광학장비의 제어 방법.
8. The method of claim 7, wherein the step of calculating the azimuth angle difference and the angle difference angle comprises:
Calculating a difference between a pixel position of the first target and a pixel position of the second target in the target image; And
And calculating the azimuth difference and the elevation angle based on a difference between the first distance between the first target and the camera and the pixel position.
제8항에 있어서,
상기 표적 영상을 센싱하는 단계는,
상기 표적 영상에 포함된 각 표적과 카메라 사이의 거리들을 측정하는 단계; 및,
각 표적별로 카메라까지의 거리 차이들을 산출 및 산출된 거리 차이들을 저장하는 단계를 더 포함하며,
상기 제1 거리 및 상기 픽셀 위치의 차이에 근거하여 방위각 차 및 고각 차를 산출하는 단계는,
현재 주 표적으로 설정된 제1 표적과 상기 카메라 사이의 상기 제1 거리를 측정하는 단계;
상기 저장된 거리 차이들 중, 제1 표적과 상기 카메라 사이의 거리와 제2 표적과 상기 카메라 사이의 거리 사이의 거리 차이를 검출하는 단계; 및,
상기 검출된 거리 차이와 상기 제1 거리를 합산한 거리 및 상기 픽셀 위치의 차이에 근거하여 상기 방위각 차 및 고각 차를 산출하는 단계를 포함하는 것을 특징으로 하는 전자광학장비의 제어 방법.
9. The method of claim 8,
Wherein the step of sensing the target image comprises:
Measuring distances between each of the targets included in the target image and the camera; And
Calculating distance differences to the camera for each target, and storing the calculated distance differences,
Wherein the step of calculating the azimuth difference and the elevation angle based on the difference between the first distance and the pixel position comprises:
Measuring the first distance between the camera and a first target currently set as a primary target;
Detecting a distance difference between the first target and the camera and a distance between the second target and the camera, among the stored distance differences; And
And calculating the azimuth angle difference and the high angle difference based on the difference between the detected distance difference and the first distance and the difference in pixel position.
제7항에 있어서,
상기 제1 표적에서 제2 표적으로의 주 표적 변경이 완료되면, 상기 제2 표적과 상기 카메라 사이의 거리 및 상기 주 표적의 변경에 따라 변경된 방위각과 고각, 그리고 상기 전자광학장비의 위치 정보에 따라 상기 제2 표적의 위치 정보를 획득하는 단계를 더 포함하는 것을 특징으로 하는 전자광학장비의 제어 방법.
8. The method of claim 7,
Wherein the main target change from the first target to the second target is completed, the distance between the second target and the camera, the azimuth and elevation angle changed according to the change of the main target, and the position information of the electro- Further comprising the step of acquiring position information of the second target.
제7항에 있어서, 상기 표적 영상은,
상기 표적 영상의 중심이 구분되게 표시되며,
상기 주 표적은,
상기 표적 영상의 중심에 대응하는 표적임을 특징으로 하는 전자광학장비의 제어 방법.
8. The method according to claim 7,
The center of the target image is displayed separately,
The main target is,
Wherein the target is a target corresponding to a center of the target image.
제7항에 있어서,
상기 제2 표적을 선택받는 단계는,
상기 표적의 추적을 일시 정지 및 상기 표적 영상을 저장하는 단계를 더 포함하며,
상기 카메라 지향 방향을 변경하는 단계는,
상기 카메라의 지향 방향 변경이 완료되면, 상기 제2 표적을 주 표적으로 표적 추적을 재개하는 단계를 더 포함하는 것을 특징으로 하는 전자광학장비의 제어 방법.
8. The method of claim 7,
Wherein the step of selecting the second target comprises:
Further comprising suspending tracking of the target and storing the target image,
Wherein the step of changing the camera-
Further comprising resuming target tracking of the second target as a main target when the direction change of the camera is completed.
KR1020180102203A 2018-08-29 2018-08-29 Electro-optic device capable of changing a main target and method for controlling the same KR101917110B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180102203A KR101917110B1 (en) 2018-08-29 2018-08-29 Electro-optic device capable of changing a main target and method for controlling the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180102203A KR101917110B1 (en) 2018-08-29 2018-08-29 Electro-optic device capable of changing a main target and method for controlling the same

Publications (1)

Publication Number Publication Date
KR101917110B1 true KR101917110B1 (en) 2018-11-09

Family

ID=64426479

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180102203A KR101917110B1 (en) 2018-08-29 2018-08-29 Electro-optic device capable of changing a main target and method for controlling the same

Country Status (1)

Country Link
KR (1) KR101917110B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102220773B1 (en) * 2020-10-20 2021-02-26 한화시스템(주) Smoke removal device and method for improving the ability to engage with battle ship guns

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102220773B1 (en) * 2020-10-20 2021-02-26 한화시스템(주) Smoke removal device and method for improving the ability to engage with battle ship guns

Similar Documents

Publication Publication Date Title
US9442177B2 (en) Indoor robot and method for indoor robot positioning
US8625086B2 (en) Determining coordinates of a target in relation to a survey instrument having a camera
US9936168B2 (en) System and methods for controlling a surveying device
WO2016077703A1 (en) Gyroscope assisted scalable visual simultaneous localization and mapping
EP1347267A1 (en) Surveying instrument and method for acquiring image data by using the surveying instrument.
CN101470204A (en) Surveying system
JP2000346634A (en) Three-dimensionally inputting device
JP2009210388A (en) Geographic data collection device
US20140078311A1 (en) Method for guiding controller to move to within recognizable range of multimedia apparatus, the multimedia apparatus, and target tracking apparatus thereof
CN107765683A (en) Instant navigation method of mobile robot
JP2009229350A (en) Survey system
CN104204848B (en) There is the search equipment of range finding camera
JP2017044536A (en) Position guiding device, position guiding method, and program
US20210033394A1 (en) Surveying apparatus, surveying method, and surveying program
US11669173B2 (en) Direct three-dimensional pointing using light tracking and relative position detection
WO2013035096A2 (en) System and method of tracking an object in an image captured by a moving device
EP2348700A1 (en) Mobile communication terminal and method
KR101076803B1 (en) Map constructing method of inhouse robot and start position determining method thereof
JP2014063411A (en) Remote control system, control method, and program
KR101917110B1 (en) Electro-optic device capable of changing a main target and method for controlling the same
JP2009260564A (en) Mobile object image tracking apparatus
KR101722993B1 (en) Electro optical tracking system
WO2021071640A1 (en) Method, system and apparatus for mobile dimensioning
US9588520B2 (en) Positioning navigation method and electronic apparatus thereof
US11489998B2 (en) Image capturing apparatus and method of controlling image capturing apparatus

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant