KR101964227B1 - Apparatus and method for control military strategy - Google Patents

Apparatus and method for control military strategy Download PDF

Info

Publication number
KR101964227B1
KR101964227B1 KR1020130001209A KR20130001209A KR101964227B1 KR 101964227 B1 KR101964227 B1 KR 101964227B1 KR 1020130001209 A KR1020130001209 A KR 1020130001209A KR 20130001209 A KR20130001209 A KR 20130001209A KR 101964227 B1 KR101964227 B1 KR 101964227B1
Authority
KR
South Korea
Prior art keywords
map image
map
camera
image
change area
Prior art date
Application number
KR1020130001209A
Other languages
Korean (ko)
Other versions
KR20140089220A (en
Inventor
김병기
Original Assignee
한화테크윈 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한화테크윈 주식회사 filed Critical 한화테크윈 주식회사
Priority to KR1020130001209A priority Critical patent/KR101964227B1/en
Publication of KR20140089220A publication Critical patent/KR20140089220A/en
Application granted granted Critical
Publication of KR101964227B1 publication Critical patent/KR101964227B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Remote Sensing (AREA)
  • Computer Graphics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 영상 처리 기술을 이용하여 군사 작전을 모의 및 완성할 수 있는 군사 작전 통제 장치 및 방법 방법에 관한 것이다. 군사 작전 통제 장치는 지도를 촬영하는 카메라, 카메라로 촬영된 지도영상의 변화를 판단하여 변화영역을 검출하고, 변화영역에 대해 지도영상 내에서의 위치정보를 산출하여 임의의 심볼을 기록하는 영상 처리수단 및 지도영상 또는 심볼이 기록된 지도영상을 디스플레이 하는 디스플레이부를 포함한다. 본 발명에 따르면, 작전지도 상에서 작전계획 도구 또는 장비를 이용하여 작전 계획을 논의하면, 카메라로 인식된 작전계획 도구 또는 장비 정보가 가시화됨으로써 실시간으로 작전 계획 정보의 공유가 가능하고, 편리하고 정확하게 작전 계획을 완성시킬 수 있다.The present invention relates to a military operation control device and method for simulating and completing military operations using image processing technology. The military operation control device detects the change area by determining the change of the map image captured by the camera and the camera, calculates the position information in the map image for the change area, and performs image processing And a display unit for displaying a map image on which the map image or the symbol image is recorded. According to the present invention, when an operation plan is discussed using an operation plan tool or equipment on an operation map, operation plan information or device information recognized by the camera can be visualized so that operation plan information can be shared in real time, The plan can be completed.

Figure R1020130001209
Figure R1020130001209

Description

군사 작전 통제 장치 및 방법{Apparatus and method for control military strategy}[0001] Apparatus and method for control military strategy [

본 발명은 영상 처리 기술을 이용하여 군사 작전을 모의 및 완성할 수 있는 군사 작전 통제 장치 및 방법 방법에 관한 것이다.The present invention relates to a military operation control device and method for simulating and completing military operations using image processing technology.

일반적으로 군사 작전을 모의하고 지휘하는 통합제실, 지휘 통제실 등에는 오프라인 작전지도를 전시하고 있다. 군사 작전 모의 시에, 지도 상에 각 장비에 해당하는 오프라인 식별자를 붙이거나 올리면, 운용자 한 명이 통제시스템에 디스플레이 되는 전자 지도 상에 식별자에 해당하는 아이콘을 추가하거나 삭제하고 있다. 그러나 모든 작전 의견에 대해 운용자가 직접 아이콘을 추가하거나 삭제해야 하기 때문에 불편하고, 여러 명이 지도에 작전을 표출 시 의사 소통의 한계가 있을 수 있다.In general, there is an off-line map of operations in the integration room, command and control room that simulates and directs military operations. In the military operation simulation, when an offline identifier corresponding to each equipment is attached or raised on a map, one operator adds or deletes an icon corresponding to the identifier on the electronic map displayed on the control system. However, it is inconvenient for operators to manually add or delete icons for all operational opinions, and there may be communication limitations when several people display operations on the map.

일본공개특허 제2004-157397호Japanese Patent Laid-Open No. 2004-157397

본 발명이 해결하고자 하는 기술적인 과제는 영상 처리 기술을 이용하여 작전지도가 배치되어 있는 장소에서 다수의 이용자가 여러 의견을 실시간으로 공유하여 작전 계획을 완성할 수 있도록 하는 군사 작전 통제 장치 및 방법을 제공하는데 있다.The technical problem to be solved by the present invention is to provide a military operation control device and method for allowing a plurality of users to share various opinions in real time and complete an operation plan in a place where an operation map is arranged using an image processing technology .

본 발명이 해결하고자 하는 기술적인 과제를 해결하기 위한 일 실시 예에 따른 군사 작전 통제 장치는 지도를 촬영하는 카메라; 상기 카메라로 촬영된 지도영상의 변화를 판단하여 변화영역을 검출하고, 상기 변화영역에 대해 상기 지도영상 내에서의 위치정보를 산출하여 임의의 심볼을 기록하는 영상 처리수단; 및 상기 지도영상 또는 상기 심볼이 기록된 지도영상을 디스플레이 하는 디스플레이부;를 포함하는 것을 특징으로 한다.According to an aspect of the present invention, there is provided a military operation control apparatus comprising: a camera for photographing a map; Image processing means for detecting a change region by judging a change of a map image photographed by the camera, calculating position information in the map image with respect to the change region, and recording an arbitrary symbol; And a display unit for displaying the map image or the map image on which the symbol is recorded.

본 발명에 있어서, 상기 영상 처리수단은, 상기 카메라로 촬영된 지도영상의 전 후 프레임을 비교하여 변화영역을 검출하는 검출부; 상기 변화영역에 대해 상기 지도영상 내에서의 위치좌표를 산출하는 산출부; 및 상기 지도영상 내의 상기 좌표에 임의의 심볼을 기록하여 상기 디스플레이부로 전송하는 제어부;를 포함하는 것을 특징으로 한다.In the present invention, the image processing unit may include a detection unit for detecting a change area by comparing before and after frames of a map image photographed by the camera; A calculating unit for calculating position coordinates in the map image with respect to the change area; And a controller for recording an arbitrary symbol in the coordinates in the map image and transmitting the symbol to the display unit.

본 발명에 있어서, 상기 카메라는, 왜곡된 상기 지도영상으로부터 특징점을 찾아 내고 상기 특징점의 위치가 회전 중심에서 움직인 각도를 찾아낸 후 그 각도만큼 상기 지도영상을 보정하여 출력하는 것을 특징으로 한다.In the present invention, the camera finds a feature point from the distorted map image, finds an angle at which the position of the feature point moves at the center of rotation, and corrects the map image by the angle.

본 발명이 해결하고자 하는 기술적인 과제를 해결하기 위한 일 실시 예에 따른 군사 작전 통제 방법은 카메라를 이용하여 지도를 촬영하는 단계; 촬영된 지도영상의 전 후 프레임 비교를 통하여 변화가 발생한 경우 변화영역을 검출하는 단계; 상기 변화영역에 대해 상기 지도영상 내에서의 위치정보를 산출하는 단계; 상기 지도영상 내의 상기 위치에 임의의 심볼을 기록하는 단계; 및 상기 심볼이 기록된 상기 지도영상을 디스플레이 하는 단계;를 포함하는 것을 특징으로 한다.According to an aspect of the present invention, there is provided a military operation control method comprising: capturing a map using a camera; Detecting a change area when a change occurs through a comparison of before and after frames of the photographed map image; Calculating position information in the map image with respect to the change area; Recording an arbitrary symbol at the position in the map image; And displaying the map image on which the symbol is recorded.

본 발명에 있어서, 상기 촬영된 지도영상이 왜곡되어 있는 경우, 상기 지도영상으로부터 특징점을 찾아 내고 상기 특징점의 위치가 회전 중심에서 움직인 각도를 찾아낸 후 그 각도만큼 상기 지도영상을 보정하여 출력하는 단계;를 더 포함하는 것을 특징으로 한다.In the present invention, when the photographed map image is distorted, a feature point is found from the map image, an angle at which the position of the feature point moves at the center of rotation is found, and the corrected map image is output ; ≪ / RTI >

상술한 바와 같이 본 발명에 따르면, 작전지도 상에서 작전계획 도구 또는 장비를 이용하여 작전 계획을 논의하면, 카메라로 인식된 작전계획 도구 또는 장비 정보가 가시화됨으로써 실시간으로 작전 계획 정보의 공유가 가능하고, 편리하고 정확하게 작전 계획을 완성시킬 수 있다.As described above, according to the present invention, when an operation plan is discussed using an operation plan tool or equipment on an operation map, it is possible to share operation plan information in real time by visualizing operation plan tool or equipment information recognized by a camera, It is convenient and accurate to complete the operation plan.

도 1은 본 발명의 일 실시 예에 따른 작전 통제 장치의 구성을 보이는 블록도 이다.
도 2는 도 1 중 카메라에서 수행되는 SURF(speeded up robust feature) 알고리즘을 설명하는 도면이다.
도 3은 도 1 중 작전계획 도구 또는 장비의 설정 위치에 따라 달라지는 디스플레이 화면을 보이는 도면이다.
도 4는 본 발명의 일 실시 예에 따른 작전 통제 방법의 동작을 보이는 흐름도 이다.
1 is a block diagram illustrating a configuration of an operation control device according to an embodiment of the present invention.
FIG. 2 is a view for explaining a speeded up robust feature (SURF) algorithm performed in a camera in FIG.
FIG. 3 is a view showing a display screen depending on a setting position of an operation plan tool or equipment in FIG.
4 is a flowchart illustrating an operation of an operation control method according to an embodiment of the present invention.

본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. BRIEF DESCRIPTION OF THE DRAWINGS The present invention is capable of various modifications and various embodiments, and specific embodiments are illustrated in the drawings and described in detail in the detailed description. It is to be understood, however, that the invention is not to be limited to the specific embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. The terms first, second, etc. may be used to describe various elements, but the elements should not be limited by terms. Terms are used only for the purpose of distinguishing one component from another.

본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used in this application is used only to describe a specific embodiment and is not intended to limit the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In the present application, the terms "comprises" or "having" and the like are used to specify that there is a feature, a number, a step, an operation, an element, a component or a combination thereof described in the specification, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.

본 발명은 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들은 특정 기능들을 실행하는 다양한 개수의 하드웨어 또는/및 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 본 발명은 하나 이상의 마이크로프로세서들의 제어 또는 다른 제어 장치들에 의해서 다양한 기능들을 실행할 수 있는, 메모리, 프로세싱, 로직(logic), 룩업 테이블(look-up table) 등과 같은 직접 회로 구성들을 채용할 수 있다. 본 발명에의 구성 요소들이 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 잇는 것과 유사하게, 본 발명은 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 발명은 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. 매커니즘, 요소, 수단, 구성과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다. 상기 용어는 프로세서 등과 연계하여 소프트웨어의 일련의 처리들(routines)의 의미를 포함할 수 있다.The present invention may be represented by functional block configurations and various processing steps. These functional blocks may be implemented in a wide variety of hardware and / or software configurations that perform particular functions. For example, the present invention may include integrated circuit configurations, such as memory, processing, logic, look-up tables, etc., that may perform various functions by control of one or more microprocessors or other control devices Can be adopted. Similar to the components of the present invention that may be implemented with software programming or software components, the present invention may be implemented as a combination of C, C ++, and C ++, including various algorithms implemented with data structures, processes, routines, , Java (Java), assembler, and the like. Functional aspects may be implemented with algorithms running on one or more processors. Further, the present invention can employ conventional techniques for electronic environment setting, signal processing, and / or data processing. Terms such as mechanisms, elements, means, and configurations are widely used and are not limited to mechanical and physical configurations. The term may include the meaning of a series of routines of software in conjunction with a processor or the like.

도 1은 본 발명의 일 실시 예에 따른 작전 통제 장치의 구성을 보이는 블록도 이다.1 is a block diagram illustrating a configuration of an operation control device according to an embodiment of the present invention.

도 1을 참조하면 작전 통제 장치는 작전지도(100), 작전계획 도구 또는 장비(200), 카메라(300), 영상 처리수단(400) 및 디스플레이부(500)를 포함한다. 본 발명에 있어서, 영상 처리수단(400) 및 디스플레이부(500)는 하나의 시스템, 예를 들어 통합 통제 콘솔 PC 등으로 구축될 수 있다.Referring to FIG. 1, an operation control device includes an operation map 100, an operation plan tool or equipment 200, a camera 300, an image processing unit 400, and a display unit 500. In the present invention, the image processing unit 400 and the display unit 500 may be constructed as one system, for example, an integrated control console PC.

작전지도(100)는 작전계획 수립 등의 군사작전에 이용하기 위하여 만들어진 군사지도로서, 작전 지역의 지형, 적과 아군의 배치, 군사시설의 위치 등을 표시하며 적군의 예상 이동 경로와 아군의 기동 계획 등을 표시할 수 있다. 본 실시 예에서 작전지도(100)는 오프라인 상의 2D 또는 3D 지도 일 수 있다.The operational map (100) is a military map designed for use in military operations such as operational planning. It shows the topography of the operational area, the location of enemy and friendly units, and the location of military facilities. And so on. In this embodiment, the operation map 100 may be a 2D or 3D map on the off-line.

작전계획 도구 또는 장비(200)는 사전에 약속된 오프라인 상의 마커(또는 태그 등)일 수 있다. 작전계획 도구 또는 장비(200)는 예를 들어 ●카메라(210), ■레이더(220) 또는 ▲병력(230) 등을 나타내는 마커 일 수 있다. 사용자는 작전지도(100) 상의 임의의 위치에 작전계획 도구 또는 장비(200)를 삽입할 수 있다. The mission planning tool or equipment 200 may be a predetermined offline marker (or tag, etc.). The operational plan tool or equipment 200 may be, for example, a marker indicating a camera 210, a radar 220, or a force 230 or the like. The user may insert an operational plan tool or equipment 200 at any location on the operation map 100. [

카메라(300)는 작전지도(100)를 촬영하거나, 작전계획 도구 또는 장비(200)가 포함된 작전지도(100)를 촬영하여 지도영상을 생성하여 출력한다. 카메라(300)는 고정렌즈가 구비되어 촬영 범위가 고정된 단일 고정식 카메라로 구성될 수 있고, 또는 촬영 범위가 가변적인 PTZ(pan-tilt-zoom) 카메라로 구성될 수 있다. 카메라(300)는 촬영된 지도영상의 왜곡을 판단하여, 왜곡된 지도영상에 SURF(speeded up robust feature) 알고리즘을 적용하여 평면으로 보정할 수 있다. 영상에 SURF 알고리즘을 적용하면 지도영상으로부터 특징점을 찾아 내고, 특징점의 위치가 회전 중심에서 움직인 각도를 찾아낸 후 그 각도만큼 상기 지도영상을 보정하게 된다. 도 2(a)에는 카메라(300)에서 촬영한 왜곡된 지도영상이 도시되어 있고, 도 2(b)는 왜곡된 지도영상에 SURF 알고리즘을 적용하여 평면으로 보정된 지도영상이 도시되어 있다. 카메라(300)에서 촬영된 지도영상은 무선 또는 유선으로 영상 처리수단(400)으로 전송된다.The camera 300 photographs the operation map 100 or photographs the operation map 100 including the operation plan tool or the apparatus 200 to generate and output a map image. The camera 300 may be composed of a single fixed camera having a fixed lens and a fixed photographing range, or a pan-tilt-zoom (PTZ) camera having a variable photographing range. The camera 300 may determine the distortion of the photographed map image and apply a speeded up robust feature (SURF) algorithm to the distorted map image to correct it to a plane. When the SURF algorithm is applied to the image, a feature point is found from the map image, and an angle at which the position of the feature point moves from the center of rotation is found, and then the map image is corrected by that angle. 2 (a) shows the distorted map image taken by the camera 300, and FIG. 2 (b) shows the map image corrected to the plane by applying the SURF algorithm to the distorted map image. The map image photographed by the camera 300 is transmitted to the image processing means 400 wirelessly or by wire.

영상 처리수단(400)은 카메라(300)에서 출력되는 보정된 지도영상의 변화를 판단하여 변화영역을 검출하고, 검출된 변화영역에 대해 지도영상 내에서의 위치정보를 산출하여 임의의 심볼을 기록한다. 이러한 영상 처리수단(400)은 검출부(410), 산출부(420) 및 제어부(430)를 포함한다.The image processing means 400 detects a change area by determining a change of the corrected map image output from the camera 300, calculates position information in the map image with respect to the detected change area, and records an arbitrary symbol do. The image processing means 400 includes a detection unit 410, a calculation unit 420, and a control unit 430.

검출부(410)는 카메라(300)에서 출력되는 보정된 지도영상의 전 후 프레임 비교를 통하여 변화영역이 존재하는지 판단하고, 변화영역이 존재하는 경우 변화영역을 검출한다. 도 3을 참조하면, 도 3(a)에는 작전지도(100)만을 촬영한 지도영상이 도시되어 있고, 도 3(b)에는 작전지도(100) 상의 임의의 위치에 작전계획 도구 또는 장비(200)로써 ■레이더(220) 가 삽입된 지도영상이 도시되어 있다. 도 3(a)에 표시된 지도영상을 전 프레임, 도 3(b)에 표시된 지도영상을 후 프레임이라고 가정하면, 검출부(410)는 전/후 프레임을 비교하여 프레임에 변화가 발생하였음을 판단하고, 이로부터 변화영역을 검출한다.The detection unit 410 determines whether a change area exists by comparing the before and after frames of the corrected map image output from the camera 300, and detects a change area when the change area exists. Referring to FIG. 3, a map image of only the operation map 100 is shown in FIG. 3 (a), and an operation plan tool or equipment 200 (1) a map image in which the radar 220 is inserted is shown. Assuming that the map image shown in FIG. 3 (a) is the previous frame and the map image shown in FIG. 3 (b) is the following frame, the detector 410 compares the before and after frames to judge that a change has occurred in the frame , And detects a change area therefrom.

산출부(420)는 검출된 변화영역에 대해 지도영상 내에서의 위치 정보 즉, (x,y) 위치 좌표를 산출하고, 이를 위도/경도 좌표, 예를 들어 WGS(world geodetic system)84 좌표로 변환한다. 작전지도(100)의 축적(실제 거리를 일정한 비율로 축소한 것)은 이미 알고 있으므로, 산출부(420)는 변화영역의 위치좌표에 축적을 적용하여 변화영역의 위도/경도 좌표로 변환할 수 있다.The calculating unit 420 calculates positional information in the map image, i.e., (x, y) positional coordinates of the detected change area, and outputs the positional coordinate to the latitude / longitude coordinates, for example, WGS (world geodetic system) Conversion. Since the accumulation of the operation map 100 (the actual distance is reduced at a constant rate) is known, the calculating unit 420 can apply the accumulation to the position coordinates of the change area to convert it into the latitude / longitude coordinates of the change area have.

제어부(430)는 지도영상 내의 상기 산출된 좌표에 변화영역에 해당하는 임의의 심볼을 기록하여 디스플레이부(500)로 출력한다. 여기서 임의의 심볼은 ●카메라(210), ■레이더(220), ▲병력(230) 등과 같은 사전에 약속된 작전계획 도구 또는 장비(200)일 수 있다. The control unit 430 records an arbitrary symbol corresponding to the change area in the calculated coordinates in the map image, and outputs the symbol to the display unit 500. Where the arbitrary symbol may be a pre-determined operational plan tool or equipment 200, such as a camera 210, a radar 220, a force 230, or the like.

도 3(a)는 작전계획 도구 또는 장비(200)가 포함되지 않은 작전지도(100)를 촬영한 후 영상 처리를 거쳐 디스플레이부(500)로 출력한 예를 도시하고 있고, 도 3(b)는 작전계획 도구 또는 장비(200) 중 ■레이더(220)가 포함된 작전지도(100)를 촬영한 후 영상 처리를 거쳐 디스플레이부(500)로 출력한 예를 도시하고 있다.3 (a) shows an example of capturing an operation map 100 that does not include an operation plan tool or equipment 200, and then outputting the image to the display unit 500 via an image process. FIG. 3 (b) Shows an example in which an operation map 100 including an operation plan tool or the apparatus 200 is photographed and then output to the display unit 500 after image processing.

이와 같이 작전지도(100) 상에서 작전계획 도구 또는 장비(200)를 이용하여 작전 계획을 논의하면, 카메라(300)로 인식된 작전계획 도구 또는 장비(200) 정보가 디스플레이부(500)에 가시화됨으로써 실시간으로 작전 계획 정보의 공유가 가능하고, 편리하고 정확하게 작전 계획을 완성시킬 수 있게 된다.When the operation plan is discussed on the operation map 100 using the operation plan tool or the apparatus 200, the information of the operation plan tool or the apparatus 200 recognized by the camera 300 is displayed on the display unit 500 It is possible to share the operational plan information in real time, and to complete the operational plan conveniently and accurately.

본 발명은 장비의 배치 및 최적화 기법 등을 이용하여 모의 장비배치 및 배치된 상황에서의 전력이나 비용 등을 함께 계산할 수 있도록 구성될 수 있으며, 나아가 하나의 시뮬레이션으로 발전할 수 있다.The present invention can be configured to calculate the power and cost in the arrangement of the simulator device and the deployed state by using the arrangement and optimization technique of the equipment, and can further develop into a single simulation.

도 4는 본 발명의 일 실시 예에 따른 작전 통제 방법의 동작을 보이는 흐름도 이다. 이하의 설명에서 도 1 내지 도 3에 대한 설명과 중복되는 부분은 그 설명을 생략하기로 한다.4 is a flowchart illustrating an operation of an operation control method according to an embodiment of the present invention. In the following description, the description of the parts which are the same as those in the description of Figs. 1 to 3 will be omitted.

도 4를 참조하면, 카메라(300)는 작전지도(100)를 촬영하거나, 작전계획 도구 또는 장비(200)가 포함된 작전지도(100)를 촬영하는 단계(S10)를 수행한다.4, the camera 300 performs step S10 of photographing the operation map 100 or photographing the operation map 100 including the operation plan tool or the apparatus 200. [

지도영상이 촬영되면, 카메라(300)는 촬영된 지도영상이 왜곡되어 있는지 판단하여, 지도영상이 왜곡되어 있는 경우, 지도영상에 SURF 알고리즘을 적용하여 왜곡이 보정된 지도영상을 출력하는 단계(S20)를 수행한다. 여기서 지도영상에 SURF 알고리즘을 적용하면, 지도영상으로부터 특징점을 찾아 내고 특징점의 위치가 회전 중심에서 움직인 각도를 찾아낸 후 그 각도만큼 지도영상을 보정하게 된다.When the map image is photographed, the camera 300 determines whether the photographed map image is distorted. If the map image is distorted, a step S 209 of applying a SURF algorithm to the map image and outputting a distorted map image ). When the SURF algorithm is applied to the map image, the feature point is found from the map image, the angle of the feature point moves from the center of rotation, and then the map image is corrected by that angle.

지도영상 보정이 완료되면, 영상 처리수단(400)은 보정된 지도영상의 전 후 프레임 비교를 통하여 변화영역이 존재하는지 검출하는 단계(S30)를 수행한다. 즉, 영상 처리수단(400)은 최초 지도영상과 작전지도(100) 상의 임의의 위치에 작전계획 도구 또는 장비(200)가 삽입되어 촬영된 지도영상을 비교하여 변화영역을 검출한다.When the map image correction is completed, the image processing unit 400 performs a step S30 of detecting whether there is a change area through comparison of the before and after frames of the corrected map image. That is, the image processing unit 400 detects the change area by comparing the initial map image with a map image of the operation plan tool or the apparatus 200 inserted at an arbitrary position on the operation map 100 and photographed.

변화 영역이 검출되면, 영상 처리수단(400)은 검출된 변화영역의 위치정보를 산출하는 단계(S40)를 수행한다. 좀 더 상세히 설명하면, 영상 처리수단(400)은 지도영상 내에서 변화영역의 위치 정보 즉, (x,y) 위치 좌표를 산출하고, 이미 알고 있는 지도 축적에 적용하여, 위도/경도 좌표, 예를 들어 WGS84 좌표로 변환한 위치정보를 산출한다.When the change area is detected, the image processing means 400 performs step S40 of calculating the position information of the detected change area. More specifically, the image processing means 400 calculates the position information of the change area in the map image, that is, the (x, y) position coordinates, applies it to the known map accumulation, And calculates position information converted into WGS84 coordinates.

변화영역의 위치정보 산출이 완료되면, 영상 처리수단(400)은 지도영상 내의 산출된 좌표에, 변화영역에 해당하는 임의의 심볼을 기록하여 디스플레이부(500)로 출력하는 단계(S60)를 수행한다. 이로써 심볼(작전계획 도구 또는 장비(200) 정보)이 기록된 지도영상을 볼 수 있게 된다.Upon completion of the calculation of the position information of the change area, the image processing unit 400 performs step S60 of recording an arbitrary symbol corresponding to the change area in the calculated coordinates in the map image and outputting the symbol to the display unit 500 do. Thereby, the map image on which the symbol (information on the operation plan tool or the equipment 200) is recorded can be viewed.

이제까지 본 발명에 대하여 바람직한 실시 예를 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 본 발명을 구현할 수 있음을 이해할 것이다. 그러므로 상기 개시된 실시 예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 한다.The present invention has been described above with reference to preferred embodiments. It will be understood by those skilled in the art that the present invention may be embodied in various other forms without departing from the spirit or essential characteristics thereof. Therefore, the above-described embodiments should be considered in an illustrative rather than a restrictive sense. The scope of the present invention is indicated by the appended claims rather than by the foregoing description, and all differences within the scope of equivalents thereof should be construed as being included in the present invention.

100: 작전지도 200: 카메라
300: 영상 처리수단 310: 검출부
320: 산출부 330: 제어부
400: 디스플레이부 500: 작전계획 도구 또는 장비
100: Operation Map 200: Camera
300: image processing means 310:
320: Calculator 330:
400: Display unit 500: Operation planning tool or equipment

Claims (5)

군사 작전을 모의할 때에 사용되는 군사 작전 통제 장치에 있어서,
지도를 촬영하는 카메라;
상기 카메라로 촬영된 지도영상의 변화를 판단하여 변화영역을 검출하고, 상기 변화영역에 대해 상기 지도영상 내에서의 위치정보를 산출하여 임의의 심볼을 기록하는 영상 처리수단; 및
상기 지도영상 또는 상기 심볼이 기록된 지도영상을 디스플레이 하는 디스플레이부;를 포함하고,
상기 영상 처리수단은,
상기 카메라로 촬영된 지도영상의 전 후 프레임을 비교하여 변화영역을 검출하는 검출부;
상기 변화영역에 대해 상기 지도영상 내에서의 위치좌표를 산출하는 산출부; 및
상기 지도영상 내의 상기 위치좌표에 임의의 심볼을 기록하여 상기 디스플레이부로 전송하는 제어부;를 포함하며,
상기 산출부는 상기 지도의 축적을 적용하여 상기 위치좌표를 위도/경도 좌표로 변환하는 것을 특징으로 하는 군사 작전 통제 장치.
For military operations control devices used to simulate military operations,
A camera for taking a map;
Image processing means for detecting a change region by judging a change of a map image photographed by the camera, calculating position information in the map image with respect to the change region, and recording an arbitrary symbol; And
And a display unit for displaying the map image or the map image on which the symbol is recorded,
Wherein the image processing means comprises:
A detector for detecting a change area by comparing before and after frames of a map image photographed by the camera;
A calculating unit for calculating position coordinates in the map image with respect to the change area; And
And a controller for recording an arbitrary symbol in the position coordinates in the map image and transmitting the symbol to the display unit,
Wherein the calculating unit applies the accumulation of the map to convert the position coordinates into latitude / longitude coordinates.
삭제delete 제 1항에 있어서, 상기 카메라는,
왜곡된 상기 지도영상으로부터 특징점을 찾아 내고 상기 특징점의 위치가 회전 중심에서 움직인 각도를 찾아낸 후 그 각도만큼 상기 지도영상을 보정하여 출력하는 것을 특징으로 하는 군사 작전 통제 장치.
The camera according to claim 1,
Finds a feature point from the distorted map image, finds an angle at which the position of the feature point moves at the center of rotation, corrects the map image by the angle, and outputs the corrected map image.
삭제delete 삭제delete
KR1020130001209A 2013-01-04 2013-01-04 Apparatus and method for control military strategy KR101964227B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130001209A KR101964227B1 (en) 2013-01-04 2013-01-04 Apparatus and method for control military strategy

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130001209A KR101964227B1 (en) 2013-01-04 2013-01-04 Apparatus and method for control military strategy

Publications (2)

Publication Number Publication Date
KR20140089220A KR20140089220A (en) 2014-07-14
KR101964227B1 true KR101964227B1 (en) 2019-04-01

Family

ID=51737473

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130001209A KR101964227B1 (en) 2013-01-04 2013-01-04 Apparatus and method for control military strategy

Country Status (1)

Country Link
KR (1) KR101964227B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102415062B1 (en) * 2015-12-07 2022-07-01 한화테크윈 주식회사 Surveillance method
KR101960396B1 (en) 2017-02-01 2019-07-15 국방과학연구소 Method for reconfigurating a node which is a tactical control apparatus based on virtual computing and data centric architecture

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000076423A (en) * 1998-09-01 2000-03-14 Hitachi Software Eng Co Ltd Image analyzer
KR101178499B1 (en) * 2005-06-10 2012-09-07 주식회사 케이씨텍 Device that wash electronic component partically

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4080302B2 (en) 2002-11-07 2008-04-23 三菱電機株式会社 Position interpretation device
KR20110050868A (en) * 2009-11-09 2011-05-17 에이엘티 세미콘(주) Apparatus for inspecting mark on defective chip of semiconductor wafer and method of the same

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000076423A (en) * 1998-09-01 2000-03-14 Hitachi Software Eng Co Ltd Image analyzer
KR101178499B1 (en) * 2005-06-10 2012-09-07 주식회사 케이씨텍 Device that wash electronic component partically

Also Published As

Publication number Publication date
KR20140089220A (en) 2014-07-14

Similar Documents

Publication Publication Date Title
CN112258567B (en) Visual positioning method and device for object grabbing point, storage medium and electronic equipment
JP6484587B2 (en) Method and system for determining spatial characteristics of a camera
CN100428782C (en) Information processing method and apparatus
US20140118557A1 (en) Method and apparatus for providing camera calibration
US10564250B2 (en) Device and method for measuring flight data of flying objects using high speed video camera and computer readable recording medium having program for performing the same
JP2015079444A5 (en)
US7377650B2 (en) Projection of synthetic information
US20180020203A1 (en) Information processing apparatus, method for panoramic image display, and non-transitory computer-readable storage medium
CN103988241A (en) Detection device, method, and program
JP2015079433A5 (en)
CN111488775A (en) Device and method for judging degree of fixation
CN105791663A (en) Distance estimating system and distance estimating method
KR102199772B1 (en) Method for providing 3D modeling data
KR101964227B1 (en) Apparatus and method for control military strategy
US11423647B2 (en) Identification system, model re-learning method and program
CN109858319A (en) Image processing equipment and control method and non-transitory computer-readable storage media
CN108151709B (en) Positioning method and device applied to terminal
CN105741260A (en) Action positioning device and positioning method thereof
KR101925181B1 (en) Augmented/virtual reality based dynamic information processing method and system
JPWO2020003764A1 (en) Image processors, mobile devices, and methods, and programs
WO2015141214A1 (en) Processing device for label information for multi-viewpoint images and processing method for label information
WO2018134866A1 (en) Camera calibration device
KR20180119344A (en) Region monitoring apparatus and method for monitoring region thereby
KR20130079962A (en) Method of displaying post-it contents using augmented reality and apparatus using the same
CN105787988B (en) Information processing method, server and terminal equipment

Legal Events

Date Code Title Description
N231 Notification of change of applicant
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant