KR102011305B1 - Apparatus and method for managing training simulation forward observation - Google Patents

Apparatus and method for managing training simulation forward observation Download PDF

Info

Publication number
KR102011305B1
KR102011305B1 KR1020170162985A KR20170162985A KR102011305B1 KR 102011305 B1 KR102011305 B1 KR 102011305B1 KR 1020170162985 A KR1020170162985 A KR 1020170162985A KR 20170162985 A KR20170162985 A KR 20170162985A KR 102011305 B1 KR102011305 B1 KR 102011305B1
Authority
KR
South Korea
Prior art keywords
observation
target
information
training
image
Prior art date
Application number
KR1020170162985A
Other languages
Korean (ko)
Other versions
KR20190063877A (en
Inventor
박용태
Original Assignee
주식회사 한화
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 한화 filed Critical 주식회사 한화
Priority to KR1020170162985A priority Critical patent/KR102011305B1/en
Publication of KR20190063877A publication Critical patent/KR20190063877A/en
Application granted granted Critical
Publication of KR102011305B1 publication Critical patent/KR102011305B1/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • G09B9/003Simulators for teaching or training purposes for military purposes and tactics
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/26Teaching or practice apparatus for gun-aiming or gun-laying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 모의 사탄 관측 훈련 운용 장치 및 그 방법에 관한 것으로, 측기기로부터 전송되는 위치 정보를 토대로 생성된 훈련 지역의 지형 정보로부터 선정된 다수개의 참조점을 이용하여 관측 지점을 추적하여 훈련 지역의 지형 정보 내 관측 지점을 생성하는 관측 위치 동기화부, 생성된 훈련 지역의 지형 정보 내 관측 지점과 훈련 지역의 지형 정보 내 표적 간의 변위를 측정하고, 상기 관측기기에 제공되는 표적 영상을 생성하는 표적 영상 생성부 및 상기 관측기기로부터 전송되는 화력 유도 제원을 토대로 초탄 탄착 영상을 제공하고, 제공된 초탄 탄착 영상을 토대로 이루어진 상기 관측기기의 사용자의 사격 결과 영상을 제공하는 훈련 운용부를 포함한다.The present invention relates to a simulated Satan observation training operation apparatus and method thereof, by using a plurality of reference points selected from the topographic information of the training area generated based on the location information transmitted from the side device to track the observation point of the training area Observation position synchronization unit for generating an observation point in the terrain information, a target image for measuring the displacement between the observation point in the terrain information of the training area and the target in the terrain information of the training area, and generates a target image provided to the observation device And a training operation unit configured to provide a shot coal impact image based on a thermal power generation specification transmitted from the generation unit and the observation apparatus, and to provide a shot result image of a user of the observation apparatus made based on the provided coal impact image.

Description

모의 사탄 관측 훈련 운용 장치 및 그 방법{APPARATUS AND METHOD FOR MANAGING TRAINING SIMULATION FORWARD OBSERVATION}APPARATUS AND METHOD FOR MANAGING TRAINING SIMULATION FORWARD OBSERVATION

본 발명은 모의 사탄 관측 훈련 운용 장치 및 그 방법에 관한 것으로, 보다 자세하기는 기존에 실내 모의 영상을 통해 이루어지던 모의 사탄 관측 훈련을 증강현실을 이용하여 실제 지형 및 지물과 동일한 이미지나 배경을 토대로 하는 3차원 증강현실 컨텐츠를 생성하고 제공하여 모의 사탄 관측 훈련을 수행하도록 하는 모의 사탄 관측 훈련 운용 장치 및 그 방법에 관한 것이다.The present invention relates to a simulated Satan observation training operation apparatus and method thereof, and more specifically, to simulate the Satan observation training that was previously performed through indoor simulation images using augmented reality based on the same image or background as the actual terrain and features Apparatus and method for simulating Satan observation training to generate and provide 3D augmented reality content to perform simulation Satan observation training.

모의 사탄 관측 훈련(TSFO:Training Simulation Forward Observation)은 실 지형 사진을 빔 프로젝트를 활용, 스크린에 영상화해 표적에 대해 포병 화력을 요청하고 낙탄 지점을 관측해 유도하는 전장상황과 유사한 시뮬레이션 훈련이다.Training Simulation Forward Observation (TSFO) is a simulation exercise similar to the battlefield situation where real terrain photographs are imaged on the screen using a beam project to request artillery fire on a target and observe and guide the shot point.

모의 사탄 관측 훈련은 야전부대는 포병학교에서도 포병사격, 특히 백린탄 등 특수탄종의 사격기회가 많지 않고 산불을 비롯한 대민피해가 발생할 가능성 때문에 현실적으로 충분한 사격훈련이 어려우므로 간접체험을 통해 관측장교의 사격요구 능력을 향상시키고자 개발되었다. 뿐만 아니라 포병의 관측반, 수색정찰대원 등 포병과 연계되는 정보 자원 관리를 위해 개발되었다.Simulated Satan observation training was conducted in the field artillery school, because the shooting opportunity of artillery shots, especially special bombs such as white grenade bombs, and the possibility of mass damages such as forest fires are difficult. It was developed to improve the ability to demand. It was also developed for the management of information resources associated with artillery, such as artillery observation teams and search and reconnaissance crews.

그러나 기존의 모의 사탄 관측 훈련은 실내에서 가상 현실을 이용한 영상을 통해 수행되었고, GPS에 의한 위치 측정으로 사용자의 위치를 지도상에 표시하는데 수내지 수십미터의 오차가 발생하는 문제점이 있었다.However, the existing simulation training of Satan observation was performed through the image using virtual reality indoors, and there was a problem that the error of several to tens of meters occurred in displaying the user's location on the map by the position measurement by GPS.

이와 관련하여, 한국공개특허 제2014-0091843호는 "군용 곡사포탄에 탑재된 GPS로부터 송신되는 위치정보 수신을 통한 탄착지점 산출"에 관하여 개시하고 있다.In this regard, Korean Laid-Open Patent Publication No. 2014-0091843 discloses a calculation of an impact point by receiving location information transmitted from a GPS mounted on a military howitzer shell.

본 발명은 상기와 같은 문제점을 해결하기 위해 발명된 것으로서, 증강현실을 이용하여 실제 지형 및 지물과 동일한 이미지나 배경을 토대로 하는 증강현실 컨텐츠를 생성하고 제공하여 사탄 관측 훈련을 수행하는 모의 사탄 관측 훈련 운용 장치 및 그 방법을 제공하는데 그 목적이 있다.The present invention has been invented to solve the above problems, using the augmented reality simulated Satan observation training to create and provide augmented reality content based on the same image or background of the actual terrain and features to perform Satan observation training Its purpose is to provide an operating device and a method thereof.

또한, 본 발명은 사전에 식별된 참조점을 토대로 훈련 지역의 지형 정보 내 관측기기의 위치 및 방향 보정을 수행하는 모의 사탄 관측 훈련 운용 장치 및 그 방법을 제공하는데 그 목적이 있다.In addition, an object of the present invention is to provide a simulated Satan observation training operation apparatus and method for performing the position and orientation correction of the observation device in the terrain information of the training area based on a reference point identified in advance.

또한, 본 발명은 훈련 지역의 지형 정보 내 표적의 위치와 관측기기의 위치 사이의 변위를 측정하여 관측기기에 제공되는 증강현실 컨텐츠를 생성하는 모의 사탄 관측 훈련 운용 장치 및 그 방법을 제공하는데 그 목적이 있다.In addition, the present invention provides a simulated Satan observation training operation apparatus and method for generating augmented reality content provided to the observation device by measuring the displacement between the position of the target and the position of the observation device in the terrain information of the training area, the object thereof There is this.

상기의 목적을 달성하기 위한 본 발명에 따른 모의 사탄 관측 훈련 운용 장치는 관측기기로부터 전송되는 위치 정보를 토대로 생성된 훈련 지역의 지형 정보로부터 선정된 다수개의 참조점을 이용하여 관측 지점을 추적하여 훈련 지역의 지형 정보 내 관측 지점을 생성하는 관측 위치 동기화부; 생성된 훈련 지역의 지형 정보 내 관측 지점과 훈련 지역의 지형 정보 내 표적 간의 변위를 측정하고, 상기 관측기기에 제공되는 표적 영상을 생성하는 표적 영상 생성부; 및 상기 관측기기로부터 전송되는 화력 유도 제원을 토대로 초탄 탄착 영상을 제공하고, 제공된 초탄 탄착 영상을 토대로 이루어진 상기 관측기기의 사용자의 사격 결과 영상을 제공하는 훈련 운용부;를 포함하는 것을 특징으로 한다.Simulated Satan observation training operation apparatus according to the present invention for achieving the above object is trained by tracking the observation point using a plurality of reference points selected from the topographic information of the training area generated based on the location information transmitted from the observation device An observation position synchronization unit generating an observation point in the terrain information of the region; A target image generator for measuring a displacement between the observation point in the generated terrain information of the training area and the target in the terrain information of the training area and generating a target image provided to the observation device; And a training operation unit providing a shot coal impact image based on the thermal power induction specification transmitted from the observation apparatus, and providing a shooting result image of the user of the observation apparatus made based on the provided coal impact image.

또한, 상기 관측 위치 동기화부는, 상기 관측기기로부터 전송되는 위치 정보를 토대로 훈련 지역의 지형 정보를 생성하는 훈련 지형 정보 생성부; 생성된 훈련 지역의 지형 정보를 토대로 다수개의 참조점을 선정하는 참조점 선정부; 선정된 참조점을 토대로 상기 관측기기에서 측정된 참조점 정보를 기반으로 관측 지점을 추적하는 관측 지점 추척부; 및 추적된 관측 지점을 토대로 훈련 지역의 지형 정보 내 관측 지점을 생성하는 관측 지점 생성부;를 포함하는 것을 특징으로 한다.The observation position synchronization unit may include a training terrain information generation unit configured to generate terrain information of a training area based on location information transmitted from the observation device; A reference point selecting unit which selects a plurality of reference points based on the generated terrain information of the training area; An observation point tracking unit tracking an observation point based on reference point information measured by the observation device based on the selected reference point; And an observation point generator for generating observation points in the terrain information of the training area based on the tracked observation points.

또한, 상기 참조점 선정부는 훈련 지역의 지형 정보와 실제 지형이 매칭되는 위치를 참조점으로 선정하는 것을 특징으로 한다.The reference point selector may select a position where the terrain information of the training area matches the actual terrain as a reference point.

또한, 상기 표적 영상 생성부는, 생성된 훈련 지역의 지형 정보 내 표적을 생성하는 표적 생성부; 훈련 지역의 지형 정보 내 관측 지점과 훈련 지역의 지형 정보 내 표적 간의 변위를 측정하는 변위 측정부; 상기 관측기기로부터 전송되는 자세 정보를 수신하는 자세 정보 수신부; 및 수신된 자세 정보를 토대로 측정된 변위를 모사하는 표적 영상에 대한 증강 현실 컨텐츠를 생성하여 상기 관측기기에 제공하는 표적 영상 제공부;를 포함하는 것을 특징으로 한다.The target image generator may include a target generator configured to generate a target in the terrain information of the generated training region; A displacement measuring unit measuring a displacement between the observation point in the terrain information of the training area and the target in the terrain information of the training area; A posture information receiver configured to receive posture information transmitted from the observation device; And a target image providing unit generating augmented reality content for a target image simulating the displacement measured based on the received attitude information and providing the augmented reality content to the observation device.

또한, 상기 훈련 운용부는, 상기 관측기기로부터 전송되는 화력 유도 제원을 토대로 하는 초탄 탄착 영상에 대한 증강 현실 컨텐츠를 생성하여 제공하는 탄착 영상 제공부; 전송된 화력 유도 제원을 따라 생성된 초탄 탄착 영상에 대한 증강 현실 컨텐츠를 토대로 이루어진 상기 관측기기의 사용자의 사격 결과를 판단하여 상기 관측기기에 제공하는 사격 결과 판단부; 사격 결과에 따라 상기 관측기기로부터 기 전송된 화력 유도 제원이 재전송되면 표적의 피해 영상에 대한 증강 현실 컨텐츠를 생성하여 상기 관측기기에 제공하는 표적 피해 영상 제공부; 및 상기 관측기기로부터 수정된 화력 유도 제원이 전송되면 수정탄 탄착 영상에 대한 증강 현실 컨텐츠를 생성하여 제공하는 수정탄 영상 제공부;를 포함하는 것을 특징으로 한다.In addition, the training operation unit, an impact image providing unit for generating and providing augmented reality content for the coal-tank impact image based on the thermal power guidance specifications transmitted from the observation device; A shooting result determination unit for determining a shooting result of a user of the observing device based on the augmented reality content of the super-coal impaction image generated according to the transmitted thermal induction specification and providing the observation device to the observing device; A target damage image providing unit for generating augmented reality content for a damage image of a target and providing the target damage image to the observation apparatus when the fire power source specification previously transmitted from the observation apparatus is retransmitted according to the shooting result; And a modified shot image providing unit configured to generate and provide augmented reality content for the modified shot impact image when the modified thermal guidance guide is transmitted from the observing device.

또한, 상기 관측기기는, 현재의 위치 정보를 획득하여 전송하는 위치 정보 획득부; 선정된 다수개의 참조점의 거리, 방위각 및 고각 중 적어도 어느 하나를 포함하는 참조점 정보를 측정하는 참조점 측정부; 현재의 자세 정보를 획득하여 전송하는 자세 정보 획득부; 및 표적 영상에 대한 증강 현실 컨텐츠가 수신되면 디스플레이부에 디스플레이하고, 상기 관측기기의 자세 변경 여부를 판단하는 자세 변경 여부 판단부;를 포함하는 것을 특징으로 한다.In addition, the observation device, the location information acquisition unit for obtaining and transmitting the current location information; A reference point measuring unit configured to measure reference point information including at least one of a distance, azimuth, and elevation of the selected plurality of reference points; A posture information acquisition unit for acquiring and transmitting current posture information; And a posture change determining unit configured to display the augmented reality content on the target image on a display unit and determine whether the posture of the observer is changed.

또한, 상기 관측기기는, 상기 관측기기의 사용자에 의해 입력된 화력 유도 제원을 전송하는 제1 화력 유도 제원 전송부; 상기 관측기기의 사용자의 사격 결과, 표적에 명중한 것으로 판단된 경우 기 전송된 화력 유도 제원을 재전송하는 제2 화력 유도 제원 전송부; 및 상기 관측기기의 사용자의 사격 결과, 표적에 명중하지 않은 것으로 판단된 경우 상기 관측기기의 사용자에 의해 입력되는 수정된 화력 유도 제원을 전송하는 수정 화력 유도 제원 전송부;를 포함하는 것을 특징으로 한다.In addition, the observation device, the first thermal power induction specification transmission unit for transmitting the thermal power induction specifications input by the user of the observation device; A second firepower guide specification transmission unit for retransmitting previously transmitted firepower guide specifications when it is determined that the target of the observation device hits the target; And a modified thermal power induction specification transmission unit for transmitting a modified thermal power guidance specification inputted by the user of the observation device when it is determined that the target of the user of the observation device is not hit by the target. .

상기의 목적을 달성하기 위한 본 발명에 따른 모의 사탄 관측 훈련 운용 방법은 관측 위치 동기화부에 의해, 관측기기로부터 전송되는 위치 정보를 토대로 생성된 훈련 지역의 지형 정보로부터 선정된 다수개의 참조점을 이용하여 관측 지점을 추적하여 훈련 지역의 지형 정보 내 관측 지점을 생성하는 단계; 표적 영상 생성부에 의해, 생성된 훈련 지역의 지형 정보 내 관측 지점과 훈련 지역의 지형 정보 내 표적 간의 변위를 측정하고, 상기 관측기기에 제공되는 표적 영상에 생성하는 단계; 및 훈련 운용부에 의해, 상기 관측기기로부터 전송되는 화력 유도 제원을 토대로 초탄 탄착 영상을 제공하고, 제공된 초탄 탄착 영상을 토대로 이루어진 상기 관측기기의 사용자의 사격 결과 영상을 제공하는 단계;를 포함한다.Simulated Satan observation training operation method according to the present invention for achieving the above object uses a plurality of reference points selected from the terrain information of the training area generated by the observation position synchronization unit based on the position information transmitted from the observation device. Tracking the observation points to generate observation points in the terrain information of the training area; Measuring, by the target image generator, a displacement between the observation point in the topographic information of the training area and the target in the topographic information of the training area, and generating the target image provided to the observation device; And providing, by a training operation unit, a coal briquette impact image based on a thermal power generation specification transmitted from the observation apparatus, and providing a shooting result image of a user of the observation apparatus made on the basis of the provided coal briquette impact image.

또한, 상기 관측기기로부터 전송되는 위치 정보를 토대로 생성된 훈련 지역의 지형 정보로부터 선정된 다수개의 참조점을 이용하여 관측 지점을 추적하여 훈련 지역의 지형 정보 내 관측 지점을 생성하는 단계는, 상기 관측기기로부터 전송되는 위치 정보를 토대로 훈련 지역의 지형 정보를 생성하는 단계; 생성된 훈련 지역의 지형 정보를 토대로 다수개의 참조점을 선정하는 단계; 선정된 참조점을 토대로 상기 관측기기에서 측정된 참조점 정보를 기반으로 관측 지점을 추적하는 단계; 및 추적된 관측 지점을 토대로 훈련 지역의 지형 정보 내 관측 지점을 생성하는 단계;를 포함하는 것을 특징으로 한다.In addition, the step of tracking the observation point using a plurality of reference points selected from the terrain information of the training area generated based on the location information transmitted from the observation device to generate the observation point in the terrain information of the training area, the observation Generating terrain information of the training area based on the location information transmitted from the device; Selecting a plurality of reference points based on the generated terrain information of the training area; Tracking the observation point based on reference point information measured by the observation device based on the selected reference point; And generating an observation point in the terrain information of the training area based on the tracked observation point.

또한, 상기 관측기기로부터 전송되는 위치 정보를 토대로 생성된 훈련 지역의 지형 정보로부터 선정된 다수개의 참조점을 이용하여 관측 지점을 추적하여 훈련 지역의 지형 정보 내 관측 지점을 생성하는 단계에서, 상기 관측기기는, 현재의 위치 정보를 획득하여 전송하는 단계; 및 선정된 다수개의 참조점의 거리, 방위각 및 고각 중 적어도 어느 하나를 포함하는 참조점 정보를 측정하는 단계;를 포함하는 것을 특징으로 한다.In addition, the step of tracking the observation point using a plurality of reference points selected from the terrain information of the training area generated based on the location information transmitted from the observation device to generate the observation point in the terrain information of the training area, the observation The device may include acquiring and transmitting current location information; And measuring reference point information including at least one of a selected distance, azimuth, and elevation of the plurality of reference points.

또한, 생성된 훈련 지역의 지형 정보 내 관측 지점과 훈련 지역의 지형 정보 내 표적 간의 변위를 측정하고, 상기 관측기기에 제공되는 표적 영상에 생성하는 단계는, 생성된 훈련 지역의 지형 정보 내 표적을 생성하는 단계; 훈련 지역의 지형 정보 내 관측 지점과 훈련 지역의 지형 정보 내 표적 간의 변위를 측정하는 단계; 상기 관측기기로부터 전송되는 자세 정보를 수신하는 단계; 및 수신된 자세 정보를 토대로 측정된 변위를 모사하는 표적 영상에 대한 증강 현실 컨텐츠를 생성하여 상기 관측기기에 제공하는 단계;를 포함하는 것을 특징으로 한다.In addition, measuring the displacement between the observation point in the terrain information of the training area and the target in the terrain information of the training area, and generating in the target image provided to the observation device, the target in the terrain information of the generated training area Generating; Measuring a displacement between the observation point in the terrain information of the training area and the target in the terrain information of the training area; Receiving attitude information transmitted from the observation device; And generating augmented reality content for a target image simulating the displacement measured based on the received posture information and providing the augmented reality content to the observing device.

또한, 생성된 훈련 지역의 지형 정보 내 관측 지점과 훈련 지역의 지형 정보 내 표적 간의 변위를 측정하고, 상기 관측기기에 제공되는 표적 영상에 생성하는 단계에서, 상기 관측기기는, 현재의 자세 정보를 획득하여 전송하는 단계; 및 표적 영상에 대한 증강 현실 컨텐츠가 수신되면 디스플레이부에 디스플레이하고, 상기 관측기기의 자세 변경 여부를 판단하는 단계;를 포함하는 것을 특징으로 한다.In addition, in the step of measuring the displacement between the observation point in the terrain information of the training area and the target in the terrain information of the training area, and generating in the target image provided to the observation device, the observation device, the observation device, Acquiring and transmitting; And displaying the augmented reality content on the target image on a display unit and determining whether the posture of the observer is changed.

또한. 상기 관측기기로부터 전송되는 화력 유도 제원을 토대로 초탄 탄착 영상을 제공하고, 제공된 초탄 탄착 영상을 토대로 이루어진 상기 관측기기의 사용자의 사격 결과 영상을 제공하는 단계는, 상기 관측기기로부터 전송되는 화력 유도 제원을 토대로 하는 초탄 탄착 영상에 대한 증강 현실 컨텐츠를 생성하여 제공하는 단계; 전송된 화력 유도 제원을 따라 생성된 초탄 탄착 영상에 대한 증강 현실 컨텐츠를 토대로 이루어진 상기 관측기기의 사용자의 사격 결과를 판단하여 상기 관측기기에 제공하는 단계; 사격 결과에 따라 상기 관측기기로부터 기 전송된 화력 유도 제원이 재전송되면 표적의 피해 영상에 대한 증강 현실 컨텐츠를 생성하여 상기 관측기기에 제공하는 단계; 및 상기 관측기기로부터 수정된 화력 유도 제원이 전송되면 수정탄 탄착 영상에 대한 증강 현실 컨텐츠를 생성하여 제공하는 단계;를 포함하는 것을 특징으로 한다.Also. Providing a shot coal impact image based on the thermal power induction specifications transmitted from the observation device, and providing a shooting result image of the user of the observation device made on the basis of the provided coal impact image, the thermal induction specifications transmitted from the observation device Generating and providing augmented reality content for the peat impact image; Determining a shooting result of a user of the observing device based on the augmented reality content of the peat impact impact image generated according to the transmitted thermal guidance specification and providing the result to the observing device; Generating an augmented reality content for a damage image of a target when the fire power source specification previously transmitted from the observation device is retransmitted according to a shooting result and providing the observation device to the observation device; And generating and providing augmented reality content for the modified coal impact image when the modified thermal guidance guide is transmitted from the observing device.

또한, 상기 관측기기로부터 전송되는 화력 유도 제원을 토대로 초탄 탄착 영상을 제공하고, 제공된 초탄 탄착 영상을 토대로 이루어진 상기 관측기기의 사용자의 사격 결과 영상을 제공하는 단계에서, 상기 관측기기는, 상기 관측기기의 사용자에 의해 입력된 화력 유도 제원을 전송하는 단계: 상기 관측기기의 사용자의 사격 결과, 표적에 명중한 것으로 판단된 경우 기 전송된 화력 유도 제원을 재전송하는 단계; 및 상기 관측기기의 사용자의 사격 결과, 표적에 명중하지 않은 것으로 판단된 경우 상기 관측기기의 사용자에 의해 입력되는 수정된 화력 유도 제원을 전송하는 단계;를 포함하는 것을 특징으로 한다.In addition, the step of providing a peat impact image based on the thermal power induction specifications transmitted from the observation device, and providing a shooting result image of the user of the observation device made based on the provided coal impact image, the observation device, the observation device Transmitting a thermal power induction specification input by a user of: re-transmitting the previously transmitted thermal power induction specification when it is determined that the target of the observation apparatus hits a target; And if it is determined that the user does not hit the target as a result of shooting by the user of the observation device, transmitting the modified thermal power guidance specification input by the user of the observation device.

상기와 같은 구성을 갖는 본 발명에 따른 모의 사탄 관측 훈련 운용 장치 및 그 방법은 증강현실을 이용하여 실제 지형 및 지물과 동일한 이미지나 배경을 토대로 하는 증강현실 컨텐츠를 생성하고 제공하여 모의 사탄 관측 훈련을 수행함으로써, 기존에 가상 지형을 토대로 수행되던 훈련이 아닌 실제 지형을 토대로 훈련이 이루어져 부대 전체의 전투 능력을 향상시킬 수 있는 효과가 있다.Simulated Satan observation training operation apparatus and method according to the present invention having the configuration as described above by using augmented reality to create and provide augmented reality content based on the same image or background of the actual terrain and features simulated Satan observation training By doing this, the training is performed based on the actual terrain instead of the conventional training based on the virtual terrain, thereby improving the combat capability of the entire unit.

또한, 본 발명은 사전에 식별된 참조점을 토대로 훈련 지역의 지형 정보 내 관측기기의 위치 및 방향 보정을 수행함으로써, 관측기기를 사용하는 관측자의 위치를 명확하게 식별할 수 있는 효과가 있다.In addition, the present invention has the effect of clearly identifying the position of the observer using the observation device by performing the position and direction correction of the observation device in the terrain information of the training area based on the previously identified reference point.

또한, 본 발명은 훈련 지역의 지형 정보 내 표적의 위치와 관측기기의 위치 사이의 변위를 측정하여 평면 위에서 좌표 식별이 가능한 관측기기에 제공되는 증강현실 컨텐츠를 생성함으로써, 실제 지형에서 시간 및 탄약 비용의 제한 없이 훈련을 수행할 수 있는 효과가 있다.In addition, the present invention measures the displacement between the position of the target and the position of the observation device in the terrain information of the training area to generate augmented reality content provided to the observation device that can be identified on the plane, the time and ammunition cost in the actual terrain It is effective to carry out the training without any limitations.

도 1은 본 발명에 따른 모의 사탄 관측 훈련 운용 시스템의 구성을 설명하기 위한 도면이다.
도 2는 본 발명에 따른 모의 사탄 관측 훈련 운용 장치의 구성을 설명하기 위한 도면이다.
도 3은 본 발명에 따른 모의 사탄 관측 훈련 운용 장치에 채용되는 관측 위치 동기화부의 세부 구성을 설명하기 위한 도면이다.
도 4는 도 3의 관측 위치 동기화부의 기능을 설명하기 위한 도면이다.
도 5는 본 발명에 따른 모의 사탄 관측 훈련 운용 장치에 채용되는 표적 영상 생성부의 세부 구성을 설명하기 위한 도면이다.
도 6은 도 5의 표적 영상 생성부의 기능을 설명하기 위한 도면이다.
도 7은 본 발명에 따른 모의 사탄 관측 훈련 운용 장치에 채용되는 훈련 운용부의 세부 구성을 설명하기 위한 도면이다.
도 8은 본 발명에 채용되는 관측기기의 구성을 설명하기 위한 도면이다.
도 9는 본 발명에 따른 모의 사탄 관측 훈련 운용 방법을 설명하기 위한 순서도이다.
도 10은 본 발명에 따른 모의 사탄 관측 훈련 운용 방법에서 훈련 지역의 지형 정보 내 관측 지점을 생성하는 단계를 자세하게 설명하기 위한 순서도이다.
도 11은 본 발명에 따른 모의 사탄 관측 훈련 운용 방법에서 관측기기에 제공되는 표적 영상을 생성하는 단계를 자세하게 설명하기 위한 순서도이다.
도 12는 본 발명에 따른 모의 사탄 관측 훈련 운용 방법에서 관측기기의 사용자의 사격 결과, 표적에 명중한 것으로 판단된 경우에 따른 사격 결과 영상을 제공하는 단계를 자세하게 설명하기 위한 순서도이다.
도 13은 본 발명에 따른 모의 사탄 관측 훈련 운용 방법에서 관측기기의 사용자의 사격 결과, 표적에 명중하지 않은 것으로 판단된 경우에 따른 사격 결과 영상을 제공하는 단계를 자세하게 설명하기 위한 순서도이다.
1 is a view for explaining the configuration of a simulated Satan observation training operation system according to the present invention.
2 is a view for explaining the configuration of a simulated Satan observation training operation apparatus according to the present invention.
3 is a view for explaining the detailed configuration of the observation position synchronization unit employed in the simulated Satan observation training operation apparatus according to the present invention.
4 is a view for explaining the function of the observation position synchronizer of FIG.
5 is a view for explaining the detailed configuration of the target image generating unit employed in the simulated Satan observation training operation apparatus according to the present invention.
FIG. 6 is a diagram for describing a function of the target image generator of FIG. 5.
7 is a view for explaining the detailed configuration of the training operation unit employed in the simulated Satan observation training operation apparatus according to the present invention.
8 is a view for explaining the configuration of the observation device employed in the present invention.
9 is a flowchart illustrating a method for simulating satan observation training operation according to the present invention.
10 is a flow chart for explaining in detail the step of generating the observation point in the terrain information of the training area in the simulated Satan observation training operation method according to the present invention.
11 is a flowchart for explaining in detail the step of generating a target image provided to the observation device in the simulated Satan observation training operating method according to the present invention.
12 is a flowchart illustrating in detail a step of providing a shooting result image according to a case in which it is determined that the user hit the target, the shooting result of the user of the observation apparatus in the simulated Satan observation training operation method according to the present invention.
FIG. 13 is a flowchart for explaining in detail a step of providing a shooting result image when the shooting result of the user of the observing apparatus does not hit the target in the simulated Satan observation training operating method according to the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다.As the present invention allows for various changes and numerous embodiments, particular embodiments will be illustrated in the drawings and described in detail in the written description.

그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다. However, this is not intended to limit the present invention to specific embodiments, it should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention. In describing the drawings, similar reference numerals are used for similar elements.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is referred to as being "connected" or "connected" to another component, it may be directly connected to or connected to that other component, but it may be understood that other components may be present in between. Should be. On the other hand, when a component is said to be "directly connected" or "directly connected" to another component, it should be understood that there is no other component in between.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부 이해되어야 한다.The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the present invention. The singular forms "a", "an" and "the" do not exclude the possibility of the presence or addition of a plurality of expressions or combinations thereof unless the context clearly indicates otherwise. In this application, the terms "comprise" or "have" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more other features. Or numbers, steps, operations, components, or sub-parts.

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 이하, 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, with reference to the accompanying drawings, it will be described in detail a preferred embodiment of the present invention. Hereinafter, the same reference numerals are used for the same components in the drawings, and duplicate descriptions of the same components are omitted.

도 1은 본 발명에 따른 모의 사탄 관측 훈련 운용 시스템의 구성을 설명하기 위한 도면이다.1 is a view for explaining the configuration of a simulated Satan observation training operation system according to the present invention.

도 1을 참조하여 설명하면 본 발명에 따른 모의 사탄 관측 훈련 운용 시스템은 관측기기의 사용자 즉 관측자가 표적에 대한 화력 요청 과정으로 표적으로 발사된 탄의 탄착지점을 추적하여 표적까지 수정탄을 유도하는 과정을 반복하는 모의 사탄 관측 훈련에 사용된다. 이때, 화력 요청 과정은 관측기기의 사용자, 사격지휘통제소, 포 간의 협조로 이루어지며 보다 자세하게 관측기기의 사용자는 표적의 구분(전차, 보병 등), 좌표 방위각, 요청탄총 등과 같은 정보를 사격지휘통제소에 전달하고, 사격지휘통제소는 전달받은 정보를 기반으로 사격 방향을 형성하여 사격을 실시하도록 하고, 관측기기의 사용자는 초탄 및 수정탄에 대해 관측기기의 사용자 기준의 유도를 수행하여 표적의 피해평가 후 보고하는 과정이 수행된다.Referring to FIG. 1, the simulated Satan observation training operating system according to the present invention tracks an impact point of a shot fired by a user of an observer, that is, an observer by requesting a firepower for a target, to induce crystal bombs to a target. It is used to simulate Satan's observational training over and over again. At this time, the firepower request process is made with the cooperation between the user of the observing device, the firing command control center, and the artillery.In detail, the user of the observing device provides information such as the classification of the target (tank, infantry, etc.), the coordinate azimuth, and the required bullet gun. The shooting command control system establishes the shooting direction based on the received information, and executes shooting, and the user of the observing device evaluates the damage of the target by deriving the user standard of the observing device for the coal and crystal bombs. The reporting process is then performed.

상기와 같은 모의 사탄 관측 훈련 운용 시스템은 크게 모의 사탄 관측 훈련 운용 장치(100), 관측기기(200) 및 디스플레이부(10)를 포함하여 이루어진다.The simulated Satan observation training operation system is largely comprised of a simulated Satan observation training operation apparatus 100, the observation device 200 and the display unit 10.

모의 사탄 관측 훈련 운용 장치(100)는 지형 정보를 포함하고 관측기기의 사용자의 조작에 의한 측정결과를 처리하여 지형 정보를 기반으로 관측기기의 사용자, 표적, 탄착지점을 형성하는 것으로, 화력 요청 과정에서 사격지휘통제소 및 포의 역할을 수행한다. 모의 사탄 관측 훈련 운용 장치(100)의 구성 및 기능에 대해서는 이후 설명되는 도 2 내지 도 7에서 자세하게 설명하기로 한다.The simulated Satan observation training operation apparatus 100 includes terrain information and processes measurement results by a user's manipulation of an observation device to form a user, a target, and an impact point of the observation device based on the terrain information. In the role of the firing control station and artillery. The configuration and function of the simulated Satan observation training operation apparatus 100 will be described in detail later with reference to FIGS. 2 to 7.

관측기기(200)는 관측 및 자세측정을 위한 레이저 거리 측정기, 모션 센서 등과 지형 정보를 토대로 생성되는 증강현실 컨텐츠를 디스플레이하는 디스플레이부(10)를 포함한다. 이때, 디스플레이부(10)는 모의 사탄 관측 훈련 운용 장치(100)와 공유될 수도 있다. 관측기기(220)의 구성 및 기능에 대해서는 이후 설명되는 도 8D서 자세하게 설명하기로 한다.The observation device 200 includes a display unit 10 for displaying augmented reality content generated based on terrain information such as a laser range finder, a motion sensor, and the like for observation and attitude measurement. In this case, the display unit 10 may be shared with the simulated Satan observation training operating device 100. The configuration and function of the observation device 220 will be described in detail later with reference to FIG. 8D.

도 2는 본 발명에 따른 모의 사탄 관측 훈련 운용 장치의 구성을 설명하기 위한 도면이다.2 is a view for explaining the configuration of a simulated Satan observation training operation apparatus according to the present invention.

도 2를 참조하여 설명하면, 본 발명에 따른 모의 사탄 관측 훈련 운용 장치(100)는 크게 관측 위치 동기화부(110), 표적 영상 생성부(120) 및 훈련 운용부(130)를 포함한다.Referring to FIG. 2, the simulated Satan observation training operation apparatus 100 according to the present invention includes an observation position synchronization unit 110, a target image generator 120, and a training operation unit 130.

관측 위치 동기화부(110)는 관측기기로부터 전송되는 위치 정보를 토대로 생성된 훈련 지역의 지형 정보로부터 선정된 다수개의 참조점을 이용하여 관측 지점을 추적하여 훈련 지역의 지형 정보 내 관측 지점을 생성한다. 이때, 참조점은 참조점의 변위를 측정하여 관측기기의 사용자의 위치를 파악하기 위한 지점으로, 지형 정보 상에 명확하게 구분될 수 있는 위치로 선정되며, 다수개의 참조점을 선정하는 것은 증강현실 콘텐츠 생성을 위해 관측기기의 사용자의 위치를 정확하게 찾아야 하기 때문이다. 참조점은 사용자가 임의로 지형정보상의 지점을 지정하여 제공될 수 있다.The observation position synchronizer 110 generates an observation point in the terrain information of the training area by tracking the observation points using a plurality of reference points selected from the terrain information of the training area generated based on the location information transmitted from the observation device. . In this case, the reference point is a point for determining the position of the user of the observation apparatus by measuring the displacement of the reference point, and is selected as a position that can be clearly distinguished from the terrain information, and selecting a plurality of reference points is augmented reality. This is because it is necessary to accurately locate the user of the observation device in order to generate the content. The reference point may be provided by the user arbitrarily designating a point on the terrain information.

보다 자세하게, 관측 위치 동기화부(110)는 관측기기로부터 전송되는 위치 정보를 토대로 생성된 훈련 지역의 지형 정보를 토대로 다수개의 참조점을 선정하고, 선정된 참조점을 토대로 관측 지점을 추적하고, 추적된 관측 지점을 토대로 훈련 지역의 지형 정보 내 관측 지점을 생성한다.In more detail, the observation position synchronizer 110 selects a plurality of reference points based on the terrain information of the training area generated based on the position information transmitted from the observation device, and tracks and tracks the observation points based on the selected reference points. Based on the observed observation points, an observation point in the terrain information of the training area is generated.

표적 영상 생성부(120)는 생성된 훈련 지역의 지형 정보 내 관측 지점과 훈련 지역의 지형 정보 내 표적 간의 변위를 측정하고, 관측기기에 제공되는 표적 영상을 생성한다.The target image generator 120 measures a displacement between the observation point in the generated terrain information of the training region and the target in the terrain information of the training region, and generates a target image provided to the observation device.

보다 자세하게, 표적 영상 생성부(120)는 생성된 훈련 지역의 지형 정보 내 표적을 생성하고, 훈련 지역의 지형 정보 내 관측 지점과 훈련 지역의 지형 정보 내 표적 간의 변위를 측정한 후 관측기기로부터 전송되는 자세 정보를 측정된 변위를 모사하는 표적 영상에 대한 증강 현실 컨텐츠를 생성하여 관측기기에 제공한다.In more detail, the target image generating unit 120 generates a target in the terrain information of the generated training area, measures the displacement between the observation point in the terrain information of the training area and the target in the terrain information of the training area, and then transmits it from the observation device. The augmented reality content of the target image, which simulates the measured displacement, is provided to the observation device.

표적 영상 생성부(120)는 필요에 따라 표적 정보(종류, 규모, 피해상태 등), 초탄, 수정탄과 표적간의 거리 등 힌트 및 정답 같은 가이드 정보에 대한 증강 현실 컨텐츠를 생성하여 제공할 수도 있다.The target image generator 120 may generate and provide augmented reality content for guide information such as hints and answers, such as target information (type, scale, damage state, etc.), coal briquettes, crystal bombs, and the target distance, as needed. .

훈련 운용부(130)는 관측기기로부터 전송되는 화력 유도 제원을 토대로 초탄 탄착 영상을 제공하고, 제공된 초탄 탄착 영상을 토대로 이루어진 관측기기의 사용자의 사격 결과 영상을 제공한다.The training operation unit 130 provides a shot coal impact image on the basis of the thermal power guidance specifications transmitted from the observation device, and provides a shooting result image of the user of the observation device made based on the provided coal impact image.

보다 자세하게, 훈련 운용부(130)는 관측기기로부터 전송되는 화력 유도 제원을 토대로 하는 초탄 탄착 영상에 대한 증강 현실 컨텐츠를 생성하고, 전송된 화력 유도 제원을 따라 생성된 초탄 탄착 영상에 대한 증강 현실 컨텐츠를 토대로 이루어진 관측기기의 사용자의 사격 결과를 판단하고, 사격 결과에 따라 관측기기로부터 기 전송된 화력 유도 제원이 재전송되면 표적의 피해 영상에 대한 증강 현실 컨텐츠를 생성하고, 관측기기로부터 수정된 화력 유도 제원이 전송되면 수정탄 탄착 영상에 대한 증강 현실 컨텐츠를 생성하여 제공한다.In more detail, the training operation unit 130 generates augmented reality content for the coal briquette impact image based on the fire power induction specifications transmitted from the observation device, and augmented reality content for the super coal impact impact image generated according to the transmitted fire induction specifications. Judging the firing result of the user of the observation device based on the, and if the fire power source specification transmitted from the observation device is retransmitted according to the firing result, generates augmented reality content for the damage image of the target, and modified fire power derived from the observation device When the specifications are transmitted, the augmented reality content for the modified shot impact image is generated and provided.

도 3은 본 발명에 따른 모의 사탄 관측 훈련 운용 장치에 채용되는 관측 위치 동기화부의 세부 구성을 설명하기 위한 도면이고, 도 4는 도 3의 관측 위치 동기화부의 기능을 설명하기 위한 도면이다.3 is a view for explaining the detailed configuration of the observation position synchronization unit employed in the simulated Satan observation training operation apparatus according to the present invention, Figure 4 is a view for explaining the function of the observation position synchronization unit of FIG.

도 3 및 도 4를 참조하여 설명하면, 본 발명에 따른 관측 위치 동기화부(110)는 관측기기로부터 전송되는 위치 정보를 토대로 생성된 훈련 지역의 지형 정보로부터 선정된 다수개의 참조점을 이용하여 관측 지점을 추적하여 훈련 지역의 지형 정보 내 관측 지점을 생성한다. Referring to FIGS. 3 and 4, the observation position synchronizer 110 according to the present invention observes using a plurality of reference points selected from terrain information of a training area generated based on position information transmitted from an observation apparatus. Trace points to create observation points in the terrain information of the training area.

이를 위해, 관측 위치 동기화부(110)는 훈련 지형 정보 생성부(111), 참조점 선정부(112), 관측 지점 추적부(113) 및 관측 지점 생성부(114)를 포함한다.To this end, the observation position synchronizer 110 includes a training terrain information generator 111, a reference point selector 112, an observation point tracker 113, and an observation point generator 114.

훈련 지형 정보 생성부(111)는 관측기기로부터 전송되는 위치 정보를 토대로 훈련 지역의 지형 정보를 생성한다.The training terrain information generation unit 111 generates terrain information of the training area based on location information transmitted from the observation device.

참조점 선정부(112)는 생성된 훈련 지역의 지형 정보를 토대로 다수개의 참조점(P1,P2,P3)을 선정한다. 참조점 선정부(112)는 훈련 지역의 지형 정보와 실제 지형이 매칭되는 위치를 참조점으로 선정한다.The reference point selector 112 selects a plurality of reference points P1, P2, and P3 based on the generated terrain information of the training area. The reference point selector 112 selects a location where the terrain information of the training area matches the actual terrain as a reference point.

관측 지점 추적부(113)는 선정된 참조점을 토대로 관측기기에서 측정된 참조점 정보를 기반으로 관측 지점을 추적한다.The observation point tracking unit 113 tracks the observation point based on the reference point information measured by the observation device based on the selected reference point.

관측 지점 생성부(114)는 추적된 관측 지점을 토대로 훈련 지역의 지형 정보 내 관측 지점(

Figure 112017119746303-pat00001
)을 생성한다.Observation point generation unit 114 is based on the observation point tracked observation point in the terrain information of the training area (
Figure 112017119746303-pat00001
).

도 5는 본 발명에 따른 모의 사탄 관측 훈련 운용 장치에 채용되는 표적 영상 생성부의 세부 구성을 설명하기 위한 도면이고, 도 6은 도 5의 표적 영상 생성부의 기능을 설명하기 위한 도면이다.5 is a view for explaining the detailed configuration of the target image generating unit employed in the simulated Satan observation training operation apparatus according to the present invention, Figure 6 is a view for explaining the function of the target image generating unit of FIG.

도 5 및 도 6을 참조하여 설명하면, 본 발명에 따른 표적 영상 생성부(120)는 생성된 훈련 지역의 지형 정보 내 관측 지점과 훈련 지역의 지형 정보 내 표적 간의 변위를 측정하고, 관측기기에 제공되는 표적 영상을 생성한다.Referring to FIGS. 5 and 6, the target image generator 120 according to the present invention measures the displacement between the observation point in the generated terrain information of the training area and the target in the terrain information of the training area. Generate the provided target image.

이를 위해, 표적 영상 생성부(120)는 표적 생성부(121), 변위 측정부(122), 자세 정보 수신부(123) 및 표적 영상 제공부(124)를 포함한다.To this end, the target image generator 120 includes a target generator 121, a displacement measuring unit 122, a posture information receiving unit 123, and a target image providing unit 124.

표적 생성부(121)는 생성된 훈련 지역의 지형 정보 내 표적(

Figure 112017119746303-pat00002
)을 생성한다.The target generator 121 may generate a target in the terrain information of the generated training area.
Figure 112017119746303-pat00002
).

변위 측정부(122)는 훈련 지역의 지형 정보 내 관측 지점과 훈련 지역의 지형 정보 내 표적 간의 변위(

Figure 112017119746303-pat00003
)를 측정한다.The displacement measuring unit 122 may measure the displacement between the observation point in the terrain information of the training area and the target in the terrain information of the training area.
Figure 112017119746303-pat00003
Measure

자세 정보 수신부(123)는 관측기기로부터 전송되는 자세 정보를 수신한다.The posture information receiver 123 receives posture information transmitted from an observation device.

표적 영상 제공부(124)는 수신된 자세 정보를 토대로 측정된 변위를 모사하는 표적 영상에 대한 증강 현실 컨텐츠를 생성하여 관측기기에 제공한다.The target image providing unit 124 generates augmented reality content for the target image that simulates the measured displacement based on the received attitude information and provides it to the observation device.

도 7은 본 발명에 따른 모의 사탄 관측 훈련 운용 장치에 채용되는 훈련 운용부의 세부 구성을 설명하기 위한 도면이다.7 is a view for explaining the detailed configuration of the training operation unit employed in the simulated Satan observation training operation apparatus according to the present invention.

도 7을 참조하여 설명하면, 본 발명에 따른 훈련 운용부(130)는 관측기기로부터 전송되는 화력 유도 제원을 토대로 초탄 탄착 영상을 제공하고, 제공된 초탄 탄착 영상을 토대로 이루어진 관측기기의 사용자의 사격 결과 영상을 제공한다. 한편, 도 1을 참조하여 설명하기로 한다.Referring to FIG. 7, the training operation unit 130 according to the present invention provides a coal briquette impact image based on a thermal power generation specification transmitted from an observation device, and fires a result of a user of the observation apparatus made based on the super coal impact impact image provided. Provide video. On the other hand, it will be described with reference to FIG.

이를 위해, 훈련 운용부(130)는 탄착 영상 제공부(131), 사격 결과 판단부(132), 표적 피해 영상 제공부(133) 및 수정탄 영상 제공부(134)를 포함한다.To this end, the training operation unit 130 includes an impact image providing unit 131, a shooting result determination unit 132, a target damage image providing unit 133, and a crystal shot image providing unit 134.

탄착 영상 제공부(131)는 관측기기로부터 전송되는 화력 유도 제원(

Figure 112017119746303-pat00004
)을 토대로 하는 초탄 탄착 영상에 대한 증강 현실 컨텐츠를 생성하여 제공한다.The impact image providing unit 131 is a thermal power induction specifications transmitted from the observation device (
Figure 112017119746303-pat00004
Produces augmented reality content for the coal briquettes image based on

사격 결과 판단부(132)는 전송된 화력 유도 제원을 따라 생성된 초탄 탄착 영상에 대한 증강 현실 컨텐츠를 토대로 이루어진 관측기기의 사용자의 사격 결과를 판단하여 관측기기에 제공한다.The shooting result determination unit 132 determines the shooting result of the user of the observing device based on the augmented reality content for the shot coal impacted image generated in accordance with the transmitted thermal power specification, and provides it to the observing device.

표적 피해 영상 제공부(133)는 관측기기로부터 기 전송된 화력 유도 제원이 재전송되면 표적의 피해(

Figure 112017119746303-pat00005
)영상에 대한 증강 현실 컨텐츠를 생성하여 관측기기에 제공한다.The target damage image providing unit 133 is a target damage (if the fire power source specification previously transmitted from the observation device is retransmitted)
Figure 112017119746303-pat00005
Create augmented reality content for the image and provide it to the observation device.

수정탄 영상 제공부(134)는 관측기기로부터 수정된 화력 유도 제원이 전송되면 수정탄 탄착 영상에 대한 증강 현실 컨텐츠를 생성하여 제공한다.The crystal shot image providing unit 134 generates and provides augmented reality content for the modified shot impact image when the modified thermal power guidance specification is transmitted from the observation device.

도 8은 본 발명에 채용되는 관측기기의 구성을 설명하기 위한 도면이다.8 is a view for explaining the configuration of the observation device employed in the present invention.

도 8을 참조하여 설명하면, 본 발명에 따른 관측기기(200)는 위치 정보 획득부(210), 참조점 측정부(220), 자세 정보 획득부(230), 자세 변경 여부 판단부(240), 제1 화력 유도 제원 전송부(250), 제2 화력 유도 제원 전송부(260) 및 수정 화력 유도 제원 전송부(270)를 포함한다.Referring to FIG. 8, the observation device 200 according to the present invention includes a location information acquisition unit 210, a reference point measurement unit 220, a posture information acquisition unit 230, and a posture change determination unit 240. , A first thermal power guide specification transmitter 250, a second thermal power guide specification transmitter 260, and a modified thermal power guide specification transmitter 270.

위치 정보 획득부(210)는 현재의 위치 정보를 획득하여 전송한다. 위치 정보 획득부(210)는 관측기기에 구비된 모션 센서의 GPS 정보로 위치 정보를 획득한다.The location information acquisition unit 210 obtains and transmits current location information. The location information acquisition unit 210 obtains location information using GPS information of a motion sensor provided in the observation device.

참조점 측정부(220)는 선정된 다수개의 참조점의 거리, 방위각 및 고각 중 적어도 어느 하나를 포함하는 참조점 정보를 측정한다. 참조점 측정부(220)는 일반적으로 독도법에서 사용하는 후방교차법과 유사한 방식으로 참조점 간의 방위각을 재어 연장선을 그리고 교차하는 지점을 찾는 방법으로 참조점을 측정한다.The reference point measuring unit 220 measures reference point information including at least one of a distance, azimuth, and elevation of a plurality of selected reference points. The reference point measuring unit 220 measures the reference point by measuring the azimuth angle between the reference points in a manner similar to the back-crossing method used in the Dokdo method, and finding an intersection point.

자세 정보 획득부(230)는 현재의 자세 정보를 획득하여 전송한다.The posture information obtaining unit 230 obtains and transmits current posture information.

자세 변경 여부 판단부(240)는 표적 영상에 대한 증강 현실 컨텐츠가 수신되면 디스플레이부에 디스플레이하고, 관측기기의 자세 변경 여부를 판단한다. 자세 변경 여부 판단부(240)는 관측기기의 자세가 변경되었다고 판단되면 자세 정보 획득부(230)에 의해 변경된 자세 정보를 획득하여 다시 전송하도록 한다.The posture change determination unit 240 displays the augmented reality content for the target image on the display unit and determines whether the posture change of the observation device. If it is determined that the posture change unit 240 determines that the posture of the observation device is changed, the posture change unit 240 acquires the changed posture information by the posture information acquisition unit 230 and transmits the posture information.

제1 화력 유도 제원 전송부(250)는 관측기기의 사용자에 의해 입력된 화력 유도 제원을 전송한다.The first thermal power induction specification transmitter 250 transmits the thermal power induction specification input by the user of the observation apparatus.

제2 화력 유도 제원 전송부(260)는 사격 결과, 표적에 명중한 것으로 판단된 경우 기 전송된 화력 유도 제원을 재전송한다.The second firepower guide specification transmission unit 260 retransmits the previously transmitted firepower guide specification when it is determined that the hit hit the target.

수정 화력 유도 제원 전송부(270)는 사격 결과, 표적에 명중하지 않은 것으로 판단된 경우 관측기기의 사용자에 의해 입력되는 수정된 화력 유도 제원을 전송한다. 수정 화력 유도 제원 전송부(270)는 관측기기의 사용자에 의해 축을 중심으로 더하기, 줄이기, 좌우 이동을 통해 입력된다.The modified thermal power induction specification transmission unit 270 transmits the modified thermal power induction specifications input by the user of the observation apparatus when it is determined that the target is not hit by the target. The modified thermal power induction specification transmission unit 270 is input by adding, reducing, and moving left and right about the axis by the user of the observation apparatus.

여기서, 본 발명은 관측기기를 통해 사용자가 입력한 화력 유도 제원이 수신되어 전송된다고 하였으나, 이에 한정되지 않고 교관 역할을 하는 인원이 훈련자와의 교신을 통해 모의 사탄 관측 훈련 운용 장치로 직접 전달할 수도 있고, 별도의 입력수단을 통해 모의 사탄 관측 훈련 운용 장치로 직접 전달할 수도 있다. 또한, 별도의 입력수단이 관측기기와 연동되어 화력 유도 제원을 직접 전달할 수도 있다.Here, although the present invention is said to receive and transmit the thermal power input specifications input by the user through the observation device, but is not limited to this person can be directly transmitted to the simulated Satan observation training operation apparatus through the communication with the trainer. It can also be delivered directly to a simulated Satan observation training operating device through a separate input. In addition, a separate input means may be linked with the observation device to directly deliver the thermal power induction specifications.

도 9는 본 발명에 따른 모의 사탄 관측 훈련 운용 방법을 설명하기 위한 순서도이다.9 is a flowchart illustrating a method for simulating satan observation training operation according to the present invention.

도 9를 참조하여 설명하면, 본 발명에 따른 모의 사탄 관측 훈련 운용 방법은 앞서 설명한 모의 사탄 관측 훈련 운용 장치를 이용하는 것으로 이하, 중복되는 설명은 생략하기로 한다.Referring to Figure 9, the simulated Satan observation training operation method according to the present invention by using the simulated Satan observation training operation apparatus described above, duplicate description will be omitted.

먼저, 관측기기로부터 전송되는 위치 정보를 토대로 생성된 훈련 지역의 지형 정보로부터 선정된 다수개의 참조점을 이용하여 관측 지점을 추적하여 훈련 지역의 지형 정보 내 관측 지점을 생성한다(S100). First, an observation point is generated by tracking observation points using a plurality of reference points selected from the terrain information of the training area generated based on the location information transmitted from the observation device (S100).

S100 단계는 관측기기로부터 전송되는 위치 정보를 토대로 생성된 훈련 지역의 지형 정보를 토대로 다수개의 참조점을 선정하고, 선정된 참조점을 토대로 관측 지점을 추적하고, 추적된 관측 지점을 토대로 훈련 지역의 지형 정보 내 관측 지점을 Step S100 selects a plurality of reference points based on the terrain information of the training area generated based on the location information transmitted from the observation device, tracks the observation points based on the selected reference points, and based on the tracked observation points. The observation point in the terrain

다음, 생성된 훈련 지역의 지형 정보 내 관측 지점과 훈련 지역의 지형 정보 내 표적 간의 변위를 측정하고, 관측기기에 제공되는 표적 영상을 생성한다(S110).Next, the displacement between the observation point in the generated topographic information of the training area and the target in the topographic information of the training area is measured, and a target image provided to the observation device is generated (S110).

S110 단계는 생성된 훈련 지역의 지형 정보 내 표적을 생성하고, 훈련 지역의 지형 정보 내 관측 지점과 훈련 지역의 지형 정보 내 표적 간의 변위를 측정한 후 관측기기로부터 전송되는 자세 정보를 측정된 변위를 모사하는 표적 영상에 대한 증강 현실 컨텐츠를 생성하여 관측기기에 제공한다.Step S110 generates a target in the terrain information of the generated training area, measures the displacement between the observation point in the terrain information of the training area and the target in the terrain information of the training area, and then measures the displacement measured from the attitude information transmitted from the observation device. Augmented reality content for the simulated target image is generated and provided to the observation device.

다음, 관측기기로부터 전송되는 화력 유도 제원을 토대로 초탄 탄착 영상을 제공하고, 제공된 초탄 탄착 영상을 토대로 이루어진 관측기기의 사용자의 사격 결과 영상을 제공한다(S120).Next, the coal briquette impact image is provided on the basis of the thermal power induction specifications transmitted from the observation device, and a shooting result image of the user of the observation device made on the basis of the provided coal peat impact image is provided (S120).

S120 단계는 관측기기로부터 전송되는 화력 유도 제원을 토대로 하는 초탄 탄착 영상에 대한 증강 현실 컨텐츠를 생성하고, 관측기기로부터 기 전송된 화력 유도 제원이 재전송되면 표적의 피해 영상에 대한 증강 현실 컨텐츠를 생성하고, 관측기기로부터 수정된 화력 유도 제원이 전송되면 수정탄 탄착 영상에 대한 증강 현실 컨텐츠를 생성하여 제공한다.In step S120, the augmented reality content is generated for the coal briquette impact image based on the fire induction specifications transmitted from the observation device, and when the fire induction specifications previously transmitted from the observation device are retransmitted, the augmented reality content for the damage image of the target is generated. In addition, when the modified thermal guidance guide is transmitted from the observation device, the augmented reality content for the modified shot impact image is generated and provided.

도 10은 본 발명에 따른 모의 사탄 관측 훈련 운용 방법에서 훈련 지역의 지형 정보 내 관측 지점을 생성하는 단계를 자세하게 설명하기 위한 순서도이다.10 is a flow chart for explaining in detail the step of generating the observation point in the terrain information of the training area in the simulated Satan observation training operation method according to the present invention.

도 10을 참조하여 설명하면, 먼저 관측기기(200)는 현재의 위치 정보를 획득하여 전송한다(S200,S201).Referring to FIG. 10, first, the observing device 200 obtains and transmits current location information (S200 and S201).

다음, 모의 사탄 관측 훈련 운용 장치(100)는 관측기기로부터 전송되는 위치 정보를 토대로 훈련 지역의 지형 정보를 생성한다(S210).Next, the simulated Satan observation training operating device 100 generates the terrain information of the training area based on the location information transmitted from the observation device (S210).

다음, 모의 사탄 관측 훈련 운용 장치(100)는 생성된 훈련 지역의 지형 정보를 토대로 다수개의 참조점을 선정하고 전송한다(S220, S221)Next, the simulated Satan observation training operating device 100 selects and transmits a plurality of reference points based on the generated terrain information of the training area (S220, S221).

다음, 관측기기(200)는 선정된 다수개의 참조점의 거리, 방위각 및 고각 중 적어도 어느 하나를 포함하는 참조점 정보를 측정하고 전송한다(S230, S231).Next, the observation device 200 measures and transmits reference point information including at least one of a distance, azimuth, and elevation of the selected plurality of reference points (S230 and S231).

다음, 모의 사탄 관측 훈련 운용 장치(100)는 선정된 참조점을 토대로 관측기기에서 측정된 참조점 정보를 기반으로 관측 지점을 추적한다(S240).Next, the simulated Satan observation training operating device 100 tracks the observation point based on the reference point information measured by the observation device based on the selected reference point (S240).

다음, 모의 사탄 관측 훈련 운용 장치(100)는 추적된 관측 지점을 토대로 훈련 지역의 지형 정보 내 관측 지점을 생성한다(S250).Next, the simulated Satan observation training operating device 100 generates the observation point in the terrain information of the training area based on the tracked observation point (S250).

도 11은 본 발명에 따른 모의 사탄 관측 훈련 운용 방법에서 관측기기에 제공되는 표적 영상을 생성하는 단계를 자세하게 설명하기 위한 순서도이다.11 is a flowchart for explaining in detail the step of generating a target image provided to the observation device in the simulated Satan observation training operating method according to the present invention.

도 11을 참조하여 설명하면, 먼저 모의 사탄 관측 훈련 운용 장치(100)는 생성된 훈련 지역의 지형 정보 내 표적을 생성한다(S300).Referring to FIG. 11, first, the simulated Satan observation training operating apparatus 100 generates a target in the terrain information of the generated training area (S300).

다음, 모의 사탄 관측 훈련 운용 장치(100)는 훈련 지역의 지형 정보 내 관측 지점과 훈련 지역의 지형 정보 내 표적 간의 변위를 측정한다.Next, the simulated Satan observation training operating device 100 measures the displacement between the observation point in the terrain information of the training area and the target in the terrain information of the training area.

다음, 관측기기(200)는 현재의 자세 정보를 획득하여 전송한다(S320, S321).Next, the observation device 200 obtains and transmits the current attitude information (S320 and S321).

다음, 모의 사탄 관측 훈련 운용 장치(100)는 관측기기로부터 전송되는 자세 정보를 수신한다(S330).Next, the simulated Satan observation training operating device 100 receives the attitude information transmitted from the observation device (S330).

다음, 모의 사탄 관측 훈련 운용 장치(100)는 수신된 자세 정보를 토대로 측정된 변위를 모사하는 표적 영상에 대한 증강 현실 컨텐츠를 생성하여 상기 관측기기에 제공한다(S340, S341).Next, the simulated Satan observation training operating device 100 generates augmented reality content for the target image to simulate the displacement measured on the basis of the received attitude information and provides it to the observation device (S340, S341).

다음, 표적 영상에 대한 증강 현실 컨텐츠가 수신되면 디스플레이부에 디스플레이하고, 관측기기의 자세 변경 여부를 판단한다(S350, S360)Next, when the augmented reality content for the target image is received, it is displayed on the display unit and it is determined whether the attitude of the observer is changed (S350 and S360).

도 12는 본 발명에 따른 모의 사탄 관측 훈련 운용 방법에서 관측기기의 사용자의 사격 결과, 표적에 명중한 것으로 판단된 경우에 따른 사격 결과 영상을 제공하는 단계를 자세하게 설명하기 위한 순서도이다.12 is a flowchart illustrating in detail a step of providing a shooting result image according to a case in which it is determined that the user hit the target, the shooting result of the user of the observation apparatus in the simulated Satan observation training operation method according to the present invention.

도 12를 참조하여 설명하면, 먼저 관측기기의 사용자(A)는 화력 유도 제원을 관측기기에 입력한다(S400).Referring to FIG. 12, first, the user A of the observing device inputs a thermal power specification to the observing device (S400).

다음, 모의 사탄 관측 훈련 운용 장치(100)는 관측기기를 통해 전송된 화력 유도 제원을 수신한다(S410. S411).Next, the simulated Satan observation training operating device 100 receives the thermal power induction specifications transmitted through the observation device (S410. S411).

다음, 모의 사탄 관측 훈련 운용 장치(100)는 관측기기로부터 전송되는 화력 유도 제원을 토대로 하는 초탄 탄착 영상에 대한 증강 현실 컨텐츠를 생성하여 제공한다(S420,S421)Next, the simulated Satan observation training operating device 100 generates and provides augmented reality content for the super-tank impact image based on the thermal power guidance specifications transmitted from the observation device (S420, S421).

다음, 관측기기(200)는 전송된 화력 유도 제원을 따라 생성된 초탄 탄착 영상에 대한 증강 현실 컨텐츠를 디스플레이한다(S430).Next, the observation device 200 displays the augmented reality content for the coal briquette image generated according to the transmitted thermal power specification (S430).

다음, 관측기기(200)의 사용자(A)는 디스플레이된 초탄 탄착 영상에 대한 증강 현실 컨텐츠를 토대로 사격을 실행한다(S440).Next, the user A of the observation apparatus 200 executes shooting based on the augmented reality content for the displayed coal briquette image (S440).

다음, 모의 사탄 관측 훈련 운용 장치(100)는 전송된 화력 유도 제원을 따라 생성된 초탄 탄착 영상에 대한 증강 현실 컨텐츠를 토대로 이루어진 관측기기의 사용자(A)의 사격 결과가 표적에 명중한 것으로 판단한다(S450)Next, the simulated Satan observation training operation apparatus 100 determines that the shooting result of the user A of the observing device that hits the target based on the augmented reality content for the shot coal impact image generated according to the transmitted firepower guidance specifications. (S450)

다음, 관측기기(200)는 관측기기의 사용자(A)의 사격 결과가 표적에 명중한 것으로 판단되면, 전송된 화력 유도 제원이 재전송한다(S451)Next, when the observation device 200 determines that the shooting result of the user A of the observation device has hit the target, the transmitted firepower specification is retransmitted (S451).

다음, 모의 사탄 관측 훈련 운용 장치(100)는 관측기기(200)로부터 기 전송된 화력 유도 제원이 재전송되면 표적의 피해 영상에 대한 증강 현실 컨텐츠를 생성하여 관측기기에 제공한다(S460, S461).Next, the simulated Satan observation training operating device 100 generates augmented reality content for the damage image of the target when the fire power source specification transmitted from the observation device 200 is retransmitted (S460, S461).

다음, 관측기기(200)는 피해 영상에 대한 증강 현실 컨텐츠 디스플레이한다(S470).Next, the observation device 200 displays the augmented reality content for the damage image (S470).

다음, 관측기기의 사용자(A)는 피해 영상에 대한 증강 현실 컨텐츠를 토대로 피해 평가를 수행한다(S480).Next, the user A of the observation device performs damage assessment based on the augmented reality content for the damage image (S480).

도 13은 본 발명에 따른 모의 사탄 관측 훈련 운용 방법에서 관측기기의 사용자의 사격 결과, 표적에 명중하지 않은 것으로 판단된 경우에 따른 사격 결과 영상을 제공하는 단계를 자세하게 설명하기 위한 순서도이다.FIG. 13 is a flowchart for explaining in detail a step of providing a shooting result image when the shooting result of the user of the observing apparatus does not hit the target in the simulated Satan observation training operating method according to the present invention.

도 13을 참조하여 설명하면, 먼저 관측기기의 사용자(A)는 화력 유도 제원을 관측기기에 입력한다(S500).Referring to FIG. 13, first, the user A of the observing device inputs a thermal power specification to the observing device (S500).

다음, 모의 사탄 관측 훈련 운용 장치(100)는 관측기기(200)를 통해 전송된 화력 유도 제원을 수신한다(S510. S511).Next, the simulated Satan observation training operating device 100 receives the thermal power induction specifications transmitted through the observation device 200 (S510. S511).

다음, 모의 사탄 관측 훈련 운용 장치(100)는 관측기기(200)로부터 전송되는 화력 유도 제원을 토대로 하는 초탄 탄착 영상에 대한 증강 현실 컨텐츠를 생성하여 제공한다(S520, S521)Next, the simulated Satan observation training operating device 100 generates and provides augmented reality content for the super-tank impact image based on the thermal power guidance specifications transmitted from the observation device 200 (S520, S521)

다음, 관측기기(200)는 전송된 화력 유도 제원을 따라 생성된 초탄 탄착 영상에 대한 증강 현실 컨텐츠를 디스플레이한다(S530).Next, the observation device 200 displays the augmented reality content for the coal briquette impact image generated according to the transmitted thermal power specification (S530).

다음, 관측기기의 사용자(A)는 디스플레이된 초탄 탄착 영상에 대한 증강 현실 컨텐츠를 토대로 사격을 실행한다(S540).Next, the user A of the observation apparatus executes shooting based on the augmented reality content for the displayed coal briquette image (S540).

다음, 모의 사탄 관측 훈련 운용 장치(100)는 전송된 화력 유도 제원을 따라 생성된 초탄 탄착 영상에 대한 증강 현실 컨텐츠를 토대로 이루어진 관측기기의 사용자(A)의 사격 결과가 표적에 명중하지 않은 것으로 판단한다(S550)Next, the simulated Satan observation training operating device 100 determines that the shooting result of the user A of the observing device, which is based on the augmented reality content for the super-burnt impact image generated according to the transmitted fire guidance specification, does not hit the target. (S550)

다음, 관측기기의 사용자(A)는 수정된 화력 유도 제원을 입력한다(S560).Next, the user A of the observing device inputs the modified thermal power guidance specification (S560).

다음, 관측기기(200)는 관측기기의 사용자(A)에 의해 입력된 화력 유도 제원을 수신하여 전송한다(S570. S571).Next, the observation device 200 receives and transmits a thermal power guidance specification input by the user A of the observation device (S570. S571).

다음, 모의 사탄 관측 훈련 운용 장치(100)는 관측기기(200)로부터 전송되는 수정된 유도 제원을 토대로 하는 수정 탄착 영상에 대한 증강 현실 컨텐츠를 생성하여 제공한다(S580, S581)Next, the simulated Satan observation training operating device 100 generates and provides augmented reality content for the modified impact image based on the modified guidance specifications transmitted from the observation device 200 (S580, S581).

다음, 관측기기(200)는 수정된 화력 유도 제원을 따라 생성된 수정 탄착 영상에 대한 증강 현실 컨텐츠를 디스플레이한다(S590).Next, the observation device 200 displays the augmented reality content for the modified impact impact image generated according to the modified thermal power guidance specifications (S590).

다음, 관측기기의 사용자(A)는 디스플레이된 수정 탄착 영상에 대한 증강 현실 컨텐츠를 토대로 사격을 실행한다(S600).Next, the user A of the observation apparatus executes shooting based on the augmented reality content for the displayed corrected impact image (S600).

S600 단계 이후에 S550 단계로 돌아가 관측기기의 사용자(A)의 사격 결과에 따라 화력 유도 제원 수신, 탄착 영상 생성에 대한 단계를 반복한다.After the step S600, the process returns to the step S550 and repeats the steps for receiving the firepower specification and generating the impact image according to the shooting result of the user A of the observing device.

이처럼, 본 발명은 증강현실을 이용하여 실제 지형 및 지물과 동일한 이미지나 배경을 토대로 하는 증강현실 컨텐츠를 생성하고 제공하여 모의 사탄 관측 훈련을 수행함으로써, 기존에 가상 지형을 토대로 수행되던 훈련이 아닌 실제 지형을 토대로 훈련이 이루어져 부대 전체의 전투 능력을 향상시킬 수 있다.As such, the present invention generates and provides augmented reality content based on the same image or background as real terrain and features using augmented reality to perform simulated Satan observation training, and not actual training based on virtual terrain. Training based on terrain can improve the combat capabilities of the entire unit.

또한, 본 발명은 사전에 식별된 참조점을 토대로 훈련 지역의 지형 정보 내 관측기기의 위치 및 방향 보정을 수행함으로써, 관측기기를 사용하는 관측자의 위치를 명확하게 식별할 수 있다.In addition, the present invention can clearly identify the position of the observer using the observer by performing the position and orientation correction of the observer in the terrain information of the training area based on the previously identified reference point.

또한, 본 발명은 훈련 지역의 지형 정보 내 표적의 위치와 관측기기의 위치 사이의 변위를 측정하여 평면 위에서 좌표 식별이 가능한 관측기기에 제공되는 증강현실 컨텐츠를 생성함으로써, 실제 지형에서 시간 및 탄약 비용의 제한 없이 훈련을 수행할 수 있다.In addition, the present invention measures the displacement between the position of the target and the position of the observation device in the terrain information of the training area to generate augmented reality content provided to the observation device that can be identified on the plane, the time and ammunition cost in the actual terrain Training can be carried out without limitation.

이상 본 명세서에서 설명한 기능적 동작과 본 주제에 관한 실시형태들은 본 명세서에서 개시한 구조들 및 그들의 구조적인 등가물을 포함하여 디지털 전자 회로나 컴퓨터 소프트웨어, 펌웨어 또는 하드웨어에서 혹은 이들 중 하나 이상이 조합에서 구현 가능하다. The functional operations described herein and the embodiments relating to the subject matter are implemented in digital electronic circuitry or computer software, firmware or hardware, including the structures disclosed herein and their structural equivalents, or in combination with one or more of them. It is possible.

본 명세서에서 기술하는 주제의 실시형태는 하나 이상이 컴퓨터 프로그램 제품, 다시 말해 데이터 처리 장치에 의한 실행을 위하여 혹은 그 동작을 운용하기 위하여 유형의 프로그램 매체 상에 인코딩되는 컴퓨터 프로그램 명령에 관한 하나 이상이 모듈로서 구현될 수 있다. 유형의 프로그램 매체는 전파형 신호이거나 컴퓨터로 판독 가능한 매체일 수 있다. 전파형 신호는 컴퓨터에 의한 실행을 위하여 적절한 수신기 장치로 전송하기 위한 정보를 인코딩하기 위하여 생성되는 예컨대 기계가 생성한 전기적, 광학적 혹은 전자기 신호와 같은 인공적으로 생성된 신호이다. 컴퓨터로 판독 가능한 매체는 기계로 판독 가능한 저장장치, 기계로 판독 가능한 저장 기판, 메모리 장치, 기계로 판독 가능한 전파형 신호에 영향을 미치는 물질의 조합 혹은 이들 중 하나 이상이 조합일 수 있다.Embodiments of the subject matter described in this specification include one or more computer program instructions, ie one or more computer program instructions encoded on a tangible program medium for execution by a data processing apparatus or for operating the operations thereof. It can be implemented as a module. The tangible program medium may be a propagated signal or a computer readable medium. A propagated signal is an artificially generated signal such as a machine generated electrical, optical or electromagnetic signal that is generated to encode information for transmission to a suitable receiver device for execution by a computer. The computer readable medium may be a machine readable storage device, a machine readable storage substrate, a memory device, a combination of materials affecting a machine readable propagated signal, or a combination of one or more of them.

컴퓨터 프로그램(프로그램, 소프트웨어, 소프트웨어 어플리케이션, 스크립트 혹은 코드로도 알려져 있음)은 컴파일되거나 해석된 언어나 선험적 혹은 절차적 언어를 포함하는 프로그래밍 언어의 어떠한 형태로도 작성될 수 있으며, 독립형 프로그램이나 모듈, 컴포넌트, 서브루틴 혹은 컴퓨터 환경에서 사용하기에 적합한 다른 유닛을 포함하여 어떠한 형태로도 전개될 수 있다. Computer programs (also known as programs, software, software applications, scripts, or code) may be written in any form of programming language, including compiled or interpreted languages, or a priori or procedural languages. It can be deployed in any form, including components, subroutines, or other units suitable for use in a computer environment.

컴퓨터 프로그램은 파일 장치의 파일에 반드시 대응하는 것은 아니다. 프로그램은 요청된 프로그램에 제공되는 단일 파일 내에, 혹은 다중의 상호 작용하는 파일(예컨대, 하나 이상이 모듈, 하위 프로그램 혹은 코드의 일부를 저장하는 파일) 내에, 혹은 다른 프로그램이나 데이터를 보유하는 파일의 일부(예컨대, 마크업 언어 문서 내에 저장되는 하나 이상이 스크립트) 내에 저장될 수 있다. The computer program does not necessarily correspond to a file of the file device. A program may be in a single file provided to the requested program, or in multiple interactive files (eg, one or more files that store modules, subprograms, or parts of code), or other files that hold data or other programs. Some (eg, one or more stored in a markup language document) may be stored within.

컴퓨터 프로그램은 하나의 사이트에 위치하거나 복수의 사이트에 걸쳐서 분산되어 통신 네트워크에 의해 상호 접속된 다중 컴퓨터나 하나의 컴퓨터 상에서 실행되도록 전개될 수 있다.The computer program may be deployed to run on a single computer or on multiple computers located at one site or distributed across multiple sites and interconnected by a communication network.

부가적으로, 본 특허문헌에서 기술하는 논리 흐름과 구조적인 블록도는 개시된 구조적인 수단의 지원을 받는 대응하는 기능과 단계의 지원을 받는 대응하는 행위 및/또는 특정한 방법을 기술하는 것으로, 대응하는 소프트웨어 구조와 알고리즘과 그 등가물을 구축하는 데에도 사용 가능하다. In addition, the logic flows and structural block diagrams described in this patent document describe corresponding acts and / or specific methods supported by the corresponding functions and steps supported by the disclosed structural means, corresponding It can also be used to build software structures and algorithms and their equivalents.

본 명세서에서 기술하는 프로세스와 논리 흐름은 입력 데이터 상에서 동작하고 출력을 생성함으로써 기능을 수행하기 위하여 하나 이상이 컴퓨터 프로그램을 실행하는 하나 이상이 프로그래머블 프로세서에 의하여 수행 가능하다.The processes and logic flows described herein are capable of being executed by one or more programmable processors that execute one or more computer programs to perform functions by operating on input data and generating output.

컴퓨터 프로그램의 실행에 적합한 프로세서는, 예컨대 범용 및 특수 목적의 마이크로프로세서 양자 및 어떤 종류의 디지털 컴퓨터의 어떠한 하나 이상이 프로세서라도 포함한다. 일반적으로, 프로세서는 읽기 전용 메모리나 랜덤 액세스 메모리 혹은 양자로부터 명령어와 데이터를 수신할 것이다. Processors suitable for the execution of computer programs include, for example, both general and special purpose microprocessors and any one or more of any kind of digital computer. In general, a processor will receive instructions and data from a read only memory or a random access memory or both.

컴퓨터의 핵심적인 요소는 명령어와 데이터를 저장하기 위한 하나 이상이 메모리 장치 및 명령을 수행하기 위한 프로세서이다. 또한, 컴퓨터는 일반적으로 예컨대 자기, 자기광학 디스크나 광학 디스크와 같은 데이터를 저장하기 위한 하나 이상이 대량 저장 장치로부터 데이터를 수신하거나 그것으로 데이터를 전송하거나 혹은 그러한 동작 둘 다를 수행하기 위하여 동작가능 하도록 결합되거나 이를 포함할 것이다. 그러나, 컴퓨터는 그러한 장치를 가질 필요가 없다.At the heart of a computer is one or more memory devices for storing instructions and data and a processor for performing instructions. In addition, computers are generally such that one or more for storing data such as, for example, magnetic, magneto-optical disks or optical disks are operable to receive data from, transfer data to, or perform both of these operations. Combined or will include it. However, the computer does not need to have such a device.

본 기술한 설명은 본 발명의 최상의 모드를 제시하고 있으며, 본 발명을 설명하기 위하여, 그리고 당업자가 본 발명을 제작 및 이용할 수 있도록 하기 위한 예를 제공하고 있다. 이렇게 작성된 명세서는 그 제시된 구체적인 용어에 본 발명을 제한하는 것이 아니다. The foregoing description presents the best mode of the invention, and provides examples to illustrate the invention and to enable those skilled in the art to make and use the invention. The specification thus produced is not intended to limit the invention to the specific terms presented.

따라서, 상술한 예를 참조하여 본 발명을 상세하게 설명하였지만, 당업자라면 본 발명의 범위를 벗어나지 않으면서도 본 예들에 대한 개조, 변경 및 변형을 가할 수 있다. 요컨대 본 발명이 의도하는 효과를 달성하기 위해 도면에 도시된 모든 기능 블록을 별도로 포함하거나 도면에 도시된 모든 순서를 도시된 순서 그대로 따라야만 하는 것은 아니며, 그렇지 않더라도 얼마든지 청구항에 기재된 본 발명의 기술적 범위에 속할 수 있음에 주의한다.Thus, while the present invention has been described in detail with reference to the above examples, those skilled in the art can make modifications, changes, and variations to the examples without departing from the scope of the invention. In short, in order to achieve the intended effect of the present invention, it is not necessary to separately include all the functional blocks shown in the drawings or to follow all the orders shown in the drawings in the order shown; Note that it may fall within the scope.

100 : 모의 사탄 관측 훈련 운용 장치
110 : 관측 위치 동기화부
120 : 표적 영상 생성부
130 : 훈련 운용부
140 : 관측기기
100: simulated Satan observation training operation device
110: observation position synchronization unit
120: target image generating unit
130: training operation
140: observation equipment

Claims (14)

관측기기로부터 전송되는 위치 정보를 토대로 생성된 훈련 지역의 지형 정보로부터 선정된 다수개의 참조점을 이용하여 관측 지점을 추적하여 훈련 지역의 지형 정보 내 관측 지점을 생성하는 관측 위치 동기화부;
생성된 훈련 지역의 지형 정보 내 관측 지점과 훈련 지역의 지형 정보 내 표적 간의 변위를 측정하고, 상기 관측기기에 제공되는 표적 영상을 생성하는 표적 영상 생성부; 및
상기 관측기기로부터 전송되는 화력 유도 제원을 토대로 초탄 탄착 영상을 제공하고, 제공된 초탄 탄착 영상을 토대로 이루어진 상기 관측기기의 사용자의 사격 결과 영상을 제공하는 훈련 운용부;
를 포함하고,
상기 관측 위치 동기화부는,
상기 관측기기로부터 전송되는 위치 정보를 토대로 훈련 지역의 지형 정보를 생성하는 훈련 지형 정보 생성부;
생성된 훈련 지역의 지형 정보를 토대로 다수개의 참조점을 선정하는 참조점 선정부;
선정된 참조점을 토대로 상기 관측기기에서 측정된 참조점 정보를 기반으로 관측 지점을 추적하는 관측 지점 추척부; 및
추적된 관측 지점을 토대로 훈련 지역의 지형 정보 내 관측 지점을 생성하는 관측 지점 생성부;
를 포함하고,
상기 참조점 선정부는 훈련 지역의 지형 정보와 실제 지형이 매칭되는 위치를 참조점으로 선정하고,
상기 참조점 정보는 선정된 다수개의 참조점의 거리, 방위각 및 고각 중 적어도 어느 하나를 포함하는 것을 특징으로 하는 모의 사탄 관측 훈련 운용 장치.
An observation position synchronization unit for generating an observation point in the terrain information of the training area by tracking the observation point using a plurality of reference points selected from the terrain information of the training area generated based on the position information transmitted from the observation device;
A target image generator for measuring a displacement between the observation point in the generated terrain information of the training area and the target in the terrain information of the training area and generating a target image provided to the observation device; And
A training operation unit providing a shot coal impact image based on a thermal power generation specification transmitted from the observation apparatus, and providing a shooting result image of a user of the observation apparatus made based on the provided coal impact image;
Including,
The observation position synchronization unit,
A training terrain information generator for generating terrain information of a training area based on location information transmitted from the observation device;
A reference point selecting unit which selects a plurality of reference points based on the generated terrain information of the training area;
An observation point tracking unit tracking an observation point based on reference point information measured by the observation device based on the selected reference point; And
An observation point generator for generating observation points in the terrain information of the training area based on the tracked observation points;
Including,
The reference point selector selects a location where the terrain information of the training area matches the actual terrain as a reference point,
The reference point information is simulated Satan observation training operation apparatus comprising at least one of the distance, azimuth and elevation of the selected plurality of reference points.
삭제delete 삭제delete 제1항에 있어서,
상기 표적 영상 생성부는,
생성된 훈련 지역의 지형 정보 내 표적을 생성하는 표적 생성부;
훈련 지역의 지형 정보 내 관측 지점과 훈련 지역의 지형 정보 내 표적 간의 변위를 측정하는 변위 측정부;
상기 관측기기로부터 전송되는 자세 정보를 수신하는 자세 정보 수신부; 및
수신된 자세 정보를 토대로 측정된 변위를 모사하는 표적 영상에 대한 증강 현실 컨텐츠를 생성하여 상기 관측기기에 제공하는 표적 영상 제공부;
를 포함하는 것을 특징으로 하는 모의 사탄 관측 훈련 운용 장치.
The method of claim 1,
The target image generator,
A target generator for generating a target in the terrain information of the generated training area;
A displacement measuring unit measuring a displacement between the observation point in the terrain information of the training area and the target in the terrain information of the training area;
A posture information receiver configured to receive posture information transmitted from the observation device; And
A target image providing unit generating augmented reality content for a target image simulating the displacement measured based on the received posture information and providing the augmented reality content to the observation device;
Simulated Satan observation training operating device comprising a.
제1항에 있어서,
상기 훈련 운용부는,
상기 관측기기로부터 전송되는 화력 유도 제원을 토대로 하는 초탄 탄착 영상에 대한 증강 현실 컨텐츠를 생성하여 제공하는 탄착 영상 제공부;
전송된 화력 유도 제원을 따라 생성된 초탄 탄착 영상에 대한 증강 현실 컨텐츠를 토대로 이루어진 상기 관측기기의 사용자의 사격 결과를 판단하여 상기 관측기기에 제공하는 사격 결과 판단부;
사격 결과에 따라 상기 관측기기로부터 기 전송된 화력 유도 제원이 재전송되면 표적의 피해 영상에 대한 증강 현실 컨텐츠를 생성하여 상기 관측기기에 제공하는 표적 피해 영상 제공부; 및
상기 관측기기로부터 수정된 화력 유도 제원이 전송되면 수정탄 탄착 영상에 대한 증강 현실 컨텐츠를 생성하여 제공하는 수정탄 영상 제공부;
를 포함하는 것을 특징으로 하는 모의 사탄 관측 훈련 운용 장치.
The method of claim 1,
The training operation unit,
An impact image providing unit for generating and providing augmented reality content for the coal impact image based on the thermal power generation specification transmitted from the observation device;
A shooting result determination unit for determining a shooting result of a user of the observing device based on the augmented reality content of the super-coal impaction image generated according to the transmitted thermal induction specification and providing the observation device to the observing device;
A target damage image providing unit for generating augmented reality content for a damage image of a target and providing the target damage image to the observation apparatus when the fire power source specification previously transmitted from the observation apparatus is retransmitted according to the shooting result; And
A modified shot image providing unit for generating and providing augmented reality content for the modified shot impact image when the modified thermal guidance guide is transmitted from the observation device;
Simulated Satan observation training operating device comprising a.
제1항에 있어서,
상기 관측기기는,
현재의 위치 정보를 획득하여 전송하는 위치 정보 획득부;
상기 참조점 정보를 측정하는 참조점 측정부;
현재의 자세 정보를 획득하여 전송하는 자세 정보 획득부; 및
표적 영상에 대한 증강 현실 컨텐츠가 수신되면 디스플레이부에 디스플레이하고, 상기 관측기기의 자세 변경 여부를 판단하는 자세 변경 여부 판단부;
를 포함하는 것을 특징으로 하는 모의 사탄 관측 훈련 운용 장치.
The method of claim 1,
The observation device,
A location information acquisition unit for obtaining and transmitting current location information;
A reference point measuring unit measuring the reference point information;
A posture information acquisition unit for acquiring and transmitting current posture information; And
A posture change determination unit configured to display the augmented reality content on the target image on a display unit and determine whether the posture of the observer is changed;
Simulated Satan observation training operating device comprising a.
제6항에 있어서,
상기 관측기기는,
상기 관측기기의 사용자에 의해 입력된 화력 유도 제원을 전송하는 제1 화력 유도 제원 전송부;
상기 관측기기의 사용자의 사격 결과, 표적에 명중한 것으로 판단된 경우 기 전송된 화력 유도 제원을 재전송하는 제2 화력 유도 제원 전송부; 및
상기 관측기기의 사용자의 사격 결과, 표적에 명중하지 않은 것으로 판단된 경우 상기 관측기기의 사용자에 의해 입력되는 수정된 화력 유도 제원을 전송하는 수정 화력 유도 제원 전송부;
를 포함하는 것을 특징으로 하는 모의 사탄 관측 훈련 운용 장치.
The method of claim 6,
The observation device,
A first thermal power guidance specification transmission unit configured to transmit a thermal power guidance specification input by a user of the observation device;
A second firepower guide specification transmission unit for retransmitting previously transmitted firepower guide specifications when it is determined that the target of the observation device hits the target; And
A corrected thermal power induction specification transmission unit for transmitting a modified thermal power guidance specification input by a user of the observation device when it is determined that the target of the observation device is not hit by a target;
Simulated Satan observation training operating device comprising a.
관측 위치 동기화부에 의해, 관측기기로부터 전송되는 위치 정보를 토대로 생성된 훈련 지역의 지형 정보로부터 선정된 다수개의 참조점을 이용하여 관측 지점을 추적하여 훈련 지역의 지형 정보 내 관측 지점을 생성하는 단계;
표적 영상 생성부에 의해, 생성된 훈련 지역의 지형 정보 내 관측 지점과 훈련 지역의 지형 정보 내 표적 간의 변위를 측정하고, 상기 관측기기에 제공되는 표적 영상에 생성하는 단계; 및
훈련 운용부에 의해, 상기 관측기기로부터 전송되는 화력 유도 제원을 토대로 초탄 탄착 영상을 제공하고, 제공된 초탄 탄착 영상을 토대로 이루어진 상기 관측기기의 사용자의 사격 결과 영상을 제공하는 단계;
를 포함하고,
상기 관측기기로부터 전송되는 위치 정보를 토대로 생성된 훈련 지역의 지형 정보로부터 선정된 다수개의 참조점을 이용하여 관측 지점을 추적하여 훈련 지역의 지형 정보 내 관측 지점을 생성하는 단계는,
상기 관측기기로부터 전송되는 위치 정보를 토대로 훈련 지역의 지형 정보를 생성하는 단계;
생성된 훈련 지역의 지형 정보를 토대로 다수개의 참조점을 선정하는 단계;
선정된 참조점을 토대로 상기 관측기기에서 측정된 참조점 정보를 기반으로 관측 지점을 추적하는 단계; 및
추적된 관측 지점을 토대로 훈련 지역의 지형 정보 내 관측 지점을 생성하는 단계;
를 포함하고,
상기 참조점을 선정하는 단계는, 훈련 지역의 지형 정보와 실제 지형이 매칭되는 위치를 참조점으로 선정하고,
상기 참조점 정보는 선정된 다수개의 참조점의 거리, 방위각 및 고각 중 적어도 어느 하나를 포함하는 것을 특징으로 하는 모의 사탄 관측 훈련 운용 방법.
Generating an observation point in the terrain information of the training area by tracking the observation point using a plurality of reference points selected from the terrain information of the training area generated based on the location information transmitted from the observation device by the observation position synchronization unit; ;
Measuring, by the target image generator, a displacement between the observation point in the topographic information of the training area and the target in the topographic information of the training area, and generating the target image provided to the observation device; And
Providing, by a training operator, a shot coal impact image based on a thermal induction specification transmitted from the observing device, and providing a shooting result image of a user of the observing device made based on the provided shot coal impact image;
Including,
Generating an observation point in the terrain information of the training area by tracking the observation point using a plurality of reference points selected from the terrain information of the training area generated based on the location information transmitted from the observation device,
Generating terrain information of a training area based on location information transmitted from the observation device;
Selecting a plurality of reference points based on the generated terrain information of the training area;
Tracking the observation point based on reference point information measured by the observation device based on the selected reference point; And
Generating observation points in the terrain information of the training area based on the tracked observation points;
Including,
In the selecting of the reference point, the location where the terrain information of the training area matches the actual terrain is selected as the reference point,
And the reference point information includes at least one of a distance, azimuth, and elevation of a plurality of selected reference points.
삭제delete 제8항에 있어서,
상기 관측기기로부터 전송되는 위치 정보를 토대로 생성된 훈련 지역의 지형 정보로부터 선정된 다수개의 참조점을 이용하여 관측 지점을 추적하여 훈련 지역의 지형 정보 내 관측 지점을 생성하는 단계에서,
상기 관측기기는,
현재의 위치 정보를 획득하여 전송하는 단계; 및
상기 참조점 정보를 측정하는 단계;
를 포함하는 것을 특징으로 하는 모의 사탄 관측 훈련 운용 방법.
The method of claim 8,
In the step of generating an observation point in the terrain information of the training area by tracking the observation point using a plurality of reference points selected from the terrain information of the training area generated based on the location information transmitted from the observation device,
The observation device,
Acquiring and transmitting current location information; And
Measuring the reference point information;
Simulated Satan observation training operation method comprising a.
제8항에 있어서,
생성된 훈련 지역의 지형 정보 내 관측 지점과 훈련 지역의 지형 정보 내 표적 간의 변위를 측정하고, 상기 관측기기에 제공되는 표적 영상에 생성하는 단계는,
생성된 훈련 지역의 지형 정보 내 표적을 생성하는 단계;
훈련 지역의 지형 정보 내 관측 지점과 훈련 지역의 지형 정보 내 표적 간의 변위를 측정하는 단계;
상기 관측기기로부터 전송되는 자세 정보를 수신하는 단계; 및
수신된 자세 정보를 토대로 측정된 변위를 모사하는 표적 영상에 대한 증강 현실 컨텐츠를 생성하여 상기 관측기기에 제공하는 단계;
를 포함하는 것을 특징으로 하는 모의 사탄 관측 훈련 운용 방법.
The method of claim 8,
Measuring the displacement between the observation point in the terrain information of the training area and the target in the terrain information of the training area, and generating in the target image provided to the observation device,
Generating a target in the terrain information of the generated training area;
Measuring a displacement between the observation point in the terrain information of the training area and the target in the terrain information of the training area;
Receiving attitude information transmitted from the observation device; And
Generating augmented reality content for a target image that simulates the measured displacement based on the received attitude information and providing the same to the observer;
Simulated Satan observation training operation method comprising a.
제11항에 있어서,
생성된 훈련 지역의 지형 정보 내 관측 지점과 훈련 지역의 지형 정보 내 표적 간의 변위를 측정하고, 상기 관측기기에 제공되는 표적 영상에 생성하는 단계에서,
상기 관측기기는,
현재의 자세 정보를 획득하여 전송하는 단계; 및
표적 영상에 대한 증강 현실 컨텐츠가 수신되면 디스플레이부에 디스플레이하고, 상기 관측기기의 자세 변경 여부를 판단하는 단계;
를 포함하는 것을 특징으로 하는 모의 사탄 관측 훈련 운용 방법.
The method of claim 11,
In the step of measuring the displacement between the observation point in the terrain information of the training area and the target in the terrain information of the training area, and generating in the target image provided to the observation device,
The observation device,
Acquiring and transmitting current posture information; And
Displaying augmented reality content on a target image on a display unit and determining whether the posture of the observer is changed;
Simulated Satan observation training operation method comprising a.
제8항에 있어서,
상기 관측기기로부터 전송되는 화력 유도 제원을 토대로 초탄 탄착 영상을 제공하고, 제공된 초탄 탄착 영상을 토대로 이루어진 상기 관측기기의 사용자의 사격 결과 영상을 제공하는 단계는,
상기 관측기기로부터 전송되는 화력 유도 제원을 토대로 하는 초탄 탄착 영상에 대한 증강 현실 컨텐츠를 생성하여 제공하는 단계;
전송된 화력 유도 제원을 따라 생성된 초탄 탄착 영상에 대한 증강 현실 컨텐츠를 토대로 이루어진 상기 관측기기의 사용자의 사격 결과를 판단하여 상기 관측기기에 제공하는 단계;
사격 결과에 따라 상기 관측기기로부터 기 전송된 화력 유도 제원이 재전송되면 표적의 피해 영상에 대한 증강 현실 컨텐츠를 생성하여 상기 관측기기에 제공하는 단계; 및
상기 관측기기로부터 수정된 화력 유도 제원이 전송되면 수정탄 탄착 영상에 대한 증강 현실 컨텐츠를 생성하여 제공하는 단계;
를 포함하는 것을 특징으로 하는 모의 사탄 관측 훈련 운용 방법.
The method of claim 8,
Providing a shot coal impact image based on the thermal power induction specifications transmitted from the observation device, and providing a shooting result image of the user of the observation device made based on the provided coal impact image,
Generating and providing augmented reality content for the coal briquette impact image based on the thermal power generation specification transmitted from the observation device;
Determining a shooting result of a user of the observing device based on the augmented reality content of the peat impact impact image generated according to the transmitted thermal guidance specification and providing the result to the observing device;
Generating an augmented reality content for a damage image of a target when the fire power source specification previously transmitted from the observation device is retransmitted according to a shooting result and providing the observation device to the observation device; And
Generating and providing augmented reality content for the modified shot impact image when the modified thermal guidance guide is transmitted from the observation device;
Simulated Satan observation training operation method comprising a.
제13항에 있어서,
상기 관측기기로부터 전송되는 화력 유도 제원을 토대로 초탄 탄착 영상을 제공하고, 제공된 초탄 탄착 영상을 토대로 이루어진 상기 관측기기의 사용자의 사격 결과 영상을 제공하는 단계에서,
상기 관측기기는,
상기 관측기기의 사용자에 의해 입력된 화력 유도 제원을 전송하는 단계:
상기 관측기기의 사용자의 사격 결과, 표적에 명중한 것으로 판단된 경우 기 전송된 화력 유도 제원을 재전송하는 단계; 및
상기 관측기기의 사용자의 사격 결과, 표적에 명중하지 않은 것으로 판단된 경우 상기 관측기기의 사용자에 의해 입력되는 수정된 화력 유도 제원을 전송하는 단계;
를 포함하는 것을 특징으로 하는 모의 사탄 관측 훈련 운용 방법.
The method of claim 13,
In the step of providing a peat impact image based on the thermal power induction specifications transmitted from the observation device, and providing a shooting result image of the user of the observation device made based on the provided coal impact image,
The observation device,
Transmitting a thermal power generation specification input by a user of the observation device:
Re-transmitting the previously transmitted firepower inducing specifications when it is determined that the target of the observation device hits the target; And
Transmitting a modified thermal guidance specification input by the user of the observation device when it is determined that the target of the observation device does not hit the target;
Simulated Satan observation training operation method comprising a.
KR1020170162985A 2017-11-30 2017-11-30 Apparatus and method for managing training simulation forward observation KR102011305B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170162985A KR102011305B1 (en) 2017-11-30 2017-11-30 Apparatus and method for managing training simulation forward observation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170162985A KR102011305B1 (en) 2017-11-30 2017-11-30 Apparatus and method for managing training simulation forward observation

Publications (2)

Publication Number Publication Date
KR20190063877A KR20190063877A (en) 2019-06-10
KR102011305B1 true KR102011305B1 (en) 2019-08-16

Family

ID=66847929

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170162985A KR102011305B1 (en) 2017-11-30 2017-11-30 Apparatus and method for managing training simulation forward observation

Country Status (1)

Country Link
KR (1) KR102011305B1 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101667033B1 (en) * 2010-01-04 2016-10-17 삼성전자 주식회사 Augmented reality service apparatus using location based data and method the same
KR101429341B1 (en) * 2012-07-18 2014-08-13 한국과학기술원 Method for gun shotting game using augmentation reality and mobile device and system usning the same

Also Published As

Publication number Publication date
KR20190063877A (en) 2019-06-10

Similar Documents

Publication Publication Date Title
US10030931B1 (en) Head mounted display-based training tool
US10539393B2 (en) System and method for shooting simulation
KR100914274B1 (en) Training simulation system for indirect fire weapon systems
US20090155747A1 (en) Sniper Training System
KR102037947B1 (en) Method, Apparatus and System for Training for Interworking Identification Friend or Foe
CN110865555A (en) Simulation test system and test method
US20230113472A1 (en) Virtual and augmented reality shooting systems and methods
Zhu et al. AR-Weapon: live augmented reality based first-person shooting system
AU2013254684B2 (en) 3D scenario recording with weapon effect simulation
Virca et al. Applications of Augmented Reality technology in the military educational field
EP1359386A1 (en) Laser transmitting/receiving system for shooting training, laser transmitter for shooting training, and laser receiver for shooting training
KR101386643B1 (en) Apparatus and method for weapon targeting assistant
KR102011305B1 (en) Apparatus and method for managing training simulation forward observation
Jedrasiak et al. The concept of development and test results of the multimedia shooting detection system
JP2014145531A (en) Shooting training system
CN109654946A (en) Can be observed when a kind of ball firing aiming whether accurate system and method
KR102436765B1 (en) Integrated test system and control method for CIWS
EP1643206A1 (en) Simulation system, method and computer program
KR102278838B1 (en) Simulator and method for simulating missile deployment
Lampton et al. Urban combat: The ultimate extreme environment
KR101007877B1 (en) Simulating apparatus and target for a direct weapon, and system including the sames
Nawrat et al. Multimedia firearms training system
Brookshire et al. Military vehicle training with augmented reality
WO2011075061A1 (en) Device for measuring distance to real and virtual objects
US20240005811A1 (en) Bi-directional communications for vehicle and virtual game situations

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right