KR102041461B1 - 가상 현실에서 실제 개인화기의 사격 환경을 적용하여 탄도 궤도 및 탄착점의 정밀성을 향상시키기 위한 탄착점 분석 장치 및 이를 이용한 가상 사격 훈련 시뮬레이션 - Google Patents

가상 현실에서 실제 개인화기의 사격 환경을 적용하여 탄도 궤도 및 탄착점의 정밀성을 향상시키기 위한 탄착점 분석 장치 및 이를 이용한 가상 사격 훈련 시뮬레이션 Download PDF

Info

Publication number
KR102041461B1
KR102041461B1 KR1020180130030A KR20180130030A KR102041461B1 KR 102041461 B1 KR102041461 B1 KR 102041461B1 KR 1020180130030 A KR1020180130030 A KR 1020180130030A KR 20180130030 A KR20180130030 A KR 20180130030A KR 102041461 B1 KR102041461 B1 KR 102041461B1
Authority
KR
South Korea
Prior art keywords
information
bullet
impact point
firearm
virtual
Prior art date
Application number
KR1020180130030A
Other languages
English (en)
Other versions
KR20190112618A (ko
Inventor
이병학
박석봉
이원우
김동욱
신규용
김주희
박영준
최현호
김종환
강원석
곽윤기
최홍철
김남혁
Original Assignee
육군사관학교 산학협력단
옵티머스시스템 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 육군사관학교 산학협력단, 옵티머스시스템 주식회사 filed Critical 육군사관학교 산학협력단
Priority to PCT/KR2018/014647 priority Critical patent/WO2019190019A1/ko
Priority to US17/041,009 priority patent/US20210102781A1/en
Publication of KR20190112618A publication Critical patent/KR20190112618A/ko
Application granted granted Critical
Publication of KR102041461B1 publication Critical patent/KR102041461B1/ko

Links

Images

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/26Teaching or practice apparatus for gun-aiming or gun-laying
    • F41G3/2616Teaching or practice apparatus for gun-aiming or gun-laying using a light emitting device
    • F41G3/2694Teaching or practice apparatus for gun-aiming or gun-laying using a light emitting device for simulating a target
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • G09B9/003Simulators for teaching or training purposes for military purposes and tactics
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/26Teaching or practice apparatus for gun-aiming or gun-laying
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/26Teaching or practice apparatus for gun-aiming or gun-laying
    • F41G3/2616Teaching or practice apparatus for gun-aiming or gun-laying using a light emitting device
    • F41G3/2622Teaching or practice apparatus for gun-aiming or gun-laying using a light emitting device for simulating the firing of a gun or the trajectory of a projectile
    • F41G3/2627Cooperating with a motion picture projector
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • Health & Medical Sciences (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 실공간에서 사용자가 구비하는 모형인 가상 총기의 총기 구조에 관한 총기 정보를 생성하는 총기 분석 모듈; 상기 가상 총기에 적용되는 탄자의 구조에 관한 탄자 정보를 생성하는 탄자 분석 모듈; 스크린에 출력되는 사격 훈련 콘텐츠의 환경 상태를 감지하여 이에 대한 환경 정보를 생성하는 환경 분석 모듈; 및 상기 총기 정보, 상기 탄자 정보, 및 상기 환경 정보 중 적어도 어느 하나를 참고하여, 상기 탄자가 상기 스크린에 표시되는 타겟에 탄착되는 위치에 관한 탄착점 정보를 생성하는 탄착점 생성 모듈;을 포함하는, 가상 현실에서 실제 개인화기의 사격 환경을 적용하여 탄도 궤도 및 탄착점의 정밀성을 향상시키기 위한 탄착점 분석 장치 및 이를 이용한 가상 사격 훈련 시뮬레이션 시스템에 관한 것이다.

Description

가상 현실에서 실제 개인화기의 사격 환경을 적용하여 탄도 궤도 및 탄착점의 정밀성을 향상시키기 위한 탄착점 분석 장치 및 이를 이용한 가상 사격 훈련 시뮬레이션{DEVICE FOR ANALYZING IMPACT POINT IMPROVING THE ACCURACY OF BALLISTIC AND IMPACT POINT BY APPLYING THE SHOOTING ENVIRONMENT OF ACTUAL PERSONAL FIREARM ING VIRTUAL REALITY AND VITUAL SHOOTING TRAINING SIMULATION USING THE SAME}
본 발명은 가상 현실의 사격 훈련에, 실제 개인화기의 사격 환경을 적용하여 실제 환경과 동일한 탄도 궤도 및 탄착점을 산출할 수 있는 장치 및 이를 이용한 사격 훈련 시뮬레이션 시스템에 관한 것이다.
일반적으로 사격 훈련은 실제 총기를 구비하고, 대상체에 대하여 실탄을 발사하여 명중 여부에 대한 평가를 실시하여 이루어질 수 있다.
하지만, 이와 같은 실제 사격 훈련은 총기의 관리 문제나, 실탄 훈련의 위험성 및 장소 마련의 어려움 등에 의해 많은 제약을 받는다. 특히, 실탄을 운용하는 군대와 같은 특수 집단에서도 탄피 관리의 문제 및 운용 비용의 문제에 의해 훈련 횟수나 훈련 방식의 제약이 발생하는 것이 현실이다.
이와 같은 문제점을 해소하기 위해서 최근에는 가상 현실에서 사격 훈련이 이루어지는 가상 사격 훈련 시뮬레이션이 개발되어 이용되고 있다.
가상 사격 훈련 시뮬레이션은, 사용자가 가상의 총기를 구비하고, 스크린에 출력되는 대상체에 대하여 모의 격발을 실시하면, 해당 격발 방향에 따라 대상체에 대한 타격이 이루어진다. 따라서, 실제 총기 및 실탄과 같은 장비와 사격 장소가 필요치 않게 되므로, 훈련의 위험성, 횟수, 장소 등에 대한 제약에서 벗어날 수 있다.
하지만, 가상 사격 훈련 시뮬레이션은 전자적인 프로세스에 의해 가상으로 이루어짐에 따라 실제 사격 훈련과의 괴리감을 가질 수 있다.
특히, 가상 사격 훈련 시뮬레이션의 탄도 궤도 및 이에 따른 탄착점이 실제 사격 훈련과 상이하게 적용되고 있다. 다시말해, 현재 운용되고 있는 가상 사격 훈련 시뮬레이션은 가상 총기에서 발사되는 탄자의 질점(Center Of Mass)이 단순 병진 운동한다고 가정된다. 즉, 가상 사격에서는 탄자가 다양한 운동 법칙 및 환경에 대하여 영향을 받지 않는다는 가정하에 탄도 궤도 및 탄착점이 형성됨에 따라, 실제 사격 훈련에서 발생되는 탄도 궤도 및 탄착점과는 차이가 발생하고 있다.
이와 같은 탄도 궤도 및 이에 따른 탄착점의 괴리가 발생하는 경우, 사격 훈련의 효율성이 급격히 저하되어 실전에서 가상 사격 훈련 결과를 반영하지 못하는 문제점을 가짐으로 이에 대한 대응 방안이 요구된다.
본 발명의 목적은 총기 및 탄자의 종류와 환경 요소를 반영하여 가상 사격에서 발생되는 탄도 궤도와 탄착점의 현실성을 보다 향상시킬 수 있는 가상 현실에서 실제 개인화기의 사격 환경을 적용하여 탄도 궤도 및 탄착점의 정밀성을 향상시키기 위한 탄착점 분석 장치 및 이를 이용한 가상 사격 훈련 시뮬레이션 시스템을 제공하는 것이다.
상기한 과제를 실현하기 위한 본 발명의 일 실시예와 관련된 가상 현실에서 실제 개인화기의 사격 환경을 적용하여 탄도 궤도 및 탄착점의 정밀성을 향상시키기 위한 탄착점 분석 장치는, 실공간에서 사용자가 구비하는 모형인 가상 총기의 총기 구조에 관한 총기 정보를 생성하는 총기 분석 모듈; 상기 가상 총기에 적용되는 탄자의 구조에 관한 탄자 정보를 생성하는 탄자 분석 모듈; 스크린에 출력되는 사격 훈련 콘텐츠의 환경 상태를 감지하여 이에 대한 환경 정보를 생성하는 환경 분석 모듈; 및 상기 총기 정보, 상기 탄자 정보, 및 상기 환경 정보 중 적어도 어느 하나를 참고하여, 상기 탄자가 상기 스크린에 표시되는 타겟에 탄착되는 위치에 관한 탄착점 정보를 생성하는 탄착점 생성 모듈;을 포함할 수 있다.
여기서, 상기 총기 정보는, 총기 종류 정보, 총열 길이 정보, 및 총기 강성 정보를 포함하고, 상기 탄자 정보는, 탄자 종류 정보, 탄자 질량 정보, 탄자 외형 정보, 및 탄자 압력 중심 정보를 포함할 수 있다.
여기서, 상기 탄착점 생성 모듈은, 상기 총기 정보 및 상기 탄자 정보를 참고하여, 상기 가상 총기 내에서 상기 탄자의 운동 정보에 관한 제1 탄자 운동 정보를 생성할 수 있다.
여기서, 상기 제1 탄자 운동 정보는, 하기의 수학식1 및 수학식2에 의해 산출되는 가상 현실에서 실제 개인화기의 사격 환경을 적용하여 탄도 궤도 및 탄착점의 정밀성을 향상시키기 위한 탄착점 분석 장치.
[수학식 1]
Figure 112018106796394-pat00001
(
Figure 112018106796394-pat00002
: 제1 탄자 운동 정보,
Figure 112018106796394-pat00003
: 탄자 무게,
Figure 112018106796394-pat00004
: 탄자 속도,
Figure 112018106796394-pat00005
: 관성 모멘트,
Figure 112018106796394-pat00006
: 탄자 회전 각속도)
[수학식 2]
Figure 112018106796394-pat00007
(
Figure 112018106796394-pat00008
:미세 입자 질량,
Figure 112018106796394-pat00009
: 회전 중심축으로부터 미세 질량까지 직선길이,
Figure 112018106796394-pat00010
: 회전 중심축으로부터 물체 최대 직선 길이)
여기서, 상기 환경 정보는, 상기 사격 훈련 콘텐츠에 포함되는 대기의 온도 정보, 밀도 정보, 압력 정보, 풍향 정보, 풍속 정보, 및 중력 정보를 포함할 수 있다.
여기서, 상기 탄착점 생성 모듈은, 상기 제1 탄자 운동 정보와 상기 환경 정보를 참고하여, 상기 가상 총기와 상기 타겟 사이에서 이동되는 상기 탄자의 운동 정보에 대한 제2 탄자 운동 정보를 생성할 수 있다.
여기서, 제2 탄자 운동 정보는, 하기의 수학식3에 의해 산출될 수 있다.
[수학식 3]
제2 탄자 운동 정보(
Figure 112018106796394-pat00011
,
Figure 112018106796394-pat00012
) =
Figure 112018106796394-pat00013
(
Figure 112018106796394-pat00014
: 탄자의 X축에 작용하는 힘,
Figure 112018106796394-pat00015
: 탄자의 Y축에 작용하는 힘,
Figure 112018106796394-pat00016
: 항력 계수,
Figure 112018106796394-pat00017
: 공기밀도,
Figure 112018106796394-pat00018
: 탄자 직경,
Figure 112018106796394-pat00019
: 공기 중 탄자의 속도,
Figure 112018106796394-pat00020
: 중력 가속도)
여기서, 상기 탄착점 생성 모듈은, 상기 제1 탄자 운동 정보 및 상기 제2 탄자 운동 정보와 상기 타겟의 위치 및 구조에 관한 타겟 정보를 참고하여 상기 탄착점 정보를 생성할 수 있다.
여기서, 상기 탄자가 상기 가상 총기에서 상기 타겟까지 이동되는 시간에 관한 탄착 시간 정보를 생성하는 시간 분석 모듈을 더 포함하고, 상기 탄착점 생성 모듈은,상기 탄착 시간 정보를 참고하여 상기 탄착점 정보를 생성할 수 있다.
여기서, 상기 탄착점 생성 모듈은, 상기 탄착 시간 정보를 참고하여 상기 탄착점 정보를 생성할 수 있다.
상기한 과제를 실현하기 위한 본 발명의 다른 실시예에 따른 실공간을 반영한 영상 보정 및 탄착점 정밀성 향상을 위한 가상 사격 훈련 시뮬레이션 시스템에 의하면, 실공간에서 사격 훈련 콘텐츠가 출력되는 스크린을 기준으로, 사용자와 상기 사용자가 구비한 모형인 가상 총기를 감지하여 이에 대한 영상 정보인 대상체 영상 정보를 생성하기 위한 영상 감지 장치; 상기 대상체 영상 정보를 분석하여 기준 위치에서 감지된 기준 영상 정보와, 상기 기준 위치에서 변화된 위치인 변화 위치에서 감지된 변화 영상 정보를 비교하여 이에 대한 결과값으로 보정 정보를 생성하고, 상기 보정 정보를 상기 변화 영상 정보에 반영한 보정 영상 정보를 생성하기 위한 영상 보정 장치; 및 상기 가상 총기의 구조에 관한 총기 정보, 상기 가상 총기에 적용되는 탄자의 구조에 관한 탄자 정보, 및 상기 사격 훈련 콘텐츠의 환경 상태에 관한 환경 정보를 참고하여 상기 탄자가 상기 스크린에 표시되는 타겟에 탄착되는 위치에 관한 탄착점 정보를 생성하기 위한 탄착점 분석 장치;를 포함할 수 있다.
여기서, 상기 영상 보정 장치는, 상기 실공간에서 감지되는 상기 스크린에 대한 대상체인 상기 사용자 및 상기 가상 총기의 위치 정보가 기설정된 기준 위치인 기준 위치 정보를 포함하는 경우, 상기 기준 위치 정보에 대응되는 영상인 상기 기준 영상 정보를 생성하는 기준 영상 모듈; 상기 대상체의 이동에 의해 기준 위치에서 변화 위치로 변화되고 이에 대한 변화 위치 정보가 감지되는 경우, 상기 변화 위치 정보에 대응되는 영상인 변화 영상 정보를 생성하는 변화 영상 모듈; 및 상기 기준 위치 정보 및 상기 변화 위치 정보를 비교하여 이에 대한 결과값으로 상기 보정 정보를 생성하고, 상기 보정 정보를 상기 변화 영상 정보에 반영한 보정 영상 정보를 생성하는 보정 모듈;을 포함할 수 있다.
여기서, 상기 기준 위치 정보는, 상기 스크린의 좌표값인 스크린 좌표 정보, 및 상기 영상 감지 장치에 의해 최초 설정되는 상기 실공간에서의 기준 위치에 대한 좌표값인 기준 좌표 정보, 및 상기 실공간에 배치되는 측정 장치의 측정 위치에서 상기 스크린 좌표 정보와의 위치 관계를 참고하여 생성될 수 있다.
여기서, 상기 스크린 좌표 정보는, 상기 스크린의 둘레 영역에 대응되는 스크린 기준 좌표 정보 및 상기 스크린의 내부 영역 중 서로 다른 위치에 이격되는 복수의 좌표에 관한 스크린 임시 좌표 정보를 포함하고, 상기 측정 장치는, 상기 스크린 임시 좌표 정보에 대응되는 입력 정보가 입력되는 경우, 상기 측정 위치에서 상기 스크린 임시 좌표 정보와의 위치 관계에 관한 측정/스크린 위치 정보를 생성하고, 상기 측정 위치에서 상기 기준 좌표 정보와의 위치 관계에 관한 측정/기준 위치 정보를 생성하여, 각각을 상기 기준 영상 모듈에 전송하고, 상기 기준 영상 모듈은, 상기 측정/스크린 위치 정보와 상기 스크린 기준 좌표 정보를 매칭하여 이들의 상관관계에 관한 제1 기준 관계 정보를 생성하고, 상기 측정/스크린 위치 정보와 상기 측정/기준 위치 정보를 참고하여 이들의 상관관계에 관한 제2 기준 관계 정보를 생성하고, 상기 제1 기준 관계 정보 및 상기 제2 기준 관계 정보를 참고하여 상기 측정/기준 위치 정보와 상기 스크린 기준 좌표 정보의 상관관계에 관한 제3 기준 관계 정보를 생성할 수 있다.
여기서, 상기 위치 정보는, 상기 실공간에서 상기 대상체의 위치에 관한 좌표값인 대상체 좌표 정보를 포함하고, 상기 보정 모듈은, 상기 대상체 좌표 정보와 대응되도록 상기 기준 영상 정보의 좌표값인 기준 좌표 정보 및 상기 변화 영상 정보의 좌표값인 변화 좌표 정보를 생성할 수 있다.
여기서, 상기 보정 모듈은, 상기 변화 위치에서 상기 변화 좌표 정보를 상기 기준 좌표 정보에 매칭되도록 상기 보정 정보를 생성할 수 있다.
여기셔, 상기 보정 모듈은, 상기 보정 정보를 참고하여, 상기 보정 정보에 포함되는 상기 보정 영상 정보의 좌표 정보인 보정 좌표 정보가, 상기 스크린의 기준 좌표값인 스크린 좌표 정보에 포함되지 않는 경우, 상기 스크린 화면 비율에 관한 스크린 정보를 재설정하여 이를 상기 보정 영상 정보에 반영할 수 있다.
여기서, 상기 기준 영상 정보는, 상기 기준 위치에서 상기 대상체 좌표 정보와, 상기 기준 좌표 정보의 중심 점에 해당되는 중심 좌표 정보가 동일 선상에 위치하도록 형성되는 영상 정보일 수 있다.
여기서, 변화 영상 정보는, 상기 변화 위치에서 상기 대상체 좌표 정보와, 상기 변화 좌표 정보의 중심점에 해당되는 중심 좌표 정보가 동일 선상에 위치하도록 형성되는 영상 정보일 수 있다.
여기서, 상기 기준 영상 정보 및 상기 변화 영상 정보는, 동일한 상기 중심 좌표 정보를 갖도록 형성되며, 상기 기준 좌표 정보는, 상기 기준 영상 정보에서 상기 스크린의 둘레에 대응되는 기준 둘레 좌표 정보를 포함하고, 상기 변화 영상 정보는, 상기 변화 영상 정보에서 상기 스크린의 둘레에 대응되는 변화 둘레 좌표 정보를 포함할 수 있다.
여기서, 상기 보정 모듈은, 상기 변화 위치에서 상기 기준 둘레 좌표 정보와 각각 직선으로 연결되는 가상 라인에 대한 기준 라인 정보와, 상기 기준 라인 정보와 상기 변화 영상 정보의 변화 좌표 정보의 교차점에 관한 교차 좌표 정보를 각각 생성할 수 있다.
*여기서, 보정 모듈은, 상기 기준 라인 정보와 상기 변화 좌표 정보의 교차점이 없는 경우, 상기 변화 좌표 정보를 직선 방향으로 연장한 변화 연장 좌표 정보를 생성하고, 상기 변화 연장 좌표 정보와 상기 기준 라인 정보와의 비교를 통해 상기 교차 좌표 정보를 산출할 수 있다.
여기서, 상기 보정 모듈은, 상기 교차 좌표 정보를 상기 기준 영상 정보에 매칭되도록 하기의 수학식4에 의해 보정되는 제1 보정 좌표 정보를 산출하여 상기 보정 영상 정보를 생성할 수 있다.
[수학식 4]
제1 보정 좌표 정보(
Figure 112018106796394-pat00021
,
Figure 112018106796394-pat00022
)
Figure 112018106796394-pat00023
(
Figure 112018106796394-pat00024
: 제1 보정 좌표 정보의 X값,
Figure 112018106796394-pat00025
: 제1 보정 좌표 정보의 Y값,
Figure 112018106796394-pat00026
: 기준 영상 정보의 너비,
Figure 112018106796394-pat00027
: 교차 좌표 정보의 X값,
Figure 112018106796394-pat00028
: 변화 영상 정보의 너비,
Figure 112018106796394-pat00029
: 기준 영상 정보의 높이,
Figure 112018106796394-pat00030
: 교차 좌표 정보의 Y값,
Figure 112018106796394-pat00031
: 변화 영상 정보의 높이)
여기서, 상기 보정 모듈은, 상기 제1 보정 좌표 정보가 상기 스크린 좌표 정보에 포함되지 않는 경우, 확대된 상기 스크린 정보를 적용하여 하기의 수학식5에 의해 제2 보정 좌표 정보를 산출하여 상기 보정 영상 정보를 생성할 수 있다.
[수학식 5]
제2 보정 좌표 정보(
Figure 112018106796394-pat00032
,
Figure 112018106796394-pat00033
)
Figure 112018106796394-pat00034
(
Figure 112018106796394-pat00035
: 제2 보정 좌표 정보의 X값,
Figure 112018106796394-pat00036
: 제 보정 좌표 정보의 Y값,
Figure 112018106796394-pat00037
: 제1 보정 좌표 정보의 X값,
Figure 112018106796394-pat00038
: 제1 보정 좌표 정보의 Y값,
Figure 112018106796394-pat00039
: 스크린 증가 비율)
상기와 같이 구성되는 본 발명의 가상 현실에서 실제 개인화기의 사격 환경을 적용하여 탄도 궤도 및 탄착점의 정밀성을 향상시키기 위한 탄착점 분석 장치 및 이를 이용한 가상 사격 훈련 시뮬레이션 시스템에 의하면, 실제 사격과 유사한 탄착점을 생성할 수 있어 가상 사격 훈련의 훈련 효율을 보다 향상시킬 수 있다.
또한, 실공간에서의 사용자 시점 변화에 따라 가상 공간의 시점 변화도 동일하게 이루어짐으써, 실공간과 가상 공간의 시점 매칭도를 보다 향상시킬 수 있다.
또한, 또한, 변경된 시점이 기존 스크린에 적용된 좌표를 벗어나는 경우, 해당 좌표를 포함할 수 있도록 스크린 영상 비율을 자동으로 조절하여 영상 왜곡을 최소화시킬 수 있다.
도 1은 본 발명의 일 실시예에 따른 탄착점 분석 장치(100)의 동작 방법을 설명하기 위한 개념도이다.
도 2는 본 발명의 일 실시예에 따른 탄착점 분석 장치(100)의 모듈 구성을 설명하기 위한 블록도이다.
도 3은 본 발명의 일 실시예에 따른 가상 총기(F)의 총열 길이에 대하여 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시예에 따른 탄자(B)의 종류 및 구조에 대하여 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시예에 따른 스크린(S)상에 출력되는 사격 훈련 콘텐츠의 환경 정보를 설명하기 위한 도면이다.
도 6은 본 발명의 일 실시예 따른 탄자(B)의 이동 시간에 따른 탄착점의 변화를 보정하는 방법을 설명하기 위한 도면이다.
도 7은 본 발명의 일 실시예에 따른 탄자(B)의 곡사포 이동 방식을 설명하기 위한 도면이다.
도 8은 본 발명의 다른 실시예에 따른 가상 사격 훈련 시뮬레이션 시스템(10)의 이용 방법을 설명하기 위한 개념도이다.
도 9는 도 8의 가상 사격 훈련 시뮬레이션 시스템(10)에 포함된 영상 보정 장치의 구성을 설명하기 위한 블록도이다.
도 10은 도 8의 가상 사격 훈련 시뮬레이션 시스템(10)의 동작 방법을 설명하기 위한 흐름도이다.
도 11 내지 도 16은 도 10의 동작 방법을 각 단계별 이미지로 설명하기 위한 도면이다.
도 17 및 도 18는 본 발명의 일 실시예에 따른 탄도 궤도를 도출 방법을 설명하기 위한 도면이다.
도 19는 본 발명의 일 실시예에 따른 탄도 궤도에 따라 변경되는 탄착점을 설명하기 위한 도면이다.
이하, 본 발명의 바람직한 실시예에 따른 가상 현실에서 실제 개인화기의 사격 환경을 적용하여 탄도 궤도 및 탄착점의 정밀성을 향상시키기 위한 탄착점 분석 장치 및 이를 이용한 가상 사격 훈련 시뮬레이션 시스템에 대하여 도면을 참조하여 상세히 설명한다. 본 명세서에서는 서로 다른 실시예라도 동일·유사한 구성에 대해서는 동일·유사한 참조번호를 부여하고, 그 설명은 처음 설명으로 갈음한다.
도 1은 본 발명의 일 실시예에 따른 탄착점 분석 장치(100)의 동작 방법을 설명하기 위한 개념도이다.
도 1에 도시된 바와 같이, 실공간에는 실제 총기에 대응되는 모형 총기인 가상 총기(F)를 구비한 사용자(U)가 스크린(S)에 대하여 위치될 수 있다.
스크린(S)은, 가상 현실에서 실시되는 사격 훈련과 관련된 프로그램인 사격 훈련 콘텐츠를 출력할 수 있다.
사격 훈련 콘텐츠는, 다양한 지형과 환경에서 사격의 대상이 되는 타겟(T)이 선택적으로 위치하거나 이동이 가능하게 생성 및 소멸되는 가상 현실에 사격 훈련 프로그램일 수 있다. 이와 같은 사격 훈련 콘텐츠는 통신 모듈을 통해 웹사이트와 같은 외부 서버나 외부 단말기로부터 수신되어 메모리 모듈에 저장될 수 있다.
가상 총기(F)는, 사격 훈련 콘텐츠와 연동 가능한 모형의 총기일 수 있다. 형상은 실제 총기와 동일하게 형성될 수 있으며, 방아쇠를 당기는 격발 시, 격발 정보를 생성할 수 있다. 따라서, 사격 훈련 콘텐츠는 본 실시예에서 도시하지 않은 비전 감지 모듈을 통해 가상 총기(F)의 위치 정보 및 방향 정보가 수신되면 이를 스크린(S)에 출력되는 사격 훈련 콘텐츠에 반영시킬 수 있다. 또한, 가상 총기(F)로부터 격발 정보가 수신되면, 해당 격발 정보 시의 가상 총기(F) 위치 정보 및 방향 정보를 참고하여 이를 사격 훈련 콘텐츠에 반영할 수도 있다.
이와 같은 가상 총기(F)는 비전 마커와 같은 부재를 총구나 몸체 등에 부착하여, 비전 감지 모듈이 비전 마커를 감지하여 가상 총기(F)의 위치 및 방향에 관한 정보를 생성할 수 있다. 또한, 비전 감지 모듈은 가상 총기(F)의 이미지 정보를 실시간으로 감지하고, 감지된 이미지 정보를 메모리 모듈에 저장된 기준값인 기준 이미지 정보와 비교하여 가상 총기(F)의 위치 및 방향에 관한 정보를 생성할 수도 있다.
비전 감지 모듈은, 상술한 방법을 통해 사용자(U)의 위치 및 방향을 감지하여 이에 대한 정보를 생성할 수 있다.
이와 같이, 구성된 환경에서 탄착점 분석 장치(100)는 가상 총기(F)의 총기 구조에 관한 총기 정보, 가상 총기(F)에 적용된 탄자(B)의 구조에 관한 탄자 정보, 및 사격 훈련 콘텐츠의 환경 상태에 관한 환경 정보 중 적어도 어느 하나를 참고하여 탄도 궤도와 이에 따른 타겟에 대한 탄착 위치에 관한 정보인 탄착점 정보를 생성할 수 있다.
기존 사격 훈련 시뮬레이션에서는 가상 총기(F)를 통해 스크린(S)를 향해 격발하는 경우, 스크린(S)에 레이저로 표시된 부분을 제1 탄착점(A1)으로 곧바로 인식하였다. 다시말해, 본 실시예에서처럼 기존 사격 훈련 시뮬레이션은 가상 총기(F)와 스크린(S) 사이의 거리, 및 탄도에 실제로 영향을 미치는 요소들을 배제하고, 일직선으로 형성되는 제1 탄도 궤도(T1)와 이에 따른 제1 탄착점(T1)을 갖는다고 설계되었다.
하지만, 실제 사격 시에는 총기와 타겟(T) 사이의 거리, 총기의 구조, 탄자의 구조, 사격 환경 등에 의해 탄도 궤도 및 탄착점의 변화가 발생한다. 따라서, 사격 훈련 콘텐츠가 실제 사격 훈련에 최대한 유사성을 갖기 위해서는 상술한 변수들을 모두 고려할 필요가 있다.
따라서, 본 실시예의 탄착점 분석 장치(100)는 사용자(U)가 구비하는 가상 총기(F)의 구조에 관한 총기 정보, 해당 가상 총기(F)에 적용되는 탄자(B)의 구조에 관한 탄자 정보, 스크린(S)에 출력되는 사격 훈련 콘텐츠의 풍향/풍속 정보(W), 기압 정보(H), 중력 정보(G), 온도 정보(TP) 등을 모두 고려한 탄착점 정보를 생성할 수 있다. 그 결과 기존 사격 훈련 시뮬레이션에서 생성되는 직선 구조의 탄도 궤도인 제1 탄도 궤도(T1) 및 그에 따른 제1 탄착점(A1)과는 달리, 곡선을 갖는 탄도 궤도인 제2 탄도 궤도(T2) 및 제2 탄착점(A2)을 산출할 수 있다. 본 실시예의 제2 탄도 궤도(T2) 및 제2 탄착점(A2)은 설명의 예시를 위해 가공으로 도시되었으며, 각종 요소들의 조건에 따라 제2 탄도 궤도(T2) 및 제2 탄착점(A2)은 변경될 수 있다.
이때, 탄착점 분석 장치(100)는 실공간에서 가상 총기(F)에서 스크린(S)까지의 실제 거리인 제1 탄자 이동 거리 정보(D1)와, 스크린(S)에 표시된 가상 현실인 사격 훈련 콘텐츠 상에서 타겟(T)까지의 가상 거리인 제2 탄자 이동 거리 정보(D2)를 수신하여 이들이 결합된 거리를 탄자 이동 거리 정보(D)로 적용하여 탄착점 정보를 생성할 수 있다. 다시말해, 제1 탄자 이동 거리 정보(D1)는 실공간에서의 가상 총기(F)와 스크린(S)까지의 실제 거리이며, 제2 탄자 이동 거리 정보(D2)는 가상 현실인 사격 훈련 콘텐츠에서 타겟(T)까지의 가상 거리이다. 따라서, 탄자 이동 거리 정보(D)는 실공간에서의 거리와, 가상 공간에서의 거리를 모두 반영하여 산출될 수 있다. 예를 들면, 실공간에서의 거리가 2m이고, 가상 공간에서의 타겟(T)까지의 거리가 5m인 경우, 탄자 이동 거리 정보(D)는 총 7m가 된다. 이에, 탄착점 분석 장치(100)는 탄자 이동 거리 정보(D)가 7m인 경우를 적용하여 탄착점 정보를 생성할 수 있다.
이와 같은 탄착점 분석 장치(100)에 의하면, 실제 사격 환경에서 변수로 적용되는 다양한 요소들에 관한 정보들을 모두 적용하여 탄도 궤도 및 이에 따른 탄착점을 산출함에 따라, 탄착점의 정밀성 및 신뢰성을 보다 향상시킬 수 있다.
이상은, 탄착점 분석 장치(100)의 동작 방법에 대하여 간략하게 설명하였다. 도 2에서는 탄착점 분석 장치(100)의 구성들에 대하여 구체적으로 설명하도록 한다.
도 2는 본 발명의 일 실시예에 따른 탄착점 분석 장치(100)의 모듈 구성을 설명하기 위한 블록도이고, 도 3은 본 발명의 일 실시예에 따른 가상 총기(F)의 총열 길이에 대하여 설명하기 위한 도면이고, 도 4는 본 발명의 일 실시예에 따른 탄자(B)의 종류 및 구조에 대하여 설명하기 위한 도면이고, 도 5는 본 발명의 일 실시예에 따른 스크린(S)상에 출력되는 사격 훈련 콘텐츠의 환경 정보를 설명하기 위한 도면이고, 도 6은 본 발명의 일 실시예 따른 본 발명의 일 실시예에 따른 탄자(B)의 이동 시간에 따른 탄착점의 변화를 보정하는 방법을 설명하기 위한 도면이다.
먼저 도 2에 도시된 바와 같이, 탄착점 분석 장치(100)는 총기 분석 모듈(110), 탄자 분석 모듈(120), 환경 분석 모듈(130), 비전 감지 모듈(140), 거리 분석 모듈(150), 시간 분석 모듈(160), 및 탄착점 생성 모듈(170)을 포함할 수 있다.
총기 분석 모듈(110)은, 실공간에서 사용자(U)가 구비하는 모형인 가상 총기(F)의 총기 구조에 관한 총기 정보를 생성할 수 있다.
총기 정보는, 가상 총기(F)의 물리적인 구조에 관한 정보로 총기 종류 정보, 총열 길이 정보, 및 총기 강성 정보를 포함할 수 있다. 예컨데, 총기 종류 정보에는 K2, K1, M16, AK47, K5, 및 M16A4 등 시중에 존재하는 총기의 종류에 관한 정보 등이 포함될 수 있다. 이때, 총기 종류 정보는 가상 총기(F)에 부착되는 비전 마커를 인식하여 생성되거나, 비전 감지 모듈(140)을 통해 총기의 이미지 정보를 인식하여 해당 이미지 정보와 메모리 모듈 또는 외부 서버에 저장된 총기 종류 테이블을 매칭하여 생성될 수도 있다.
총열 길이 정보는, 도 3에서처럼 가상 총기(F)에서 탄자(B)가 발사될 때 통과하게 되는 소화기의 금속관 부분의 길이 정보일 수 있다. 따라서, 총열 길이 정보는 총기 종류에 따라 모두 다르게 설정될 수 있다. 도 3에서는 K2(F1)의 총열 길이가 제1 총열 길이(FD1)인 경우, M16(F2)의 총열 길이는 제1 총열 길이(FD1)보다 더 긴 제2 총열 길이(FD2)를 가질 수 있다. 총열 길이에 따라 탄자(B)의 회전량과 같은 운동 정보가 다르게 생성되므로 이에 대한 정보 확보가 필요할 수 있다.
총기 강성 정보는, 총열 안쪽인 총강의 나선형 홈에 관한 정보로, 탄자(B)는 나선형 홈을 따라 회전하여 회전 관성을 가지게 되고 이로 인해 안정된 탄도를 가질 수 있다. 일반적으로 탄자(B)가 무겁고 길수로 더 많은 회전을 주어야 탄도가 안정될 수 있다. 이러한 총기 강성 정보는, 강성 유무에 대한 정보, 강선의 회전 방향에 대한 정보, 강선의 수에 대한 정보 등을 포함할 수 있다.
탄자 분석 모듈(120)은, 가상 총기(F)에 적용되는 총알인 탄자(B)의 구조에 관한 탄자 정보를 생성할 수 있다.
탄자 정보는, 탄자 종류 정보, 탄자 길이 정보, 탄자 질량 정보, 탄자 외형 정보, 및 탄자 압력 중심 정보 등을 포함할 수 있다. 다시말해, 탄자 분석 모듈(120)은, 총기 종류 정보가 생성되어 수신되면, 이를 메모리 모듈 또는 외부 서버에 저장된 총기별 탄자(B)에 대한 탄자 테이블 정보를 참고하여 해당 총기에 대응되는 탄자 정보를 생성할 수 있다. 이렇게 탄자 정보가 자동으로 생성될 수도 있으나, 도시하지 않은 사용자(U) 입력 모듈은 통해 탄자 정보가 입력될 수도 있다. 사용자(U) 입력 모듈은 통해 수동 정보 입력은 탄자(B)에 한정된 것이 아니라, 총기 정보의 생성에도 적용될 수 있다.
탄자 정보는 도 4에서처럼 다양한 탄자(B)들에 대하여 이들의 형상 및 탄자(B)에 내장된 화약에 관한 정보등을 포함할 수 있다.
환경 분석 모듈(130)은, 도 5에서처럼 스크린(S)에 출력되는 사격 훈련 콘텐츠의 환경 상태를 감지하여 이에 대한 환경 정보를 생성할 수 있다.
환경 정보는, 사격 훈련 콘텐츠에서 출력되는 가상 현실에 대한 대기의 온도 정보(TP), 밀도 정보, 기압 정보(H), 풍향/풍속 정보(W), 중력 정보(G) 등을 포함할 수 있다. 뿐만아니라, 비, 눈, 우박, 태풍 등에 관한 기후 변화 정보도 포함할 수 있다.
따라서, 환경 분석 모듈(130)은 현재 스크린(S)에 출력되어 사용자(U)에게 보여지고 있는 사격 훈련 콘텐츠의 화면에서의 환경 정보를 생성하여, 실제 사격 시 다양한 환경 상황에 대한 적응 훈련이 이루어질 수 있다.
비전 감지 모듈(140)은, 사용자(U)와 가상 총기(F)의 위치 및 방향을 감지하여 이에 대한 대상체 위치 정보를 생성할 수 있다. 다시말해, 비전 감지 모듈(140)은 사용자(U)의 신체, 의복, 또는 가상 총기(F)에 부착되는 비전 마커를 감지하거나, 사용자(U)와 가상 총기(F)의 이미지 정보를 감지하여 대상체 위치 정보를 생성할 수 있다.
거리 분석 모듈(150)은, 가상 총기(F)에서 발사되는 총기가 사격 훈련 콘텐츠의 타겟(T)에 도달하기까지의 거리인 탄자 이동 거리 정보를 생성할 수 있다.
탄자 이동 거리 정보는, 탄자가 실공간에서 가상 총기(F)에서 스크린(S)까지 이동한 실제 거리인 제1 탄자 이동 거리 정보와, 가상 현실 공간인 사격 훈련 콘텐츠상에서 타겟(T)까지의 가상 거리인 제2 탄자 이동 거리 정보를 포함할 수 있다. 다시말해, 탄자 이동 거리 정보는, 실공간에서 가상 총기(F)와 스크린(S)까지의 실제 거리 정보인 제1 탄자 이동 거리 정보와, 가상 공간인 사격 훈련 콘텐츠 상에서 타겟(T)이 위치하는 가상의 거리인 제2 탄자 이동 거리 정보를 포함할 수 있다.
이를 위해 거리 분석 모듈(150)은, 비전 감지 모듈(140)을 통해 생성되는 대상체 위치 정보를 참고하여 제1 탄자 이동 거리 정보를 생성할 수 있다. 그리고, 사격 훈련 콘텐츠를 참고하여 제2 탄자 이동 거리 정보를 생성할 수 있다. 이렇게 생성되는 제1,2 탄자 거리 이동 정보를 합쳐서 탄자의 전체 이동 거리인 탄자 이동 거리 정보를 생성할 수 있다.
시간 분석 모듈(160)은, 탄자가 가상 총기(F)에서 타겟(T)까지 이동되는 시간에 관한 탄착 시간 정보를 생성할 수 있다. 기존에는 가상 총기(F)에서 스크린(S)을 향해 격발이 되는 순간 타겟(T)에 탄착점이 형성되었지만, 실제 사격에서는 타겟(T)과의 거리 및 다양한 요소 등에 의해 격발과 탄착 사이에 시간 딜레이가 발생된다. 따라서, 타겟(T)이 이동되는 경우 시간 딜레이에 의한 탄착점이 변경될 수 있다.
다시말해, 기존에는 시간 딜레이를 고려하지 않기 때문에 도 6(a)처럼 타겟(T)이 이동하는 경우에라도, 탄자(B)의 격발 순간 대한 제1 탄착점(A1)만이 형성될 수 있다. 하지만, 시간 딜레이를 고려하는 경우, 도 6(b)에서와 같이 탄자(B)가 타겟(T)을 향해 이동되는 시간에 따라, 대상체의 이동 거리가 달라져 제1 탄착점(A1)과는 다른 제2 탄착점(A2)에 탄자(B)가 탄착될 수 있다.
이를 위해, 시간 분석 모듈(160)은 거리 분석 모듈(150)을 통해 탄자 이동 거리 정보와 가상 총기(F)에서 탄자(B)가 발사되는 시간에 대한 격발 시간 정보를 통해 탄착 시간 정보를 생성할 수 있다. 또한, 시간 분석 모듈(160)은, 총기 정보, 탄자 정보, 및 환경 정보 등을 참고하여 이를 탄착 시간 정보에 적용할 수도 있다.
탄착점 생성 모듈(170)은, 상술한 구성들에 의해 생성되는 정보들을 참고하여 가상 총기(F)에서 격발된 탄자(B)가 스크린(S)에 표시되는 타겟(T)에 탄착되는 위치에 관한 탄착점 정보를 생성할 수 있다. 다시말해, 탄착점 생성 모듈(170)은 상술한 각 모듈들에서 생성된 다양한 변수 정보들을 취합하여 이들이 반영된 탄착점 정보를 생성할 수 있다.
구체적으로, 탄착점 생성 모듈(170)은 총기 정보 및 탄자 정보를 참고하여 가상 총기(F) 내에서 탄자(B)의 운동에 관한 제1 탄자 운동 정보를 생성할 수 있다.
제1 탄자 운동 정보는, 탄도의 제1 단계로 탄자(B)가 가상 총기(F) 내에서 움직이기 시작하여 총구를 떠날때까지의 운동 정보에 관한 강내 탄도 정보일 수 있다. 이를 위해 탄착점 생성 모듈(170)은, 하기의 수학식1 및 수학식2에 의해 제1 탄자 운동 정보를 생성할 수 있다. 여기서, 제1 탄자 운동 정보는 탄자의 운동 에너지 정보일 수 있다.
[수학식 1]
Figure 112018106796394-pat00040
(
Figure 112018106796394-pat00041
:제1 탄자 운동 정보,
Figure 112018106796394-pat00042
: 탄자 무게,
Figure 112018106796394-pat00043
: 탄자 속도,
Figure 112018106796394-pat00044
: 관성 모멘트,
Figure 112018106796394-pat00045
: 탄자 회전 각속도)
[수학식 2]
Figure 112018106796394-pat00046
(
Figure 112018106796394-pat00047
: 미세 입자 질량,
Figure 112018106796394-pat00048
: 회전 중심축으로부터 미세 질량까지 직선길이,
Figure 112018106796394-pat00049
: 회전 중심축으로부터 물체 최대 직선 길이)
여기서, 회전 중심축으로부터 물체 최대 직선 길이는 탄자(B)의 반지름에 관한 정보일 수 있다.
다시말해, 제1 탄동 운동 정보는 특정 종류의 탄자(B)가 가상 총기(F) 내에서 격발되는 경우, 장약 및 총기 구조에 의해 발생되는 가속도 및 회전력 정보를 포함할 수 있다.
또한, 탄착점 생성 모듈(170)은 제1 탄자 운동 정보와 환경 정보를 참고하여 가상 총기(F)와 스크린(S)에 출력되는 타겟(T) 사이에서 이동되는 탄자(B)의 운동에 관한 제2 탄자 운동 정보를 생성할 수 있다.
제2 탄자 운동 정보는, 탄자(B)가 대기 중 비행 시 환경(기압, 중력, 온도, 풍향/풍속) 등에 의해 변화되는 운동 정보에 관한 강외 탄도 정보일 수 있다. 이를 위해 탄착점 생성 모듈(170)은, 하기의 수학식3에 의해 제2 탄자 운동 정보를 생성할 수 있다.
[수학식 3]
제2 탄자 운동 정보(
Figure 112018106796394-pat00050
,
Figure 112018106796394-pat00051
)
=
Figure 112018106796394-pat00052
(
Figure 112018106796394-pat00053
: 탄자의 X축에 작용하는 힘,
Figure 112018106796394-pat00054
: 탄자의 Y축에 작용하는 힘,
Figure 112018106796394-pat00055
: 항력 계수,
Figure 112018106796394-pat00056
: 공기 밀도,
Figure 112018106796394-pat00057
: 탄자 직경,
Figure 112018106796394-pat00058
: 공기 중 탄자의 속도,
Figure 112018106796394-pat00059
: 중력 가속도)
다시말해, 제2 탄자 운동 정보는, 가상 총기(F)에서 외부로 발사되는 탄자(B)에 대하여 작용하는 저항 에너지 정보를 포함할 수 있다. 따라서, 중력 및 공기밀도 등에 의한 저항 에너지는 탄자의 진행 방향에 대한 반대방향으로 작용하는 저항 에너지가 될 수 있다.
결과적으로 제1 탄자 운동 정보는 탄자(B)가 총기 내에서의 운동 에너지에 관한 정보이고, 제2 탄자 운동 정보는 탄자(B)가 총기를 벗어난 위치에서의 운동 에너지에 관한 정보일 수 있다.
이렇게 제1,2 탄자 운동 정보가 생성되면, 탄착점 생성 모듈(170)은 가상 총기(F)에서 타겟(T)까지의 거리인 탄자 이동 거리 정보와, 타겟(T)의 위치 및 구조 정보를 참고하여 탄착점 정보를 생성할 수 있다.
타겟(T)의 위치 및 구조 정보는, 스크린(S)상에서 출력되는 사격 훈련 콘텐츠에 포함되는 타겟(T)의 위치 및 구조에 관한 정보로, 크기와 같은 면적 정보 등을 포함할 수 있고, 해당 콘텐츠로부터 이들에 관한 정보를 수신할 수 있다.
또한, 탄착점 생성 모듈(170)은 타겟(T)의 이동에 관한 타겟(T) 이동 정보와, 탄착 시간 정보를 탄착점 정보에 반영할 수도 있다. 즉, 타겟(T)의 이동이 발생되는 경우, 탄자(B)의 이동 거리에 따른 탄착 시간을 고려하여 딜레이된 시간만큼 탄착점을 보정할 수 있다.
이와 같은 구성을 갖는 탄착점 분석 장치(100)에 의하면, 총기(F), 탄자(B), 환경, 타겟(T) 등 실제 사격 환경에서 발생되는 다양한 요소들을 가상 사격 훈련에도 동일하게 적용하여, 가상 사격 훈련의 효율성을 보다 향상시킬 수 있다.
이상은, 탄착점 분석 장치(100)의 구성 및 동작에 대하여 설명하였다. 도 7에서는 탄자의 곡사포 이동 방식에 대하여 설명하도록 한다.
도 7은 본 발명의 일 실시예에 따른 탄자의 곡사포 이동 방식을 설명하기 위한 도면이다.
도시된 바와 같이, 본 발명의 탄착점 분석 장치(100)에 의하면 가상 총기(F)를 곡사포로도 활용할 수 있다.
곡사포는, 장애물(Z) 후방에 타겟(T)이 위치하는 경우 장애물을 곡사하여 타겟(T)을 명중시키는 화기의 종류이다. 따라서, 곡사포의 경우 탄자를 포물선인 곡사 탄도(T3)로 이동 가능하게 발사할 수 있다. 여기서, 장애물(Z)는 스크린(S) 상에서 평면으로 표현될 수 있으며, 탄착점 분석 장치(100)는 장애물(Z)을 사격 훈련 콘텐츠 상에서 스크린(S)로부터 장애물(Z) 사이에 거리를 적용하여 탄착점 정보를 생성할 수 있다.
기존 사격 훈련 시뮬레이션은 직선상으로 탄자를 발사함에 따라 곡사포의 기능을 구현하기 어려운 문제점이 있었다. 다시말해, 기존의 기술은 본 발명과 같이 실공간에서의 거리와, 가상 공간에서의 거리를 모두 반영하지 않을 뿐만 아니라 장애물(Z)의 가상 공간에서의 거리도 반영하지 못하므로, 곡사포의 탄착점을 정확하게 산출하지 못하는 문제점이 있다.
반면, 본 발명에서의 탄착점 분석 장치(100)는 가상 총기(F)의 격발 시, 총구 각도에 관한 총구 각도 정보를 수집할 수 있다(비전 감지 모듈(140)을 통해). 이렇게 총구 각도 정보가 수집되면 상술한 실시예들의 다양한 요소 정보들과 총구 각도 정보를 참고하여 곡사포의 탄착점에 관한 탄착점 정보를 생성할 수 있다.
예를 들면, 탄착점 분석 장치(100)는 실공간에서 가상 총기(F)에서 스크린(S)까지의 실제 거리인 제1 탄자 이동 거리 정보와, 스크린(S)에 표시된 가상 현실 공간인 사격 훈련 콘텐츠 상에서 스크린(S)로부터 타겟(T)까지의 가상 거리인 제2 탄자 이동 거리 정보를 수신하여 이들이 결합된 거리를 탄자 이동 거리 정보(D)로 적용하여 탄착점 정보를 생성할 수 있다. 이때, 탄착점 분석 장치(100)는 제1 탄자 이동 거리 정보, 제2 탄자 이동 거리 정보 및 스크린(S)상에 표시된 사격 훈련 콘텐츠상에서 스크린(S)로부터 장애물(Z)까지의 거리 / 장애물(Z)의 높이 등을 고려하여 탄착점 정보를 생성할 수 있다. 따라서 본 실시예의, 탄착점 분석 장치(100)는 사격 훈련 콘텐츠 상에서 스크린(S)상에 표시된 사격 훈련 콘텐츠상에서 스크린(S)로부터 장애물(Z)까지의 거리 / 장애물(Z)의 높이 등을 고려하여 탄자가 타켓(T)에 맞는지 여부를 판단할 수 있다.
생성된 탄착점 정보는 사격 훈련 콘텐츠에 반영하여 스크린(S)상에서 실시간으로 사용자(U)에게 출력되도록 할 수 있다.
따라서, 본 실시예의 탄착점 분석 장치(100)에 의하면 평지에서의 사격 훈련뿐 아니라 장애물(Z)에 대한 곡사포 훈련까지 실제 사격과 동일하게 진행할 수 있어, 훈련의 다양성을 보다 향상시킬 수 있다.
이상은 곡사포 훈련이 가능한 탄착점 분석 장치(100)에 관하여 설명하였다.
이하에서는, 탄착점 분석 및 실공간을 반영한 영상 보정이 적용된 가상 사격 훈련 시뮬레이션 시스템에 대하여 설명하도록 한다.
도 8은 본 발명의 다른 실시예에 따른 가상 사격 훈련 시뮬레이션 시스템의 이용 방법을 설명하기 위한 개념도이다.
도시된 바와 같이, 가상 사격 훈련 시뮬레이션 시스템(10)은 사격 훈련 콘텐츠를 이용한 가상의 사격 훈련 시뮬레이션을 구성함에 있어, 도 1 내지 도 7에서 상술한 탄착점 분석 장치와 함께 사용자(U) 및 사용자(U)가 구비하는 가상 총기(G)의 위치에 따른 영상 보정을 실시할 수 있다. 이를 위해, 시뮬레이션 시스템은, 탄착점 분석 장치(100), 영상 보정 장치(200), 영상 감지 장치(300), 및 영상 출력 장치(400) 등을 포함할 수 있다.
영상 감지 장치(300)는, 실공간에서 사용자(U)와 사용자(U)가 구비하는 가상 총기(G)와 같은 대상체(O)의 위치 정보를 감지하기 위한 수단으로 카메라와 같은 수단으로 구성될 수 있다. 이때, 영상 감지 장치(300)는 복수의 카메라로 구성되어 후술하는 스크린(S)의 상부에 결합될 수 있다. 이러한, 영상 감지 장치(300)는 대상체(O)의 화상 정보를 수집하여 이들의 위치를 감지하고 이에 대한 위치 정보를 생성할 수 있다.
탄착점 분석 장치(100)는, 도 1 내지 도 7에서 상술한 바와 같이 구성 및 동작되므로 이에 대한 추가 설명은 생략하도록 한다.
영상 보정 장치(200)는, 대상체(O)의 위치 변화에 따라 스크린에 출력되는 영상 정보를 보정하기 위한 수단일 수 있다. 다시말해, 영상 보정 장치(200)는 대상체(O)의 위치에 따라 스크린(S)에 출력되는 영상 정보(사격 훈련 콘텐츠)를 보정할 수 있다. 영상 보정 장치의 세부 구성 및 동작 방법은 도 9에서 후술하도록 한다.
영상 감지 장치(300)는, 사용자(U)의 신체, 의복, 또는 가상 총기(G)에 부착되는 비전 마커(M)(Vision Marker)를 감지하여 위치 정보를 생성할 수도 있다. 비전 마커(M)는 색상, 패턴 등을 가지는 복수로 구성될 수 있으며, 영상 감지 장치(300)는 해당 비전 마커(M)의 색상 또는 패턴 등을 감지할 수 있는 적외선 카메라로 구성될 수 있다.
또한, 본 실시예에서는 구체적으로 도시되지 않았으나, 비전 마커(M)는 근거리 통신망 태그 등으로 구성될 수도 있고, 적외선 반사 구조로 형성될 수도 있으며, 영상 감지 장치(300)는 해당 비전 마커(M)에 대응되도록 구성될 수 있다.
뿐만아니라, 대상체(O)가 구글 글라스(Google Glass)와 같은 웨어러블 단말기로 구성되는 경우, 영상 감지 장치(300)는 해당 단말기와 통신할 수 있는 구성으로 구현될 수도 있다.
여기서, 스크린(S)은 영상 정보를 출력하기 위한 수단으로, 자체 영상 출력이 가능한 디스플레이부나, 외부에서 빔 형태로 조사되는 영상을 블라인드나 롤 구조로 수광하여 출력할 수 있다. 본 실시예에서는 고정식 블라인드 구조를 예로 하여 설명하도록 하지만, 본 발명은 이에 한정된 것은 아님, 이동식, 가변식, 스크린 또는 자체 영상 출력 디스플레이부 등이 적용될 수 있다.
영상 출력 장치(400)는, 스크린(S)을 향해 영상을 출력하기 위한 수단으로, 빔 프로젝트로 구성될 수 있다. 또한, 영상 출력 장치(400)는 스크린(S)과 일체로 형성되는 디스플레이부로 구성될 수 있다.
이밖에, 사격 훈련 시뮬레이션 시스템(10)은 통신부, 사용자 입력부, 메모리부 및 이들을 전체 제어하기 위한 통합 컨트롤러인 제어부 등을 더 포함할 수 있다.
이와 같은 사격 훈련 시뮬레이션 시스템(10)에 의하면, 대상체(O)의 위치에 따라 스크린(S)에 출력되는 영상 정보를 대응되기 보정함으로써 실공간에 위치하는 대상체(O)의 시점에 대응되는 사격 훈련 콘텐츠 영상을 출력할 수 있다. 또한, 해당 사격 훈련 콘텐츠에 대한 가상 총기(G)의 사격 시, 실제 사격 훈련과 유사한 변수들을 적용함으로써 사격 훈련 효율성을 보다 향상시킬 수 있다.
이상은 사격 훈련 시뮬레이션 시스템(10)의 전체 구성에 대하여 간략하게 설명하였다. 도 9에서는 영상 보정 장치의 구성 및 동작 방법에 대하여 설명하도록 한다.
도 9는 도 8의 가상 사격 훈련 시뮬레이션 시스템에 포함된 영상 보정 장치(200)의 구성을 설명하기 위한 블록도이다.
도시된 바와 같이, 영상 보정 장치(200)는, 도 8에서 상술한 가격 훈련 시뮬레이션 시스템(10)의 영상 정보를 보정하기 위한 장치일 수 있다.
이러한 영상 보정 장치(200)는, 기준 영상 모듈(210), 변화 영상 모듈(230), 및 보정 모듈(250)을 포함할 수 있다.
기준 영상 모듈(210)은, 대상체가 실공간에서 기준 위치에 위치하여 이를 감지하는 경우, 기준 위치 정보에 대응되는 영상인 기준 영상 정보를 생성할 수 있다.
다시말해, 실공간에서 특정 영역을 기준 위치로 기설정한 상태에서 대상체의 위치가 해당 기준 위치에 위치하는 경우, 해당 기준 위치에서 대상체의 좌표 정보와 영상의 중심점 좌표 정보가 동일 선상에 위치하는 기준 영상 정보를 생성할 수 있다. 이에 따라, 대상체는 기준 영상 정보가 출력되는 경우, 영상의 중심점을 시야와 일치시킬 수 있다.
변화 영상 모듈(230)은, 대상체가 기준 위치에서 이동되는 경우, 변화된 위치인 변화 위치에 대한 변화 위치 정보를 감지하고 이에 대응되는 변화 영상 정보를 생성할 수 있다. 이때, 변화 영상 정보의 중심점 좌표 정보는 상술한 기준 영상 정보와 동일하게 대상체의 변화 좌표 정보와 동일 선상에 위치하도록 하여, 변화 위치에서도 대상체는 변화 영상 정보의 중심점을 시야와 일치시킬 수 있다.
보정 모듈(250)은, 기준 위치 정보와 변화 위치 정보의 변화값을 기초로 하여 보정 정보를 생성하고, 생성된 보정 정보를 변화 영상 정보에 반영한 보정 영상 정보를 생성할 수 있다.
변화 위치에 따라 변화 영상 정보가 생성되는 경우, 실공간인 변화 위치와 가상 공간인 변화 영상 정보 사이에는 시점의 왜곡이 발생할 수 있다. 따라서, 보정 모듈(250)은, 기준 위치 정보와 변화 위치 정보의 차이를 통해, 기준 영상 정보에서 얼마나 변화가 이루어졌는지 판단하여, 이를 변화 영상 정보에 반영함으로써 실공간과 가상 공간의 괴리를 최소화시킬 수 있다.
구체적으로, 보정 모듈(250)은 실공간에서 대상체의 위치에 관한 좌표값인 대상체 좌표 정보가 위치 정보에 포함되는 경우, 대상체의 좌표 정보와 대응되도록 기준 영상 정보의 좌표값인 기준 좌표 정보 및 변화 영상 정보의 좌표값인 변화 좌표 정보를 생성할 수 있다. 이때, 보정 모듈(250)은 대상체가 변화 위치에 위치하는 경우, 변화 좌표 정보를 기준 좌표 정보에 매칭되도록 보정 정보를 생성할 수 있다.
또한, 보정 모듈(250)은 보정 정보에 포함되는 보정 영상 정보의 좌표 정보인 보정 좌표 정보가 스크린의 기준 좌표값인 스크린 좌표 정보에 포함되지 않는 경우, 스크린 화면 비율에 관한 스크린 정보를 재설정하여 이를 반영한 보정 영상 정보를 생성할 수도 있다.
이와 같은, 영상 보정 장치(200)에 의하면, 실공간에 위치하는 대상체의 좌표 정보와 가상 공간인 기준 영상/변화 영상의 좌표 정보를 매칭하여 보정 영상 정보를 생성할뿐 아니라, 스크린의 화면 비율까지 고려하여 보정 영상 정보를 생성함으로써, 대상체의 위치 이동과 이에 따른 시점 변경에 의한 영상 왜곡 현상을 최소화할 수 있다.
이상은, 영상 보정 장치(200)의 구성 및 동작 원리에 대하여 설명하였으며, 이하에서는 영상 보정 장치(200)가 포함된 사격 훈련 시뮬레이션 시스템(10)의 전체적인 동작 방법에 대하여 순차적으로 설명하도록 한다.
도 10은 도 8의 가상 사격 훈련 시뮬레이션 시스템의 동작 방법을 설명하기 위한 흐름도이고, 도 11 내지 도 15는 도 10의 동작 방법을 각 단계별 이미지로 설명하기 위한 도면이다. 본 실시예에서 기재되는 단어들은 도 8 및 도 9에서 상술한 단어와 동일하므로 동일한 구성에 대한 도면부호는 생략하도록 한다. 또한, 탄착점 분석 장치는 도 1 내지 도 7에서 상술하였으므로, 해당 구성에 대한 설명은 생략하지만, 탄착점 분석 장치에서 생성되는 정보들은 영상 보정 장치에 의해 보정될 수 있다.
사격 훈련 시뮬레이션 시스템(도 8, 10 이하생략)은 도 8에서와 같이 구성된 상태를 가정하여 이들의 동작 방법에 대하여 기술하도록 한다.
도 3에 도시된 바와 같이, 최초 사격 훈련 시뮬레이션 시스템의 영상 보정 장치는 기준 위치 정보를 설정할 수 있다(S11).
기준 위치 정보는, 도 11에처럼 영상 보정 장치의 최초 실공간과 가상 공간을 매칭하기 위한 설정 정보일 수 있다.
구체적으로, 도시하지 않은 메모리 모듈에는 스크린(S) 전체에 대한 좌표 정보인 스크린 좌표 정보를 생성할 수 있고, 비전 감지부에 감지되는 실공간에서의 기준 위치(W)에 대한 좌표값인 기준 좌표 정보가 사전에 저장될 수 있다. 기준 좌표 정보는, 실공간의 특정 지점에 대하여 비전 감지부가 감지하는 영역의 좌표 정보일 수 있으며, 이는 사용자 입력 모듈(미도시)을 통해 입력되어 설정될 수 있다.
측정 장치(J)는, 레이저 트래커(Laser Tracker)와 같이 레이저를 조사하여 현재 위치에서 해당 특정 지점까지의 위치 관계를 생성할 수 있다.
따라서, 측정 장치(J)는 실공간의 일 위치인 측정 위치에 배치되고, 스크린(S)의 내부 영역 중 서로 다른 위치에 이격되는 복수의 좌표에 관한 스크린 임시 좌표 정보(A1, A2, A3, A4, A5)가 입력되면, 해당 스크린 임시 좌표 정보를 향해 레이저를 조사하여, 측정 위치와 스크린 임시 좌표 정보와의 위치 관계인 측정/스크린 위치 정보를 산출할 수 있다. 도 4에서는 스크린 임시 좌표 정보로 5개의 좌표 정보가 입력되었으나, 해당 좌표 개수에 한정된 것은 아니며, 좌표 개수에 상관없이 서로 다른 복수의 좌표 정보를 포함할 수 있다.
측정/스크린 위치 정보는, 스크린 임시 좌표 정보의 각 좌표에 대한 측정 위치의 거리 정보, 방향 정보, 각도 정보 등에 관한 포괄적인 위치 관계 정보를 포함할 수 있다.
이렇게 측정/스크린 위치 정보가 산출되면, 측정 장치(J)는 상술한 기준 위치를 측정하여, 측정 위치와 기준 위치인 기준 좌표 정보와의 위치 관계에 관한 측정/기준 위치 정보를 생성할 수 있다.
측정 장치(J)는, 생성된 측정/스크린 위치 정보 및 측정/기준 위치 정보를 영상 보정 장치(기준 영상 모듈)에 전송할 수 있다.
영상 보정 장치(기준 영상 모듈)은, 수신된 측정/스크린 위치 정보와 스크린(120)의 둘레 영역에 대응되는 스크린 기준 좌표 정보를 매칭하여 이들의 상관관계에 대한 제1 기준 관계 정보를 생성할 수 있다. 또한, 영상 보정 장치(기준 영상 모듈)는, 수신된 측정/스크린 위치 정보와 측정/기준 위치 정보를 서로 참고하여 이들의 상관관계에 대한 제2 기준 관계 정보를 생성할 수 있다. 이후, 영상 보정 장치(기준 영상 모듈)는 제1 기준 관계 정보와 제2 기준 관계 정보를 서로 참고하여 측정/기준 위치 정보와 스크린 기준 좌표 정보의 상관관계에 관한 제3 기준 관계 정보를 생성할 수 있다.
따라서, 영상 보정 장치(기준 영상 모듈)는 제3 기준 관계 정보를 생성함에 따라, 최초 영상 보정 장치의 화면 구성 시, 제3 기준 관계 정보에 따라 실공간과 가상 공간을 매칭시켜 이들의 위치 관계를 보다 명확하게 설정할 수 있다.
이렇게 영상 보정 장치의 초기 화면에 관한 기준 위치 정보가 설정되면 영상 감지 장치를 통해 대상체(O)의 위치 정보를 감지할 수 있다(S13).
스크린(S)이 구비된 실공간에서 기설정된 기준 위치(L1)(본 실시예에서는 스크린(S)과 정면을 향하고 일정 거리만큼 이격된 위치)에 대상체(O)가 위치하면 영상 감지 장치는 대상체(O)의 위치 정보를 감지하고, 영상 보정 장치는 메모리부에 저장된 기준 위치(L1) 정보의 포함 여부를 판단할 수 있다(S15). 이때, 영상 보정 장치(기준 영상 모듈)는 대상체(O)의 위치 정보를 제1 기준 좌표 정보로 설정하고, 제1 기준 좌표 정보에 제3 기준 관계 정보를 반영하여, 대상체(O)의 위치 정보를 기준 위치 정보로 변환할 수도 있다. 따라서, 대상체(O)는 기설정된 기준 위치에 위치하지 않아도, 자신이 위치하는 곳이 자동으로 기준 위치로 설정될 수 있다.
대상체(O)의 위치 정보는 실공간을 좌표 정보로 변환하여, 해당 좌표 정보 중 대상체(O) 좌표 정보의 비교를 통해 산출될 수 있다. 특히, 대상체(O)의 시점에 대하여 영상의 변화가 이루어져야하므로, 대상체(O)의 위치를 판단하기 위한 수단은 대상체(O)의 눈과 관련된 부위를 위치 대상으로 인식할 수 있다.
예컨데, 비전 마커를 사용자의 눈과 유사한 영역에 부착하고, 영상 감지 장치는 해당 비전 마커를 감지하여 위치 정보를 감지할 수 있다. 또한, 영상 감지 장치가 화상 인식 수단으로 구성되는 경우, 인식된 화상 정보 중 대상체(O)의 눈을 위치 정보의 기준점으로 설정할 수도 있다. 뿐만아니라, 비전 마커가 가상 총기에 부착되는 경우, 가상 총기를 기준점으로 설정할 수도 있다.
또한, 본 실시예에서 구체적으로 도시되지 않았으나, 기준 위치(L1)는 대상체(O)가 실공간에 위치한 상태에서, 입력 신호에 따라 설정될 수도 있다. 다시말해, 대상체(O)가 실공간에 위치하고, 기준 위치(L1) 입력 신호가 수신되는 경우, 제어부는 현재 대상체(O)의 위치 정보를 기준 위치(L1) 정보로 설정할 수도 있다.
이렇게 대상체(O)의 위치 정보가 대한 기준 위치(L1) 정보를 포함하는 경우, 영상 보정 장치는 해당 기준 위치(L1) 정보에 대응되는 영상인 기준 영상 정보(SP)를 생성할 수 있다(S17).
기준 영상 정보(SP)는, 대상체(O)의 실공간 좌표 정보인 대상체(O) 좌표 정보와 동일 선상에 위치하는 중심 좌표 정보를 갖는 영상일 수 있다. 다시말해, 기준 영상 정보(SP)는 대상체(O)에 의해 출력되는 콘텐츠 영상의 중심 좌표 정보를 대상체(O) 좌표 정보와 동일 선상으로 조정한 영상일 수 있다. 대상체(O) 좌표 정보는 대상체(O)의 눈과 같은 시점에 대응되는 영역 좌표이므로, 해당 좌표와 기준 영상 정보(SP)의 중심점 좌표 정보(C)가 동일 선상에 위치하는 경우, 대상체(O)는 해당 영상을 자신의 시점에서 출력되는 영상을 제공받을 수 있다.
도 12에서는 설명의 편리성을 위해 기준 영상 정보(SP)와 스크린(S)을 분리하여 도시하였으나, 실제는 기준 영상 정보(SP)가 스크린(S)에 일체화되어 나타날 수 있다.
이후, 영상 보정 장치는 대상체(O)가 기준 위치(L1)에서 변경되었는지 여부를 판단할 수 있다(S19). 이는, 영상 감지 장치를 통해 감지되는 대상체(O)의 위치 정보가, 기준 위치(L1)에서 이와 다른 변화 위치(L2)로 이동된 변화 위치(L2) 정보를 포함하는지 여부로 판단될 수 있다. 다시말해, 실공간에서의 대상체(O) 좌표 정보 변화 여부를 통해 대상체(O)의 위치 변화 여부를 판단할 수 있다.
대상체(O)가 기준 위치(L1)에서 변화 위치(L2)로 이동되면, 영상 보정 장치는 변화 위치(L2) 정보에 대응되는 영상인 변화 영상 정보(CP)를 생성할 수 있다(S21).
변화 영상 정보(CP)는, 기준 영상 정보(SP)와 대체로 동일하나 대상체(O)의 위치 정보가 기준 위치(L1)에서 변화 위치(L2)로 변화된다는 점에서 차이가 있다. 따라서, 도 13에서처럼 변화 영상 정보(CP)는, 대상체(O)의 변화 위치(L2)에서의 대상체(O) 좌표 정보와 동일 선상에 위치하는 중심점 좌표 정보(C')를 갖는 영상 정보일 수 있다. 이에 따라, 대상체(O)는, 변화 위치(L2)에서 자신의 시점에서 출력되는 변화 영상 정보(CP)를 제공받을 수 있다.
이렇게 대상체(O)는 자신의 위치 변화에 대응되는 영상을 제공받을 수 있으나, 해당 변화 영상 정보(CP)의 경우, 시점에 따른 왜곡 현상이 발생될 수 있다. 다시말해, 스크린(S)은 실제 영상이 출력하는 영역이나, 보다 현실적인 가상 공간을 구현하기 위해서는 실공간과 가상 공간 사이에 위치하는 윈도우(Window)와 같은 기능으로 구현될 수 있다. 따라서, 대상체(O)의 위치에 따라 단순히 영상 방향이 변경되는 경우에는, 대상체(O)의 시점과 차이가 발생될 수 있다. 따라서, 대상체(O)의 위치 이동 시, 이동된 변화 위치(L2)에서 기준 영상 정보(SP)와 매칭될 수 있는 보정 정보를 생성하여 반영할 필요가 있다.
이를 위해, 영상 보정 장치는 기준 위치(L1) 정보와 변화 위치(L2) 정보를 비교하여 이에 대한 결과값인 보정 정보를 생성할 수 있다(S23). 보정 정보는, 변화 위치(L2)에서 변화 영상 정보(CP)의 좌표값인 변화 좌표 정보를 기준 영상 정보(SP)의 좌표값인 기준 좌표 정보를 매칭하기 위한 값일 수 있다.
도 14에서처럼, 기준 좌표 정보는 기준 영상 정보(SP)에서 스크린(120)의 둘레에 대응되는 기준 둘레 좌표 정보(SBP)를 포함하고, 변화 영상 정보(CP)는 변화 영상 정보(CP)에서 스크린(S)의 둘레에 대응되는 변화 둘레 좌표 정보(CBP)를 각각 포함할 수 있다.
이때, 영상 보정 장치는 변화 위치(L2)에서 기준 둘레 좌표 정보(SBP)와 각각 직선으로 연결되는 가상 라인에 대한 기준 라인 정보를 생성하고, 기준 라인 정보와 변화 영상 정보(CP)의 변화 좌표 정보의 교차점에 관한 교차 좌표 정보(P1,P2)를 생성할 수 있다.
만약, 기준 라인 정보와 변화 좌표 정보의 교차점이 없는 경우에는, 변화 좌표 정보를 직선 방향으로 연장한 변화 연장 좌표 정보(CC)를 생성하고, 이를 기준 라인 정보와 비교하여 교차 좌표 정보(P1,P2)를 생성할 수도 있다.
도 13에서는 시스템을 위에서 아래로 바라보게 도시하여, 각 둘레 좌표 정보가 스크린(S) 너비의 양단에 해당되도록만 제시되었으나, 이에 한정된 것은 아니며, 대상체(O)의 좌,우, 상, 하의 위치에 대응되는 영상의 너비 및 높이에 대응되는 좌표값들이 산출될 수 있다.
이렇게 교차 좌표 정보(P1,P2)가 산출되면, 영상 보정 장치는 해당 교차 좌표 정보(P1,P2)를 기준 영상 정보(SP)에 매칭되도록 하기 위하여 아래의 수학식4에 의해 보정되는 제1 보정 좌표 정보를 생성할 수 있다.
[수학식 4]
제1 보정 좌표 정보(
Figure 112018106796394-pat00060
,
Figure 112018106796394-pat00061
)
Figure 112018106796394-pat00062
(
Figure 112018106796394-pat00063
: 제1 보정 좌표 정보의 X값,
Figure 112018106796394-pat00064
: 제1 보정 좌표 정보의 Y값,
Figure 112018106796394-pat00065
: 기준 영상 정보의 너비,
Figure 112018106796394-pat00066
: 교차 좌표 정보의 X값,
Figure 112018106796394-pat00067
: 변화 영상 정보의 너비,
Figure 112018106796394-pat00068
: 기준 영상 정보의 높이,
Figure 112018106796394-pat00069
: 교차 좌표 정보의 Y값,
Figure 112018106796394-pat00070
: 변화 영상 정보의 높이)
제1 보정 좌표 정보는, 교차 좌표 정보(P1,P2)를 기존 영상 정보에 매칭시켜 변화 위치(L2)에서 대상체(O)가 스크린(S)을 바라보는 경우 발생되는 왜곡을 감쇄시킬 수 있다.
이렇게 영상 보정 장치는 보정 정보가 생성되면 해당 보정 좌표 정보가 스크린 좌표 정보에 포함되는지 여부를 판단할 수 있다(S25).
스크린 좌표 정보는, 스크린(S)의 높이 및 너비에 대한 기준 좌표값일 수 있다. 따라서, 스크린(S)에 출력되는 영상들은 스크린 좌표 정보에 대응되도록 생성될 수 있다. 따라서, 제1 보정 좌표 정보가 스크린 좌표 정보에 포함되는 경우, 영상 보정 장치는 해당 제1 보정 좌표 정보를 변화 영상 정보(CP)에 반영한 보정 영상 정보를 생성할 수 있다(S29).
반면, 제1 보정 좌표 정보가 스크린 좌표 정보에 포함되지 않은 경우가 발생될 수 있다. 이는, 도 15에서처럼, 수학식3에 의해 생성되는 제1 보정 좌표 정보가 스크린 좌표 정보를 벗어나는 경우일 수 있다.
이러한 경우, 제1 보정 좌표 정보를 스크린 좌표 정보에 포함되도록 하기 위해, 스크린(S) 화면 비율에 관한 스크린 정보를 재설정할 수 있다(S27). 이는, 아래의 수학식5에 의해 구현될 수 있다.
[수학식 5]
제2 보정 좌표 정보(
Figure 112018106796394-pat00071
,
Figure 112018106796394-pat00072
)
Figure 112018106796394-pat00073
(
Figure 112018106796394-pat00074
: 제2 보정 좌표 정보의 X값,
Figure 112018106796394-pat00075
: 제2 보정 좌표 정보의 Y값,
Figure 112018106796394-pat00076
: 제1 보정 좌표 정보의 X값,
Figure 112018106796394-pat00077
: 제1 보정 좌표 정보의 Y값,
Figure 112018106796394-pat00078
: 스크린 증가 비율)
이렇게 재설정된 스크린 정보에 따르면, 기존 스크린 정보(SR1)에서는 제1 보정 좌표 정보를 포함할 수 없으므로, 이를 확장시키는 확장 스크린 정보(SR2)를 가질 수 있다. 이에 따라, 도 16에서처럼 스크린 좌표 정보는 제1 보정 좌표 정보를 포함할 수 있도록 확장될 수 있고, 제1 보정 좌표 정보는, 확장 스크린 정보(SR2)에 대응되도록 재설정된 제2 보정 좌표 정보로 변환될 수 있다.
스크린 정보의 재설정에 다른 제2 보정 좌표 정보가 산출되면, 영상 보정 장치는 이를 변화 영상 정보(CP)에 반영한 보정 영상 정보를 생성하고 이를 반영한 보정 영상 정보를 생성하여(S29) 영상 출력 장치로 출력하여 스크린(S)에 표시되도록 제어할 수 있다(S31).
이와 같은 영상 보정 장치를 갖는 사격 훈련 시뮬레이션 시스템에 의하면, 대상체(O)의 위치 변화에 따른 시야에 대응되도록 영상을 실시간으로 변경하고, 화면 비율까지 고려하여 수정된 영상의 좌표를 설정함으로써, 대상체(O)의 시점 변경에 따른 영상의 왜곡 현상을 최소화할 수 있다. 또한, 탄착점 분석 장치에 의해 실제 사격 환경이 반영된 탄착점 정보까지 생성하여 적용함으로써, 실공간에서 이루어지는 실제 사격 훈련과 최대한 유사한 환경의 가상 사격 훈련 시뮬레이션을 구현할 수 있다.
도 17 및 도 18은 본 발명의 일 실시예에 따른 탄도 궤도를 도출 방법을 설명하기 위한 도면이다.
도 17은 탄착점 분석 장치(100)가 X 축( 직선 거리 : range) 및 Y 축(높이 :height) 축을 기준으로 도출한 궤도를 도시한 도면이고, 도 18은 탄착점 분석 장치(100)가 X 축(직선 거리 : range) 및 Z 축( 편류 거리 : drift) 축을 기준으로 도출한 궤도를 도시한 도면이다.
도 1, 도 2 및 도 17을 참조하면, 탄착점 분석 장치(100)는 [수학식 6]을 이용하여 탄도 궤도를 도출할 수 있다.
[ 수학식 6 ]
Figure 112018106796394-pat00079
여기서,
Figure 112018106796394-pat00080
탄두 질량, S: 탄두 단면적, ρ: 공기 밀도,
Figure 112018106796394-pat00081
: 중력 가속도,
Figure 112018106796394-pat00082
: 선형적 항력 계숙,
Figure 112018106796394-pat00083
: 선형적 양력 계수,
Figure 112018106796394-pat00084
: 총 받음각(total angle of attack),
Figure 112018106796394-pat00085
: 탄두 속도(
Figure 112018106796394-pat00086
),
Figure 112018106796394-pat00087
도 17을 참조하면, 기존 레이저 방식은 공기 중 비행하는 탄자에 작용하는 중력, 양력, 항력, 회전 등을 구별하지 않고 탄도 궤도를 적용(도 17에서 laser 그래프)하는 것으로, 사거리와 상관없이 직선 탄도 궤도를 적용하는 것입니다. 반면에, 본원 발명은 [수학식 6]과 같이 탄자에 작용하는 중력, 양력, 항력, 회전 등을 반영함으로써, 사거리( X축 )에 따라 달라지는 높이 ( Y 축) 및 편류 ( Z 축)을 반영한 탄도 궤도(도 17에서 MPTMS 그래프)를 도출할 수 있는 것입니다. 여기서 조준선(Line of sight)는 사격자의 시선을 기준("Y 축 기준 0cm")으로 한 것이며, X 축의 0 지점은 총구의 조준 방향("Y 축 기준 약 -6cm")인 것이다.
예를 들면, 사거리가 100m인 지점에서, 기존 레이저 방식은 높이가 약 -6cm이고, 편류가 0인 지점이 탄착점이나, 본 발명에 따른 방식은 높이가 약 + 10cm이고, 편류가 약 -1cm인 지점이 탄착점이되는 것입니다.
또 다른 예를 들면, 사거리가 200m인 지점에서, 기존 레이저 방식은 높이가 약 -6cm이고, 편류가 0인 지점이 탄착점이나, 본 발명에 따른 방식은 높이가 약 + 17cm이고, 편류가 -2cm인 지점이 탄착점이되는 것입니다.
이와 같이, 본 발명에 따른 방식은 사거리의 위치에 따라 탄착점의 높이( X 축) / 편류 (Z 축)가 달라짐에 따라 탄착점이 달라지는 것을 반영함으로써, 실제 탄도 궤도와 매우 유사하게 탄착점을 도출할 수 있는 것입니다.
도 19는 본 발명의 일 실시예에 따른 탄도 궤도에 따라 변경되는 탄착점을 설명하기 위한 도면이다.
도 19를 참조하면, 기존 레이저 방식 및 본 발명에 따른 방식에 따른 표적상의 탄착점을 도시한 것으로, 표적이 100m / 200m / 300m 인 경우, 기존 레이저 방식은 거리에 따른 탄착점(1800)의 변화가 전혀 없습니다.
반면에, 표적이 100m / 200m / 300m 인 경우, 본 발명에 따른 방식은 거리에 따른 탄착점(1900)의 변화가 있는 것입니다.
이에, 기존 레이저 방식은 거리에 상관없이 탄착점을 일정하게 반영하므로 표적 중앙에 명중되는 것으로 인식하지만, 본 발명에 따른 방식은 거리에 따라 탄착점을 다르게 반영하므로 표적 중앙에 맞지 않거나, 표적 중앙에서 몇 cm 정도를 빗겨나는지 등을 정확하게 도출할 수 있는 것입니다. 이에, 본 발명에 따른 방식은 실제 탄도 궤도와 매우 유사하게 탄착점을 도출할 수 있는 것입니다.
상기와 같은 가상 현실에서 실제 개인화기의 사격 환경을 적용하여 탄도 궤도 및 탄착점의 정밀성을 향상시키기 위한 탄착점 분석 장치 및 이를 이용한 가상 사격 훈련 시뮬레이션 시스템은, 위에서 설명된 실시예들의 구성과 작동 방식에 한정되는 것이 아니다. 상기 실시예들은 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 다양한 변형이 이루어질 수 있도록 구성될 수 있다.
10: 가상 사격 훈련 시뮬레이션 시스템 U: 사용자
100: 탄착점 분석 장치 S: 스크린
200: 영상 보정 장치 B: 탄자
300: 영상 감지 장치 F: 가상 총기
400: 영상 출력 장치 T: 타겟

Claims (11)

  1. 실공간에서 사용자가 구비하는 모형인 가상 총기의 총기 구조에 관한 총기 정보를 생성하는 총기 분석 모듈;
    상기 가상 총기에 적용되는 탄자의 구조에 관한 탄자 정보를 생성하는 탄자 분석 모듈;
    스크린에 출력되는 사격 훈련 콘텐츠의 환경 상태를 감지하여 이에 대한 환경 정보를 생성하는 환경 분석 모듈; 및
    상기 총기 정보, 상기 탄자 정보, 및 상기 환경 정보 중 적어도 어느 하나를 참고하여, 상기 탄자가 상기 스크린에 표시되는 타겟에 탄착되는 위치에 관한 탄착점 정보를 생성하는 탄착점 생성 모듈;을 포함하고,
    상기 탄착점 생성 모듈은,
    상기 총기 정보 및 상기 탄자 정보를 참고하여, 상기 가상 총기 내에서 상기 탄자의 운동 정보에 관하여 하기의 수학식1 및 수학식2에 의해 산출되는 제1 탄자 운동 정보를 생성하는, 가상 현실에서 실제 개인화기의 사격 환경을 적용하여 탄도 궤도 및 탄착점의 정밀성을 향상시키기 위한 탄착점 분석 장치.
    [수학식 1]
    Figure 112019503683627-pat00127

    (
    Figure 112019503683627-pat00128
    :제1 탄자 운동 정보,
    Figure 112019503683627-pat00129
    : 탄자 무게,
    Figure 112019503683627-pat00130
    : 탄자 속도 , I :관성 모멘트,
    Figure 112019503683627-pat00132
    : 탄자 회전 각속도)
    [수학식 2]
    Figure 112019503683627-pat00133

    (
    Figure 112019503683627-pat00134
    :미세 입자 질량, r : 회전 중심축으로부터 미세 질량까지 직선길이,
    Figure 112019503683627-pat00136
    : 회전 중심축으로부터 물체 최대 직선 길이)
  2. 제1항에 있어서,
    상기 총기 정보는,
    총기 종류 정보, 총열 길이 정보, 및 총기 강성 정보를 포함하고,
    상기 탄자 정보는,
    탄자 종류 정보, 탄자 질량 정보, 탄자 외형 정보, 및 탄자 압력 중심 정보를 포함하는, 가상 현실에서 실제 개인화기의 사격 환경을 적용하여 탄도 궤도 및 탄착점의 정밀성을 향상시키기 위한 탄착점 분석 장치.
  3. 삭제
  4. 삭제
  5. 제1항에 있어서,
    상기 환경 정보는,
    상기 사격 훈련 콘텐츠에 포함되는 대기의 온도 정보, 밀도 정보, 압력 정보, 풍향 정보, 풍속 정보, 및 중력 정보를 포함하는, 가상 현실에서 실제 개인화기의 사격 환경을 적용하여 탄도 궤도 및 탄착점의 정밀성을 향상시키기 위한 탄착점 분석 장치.
  6. 제5항에 있어서,
    상기 탄착점 생성 모듈은,
    상기 제1 탄자 운동 정보와 상기 환경 정보를 참고하여, 상기 가상 총기와 상기 타겟 사이에서 이동되는 상기 탄자의 운동 정보에 대한 제2 탄자 운동 정보를 생성하는, 가상 현실에서 실제 개인화기의 사격 환경을 적용하여 탄도 궤도 및 탄착점의 정밀성을 향상시키기 위한 탄착점 분석 장치.
  7. 제6항에 있어서,
    상기 제2 탄자 운동 정보는,
    하기의 수학식3에 의해 산출되는, 가상 현실에서 실제 개인화기의 사격 환경을 적용하여 탄도 궤도 및 탄착점의 정밀성을 향상시키기 위한 탄착점 분석 장치.
    [수학식 3]
    제2 탄자 운동 정보(
    Figure 112018106796394-pat00098
    ,
    Figure 112018106796394-pat00099
    )
    =
    Figure 112018106796394-pat00100

    (
    Figure 112018106796394-pat00101
    : 탄자의 X축에 작용하는 힘,
    Figure 112018106796394-pat00102
    : 탄자의 Y축에 작용하는 힘,
    Figure 112018106796394-pat00103
    : 항력 계수,
    Figure 112018106796394-pat00104
    : 공기밀도,
    Figure 112018106796394-pat00105
    : 탄자 직경,
    Figure 112018106796394-pat00106
    : 공기 중 탄자의 속도,
    Figure 112018106796394-pat00107
    : 중력 가속도)
  8. 제7항에 있어서,
    상기 탄착점 생성 모듈은,
    상기 제1 탄자 운동 정보 및 상기 제2 탄자 운동 정보와 상기 타겟의 위치 및 구조에 관한 타겟 정보를 참고하여 상기 탄착점 정보를 생성하는, 가상 현실에서 실제 개인화기의 사격 환경을 적용하여 탄도 궤도 및 탄착점의 정밀성을 향상시키기 위한 탄착점 분석 장치.
  9. 제8항에 있어서,
    상기 탄자가 상기 가상 총기에서 상기 타겟까지 이동되는 시간에 관한 탄착 시간 정보를 생성하는 시간 분석 모듈을 더 포함하고,
    상기 탄착점 생성 모듈은,
    상기 탄착 시간 정보를 참고하여 상기 탄착점 정보를 생성하는, 가상 현실에서 실제 개인화기의 사격 환경을 적용하여 탄도 궤도 및 탄착점의 정밀성을 향상시키기 위한 탄착점 분석 장치.
  10. 제9항에 있어서,
    상기 탄착점 생성 모듈은,
    상기 탄착 시간 정보를 참고하여 상기 탄착점 정보를 생성하는, 가상 현실에서 실제 개인화기의 사격 환경을 적용하여 탄도 궤도 및 탄착점의 정밀성을 향상시키기 위한 탄착점 분석 장치.
  11. 실공간에서 사격 훈련 콘텐츠가 출력되는 스크린을 기준으로, 사용자와 상기 사용자가 구비한 모형인 가상 총기를 감지하여 이에 대한 영상 정보인 대상체 영상 정보를 생성하기 위한 영상 감지 장치;
    상기 대상체 영상 정보를 분석하여 기준 위치에서 감지된 기준 영상 정보와, 상기 기준 위치에서 변화된 위치인 변화 위치에서 감지된 변화 영상 정보를 비교하여 이에 대한 결과값으로 보정 정보를 생성하고, 상기 보정 정보를 상기 변화 영상 정보에 반영한 보정 영상 정보를 생성하기 위한 영상 보정 장치; 및
    상기 가상 총기의 구조에 관한 총기 정보, 상기 가상 총기에 적용되는 탄자의 구조에 관한 탄자 정보, 및 상기 사격 훈련 콘텐츠의 환경 상태에 관한 환경 정보를 참고하여 상기 탄자가 상기 스크린에 표시되는 타겟에 탄착되는 위치에 관한 탄착점 정보를 생성하기 위한 탄착점 분석 장치;를 포함하고,
    상기 탄착점 분석 장치는,
    상기 총기 정보 및 상기 탄자 정보를 참고하여, 상기 가상 총기 내에서 상기 탄자의 운동 정보에 관하여 하기의 수학식1 및 수학식2에 의해 산출되는 제1 탄자 운동 정보를 생성하는, 실공간을 반영한 영상 보정 및 탄착점 정밀성 향상을 위한 가상 사격 훈련 시뮬레이션 시스템.
    [수학식 1]
    Figure 112019503683627-pat00137

    (
    Figure 112019503683627-pat00138
    :제1 탄자 운동 정보,
    Figure 112019503683627-pat00139
    : 탄자 무게,
    Figure 112019503683627-pat00140
    : 탄자 속도 , I :관성 모멘트,
    Figure 112019503683627-pat00142
    : 탄자 회전 각속도)
    [수학식 2]
    Figure 112019503683627-pat00143

    (
    Figure 112019503683627-pat00144
    :미세 입자 질량, r : 회전 중심축으로부터 미세 질량까지 직선길이,
    Figure 112019503683627-pat00146
    : 회전 중심축으로부터 물체 최대 직선 길이)
KR1020180130030A 2018-03-26 2018-10-29 가상 현실에서 실제 개인화기의 사격 환경을 적용하여 탄도 궤도 및 탄착점의 정밀성을 향상시키기 위한 탄착점 분석 장치 및 이를 이용한 가상 사격 훈련 시뮬레이션 KR102041461B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/KR2018/014647 WO2019190019A1 (ko) 2018-03-26 2018-11-26 가상 현실에서 실제 개인화기의 사격 환경을 적용하여 탄도 궤도 및 탄착점의 정밀성을 향상시키기 위한 탄착점 분석 장치 및 이를 이용한 가상 사격 훈련 시뮬레이션
US17/041,009 US20210102781A1 (en) 2018-03-26 2018-11-26 Point-of-impact analysis apparatus for improving accuracy of ballistic trajectory and point of impact by applying shooting environment of real personal firearm to virtual reality, and virtual shooting training simulation using same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20180034594 2018-03-26
KR1020180034594 2018-03-26

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020190124384A Division KR20190119004A (ko) 2018-03-26 2019-10-08 가상 현실에서 실제 개인화기의 사격 환경을 적용하여 탄도 궤도 및 탄착점의 정밀성을 향상시키기 위한 탄착점 분석 장치 및 이를 이용한 가상 사격 훈련 시뮬레이션

Publications (2)

Publication Number Publication Date
KR20190112618A KR20190112618A (ko) 2019-10-07
KR102041461B1 true KR102041461B1 (ko) 2019-12-02

Family

ID=68422224

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020180130030A KR102041461B1 (ko) 2018-03-26 2018-10-29 가상 현실에서 실제 개인화기의 사격 환경을 적용하여 탄도 궤도 및 탄착점의 정밀성을 향상시키기 위한 탄착점 분석 장치 및 이를 이용한 가상 사격 훈련 시뮬레이션
KR1020190124384A KR20190119004A (ko) 2018-03-26 2019-10-08 가상 현실에서 실제 개인화기의 사격 환경을 적용하여 탄도 궤도 및 탄착점의 정밀성을 향상시키기 위한 탄착점 분석 장치 및 이를 이용한 가상 사격 훈련 시뮬레이션

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020190124384A KR20190119004A (ko) 2018-03-26 2019-10-08 가상 현실에서 실제 개인화기의 사격 환경을 적용하여 탄도 궤도 및 탄착점의 정밀성을 향상시키기 위한 탄착점 분석 장치 및 이를 이용한 가상 사격 훈련 시뮬레이션

Country Status (2)

Country Link
US (1) US20210102781A1 (ko)
KR (2) KR102041461B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102134581B1 (ko) 2020-04-16 2020-07-16 한화시스템 주식회사 함포 사격 제원 계산을 위한 항력 계수 산출 장치

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200087560A (ko) * 2019-01-11 2020-07-21 한국전자통신연구원 스크린 충돌위치 인식 시스템 및 방법
KR102237380B1 (ko) * 2020-10-16 2021-04-09 육군사관학교 산학협력단 탄착점 분석 장치 및 이를 이용한 가상 사격 훈련 시뮬레이션 시스템
CN112258922B (zh) * 2020-11-19 2022-07-08 成都颖创科技有限公司 一种单兵武器模拟训练***
KR102430895B1 (ko) * 2020-12-30 2022-08-16 김웅진 사로를 통제하는 방법
US20220364817A1 (en) * 2021-01-27 2022-11-17 Serious Simulations, Llc Percussive method for capturing data from simulated indirect fire and direct fire munitions for battle effects in live and/or mixed reality training simulations
US11986739B2 (en) 2021-07-09 2024-05-21 Gel Blaster, Inc. Smart target co-witnessing hit attribution system and method
US11813537B2 (en) * 2021-07-09 2023-11-14 Gel Blaster, Inc. Smart target co-witnessing hit attribution system and method
US11994358B2 (en) 2021-07-09 2024-05-28 Gel Blaster, Inc. Toy projectile shooter firing mode assembly and system
CN114297860B (zh) * 2021-12-30 2022-11-22 中国人民解放军军事科学院国防工程研究院 延时引信弹药与跳弹式防护结构碰撞分析方法
CN116531765B (zh) * 2023-05-16 2023-12-08 成都航天凯特机电科技有限公司 靶场射击训练射击结果生成方法、装置及可读存储介质
KR102596258B1 (ko) * 2023-06-08 2023-11-01 옵티머스시스템 주식회사 포탄 모의사격 시뮬레이션 시스템

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100301116A1 (en) * 2006-02-03 2010-12-02 Burris Company Trajectory compensating sighting device systems and methods

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2556827B1 (fr) * 1983-12-15 1988-04-22 Giravions Dorand Dispositif d'entrainement au tir en salle
US5026158A (en) * 1988-07-15 1991-06-25 Golubic Victor G Apparatus and method for displaying and storing impact points of firearm projectiles on a sight field of view
JP4301471B2 (ja) * 1999-08-25 2009-07-22 株式会社バンダイナムコゲームス 画像生成システム及び情報記憶媒体
US7329127B2 (en) * 2001-06-08 2008-02-12 L-3 Communications Corporation Firearm laser training system and method facilitating firearm training for extended range targets with feedback of firearm control
US6709272B2 (en) * 2001-08-07 2004-03-23 Bruce K. Siddle Method for facilitating firearms training via the internet
US7084888B2 (en) * 2001-08-09 2006-08-01 Konami Corporation Orientation detection marker, orientation detection device and video game device
KR101244273B1 (ko) * 2010-10-25 2013-03-18 빅코 주식회사 영상 및 센서를 이용한 사격 관리장치
US9200870B1 (en) * 2011-06-06 2015-12-01 Travis B. Theel Virtual environment hunting systems and methods
US9945640B2 (en) * 2015-11-19 2018-04-17 Philip Scott Lyren Firearm system that tracks points of aim of a firearm
US10309751B2 (en) * 2016-04-28 2019-06-04 Cole Engineering Services, Inc. Small arms shooting simulation system
US20180335279A1 (en) * 2017-05-22 2018-11-22 Precision Marksmanship LLC Simulated range targets with impact overlay

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100301116A1 (en) * 2006-02-03 2010-12-02 Burris Company Trajectory compensating sighting device systems and methods

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102134581B1 (ko) 2020-04-16 2020-07-16 한화시스템 주식회사 함포 사격 제원 계산을 위한 항력 계수 산출 장치

Also Published As

Publication number Publication date
US20210102781A1 (en) 2021-04-08
KR20190119004A (ko) 2019-10-21
KR20190112618A (ko) 2019-10-07

Similar Documents

Publication Publication Date Title
KR102041461B1 (ko) 가상 현실에서 실제 개인화기의 사격 환경을 적용하여 탄도 궤도 및 탄착점의 정밀성을 향상시키기 위한 탄착점 분석 장치 및 이를 이용한 가상 사격 훈련 시뮬레이션
US10234240B2 (en) System and method for marksmanship training
CN106440948B (zh) 一种射击训练***及射击训练方法
US10584940B2 (en) System and method for marksmanship training
US10030937B2 (en) System and method for marksmanship training
US10274287B2 (en) System and method for marksmanship training
KR102237380B1 (ko) 탄착점 분석 장치 및 이를 이용한 가상 사격 훈련 시뮬레이션 시스템
EP2811253B1 (en) Precision guided firearm with hybrid sensor fire control
US20120274922A1 (en) Lidar methods and apparatus
KR101938257B1 (ko) 영상 사격 훈련 시스템
US9683813B2 (en) Targeting adjustments to control the impact of breathing, tremor, heartbeat and other accuracy-reducing factors
US9671197B2 (en) Remotely operated target-processing system
US10823533B2 (en) Firearm with active aiming assistance and planning system
US20160169621A1 (en) Integrated sight and fire control computer for rifles and other firing mechanisms
US8579194B2 (en) Method for optimising the firing trigger of a weapon or artillery
US20220049931A1 (en) Device and method for shot analysis
US20210372738A1 (en) Device and method for shot analysis
US20190226807A1 (en) System, method and app for automatically zeroing a firearm
KR20090034156A (ko) 곡사화기 모의 훈련 장치 및 방법
JP2000356500A (ja) 小火器用照準装置
AU2020226291B2 (en) Systems and methods for training persons in the aiming of firearms at moving targets
RU2447391C2 (ru) Безопасный способ стрельбы (его варианты) и безопасный прицел для стрельбы по движущимся целям
US20030161501A1 (en) Image distortion for gun sighting and other applications
KR102587927B1 (ko) 사격분석방법 및 그 장치
KR102151340B1 (ko) 비비탄용 사격 시스템의 탄착점 검출 방법

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right