KR102333047B1 - Motion Tracking System and Method for Revolver Shooting Training - Google Patents

Motion Tracking System and Method for Revolver Shooting Training Download PDF

Info

Publication number
KR102333047B1
KR102333047B1 KR1020170033674A KR20170033674A KR102333047B1 KR 102333047 B1 KR102333047 B1 KR 102333047B1 KR 1020170033674 A KR1020170033674 A KR 1020170033674A KR 20170033674 A KR20170033674 A KR 20170033674A KR 102333047 B1 KR102333047 B1 KR 102333047B1
Authority
KR
South Korea
Prior art keywords
motion
user
recognition
instrument
revolver
Prior art date
Application number
KR1020170033674A
Other languages
Korean (ko)
Other versions
KR20180106080A (en
Inventor
김영범
정광모
박병하
Original Assignee
한국전자기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자기술연구원 filed Critical 한국전자기술연구원
Priority to KR1020170033674A priority Critical patent/KR102333047B1/en
Publication of KR20180106080A publication Critical patent/KR20180106080A/en
Application granted granted Critical
Publication of KR102333047B1 publication Critical patent/KR102333047B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/26Teaching or practice apparatus for gun-aiming or gun-laying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

리볼버 사격 훈련을 위한 모션 트래킹 시스템 및 방법이 제공된다. 본 발명의 실시예에 따른 모션 트래킹 시스템은, 촬영을 통해 사용자의 모션을 인식하는 모션 인식 시스템, 사용자가 손에 든 기구에 대한 모션 데이터들을 생성하는 모션 센서, 모션 센서가 생성한 모션 데이터들로부터 기구의 모션을 인식하는 처리부, 모션 인식 시스템의 인식 결과와 모션 센서의 인식 결과를 융합하여, 사용자의 모션을 트래킹하는 컴퓨팅 시스템을 포함한다. 이에 의해, 저비용으로 사후강평(After-action review), 디브리핑을 지원하기 위한 리볼버 사격 훈련자의 모션 트래킹 시스템 구축이 가능하며, 한 팔에 의한 다른 팔의 가려짐에 강건한 모션 트래킹이 가능하고, 맞닿은 양손의 위치 오류에 강건한 모션 트래킹이 가능하다.A motion tracking system and method for revolver shooting training are provided. A motion tracking system according to an embodiment of the present invention is a motion recognition system that recognizes a user's motion through shooting, a motion sensor that generates motion data for an instrument held by the user, and a motion data generated by the motion sensor. A processing unit for recognizing the motion of the device, and a computing system for tracking the motion of the user by fusing the recognition result of the motion recognition system and the recognition result of the motion sensor. Thereby, it is possible to build a motion tracking system for a revolver shooting trainer to support after-action review and debriefing at low cost, and robust motion tracking is possible with the occlusion of the other arm by one arm. Robust motion tracking against position errors of both hands is possible.

Description

리볼버 사격 훈련을 위한 모션 트래킹 시스템 및 방법{Motion Tracking System and Method for Revolver Shooting Training}Motion Tracking System and Method for Revolver Shooting Training

본 발명은 모션 트래킹 기술에 관한 것으로, 더욱 상세하게는 리볼버 사격 훈련을 위한 모션 트래킹 시스템 및 방법에 관한 것이다.The present invention relates to motion tracking technology, and more particularly, to a motion tracking system and method for revolver shooting training.

모션 트래킹 기술은 크게 IR 카메라-마커 기반 모션 트래킹, 키넥트 기반 모션 트래킹이 널리 활용되고 있다.In motion tracking technology, IR camera-marker-based motion tracking and Kinect-based motion tracking are widely used.

IR 카메라-마커 기반 모션 트래킹 기술은 정밀한 트래킹이 가능하나, 구축에 많은 비용이 소요되어 중저가형 사격 훈련 시스템 구축에 적합하지 않으며, 훈련자에게 마커를 장착해야 하는 등의 선행 작업이 필요하다는 문제점이 있다.Although the IR camera-marker-based motion tracking technology enables precise tracking, it takes a lot of money to build, so it is not suitable for building a mid-to-low-priced shooting training system. .

키넥트 기반 모션 트래킹 기술은 구축 비용은 저렴하나, 가려짐(occlusion)에 취약하고, 데이터가 왜곡되는 경우가 자주 발생하여, 훈련자 모션을 충분한 정확도로 트래킹하기 어렵다는 문제점이 있다.Kinect-based motion tracking technology has a low construction cost, but it is vulnerable to occlusion, and data is frequently distorted, so it is difficult to track the trainee's motion with sufficient accuracy.

이에, 낮은 구축 비용으로 리볼버 사격 훈련을 위한 모션 트래킹을 정확하게 수행하기 위한 방안의 모색이 요청된다.Accordingly, a search for a method for accurately performing motion tracking for revolver shooting training with a low construction cost is required.

본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은, 리볼버 사격 훈련에서 안정적이고 정밀한 모션 트래킹을 저비용으로 수행할 수 있는 시스템 및 방법을 제공함에 있다.The present invention has been devised to solve the above problems, and an object of the present invention is to provide a system and method capable of performing stable and precise motion tracking in revolver shooting training at low cost.

상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른, 모션 트래킹 시스템은, 촬영을 통해 사용자의 모션을 인식하는 모션 인식 시스템; 사용자가 손에 든 기구에 대한 모션 데이터들을 생성하는 모션 센서; 모션 센서가 생성한 모션 데이터들로부터 기구의 모션을 인식하는 처리부; 모션 인식 시스템의 인식 결과와 모션 센서의 인식 결과를 융합하여, 사용자의 모션을 트래킹하는 컴퓨팅 시스템;을 포함한다.According to an embodiment of the present invention for achieving the above object, a motion tracking system includes: a motion recognition system for recognizing a user's motion through shooting; a motion sensor that generates motion data for an instrument held by the user; a processing unit for recognizing the motion of the device from motion data generated by the motion sensor; and a computing system that tracks the user's motion by fusing the recognition result of the motion recognition system and the recognition result of the motion sensor.

그리고, 처리부는, 모션 데이터들에 필터를 적용하여 기구 모션의 방위와 가속도를 파악할 수 있다.Then, the processing unit may apply a filter to the motion data to determine the direction and acceleration of the motion of the instrument.

또한, 사용자의 모션은, 양 팔이 펴져 있고, 양 손이 맞닿은 자세일 수 있다.In addition, the user's motion may be a posture in which both arms are extended and both hands are in contact.

그리고, 컴퓨팅 시스템은, 사용자의 한 팔에 의해 다른 팔이 가려짐으로 인해 모션 인식 시스템에서 발생한 모션 인식 오류를, 사용자의 모션에 의해 생성되는 형상을 참고하여 보정할 수 있다.In addition, the computing system may correct a motion recognition error occurring in the motion recognition system due to the user's arm covering the other arm with reference to a shape generated by the user's motion.

또한, 컴퓨팅 시스템은, 사용자의 한 팔에 의해 다른 팔이 가려짐으로 인해 모션 인식 시스템에서 발생한 모션 인식 오류를, 기구의 위치를 참고하여 보정할 수 있다.Also, the computing system may correct a motion recognition error occurring in the motion recognition system due to the user's arm covering the other arm with reference to the position of the instrument.

그리고, 컴퓨팅 시스템은, 기구의 위치를 양 손의 중간 위치로 수정할 수 있다.In addition, the computing system may correct the position of the instrument to an intermediate position of both hands.

또한, 사용자의 모션은, 사격 자세이고, 기구는, 리볼버일 수 있다.In addition, the user's motion may be a shooting posture, and the mechanism may be a revolver.

한편, 본 발명의 다른 실시예에 따른, 모션 트래킹 방법은, 촬영을 통해 사용자의 모션을 인식하는 제1 인식단계; 사용자가 손에 든 기구에 대한 모션 데이터들을 생성하는 단계; 모션 데이터들로부터 기구의 모션을 인식하는 제2 인식단계; 제1 인식 단계에서의 인식된 사용자의 모션과 제2 인식 단계에서의 인식된 기구의 모션을 융합하여, 사용자의 모션을 트래킹하는 컴퓨팅 시스템;을 포함한다.On the other hand, according to another embodiment of the present invention, a motion tracking method, a first recognition step of recognizing a user's motion through shooting; generating motion data for an instrument held by a user; a second recognition step of recognizing the motion of the instrument from the motion data; and a computing system that tracks the motion of the user by fusing the motion of the recognized user in the first recognition step and the motion of the recognized instrument in the second recognition step.

이상 설명한 바와 같이, 본 발명의 실시예들에 따르면, 저비용으로 사후강평(After-action review), 디브리핑을 지원하기 위한 리볼버 사격 훈련자의 모션 트래킹 시스템 구축이 가능해진다.As described above, according to embodiments of the present invention, it is possible to construct a motion tracking system for a revolver shooting trainer to support after-action review and debriefing at low cost.

또한, 본 발명의 실시예들에 따르면, 한 팔에 의한 다른 팔의 가려짐에 강건한 모션 트래킹이 가능하고, 맞닿은 양손의 위치 오류에 강건한 모션 트래킹이 가능하다.Further, according to embodiments of the present invention, motion tracking robust to the occlusion of the other arm by one arm is possible, and motion tracking robust to the position error of both hands in contact is possible.

도 1은 본 발명의 일 실시예에 따른 모션 트래킹 시스템의 개념 설명에 제공되는 도면,
도 2는 본 발명의 일 실시예에 따른 모션 트래킹 시스템의 구성도, 그리고,
도 3은 본 발명의 다른 실시예에 따른 모션 트래킹 방법의 설명에 제공되는 흐름도이다.
1 is a diagram provided for conceptual explanation of a motion tracking system according to an embodiment of the present invention;
2 is a block diagram of a motion tracking system according to an embodiment of the present invention, and,
3 is a flowchart provided to explain a motion tracking method according to another embodiment of the present invention.

이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다.Hereinafter, the present invention will be described in more detail with reference to the drawings.

도 1은 본 발명의 일 실시예에 따른 모션 트래킹 시스템의 개념 설명에 제공되는 도면이다. 본 발명의 실시예에 따른 모션 트래킹 시스템은, 리볼버 사격 훈련자의 모션 트래킹을 위한 시스템이다.1 is a diagram provided to explain the concept of a motion tracking system according to an embodiment of the present invention. A motion tracking system according to an embodiment of the present invention is a system for motion tracking of a revolver shooting trainer.

본 발명의 실시예에 따른 모션 트래킹 시스템은, 도 1에 도시된 바와 같이, 키넥트(Kinect) 센서와 IMU(Inertial Measurement Unit)를 이용하여 사격 훈련자와 리볼버의 모션을 인식하고 인식 결과를 융합하여 사용자의 모션을 트래킹한다.As shown in FIG. 1, the motion tracking system according to an embodiment of the present invention recognizes the motion of a shooting trainer and a revolver using a Kinect sensor and an IMU (Inertial Measurement Unit) and fuses the recognition results. Track the user's motion.

도 2는 본 발명의 일 실시예에 따른 모션 트래킹 시스템의 구성도이다. 본 발명의 실시예에 따른 모션 트래킹 시스템은, 도 2에 도시된 바와 같이, 키넥트 센서(110), IMU(120), 신호 처리부(130) 및 컴퓨팅 시스템(140)을 포함한다.2 is a block diagram of a motion tracking system according to an embodiment of the present invention. As shown in FIG. 2 , the motion tracking system according to an embodiment of the present invention includes a Kinect sensor 110 , an IMU 120 , a signal processing unit 130 , and a computing system 140 .

키넥트 센서(110)는 카메라를 이용한 촬영을 통해 리볼버 사격 훈련자의 모션을 인식하는 모션 인식 시스템의 일종이다. 카메라에는 영상 카메라(RGB-카메라)와 뎁스-카메라(Z-카메라)가 포함된다.The Kinect sensor 110 is a type of motion recognition system that recognizes the motion of a revolver shooting trainer through shooting using a camera. Cameras include video cameras (RGB-cameras) and depth-cameras (Z-cameras).

IMU(120)는 실제 리볼버 또는 훈련용 리볼버에 장착되어, 사격 훈련자가 손에 든 리볼버의 모션 데이터들을 생성하는 모션 센서의 일종이다.The IMU 120 is a type of motion sensor that is mounted on an actual revolver or a training revolver and generates motion data of a revolver held by a shooting trainer.

신호 처리부(130)는 IMU(120)에서 생성된 모션 데이터들인 각속도, 가속도 및 자기장 데이터에 확장된 칼만 필터(extended Kalman filter)를 적용하여 리볼버 모션의 방위와 가속도 데이터를 생성한다.The signal processing unit 130 generates azimuth and acceleration data of the revolver motion by applying an extended Kalman filter to angular velocity, acceleration, and magnetic field data, which are motion data generated by the IMU 120 .

컴퓨팅 시스템(140)은 키넥트 센서(110)에 의한 사격 훈련자의 모션 인식 결과와 IMU(120)에 의한 리볼버의 모션 인식 결과를 융합하여 사격 훈련자의 모션을 트래킹한다.The computing system 140 tracks the motion of the shooting trainer by fusing the motion recognition result of the shooting trainer by the Kinect sensor 110 and the motion recognition result of the revolver by the IMU 120 .

트래킹하는 사격 훈련자의 모션은, 양 팔이 펴져 있고, 리볼버를 든 양 손이 맞닿은 자세로, 이등변 삼각형 형상이 생성된다.The tracking motion of the shooting trainer is a posture with both arms extended and hands holding a revolver touching, creating an isosceles triangle shape.

사용자의 한 팔에 의해 다른 팔이 가려짐으로 인한 키넥트 센서(110)의 사격 훈련자의 모션 인식 오류를 해소하기 위해, 컴퓨팅 시스템(140)은 통상 사격 훈련에서 사격 훈련자가 취하는 모션에 의해 생성되는 이등변 삼각형 형상을 기초로 보정한다.In order to solve the motion recognition error of the shooting trainer of the Kinect sensor 110 due to the user's arm being obscured by the other arm, the computing system 140 is normally generated by the motion taken by the shooting trainer in shooting training. It is corrected based on the isosceles triangle shape.

또한, 위 모션 인식 오류를 해소하기 위해, 컴퓨팅 시스템(140)은 IMU(120)에 의해 파악된 리볼버의 위치를 기초로 사격 훈련자의 모션을 보정한다.In addition, in order to solve the above motion recognition error, the computing system 140 corrects the motion of the shooting trainer based on the position of the revolver grasped by the IMU 120 .

그리고, 컴퓨팅 시스템(140)은 IMU(120)에 의해 파악된 리볼버의 위치로 사격 훈련자의 양 손의 중간 위치를 수정한다.Then, the computing system 140 corrects the intermediate positions of both hands of the shooting trainer to the position of the revolver grasped by the IMU 120 .

도 3은 본 발명의 다른 실시예에 따른 모션 트래킹 방법의 설명에 제공되는 흐름도이다.3 is a flowchart provided to explain a motion tracking method according to another embodiment of the present invention.

리볼버 사격 훈련자의 모션 트래킹을 위해, 도 3에 도시된 바와 같이, 먼저 키넥트 센서(110)는 사격 훈련자의 모션을 인식한다(S210).In order to track the motion of the revolver shooting trainer, as shown in FIG. 3 , the Kinect sensor 110 first recognizes the motion of the shooting trainer ( S210 ).

그리고, IMU(120)는 리볼버의 모션 데이터들을 생성하고, 신호 처리부(130)는 IMU(120)에서 감지된 모션 데이터들로부터 방위와 가속도를 계산하여 리볼버의 모션을 파악한다(S220).Then, the IMU 120 generates motion data of the revolver, and the signal processing unit 130 calculates the azimuth and acceleration from the motion data sensed by the IMU 120 to determine the motion of the revolver ( S220 ).

그러면, 컴퓨팅 시스템(140)은 S210단계에서 인식한 사격 훈련자의 모션을 보정한다(S230).Then, the computing system 140 corrects the motion of the shooting trainer recognized in step S210 (S230).

S230단계에서의 보정에는, 통상적으로 사격 훈련자가 취하는 모션의 형상(양 팔이 펴져 있고 리볼버를 든 양 손이 맞닿은 자세로 생성되는 이등변 삼각형 형상)과 S220단계에서 파악된 리볼버의 위치가 참조된다.For the correction in step S230, the shape of the motion typically taken by the shooting trainer (an isosceles triangle shape created in a position where both arms are extended and both hands holding the revolver are in contact) and the position of the revolver identified in step S220 are referenced.

또한, 컴퓨팅 시스템(140)은 S210단계에서 인식한 사격 훈련자의 손 자세를 보정한다(S240).In addition, the computing system 140 corrects the hand posture of the shooting trainer recognized in step S210 (S240).

S240단계에서의 보정에는, S220단계에서 파악된 리볼버의 위치가 참조되며, 구체적으로는 사격 훈련자의 양 손의 중간 위치를 리볼버의 위치로 수정하여 보정한다.In the correction in step S240, the position of the revolver identified in step S220 is referenced, and specifically, the intermediate positions of both hands of the shooting trainer are corrected by correcting the positions of the revolvers.

지금까지, 리볼버 사격 훈련을 위한 모션 트래킹 시스템 및 방법에 대해 바람직한 실시예를 들어 상세히 설명하였다.So far, a preferred embodiment of the motion tracking system and method for training revolver shooting has been described in detail.

위 실시예에서는, 리볼버 사격 훈련에서 안정적이고 정밀한 모션 트래킹을 저비용으로 수행할 수 있는 시스템 및 방법을 제시하였다.In the above embodiment, a system and method capable of performing stable and precise motion tracking in revolver shooting training at low cost were presented.

이에 의해, 저비용으로 사후강평, 디브리핑을 지원하기 위한 리볼버 사격 훈련자의 모션 트래킹이 가능해지며, 한 팔에 의한 다른 팔의 가려짐에 강건한 모션 트래킹이 가능하고, 맞닿은 양손의 위치 오류에 강건한 모션 트래킹이 가능하다.This enables motion tracking of revolver shooting trainers to support post-criticism and debriefing at low cost, robust motion tracking is possible when one arm is occluded by the other, and motion tracking robust against positional errors of both hands in contact. This is possible.

위 실시예에서 언급한 리볼버 사격 자세 트래킹은 예시적인 것에 불과하다. 리볼버 이외의 다른 기구를 들고 사격이 아닌 다른 훈련/행위를 수행하는 경우에 있어서도, 본 발명의 기술적 사상이 적용될 수 있다.The revolver shooting posture tracking mentioned in the above embodiment is merely exemplary. The technical idea of the present invention can also be applied to a case where training/action other than shooting is performed while holding a device other than a revolver.

한편, 본 실시예에 따른 장치와 방법의 기능을 수행하게 하는 컴퓨터 프로그램을 수록한 컴퓨터로 읽을 수 있는 기록매체에도 본 발명의 기술적 사상이 적용될 수 있음은 물론이다. 또한, 본 발명의 다양한 실시예에 따른 기술적 사상은 컴퓨터로 읽을 수 있는 기록매체에 기록된 컴퓨터로 읽을 수 있는 코드 형태로 구현될 수도 있다. 컴퓨터로 읽을 수 있는 기록매체는 컴퓨터에 의해 읽을 수 있고 데이터를 저장할 수 있는 어떤 데이터 저장 장치이더라도 가능하다. 예를 들어, 컴퓨터로 읽을 수 있는 기록매체는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광디스크, 하드 디스크 드라이브, 등이 될 수 있음은 물론이다. 또한, 컴퓨터로 읽을 수 있는 기록매체에 저장된 컴퓨터로 읽을 수 있는 코드 또는 프로그램은 컴퓨터간에 연결된 네트워크를 통해 전송될 수도 있다.On the other hand, it goes without saying that the technical idea of the present invention can also be applied to a computer-readable recording medium containing a computer program for performing the functions of the apparatus and method according to the present embodiment. In addition, the technical ideas according to various embodiments of the present invention may be implemented in the form of computer-readable codes recorded on a computer-readable recording medium. The computer-readable recording medium may be any data storage device readable by the computer and capable of storing data. For example, the computer-readable recording medium may be a ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical disk, hard disk drive, or the like. In addition, the computer-readable code or program stored in the computer-readable recording medium may be transmitted through a network connected between computers.

또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.In addition, although preferred embodiments of the present invention have been illustrated and described above, the present invention is not limited to the specific embodiments described above, and the technical field to which the present invention belongs without departing from the gist of the present invention as claimed in the claims Various modifications are possible by those of ordinary skill in the art, and these modifications should not be individually understood from the technical spirit or prospect of the present invention.

110 : 키넥트(Kinect) 센서
120 : IMU(Inertial Measurement Unit)
130 : 신호 처리부
140 : 컴퓨팅 시스템
110: Kinect sensor
120: IMU (Inertial Measurement Unit)
130: signal processing unit
140: computing system

Claims (8)

촬영을 통해 사용자의 모션을 인식하는 모션 인식 시스템;
사용자가 손에 든 기구에 장착되어, 기구에 대한 모션 데이터들을 생성하는 모션 센서;
모션 센서가 생성한 모션 데이터들로부터 기구의 모션을 인식하는 처리부;
모션 인식 시스템의 인식 결과와 모션 센서의 인식 결과를 융합하여, 사용자의 모션을 트래킹하는 컴퓨팅 시스템;을 포함하고,
컴퓨팅 시스템은,
사용자의 한 팔에 의해 다른 팔이 가려짐으로 인해 모션 인식 시스템에서 발생한 모션 인식 오류를, 양 팔이 펴져 있고 양 손이 맞닿은 자세에 의해 생성되는 형상을 참고하여 보정하되,
사용자의 양 손의 중간 위치를 기구의 위치로 수정하며,
기구의 위치는,
모션 센서가 생성한 모션 데이터들로부터 인식되고,
사용자의 모션은,
사격 자세이고,
기구는,
리볼버인 것을 특징으로 하는 모션 트래킹 시스템.
a motion recognition system that recognizes the user's motion through shooting;
a motion sensor mounted on an instrument held by a user to generate motion data for the instrument;
a processing unit for recognizing the motion of the device from motion data generated by the motion sensor;
Computing system for tracking the user's motion by fusing the recognition result of the motion recognition system and the recognition result of the motion sensor;
computing system,
Correct the motion recognition error that occurred in the motion recognition system due to the user's arm covering the other arm by referring to the shape created by the posture where both arms are in contact with each other.
The middle position of the user's hands is corrected to the position of the instrument,
The location of the device is
It is recognized from the motion data generated by the motion sensor,
The user's motion is
shooting posture,
the instrument,
A motion tracking system, characterized in that it is a revolver.
청구항 1에 있어서,
처리부는,
모션 데이터들에 필터를 적용하여 기구 모션의 방위와 가속도를 파악하는 것을 특징으로 하는 모션 트래킹 시스템.
The method according to claim 1,
processing unit,
A motion tracking system, characterized in that by applying a filter to the motion data, the direction and acceleration of the motion of the instrument are identified.
삭제delete 삭제delete 청구항 1에 있어서,
컴퓨팅 시스템은,
사용자의 한 팔에 의해 다른 팔이 가려짐으로 인해 모션 인식 시스템에서 발생한 모션 인식 오류를, 기구의 위치를 참고하여 보정하는 것을 특징으로 하는 모션 트래킹 시스템.
The method according to claim 1,
computing system,
A motion tracking system, characterized in that it corrects a motion recognition error occurring in the motion recognition system due to the user's arm covering the other arm by referring to the position of the device.
삭제delete 삭제delete 촬영을 통해 사용자의 모션을 인식하는 제1 인식단계;
사용자가 손에 든 기구에 장착된 모션 센서가, 기구에 대한 모션 데이터들을 생성하는 단계;
모션 데이터들로부터 기구의 모션을 인식하는 제2 인식단계;
제1 인식 단계에서의 인식된 사용자의 모션과 제2 인식 단계에서의 인식된 기구의 모션을 융합하여, 사용자의 모션을 트래킹하는 단계;를 포함하고,
트래킹 단계는,
사용자의 한 팔에 의해 다른 팔이 가려짐으로 인해 모션 인식 시스템에서 발생한 모션 인식 오류를, 양 팔이 펴져 있고 양 손이 맞닿은 자세에 의해 생성되는 형상을 참고하여 보정하되,
사용자의 양 손의 중간 위치를 기구의 위치로 수정하며,
기구의 위치는,
모션 센서가 생성한 모션 데이터들로부터 인식되고,
사용자의 모션은,
사격 자세이고,
기구는,
리볼버인 것을 특징으로 하는 모션 트래킹 방법.
A first recognition step of recognizing a user's motion through shooting;
generating, by a motion sensor mounted on an instrument held by the user, motion data for the instrument;
a second recognition step of recognizing the motion of the instrument from the motion data;
Including; fusing the motion of the user recognized in the first recognition step and the motion of the instrument recognized in the second recognition step to track the user's motion;
The tracking phase is
Correct the motion recognition error that occurred in the motion recognition system due to the user's arm covering the other arm by referring to the shape created by the posture where both arms are in contact with each other.
The middle position of the user's hands is corrected to the position of the instrument,
The location of the device is
It is recognized from the motion data generated by the motion sensor,
The user's motion is
shooting posture,
the instrument,
Motion tracking method, characterized in that the revolver.
KR1020170033674A 2017-03-17 2017-03-17 Motion Tracking System and Method for Revolver Shooting Training KR102333047B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170033674A KR102333047B1 (en) 2017-03-17 2017-03-17 Motion Tracking System and Method for Revolver Shooting Training

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170033674A KR102333047B1 (en) 2017-03-17 2017-03-17 Motion Tracking System and Method for Revolver Shooting Training

Publications (2)

Publication Number Publication Date
KR20180106080A KR20180106080A (en) 2018-10-01
KR102333047B1 true KR102333047B1 (en) 2021-12-01

Family

ID=63877285

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170033674A KR102333047B1 (en) 2017-03-17 2017-03-17 Motion Tracking System and Method for Revolver Shooting Training

Country Status (1)

Country Link
KR (1) KR102333047B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101525411B1 (en) * 2014-04-30 2015-06-09 주식회사 골프존유원홀딩스 Image generating method for analysis of user's golf swing, analyzing method for user's golf swing using the same and apparatus for analyzing golf swing

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100452917B1 (en) * 2001-10-09 2004-10-14 주식회사 제노프릭스 Method and System for sensing Three-Dimensional body motion using color marker
KR102026382B1 (en) * 2014-03-31 2019-09-30 한국전자통신연구원 System and method for motion estimation
KR101765322B1 (en) * 2015-09-08 2017-08-04 성승한 Posture correction device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101525411B1 (en) * 2014-04-30 2015-06-09 주식회사 골프존유원홀딩스 Image generating method for analysis of user's golf swing, analyzing method for user's golf swing using the same and apparatus for analyzing golf swing

Also Published As

Publication number Publication date
KR20180106080A (en) 2018-10-01

Similar Documents

Publication Publication Date Title
CN109887032B (en) Monocular vision SLAM-based vehicle positioning method and system
CN108700947B (en) System and method for concurrent ranging and mapping
WO2018076572A1 (en) Target tracking method, target tracking apparatus, and storage medium
EP3117601B1 (en) Latency reduction in camera-projection systems
CN106814753B (en) Target position correction method, device and system
US11788845B2 (en) Systems and methods for robust self-relocalization in a visual map
CN104620203A (en) Absolute and relative positioning sensor fusion in an interactive display system
WO2017126172A1 (en) Information processing device, information processing method, and recording medium
CN112819860B (en) Visual inertial system initialization method and device, medium and electronic equipment
CN107886494A (en) Detection method and detection means
CN112414400B (en) Information processing method and device, electronic equipment and storage medium
JP2017073753A (en) Correction method, program, and electronic apparatus
CN109143214B (en) Target positioning method and device adopting laser scanning
US20230213549A1 (en) Virtual Reality System with Modeling Poses of Tracked Objects by Predicting Sensor Data
JP2016142593A5 (en) Information processing apparatus, position update method, and program
US11187823B2 (en) Correcting distortions
CN113240806B (en) Information processing method, information processing device, electronic equipment and storage medium
KR102333047B1 (en) Motion Tracking System and Method for Revolver Shooting Training
KR101297317B1 (en) Calibration Method of Motion Sensor for Motion Tracking
KR102333054B1 (en) Kinect Sensor and IMU based Motion Tracking Method for Indoor Fire Hydrant Usage Training
CN112945231A (en) IMU and rigid body posture alignment method, device, equipment and readable storage medium
US20210201011A1 (en) Data processing method for multi-sensor fusion, positioning apparatus and virtual reality device
US11067814B2 (en) Smart head-mounted display alignment system and method
CN108038871A (en) The pivot of rotating platform determines method, apparatus, server and storage medium
CN114147707A (en) Robot docking method and device based on visual identification information

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)