KR20190027490A - 옥내 소화전 사용 훈련을 위한 키넥트 센서 및 imu 기반 모션 트래킹 방법 - Google Patents

옥내 소화전 사용 훈련을 위한 키넥트 센서 및 imu 기반 모션 트래킹 방법 Download PDF

Info

Publication number
KR20190027490A
KR20190027490A KR1020170114315A KR20170114315A KR20190027490A KR 20190027490 A KR20190027490 A KR 20190027490A KR 1020170114315 A KR1020170114315 A KR 1020170114315A KR 20170114315 A KR20170114315 A KR 20170114315A KR 20190027490 A KR20190027490 A KR 20190027490A
Authority
KR
South Korea
Prior art keywords
motion
user
fire hydrant
indoor fire
tracking
Prior art date
Application number
KR1020170114315A
Other languages
English (en)
Other versions
KR102333054B1 (ko
Inventor
김영범
박병하
Original Assignee
전자부품연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전자부품연구원 filed Critical 전자부품연구원
Priority to KR1020170114315A priority Critical patent/KR102333054B1/ko
Publication of KR20190027490A publication Critical patent/KR20190027490A/ko
Application granted granted Critical
Publication of KR102333054B1 publication Critical patent/KR102333054B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • G06K9/00335
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Educational Administration (AREA)
  • Business, Economics & Management (AREA)
  • Educational Technology (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Manipulator (AREA)

Abstract

옥내 소화전 사용 훈련을 위한 키넥트 센서 및 IMU 기반 모션 트래킹 시스템과 방법이 제공된다. 본 발명의 실시예에 따른 모션 트래킹 시스템은, 사용자가 손에 든 기구에 대한 모션 데이터들을 생성하는 모션 센서가 생성한 모션 데이터들로부터 기구의 모션을 인식하는 처리부 및 촬영을 통해 사용자의 모션을 인식하는 모션 인식 시스템의 인식 결과와 모션 센서의 인식 결과를 융합하여, 사용자의 모션을 트래킹하는 컴퓨팅 시스템을 포함한다. 이에 의해, 저비용으로 사후강평, 디브리핑을 지원하기 위한 옥내 소화전 사용 훈련자의 모션 트래킹 시스템 구축이 가능하며, 한 팔에 의한 다른 팔의 가려짐에 강건한 모션 트래킹이 가능하고, 인접한 양손의 위치 오류에 강건한 모션 트래킹이 가능하다.

Description

옥내 소화전 사용 훈련을 위한 키넥트 센서 및 IMU 기반 모션 트래킹 방법{Kinect Sensor and IMU based Motion Tracking Method for Indoor Fire Hydrant Usage Training}
본 발명은 모션 트래킹 기술에 관한 것으로, 더욱 상세하게는 옥내 소화전 사용 훈련을 위한 모션 트래킹 시스템 및 방법에 관한 것이다.
모션 트래킹 기술은 크게 IR 카메라-마커 기반 모션 트래킹, 키넥트 기반 모션 트래킹이 널리 활용되고 있다.
IR 카메라-마커 기반 모션 트래킹 기술은 정밀한 트래킹이 가능하나, 구축에 많은 비용이 소요되어 중저가형 훈련 시스템 구축에 적합하지 않으며, 훈련자에게 마커를 장착해야 하는 등의 선행 작업이 필요하다는 문제점이 있다.
키넥트 기반 모션 트래킹 기술은 구축 비용은 저렴하나, 가려짐(occlusion)에 취약하고, 데이터가 왜곡되는 경우가 자주 발생하여, 훈련자 모션을 충분한 정확도로 트래킹하기 어렵다는 문제점이 있다.
이에, 낮은 구축 비용으로 옥내 소화전 사용 훈련을 위한 모션 트래킹을 정확하게 수행하기 위한 방안의 모색이 요청된다.
본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은, 옥내 소화전 사용 훈련에서 안정적이고 정밀한 모션 트래킹을 저비용으로 수행할 수 있는 시스템 및 방법을 제공함에 있다.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른, 모션 트래킹 시스템은, 사용자가 손에 든 기구에 대한 모션 데이터들을 생성하는 모션 센서가 생성한 모션 데이터들로부터 기구의 모션을 인식하는 처리부; 및 촬영을 통해 사용자의 모션을 인식하는 모션 인식 시스템의 인식 결과와 모션 센서의 인식 결과를 융합하여, 사용자의 모션을 트래킹하는 컴퓨팅 시스템;을 포함한다.
그리고, 처리부는, 모션 데이터들에 필터를 적용하여 기구 모션의 방위와 가속도를 파악할 수 있다.
또한, 사용자의 모션은, 양 팔이 구부러진 상태로 모여 있고, 양 손이 인접한 자세일 수 있다.
그리고, 컴퓨팅 시스템은, 사용자의 한 팔에 의해 다른 팔이 가려짐으로 인해 모션 인식 시스템에서 발생한 모션 인식 오류를, 사용자의 모션에 의해 생성되는 형상을 참고하여 보정할 수 있다.
또한, 컴퓨팅 시스템은, 사용자의 한 팔에 의해 다른 팔이 가려짐으로 인해 모션 인식 시스템에서 발생한 모션 인식 오류를, 기구의 위치를 참고하여 보정할 수 있다.
그리고, 컴퓨팅 시스템은, 기구의 위치로 오른손과 왼손의 자세를 역기구학을 통해 계산할 수 있다.
또한, 사용자의 모션은, 옥내 소화전 사용 훈련 자세이고, 기구는, 노즐일 수 있다.
한편, 본 발명의 다른 실시예에 따른, 모션 트래킹 방법은, 사용자가 손에 든 기구에 대한 모션 데이터들로부터 기구의 모션을 인식하는 단계; 및 촬영을 통해 인식된 사용자의 모션과 인식 단계에서의 인식된 기구의 모션을 융합하여, 사용자의 모션을 트래킹하는 단계;를 포함한다.
이상 설명한 바와 같이, 본 발명의 실시예들에 따르면, 저비용으로 사후강평(After-action review), 디브리핑을 지원하기 위한 옥내 소화전 사용 훈련자의 모션 트래킹 시스템 구축이 가능해진다.
또한, 본 발명의 실시예들에 따르면, 한 팔에 의한 다른 팔의 가려짐에 강건한 모션 트래킹이 가능하고, 인접한 양손의 위치 오류에 강건한 모션 트래킹이 가능하다.
도 1은 본 발명의 일 실시예에 따른 모션 트래킹 시스템의 개념 설명에 제공되는 도면,
도 2는 본 발명의 일 실시예에 따른 모션 트래킹 시스템의 구성도, 그리고,
도 3은 본 발명의 다른 실시예에 따른 모션 트래킹 방법의 설명에 제공되는 흐름도이다.
이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다.
도 1은 본 발명의 일 실시예에 따른 모션 트래킹 시스템의 개념 설명에 제공되는 도면이다. 본 발명의 실시예에 따른 모션 트래킹 시스템은, 옥내 소화전 사용 훈련자의 모션 트래킹을 위한 시스템이다.
본 발명의 실시예에 따른 모션 트래킹 시스템은, 도 1에 도시된 바와 같이, 키넥트(Kinect) 센서와 IMU(Inertial Measurement Unit)를 이용하여 옥내 소화전 사용 훈련자와 노즐의 모션을 인식하고 인식 결과를 융합하여 훈련자의 모션을 트래킹한다.
도 2는 본 발명의 일 실시예에 따른 모션 트래킹 시스템의 구성도이다. 본 발명의 실시예에 따른 모션 트래킹 시스템은, 도 2에 도시된 바와 같이, 키넥트 센서(110), IMU(120), 신호 처리부(130) 및 컴퓨팅 시스템(140)을 포함한다.
키넥트 센서(110)는 카메라를 이용한 촬영을 통해 옥내 소화전 사용 훈련자의 모션을 인식하는 모션 인식 시스템의 일종이다. 카메라에는 영상 카메라(RGB-카메라)와 뎁스-카메라(Z-카메라)가 포함된다.
IMU(120)는 소화전 호스의 말단에 설치된 노즐, 구체적으로는 노즐 하단의 고정부에 장착(도 1 참조)되어, 옥내 소화전 사용 훈련자가 양 손으로 든 노즐의 모션 데이터들을 생성하는 모션 센서의 일종이다.
신호 처리부(130)는 IMU(120)에서 생성된 모션 데이터들인 각속도, 가속도 및 자기장 데이터에 확장된 칼만 필터(extended Kalman filter)를 적용하여 노즐 모션의 방위와 가속도 데이터를 생성한다.
컴퓨팅 시스템(140)은 키넥트 센서(110)에 의한 옥내 소화전 사용 훈련자의 모션 인식 결과와 IMU(120)에 의한 노즐의 모션 인식 결과를 융합하여 옥내 소화전 사용 훈련자의 모션을 트래킹한다.
트래킹하는 옥내 소화전 사용 훈련자의 모션은, 양 팔이 구부러진 상태로 모여 있고, 노즐을 든 양 손이 인접한 자세로, 삼각형 형상이 생성된다.
사용자의 한 팔에 의해 다른 팔이 가려짐으로 인한 키넥트 센서(110)의 옥내 소화전 사용 훈련자의 모션 인식 오류를 해소하기 위해, 컴퓨팅 시스템(140)은 통상 옥내 소화전 사용 훈련에서 옥내 소화전 사용 훈련자가 취하는 모션에 의해 생성되는 삼각형 형상을 기초로 보정한다.
또한, 위 모션 인식 오류를 해소하기 위해, 컴퓨팅 시스템(140)은 IMU(120)에 의해 파악된 노즐의 위치를 기초로 옥내 소화전 사용 훈련자의 모션을 보정한다.
그리고, 컴퓨팅 시스템(140)은 IMU(120)에 의해 파악된 노즐의 위치로 옥내 소화전 사용 훈련자의 오른손과 왼손의 자세를 역기구학(inverse kinematics)을 통해 계산한다.
이때, 옥내 소화전 사용 훈련자가 오른손 잡이인 경우, 오른손은 노즐 하단 고정부를 쥐고, 왼손은 노즐 상단 회전부를 쥐도록 제약을 가한다. 훈련자가 왼손 잡이인 경우, 왼손은 노즐 하단 고정부를 쥐고, 오른손은 노즐 상단 회전부를 쥐도록 제약을 가한다.
도 3은 본 발명의 다른 실시예에 따른 모션 트래킹 방법의 설명에 제공되는 흐름도이다.
옥내 소화전 사용 훈련자의 모션 트래킹을 위해, 도 3에 도시된 바와 같이, 먼저 키넥트 센서(110)는 옥내 소화전 사용 훈련자의 모션을 인식한다(S210).
그리고, IMU(120)는 노즐의 모션 데이터들을 생성하고, 신호 처리부(130)는 IMU(120)에서 감지된 모션 데이터들로부터 방위와 가속도를 계산하여 노즐의 모션을 인식한다(S220).
그러면, 컴퓨팅 시스템(140)은 S210단계에서 인식한 옥내 소화전 사용 훈련자의 모션을 보정한다(S230).
S230단계에서의 보정에는, 통상적으로 옥내 소화전 사용 훈련자가 취하는 모션의 형상(양 팔이 구부러진 상태로 모여 있고 노즐을 든 양 손이 인접한 자세로 생성되는 삼각형 형상)과 S220단계에서 파악된 노즐의 위치가 참조된다.
또한, 컴퓨팅 시스템(140)은 S210단계에서 인식한 옥내 소화전 사용 훈련자의 손 자세를 보정한다(S240).
S240단계에서의 보정에는, S220단계에서 파악된 노즐의 위치가 참조되며, 구체적으로는 노즐의 위치로 옥내 소화전 사용 훈련자의 오른손과 왼손의 자세를 역기구학을 통해 계산한다.
이때, 옥내 소화전 사용 훈련자가 오른손 잡이인 경우, 오른손은 노즐 하단 고정부를 쥐고, 왼손은 노즐 상단 회전부를 쥐도록 제약을 가한다. 훈련자가 왼손 잡이인 경우, 왼손은 노즐 하단 고정부를 쥐고, 오른손은 노즐 상단 회전부를 쥐도록 제약을 가한다.
지금까지, 옥내 소화전 사용 훈련을 위한 모션 트래킹 시스템 및 방법에 대해 바람직한 실시예를 들어 상세히 설명하였다.
위 실시예에서는, 옥내 소화전 사용 훈련에서 안정적이고 정밀한 모션 트래킹을 저비용으로 수행할 수 있는 시스템 및 방법을 제시하였다.
이에 의해, 저비용으로 사후강평, 디브리핑을 지원하기 위한 옥내 소화전 사용 훈련자의 모션 트래킹이 가능해지며, 한 팔에 의한 다른 팔의 가려짐에 강건한 모션 트래킹이 가능하고, 인접한 양손의 위치 오류에 강건한 모션 트래킹이 가능하다.
위 실시예에서 언급한 옥내 소화전 사용 훈련 자세 트래킹은 예시적인 것에 불과하다. 노즐 이외의 다른 기구를 들고 옥내 소화전 사용이 아닌 다른 훈련/행위를 수행하는 경우에 있어서도, 본 발명의 기술적 사상이 적용될 수 있다.
한편, 본 실시예에 따른 장치와 방법의 기능을 수행하게 하는 컴퓨터 프로그램을 수록한 컴퓨터로 읽을 수 있는 기록매체에도 본 발명의 기술적 사상이 적용될 수 있음은 물론이다. 또한, 본 발명의 다양한 실시예에 따른 기술적 사상은 컴퓨터로 읽을 수 있는 기록매체에 기록된 컴퓨터로 읽을 수 있는 코드 형태로 구현될 수도 있다. 컴퓨터로 읽을 수 있는 기록매체는 컴퓨터에 의해 읽을 수 있고 데이터를 저장할 수 있는 어떤 데이터 저장 장치이더라도 가능하다. 예를 들어, 컴퓨터로 읽을 수 있는 기록매체는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광디스크, 하드 디스크 드라이브, 등이 될 수 있음은 물론이다. 또한, 컴퓨터로 읽을 수 있는 기록매체에 저장된 컴퓨터로 읽을 수 있는 코드 또는 프로그램은 컴퓨터간에 연결된 네트워크를 통해 전송될 수도 있다.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
110 : 키넥트(Kinect) 센서
120 : IMU(Inertial Measurement Unit)
130 : 신호 처리부
140 : 컴퓨팅 시스템

Claims (8)

  1. 사용자가 손에 든 기구에 대한 모션 데이터들을 생성하는 모션 센서가 생성한 모션 데이터들로부터 기구의 모션을 인식하는 처리부;
    촬영을 통해 사용자의 모션을 인식하는 모션 인식 시스템의 인식 결과와 모션 센서의 인식 결과를 융합하여, 사용자의 모션을 트래킹하는 컴퓨팅 시스템;을 포함하는 것을 특징으로 하는 모션 트래킹 시스템.
  2. 청구항 1에 있어서,
    처리부는,
    모션 데이터들에 필터를 적용하여 기구 모션의 방위와 가속도를 파악하는 것을 특징으로 하는 모션 트래킹 시스템.
  3. 청구항 2에 있어서,
    사용자의 모션은,
    양 팔이 구부러진 상태로 모여 있고, 양 손이 인접한 자세인 것을 특징으로 하는 모션 트래킹 시스템.
  4. 청구항 3에 있어서,
    컴퓨팅 시스템은,
    사용자의 한 팔에 의해 다른 팔이 가려짐으로 인해 모션 인식 시스템에서 발생한 모션 인식 오류를, 사용자의 모션에 의해 생성되는 형상을 참고하여 보정하는 것을 특징으로 하는 모션 트래킹 시스템.
  5. 청구항 3에 있어서,
    컴퓨팅 시스템은,
    사용자의 한 팔에 의해 다른 팔이 가려짐으로 인해 모션 인식 시스템에서 발생한 모션 인식 오류를, 기구의 위치를 참고하여 보정하는 것을 특징으로 하는 모션 트래킹 시스템.
  6. 청구항 3에 있어서,
    컴퓨팅 시스템은,
    기구의 위치로 오른손과 왼손의 자세를 역기구학을 통해 계산하는 것을 특징으로 하는 모션 트래킹 시스템.
  7. 청구항 1에 있어서,
    사용자의 모션은, 옥내 소화전 사용 훈련 자세이고,
    기구는, 노즐인 것을 특징으로 하는 모션 트래킹 시스템.
  8. 사용자가 손에 든 기구에 대한 모션 데이터들로부터 기구의 모션을 인식하는 단계; 및
    촬영을 통해 인식된 사용자의 모션과 인식 단계에서의 인식된 기구의 모션을 융합하여, 사용자의 모션을 트래킹하는 단계;를 포함하는 것을 특징으로 하는 모션 트래킹 방법.
KR1020170114315A 2017-09-07 2017-09-07 옥내 소화전 사용 훈련을 위한 키넥트 센서 및 imu 기반 모션 트래킹 방법 KR102333054B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170114315A KR102333054B1 (ko) 2017-09-07 2017-09-07 옥내 소화전 사용 훈련을 위한 키넥트 센서 및 imu 기반 모션 트래킹 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170114315A KR102333054B1 (ko) 2017-09-07 2017-09-07 옥내 소화전 사용 훈련을 위한 키넥트 센서 및 imu 기반 모션 트래킹 방법

Publications (2)

Publication Number Publication Date
KR20190027490A true KR20190027490A (ko) 2019-03-15
KR102333054B1 KR102333054B1 (ko) 2021-12-01

Family

ID=65762692

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170114315A KR102333054B1 (ko) 2017-09-07 2017-09-07 옥내 소화전 사용 훈련을 위한 키넥트 센서 및 imu 기반 모션 트래킹 방법

Country Status (1)

Country Link
KR (1) KR102333054B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110142769A (zh) * 2019-04-11 2019-08-20 浙江工业大学 基于人体姿态识别的ros平台在线机械臂示教***

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010102881A (ko) * 2001-10-09 2001-11-17 하영균 색 마커를 이용한 3차원 신체 동작 인식방법 및 시스템
KR101525411B1 (ko) * 2014-04-30 2015-06-09 주식회사 골프존유원홀딩스 사용자의 골프 스윙 분석을 위한 영상 생성 방법, 이를 이용한 사용자의 골프 스윙에 대한 분석 방법 및 골프 스윙 분석 장치
KR20150114141A (ko) * 2014-03-31 2015-10-12 한국전자통신연구원 모션 추정 시스템 및 방법
KR20170090276A (ko) * 2016-01-28 2017-08-07 엠더블유엔테크 주식회사 가상현실 소방체험 시스템

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010102881A (ko) * 2001-10-09 2001-11-17 하영균 색 마커를 이용한 3차원 신체 동작 인식방법 및 시스템
KR20150114141A (ko) * 2014-03-31 2015-10-12 한국전자통신연구원 모션 추정 시스템 및 방법
KR101525411B1 (ko) * 2014-04-30 2015-06-09 주식회사 골프존유원홀딩스 사용자의 골프 스윙 분석을 위한 영상 생성 방법, 이를 이용한 사용자의 골프 스윙에 대한 분석 방법 및 골프 스윙 분석 장치
KR20170090276A (ko) * 2016-01-28 2017-08-07 엠더블유엔테크 주식회사 가상현실 소방체험 시스템

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110142769A (zh) * 2019-04-11 2019-08-20 浙江工业大学 基于人体姿态识别的ros平台在线机械臂示教***
CN110142769B (zh) * 2019-04-11 2021-10-15 浙江工业大学 基于人体姿态识别的ros平台在线机械臂示教***

Also Published As

Publication number Publication date
KR102333054B1 (ko) 2021-12-01

Similar Documents

Publication Publication Date Title
US20210208180A1 (en) Correction of accumulated errors in inertial measurement units attached to a user
US10521011B2 (en) Calibration of inertial measurement units attached to arms of a user and to a head mounted device
JP6198230B2 (ja) 深度カメラを使用した頭部姿勢トラッキング
JP5223502B2 (ja) 方位追従表示装置、方位追従表示方法および方位追従表示プログラム
US20150007658A1 (en) Motion detection device and motion analysis system
US9378559B2 (en) System and method for motion estimation
WO2018196216A1 (zh) 一种坐标对齐方法、***和虚拟现实***
WO2017126172A1 (ja) 情報処理装置、情報処理方法、及び記録媒体
US20170120124A1 (en) Swing analysis apparatus, swing analysis system, swing analysis method, swing analysis program, recording medium, and swing display apparatus
JP2017073753A (ja) 補正方法、プログラム及び電子機器
US20230213549A1 (en) Virtual Reality System with Modeling Poses of Tracked Objects by Predicting Sensor Data
US11187823B2 (en) Correcting distortions
JP2007183332A (ja) 操作訓練装置
US20150119159A1 (en) Motion analyzing apparatus, motion analyzing method, and motion analyzing program
US20200334837A1 (en) Method for predicting a motion of an object, method for calibrating a motion model, method for deriving a predefined quantity and method for generating a virtual reality view
KR20190027490A (ko) 옥내 소화전 사용 훈련을 위한 키넥트 센서 및 imu 기반 모션 트래킹 방법
KR101297317B1 (ko) 동작 추적을 위한 모션 센서의 교정 방법
JP6812755B2 (ja) 情報投影装置、情報投影方法及び情報投影プログラム
US20140375562A1 (en) System and Process for Human-Computer Interaction Using a Ballistic Projectile as an Input Indicator
JP2016055028A (ja) 運動解析方法、運動解析装置、運動解析システム及びプログラム
KR102333047B1 (ko) 리볼버 사격 훈련을 위한 모션 트래킹 시스템 및 방법
US11224787B2 (en) Swing measurement device, swing measurement method, and swing measurement program
US20210201011A1 (en) Data processing method for multi-sensor fusion, positioning apparatus and virtual reality device
JP2015100567A (ja) 方位角キャリブレーション方法、運動解析装置、および方位角キャリブレーションプログラム
CN114733189A (zh) 一种体感击球的控制方法、装置、介质和电子设备

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)