KR20220098064A - User customized exercise method and system - Google Patents
User customized exercise method and system Download PDFInfo
- Publication number
- KR20220098064A KR20220098064A KR1020200188963A KR20200188963A KR20220098064A KR 20220098064 A KR20220098064 A KR 20220098064A KR 1020200188963 A KR1020200188963 A KR 1020200188963A KR 20200188963 A KR20200188963 A KR 20200188963A KR 20220098064 A KR20220098064 A KR 20220098064A
- Authority
- KR
- South Korea
- Prior art keywords
- user
- avatar
- motion
- data
- unit
- Prior art date
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B71/00—Games or sports accessories not covered in groups A63B1/00 - A63B69/00
- A63B71/06—Indicating or scoring devices for games or players, or for other sports activities
- A63B71/0619—Displays, user interfaces and indicating devices, specially adapted for sport equipment, e.g. display mounted on treadmills
- A63B71/0622—Visual, audio or audio-visual systems for entertaining, instructing or motivating the user
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B24/00—Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B24/00—Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
- A63B24/0003—Analysing the course of a movement or motion sequences during an exercise or trainings sequence, e.g. swing for golf or tennis
- A63B24/0006—Computerised comparison for qualitative assessment of motion sequences or the course of a movement
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B24/00—Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
- A63B24/0062—Monitoring athletic performances, e.g. for determining the work of a user on an exercise apparatus, the completed jogging or cycling distance
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B24/00—Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
- A63B24/0075—Means for generating exercise programs or schemes, e.g. computerized virtual trainer, e.g. using expert databases
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B71/00—Games or sports accessories not covered in groups A63B1/00 - A63B69/00
- A63B71/06—Indicating or scoring devices for games or players, or for other sports activities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B24/00—Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
- A63B24/0003—Analysing the course of a movement or motion sequences during an exercise or trainings sequence, e.g. swing for golf or tennis
- A63B24/0006—Computerised comparison for qualitative assessment of motion sequences or the course of a movement
- A63B2024/0012—Comparing movements or motion sequences with a registered reference
- A63B2024/0015—Comparing movements or motion sequences with computerised simulations of movements or motion sequences, e.g. for generating an ideal template as reference to be achieved by the user
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B71/00—Games or sports accessories not covered in groups A63B1/00 - A63B69/00
- A63B71/06—Indicating or scoring devices for games or players, or for other sports activities
- A63B71/0619—Displays, user interfaces and indicating devices, specially adapted for sport equipment, e.g. display mounted on treadmills
- A63B71/0622—Visual, audio or audio-visual systems for entertaining, instructing or motivating the user
- A63B2071/0625—Emitting sound, noise or music
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B71/00—Games or sports accessories not covered in groups A63B1/00 - A63B69/00
- A63B71/06—Indicating or scoring devices for games or players, or for other sports activities
- A63B71/0619—Displays, user interfaces and indicating devices, specially adapted for sport equipment, e.g. display mounted on treadmills
- A63B2071/0647—Visualisation of executed movements
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B71/00—Games or sports accessories not covered in groups A63B1/00 - A63B69/00
- A63B71/06—Indicating or scoring devices for games or players, or for other sports activities
- A63B71/0619—Displays, user interfaces and indicating devices, specially adapted for sport equipment, e.g. display mounted on treadmills
- A63B2071/0658—Position or arrangement of display
- A63B2071/0661—Position or arrangement of display arranged on the user
- A63B2071/0666—Position or arrangement of display arranged on the user worn on the head or face, e.g. combined with goggles or glasses
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B2220/00—Measuring of physical parameters relating to sporting activity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
- G06V2201/033—Recognition of patterns in medical or anatomical images of skeletal patterns
Abstract
Description
본 발명은 사용자 맞춤형 운동 훈련 방법 및 시스템에 관한 것으로, 보다 상세하게는, 사용자의 체형, 체력, 운동 능력 등과 같은 신체적 특징 및 목적에 따라, 그에 적합한 운동 훈련 처방을 사용자에게 제공하는 사용자 맞춤형 운동 훈련 방법 및 시스템에 관한 것이다.The present invention relates to a user-customized exercise training method and system, and more particularly, to a user-customized exercise training that provides a user with an exercise training prescription suitable for the user's physical characteristics and purpose, such as body type, physical strength, athletic ability, etc. It relates to methods and systems.
최근, 가상현실 또는 영상을 통하여 운동을 하는 셀프 피트니스 시스템이 출시되고 있으며, 이에 대한 연구도 활발히 진행되고 있다.Recently, a self-fitness system for exercising through virtual reality or an image has been released, and research on this is being actively conducted.
나아가, 사용자 자신의 모습을 아바타로 구현하여, 사용자 자신의 동작을 3인칭 시점에서 체크하거나, 전문가의 동작과 사용자의 동작을 실시간으로 비교하는 시스템도 개발되고 있다.Furthermore, a system is being developed that implements the user's own appearance as an avatar, checks the user's own motion from a third-person point of view, or compares the user's motion with an expert's motion in real time.
이 경우, 시스템 상의 트레이너 또는 전문가의 신체적 특징이 운동 수행자인 사용자의 신체적 특징과 상이하여, 사용자로 하여금 운동 몰입도가 떨어지고, 동작에 대한 정확한 교정을 제공받기 어려울 수 있다.In this case, since the physical characteristics of the trainer or the expert on the system are different from the physical characteristics of the user who is an exercise performer, the user's exercise immersion may decrease and it may be difficult to receive accurate correction of the motion.
본 발명의 목적은 사용자의 신체적 특징 및 목적에 따라 정밀성이 높은 운동 훈련 처방을 사용자에게 제공하는 데 있다. 또한, 사용자 아바타와 훈련용 아바타를 실시간으로 비교 분석할 수 있도록 사용자에게 제공함으로써, 사용자의 사용 편의성 및 운동 훈련 효과를 향상시키는 데 있다.An object of the present invention is to provide a user with a high-precision exercise training prescription according to the user's physical characteristics and purpose. In addition, by providing the user so that the user avatar and the training avatar can be compared and analyzed in real time, the user's ease of use and the exercise training effect are improved.
본 발명의 실시 예에 따른 사용자 맞춤형 운동 훈련 시스템은 사용자의 신체적 특징 및 움직임을 센싱하여 동작 데이터를 수집하는 센싱부, 상기 동작 데이터 및 사용자에 의하여 입력되는 입력 데이터를 분석하고, 분석한 데이터에 기초하여 훈련용 아바타를 생성하는 산출부, 사용자에게 영상 및 사운드를 제공하고, 사용자의 입력을 수신하는 인터페이스부, 및 상기 센싱부, 상기 산출부 및 상기 인터페이스부 간의 데이터를 송수신하고, 상기 센싱부, 상기 산출부 및 상기 인터페이스부 각각의 구동을 제어하는 제어부를 포함하고, 상기 산출부는, 상기 동작 데이터 및 상기 입력 데이터를 분석하여 상기 동작 데이터 및 상기 입력 데이터 간의 차이점을 추출하고, 변환 요소를 산출하는 분석부, 및 상기 동작 데이터에 기초하여 사용자 아바타를 생성하고, 상기 입력 데이터에 기초하여 타겟 아바타를 생성하고, 상기 변환 요소를 적용하여 상기 훈련용 아바타를 생성하는 아바타 생성부를 포함한다.A user-customized exercise training system according to an embodiment of the present invention includes a sensing unit that collects motion data by sensing a user's physical characteristics and motion, analyzes the motion data and input data input by the user, and based on the analyzed data a calculator for generating an avatar for training, an interface for providing images and sound to a user, and receiving a user's input; and a control unit for controlling driving of each of the calculation unit and the interface unit, wherein the calculation unit analyzes the motion data and the input data to extract a difference between the motion data and the input data, and calculates a conversion factor and an avatar generator configured to generate a user avatar based on the analysis unit, the motion data, generate a target avatar based on the input data, and apply the transformation element to generate the training avatar.
상기 사용자 아바타는 사용자에게 제공되는 상기 영상을 통하여 상기 사용자의 움직임에 대응하여 움직이도록 동기화되고, 상기 훈련용 아바타의 체형은 상기 사용자 아바타의 체형과 동일하다.The user avatar is synchronized to move in response to the user's movement through the image provided to the user, and the body shape of the training avatar is the same as that of the user avatar.
상기 동작 데이터는 복수의 동작 요소들 중 적어도 어느 일 동작 요소의 수치를 포함하고, 상기 복수의 동작 요소들은 사용자의 근력, 근육량, 체형, 자세, 지방량, 체중, 가동범위, 유연성, 순발력, 균형능력, 심폐능력, 조화능력, 신체-운동지능, 운동감각능력 등을 포함한다.The motion data includes a numerical value of at least any one of a plurality of motion elements, and the plurality of motion factors include a user's muscle strength, muscle mass, body type, posture, fat mass, body weight, range of motion, flexibility, quickness, and balance ability. , cardiorespiratory ability, coordination ability, body-motor intelligence, kinesthetic ability, etc.
상기 입력 데이터는 상기 복수의 동작 요소들 중 사용자가 목표하는 특정 동작 요소에 대한 목표 수치를 포함하고, 상기 아바타 생성부는 상기 특정 동작 요소에 대한 상기 목표 수치를 충족하는 타겟 아바타를 생성한다.The input data includes a target value for a specific motion element targeted by a user among the plurality of motion elements, and the avatar generator generates a target avatar that satisfies the target value for the specific motion factor.
상기 변환 요소는 운동량, 동작유지시간, 휴식시간, 동작횟수, 호흡주기, 중량, 소모칼로리, 각 관절들의 각속도, 선속도 등을 포함한다.The conversion factor includes an amount of exercise, an operation maintenance time, a rest time, the number of operations, a breathing cycle, weight, calories consumed, an angular velocity of each joint, a linear velocity, and the like.
상기 인터페이스부는, 상기 사용자에게 영상을 제공하는 디스플레이부, 상기 사용자에게 사운드를 제공하는 스피커, 및 상기 사용자의 입력을 수신하는 컨트롤러를 포함하고, 상기 디스플레이부는 상기 사용자 아바타 및 상기 훈련용 아바타를 동시에 표시한다.The interface unit may include a display unit providing an image to the user, a speaker providing sound to the user, and a controller receiving the user's input, wherein the display unit simultaneously displays the user avatar and the training avatar do.
상기 센싱부는, 사용자의 기초체형정보, 생체정보 및 관절들의 움직임정보를 측정하는 동작센싱부, 및 사용자의 동공의 움직임을 측정하여 사용자의 시선을 센싱하는 시선추적부를 포함한다.The sensing unit includes a motion sensing unit for measuring the user's basic body information, biometric information, and movement information of the joints, and a gaze tracking unit for sensing the user's gaze by measuring the movement of the user's pupil.
상기 동작센싱부는 카메라, 자이로센서, 압력센서, 지자계센서, 피부전도도 센서, 적외선 센서, 레이져 센서, RF 센서, 초음파 센서 중 적어도 어느 하나를 포함한다.The motion sensing unit includes at least one of a camera, a gyro sensor, a pressure sensor, a geomagnetic sensor, a skin conductivity sensor, an infrared sensor, a laser sensor, an RF sensor, and an ultrasonic sensor.
상기 디스플레이부는 상기 디스플레이부가 제공하는 영상 범위 내에서, 상기 시선추적부에 의하여 센싱된 일 영역을 확대 또는 강조하여 표시한다.The display unit enlarges or highlights an area sensed by the eye tracking unit within the image range provided by the display unit, and displays the enlarged or emphasized area.
상기 디스플레이부는 헤드 마운트 디스플레이 형태로 제공된다.The display unit is provided in the form of a head mounted display.
본 발명의 실시 예에 따른 사용자 맞춤형 운동 훈련 방법은 사용자의 신체적 특징 및 움직임을 센싱하여 동작 데이터를 수집하는 단계, 상기 동작 데이터에 기초하여 사용자 아바타를 생성하는 단계, 사용자의 입력을 통하여 타겟 아바타를 생성하는 단계, 상기 동작 데이터 및 상기 입력 데이터를 분석하여, 상기 동작 데이터 및 상기 입력 데이터 간의 차이점을 추출하는 단계, 상기 차이점을 분석하여 변환 요소를 산출하는 단계, 상기 변환 요소를 적용하여 훈련용 아바타를 생성하는 단계, 및 상기 훈련용 아바타를 통하여 사용자에게 운동을 처방하는 단계를 포함한다.A user-customized exercise training method according to an embodiment of the present invention includes collecting motion data by sensing a user's physical characteristics and movement, generating a user avatar based on the motion data, and selecting a target avatar through a user's input. generating, analyzing the motion data and the input data to extract a difference between the motion data and the input data, analyzing the difference to calculate a transform factor, applying the transform factor to the training avatar and prescribing an exercise to the user through the training avatar.
상기 동작 데이터를 수집하는 단계에서, 상기 동작 데이터는 복수의 동작 요소들 중 적어도 어느 일 동작 요소의 수치를 포함하고, 상기 복수의 동작 요소들은 사용자의 근력, 근육량, 체형, 자세, 지방량, 체중, 가동범위, 유연성, 순발력, 균형능력, 심폐능력, 조화능력, 신체-운동지능, 운동감각능력 등을 포함한다.In the step of collecting the motion data, the motion data includes a numerical value of at least one of a plurality of motion elements, and the plurality of motion factors include a user's muscle strength, muscle mass, body type, posture, fat mass, body weight, It includes range of motion, flexibility, agility, balance ability, cardiorespiratory ability, coordination ability, body-motor intelligence, and kinesthetic ability.
상기 타겟 아바타를 생성하는 단계는, 사용자가 상기 복수의 동작 요소들 중 사용자가 목표하는 특정 동작 요소를 선택하는 단계, 사용자가 상기 특정 동작 요소에 대한 목표 수치를 선택하는 단계, 및 상기 특정 동작 요소에 대한 상기 목표 수치를 충족하는 타겟 아바타를 생성하는 단계를 포함한다.The generating the target avatar includes: a user selecting a specific motion element that the user targets from among the plurality of motion elements, the user selecting a target value for the specific motion element, and the specific motion element and generating a target avatar that satisfies the target value for .
상기 동작 데이터 및 상기 입력 데이터 간의 차이점을 추출하는 단계에서, 상기 차이점은, 상기 사용자 아바타와 상기 타겟 아바타 간의 근력, 근육량, 체형, 자세, 지방량, 체중, 가동범위, 유연성, 순발력, 균형능력, 심폐능력, 조화능력, 신체-운동지능, 운동감각능력 중 적어도 어느 하나의 차이값을 포함한다.In the step of extracting the difference between the motion data and the input data, the difference is determined between the user avatar and the target avatar in terms of muscle strength, muscle mass, body type, posture, fat mass, weight, range of motion, flexibility, agility, balance ability, cardiopulmonary It includes the difference value of at least one of ability, coordination ability, body-motor intelligence, and kinesthetic ability.
상기 변환 요소를 산출하는 단계에서, 상기 변환 요소는 운동량, 동작유지시간, 휴식시간, 동작횟수, 호흡주기, 중량, 소모칼로리, 각 관절들의 각속도, 선속도 등을 포함한다.In the step of calculating the conversion factor, the conversion factor includes an amount of exercise, an operation maintenance time, a rest time, the number of motions, a breathing cycle, weight, calories consumed, an angular velocity of each joint, a linear velocity, and the like.
상기 사용자에게 운동을 처방하는 단계는, 디스플레이를 통하여 제공되는 영상에 표시되는 상기 사용자 아바타가 상기 사용자의 움직임에 대응하여 움직이도록 동기화시키는 단계, 및 사용자로 하여금 상기 영상에 표시되는 상기 훈련용 아바타의 움직임을 따라하도록 요청하는 단계를 포함한다.Prescribing the exercise to the user may include synchronizing the user avatar displayed on an image provided through a display to move in response to the user's movement, and allowing the user to use the training avatar displayed on the image. requesting to follow the movement.
상기 동작 데이터를 수집하는 단계에서, 상기 동작 데이터는 카메라, 자이로센서, 압력센서, 지자계센서, 피부전도도 센서, 적외선 센서, 레이져 센서, RF 센서, 초음파 센서 중 적어도 어느 하나를 통하여 측정함으로써 수집된다.In the step of collecting the motion data, the motion data is collected by measuring through at least one of a camera, a gyro sensor, a pressure sensor, a geomagnetic sensor, a skin conductivity sensor, an infrared sensor, a laser sensor, an RF sensor, and an ultrasonic sensor. .
상기 사용자에게 운동을 처방하는 단계는, 운동 중 사용자의 피드백 데이터를 수집하는 단계, 및 상기 피드백 데이터에 기초하여 운동 처방 내용을 재설정하는 단계를 더 포함한다.Prescribing exercise to the user may further include: collecting feedback data of the user during exercise; and resetting exercise prescription content based on the feedback data.
상기 동작 데이터를 수집하는 단계에서, 상기 동작 데이터는 사용자의 동공의 움직임을 측정하여 사용자의 시선을 추적함으로써 획득되는 관심 정보를 더 포함한다.In the step of collecting the motion data, the motion data further includes interest information obtained by tracking the user's gaze by measuring the motion of the user's pupil.
본 발명에 의하면, 운동 훈련을 함에 있어서, 사용자의 신체적 특징에 대응하도록 훈련 처방을 디스플레이를 통하여 제공하므로, 사용자 편의성이 증대될 수 있으며, 사용자의 운동 효과가 향상될 수 있다.According to the present invention, since a training prescription is provided through a display to correspond to the user's physical characteristics during exercise training, user convenience can be increased and the user's exercise effect can be improved.
도 1은 본 발명의 실시 예에 따른 사용자 맞춤형 운동 훈련 시스템이 간략하게 도시된 블록도이다.
도 2a 및 도 2b는 사용자가 사용자 맞춤형 운동 훈련 시스템을 통하여 운동하는 모습이 도시된 도면이다.
도 3은 사용자, 사용자아바타, 타겟아바타, 및 훈련용아바타가 예시적으로 도시된 도면이다.
도 4는 디스플레이부에 표시되는 사용자아바타 및 훈련용아바타가 도시된 도면이다.
도 5는 본 발명의 실시 예에 따른 사용자 맞춤형 운동 훈련 방법의 단계도이다.1 is a block diagram schematically illustrating a user-customized exercise training system according to an embodiment of the present invention.
2A and 2B are diagrams illustrating a state in which a user exercises through a user-customized exercise training system.
3 is a diagram exemplarily illustrating a user, a user avatar, a target avatar, and an avatar for training.
4 is a diagram illustrating a user avatar and a training avatar displayed on the display unit.
5 is a step diagram of a user-customized exercise training method according to an embodiment of the present invention.
이하에서 설명되는 모든 실시 예들은 본 발명의 이해를 돕기 위해 예시적으로 나타낸 것이며, 여기에 설명된 실시 예들과 다르게 변형되어 다양한 실시 형태로 실시될 수 있다. 또한, 본 발명을 설명함에 있어서, 관련된 공지 기능 혹은 공지 구성요소에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우, 그 구체적인 설명은 생략하도록 한다.All the embodiments described below are illustratively shown to help the understanding of the present invention, and may be modified differently from the embodiments described herein and implemented in various embodiments. In addition, in the description of the present invention, if it is determined that a detailed description of a related known function or known component may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted.
첨부된 도면은 발명의 이해를 돕기 위해서 실제 축척대로 도시된 것이 아니라 일부 구성요소의 치수가 과장되게 도시될 수 있으며, 각 구성요소들에 참조번호를 기재할 때, 동일한 구성요소들에 대해서는 다른 도면에 표시되더라도 가능한 한 동일한 부호로 표시하였다.The accompanying drawings are not drawn to scale in order to help the understanding of the invention, but the dimensions of some components may be exaggerated. Even if they are indicated in , they are indicated with the same symbols as possible.
또한, 본 발명의 실시 예의 구성 요소를 설명하는 데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 '연결', '결합' 또는 '접속'된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결, 결합 또는 접속될 수 있지만, 그 구성 요소와 그 다른 구성요소 사이에 또 다른 구성 요소가 '연결', '결합' 또는 '접속'될 수도 있다고 이해되어야 할 것이다.In addition, in describing the components of the embodiment of the present invention, terms such as first, second, A, B, (a), (b), etc. may be used. These terms are only for distinguishing the elements from other elements, and the essence, order, or order of the elements are not limited by the terms. When it is described that a component is 'connected', 'coupled' or 'connected' to another component, the component may be directly connected, coupled, or connected to the other component, but the component and the other component It should be understood that another element may be 'connected', 'coupled' or 'connected' between elements.
따라서, 본 명세서에 기재된 실시 예와 도면에 도시된 구성은 본 발명의 가장 바람직한 실시 예에 불과할 뿐이고 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 발명에 대한 다양한 변형 실시 예들이 있을 수 있다. Accordingly, since the embodiments described in this specification and the configurations shown in the drawings are only the most preferred embodiments of the present invention and do not represent all the technical spirit of the present invention, there may be various modified embodiments of the present invention. .
그리고, 본 명세서 및 청구범위에서 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정되어서는 안되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다.In addition, the terms or words used in the present specification and claims should not be limited to conventional or dictionary meanings, and the inventor may properly define the concept of the term in order to best describe his invention. Based on the principle, it should be interpreted as meaning and concept consistent with the technical idea of the present invention.
또한, 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.In addition, the present invention is not limited to the embodiments disclosed below, but will be embodied in various different forms, only these embodiments allow the disclosure of the present invention to be complete, and common knowledge in the art to which the present invention pertains It is provided to fully inform the possessor of the scope of the invention, and the present invention is only defined by the scope of the claims.
또한, 본 출원에서 사용된 단수의 표현은 문맥상 명백히 다른 것을 뜻하지 않는 한, 복수의 표현을 포함한다.Also, the singular expression used in this application includes the plural expression unless the context clearly dictates otherwise.
도 1은 본 발명의 실시 예에 따른 사용자 맞춤형 운동 훈련 시스템이 간략하게 도시된 블록도이다.1 is a block diagram schematically illustrating a user-customized exercise training system according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 실시 예에 따른 사용자 맞춤형 운동 훈련 시스템(1000)은 영상에 표시되는 아바타를 통하여 사용자에게 맞춤형 운동 처방을 제공할 수 있다.Referring to FIG. 1 , a user-customized
사용자 맞춤형 운동 훈련 시스템(1000)은 센싱부(100), 산출부(200), 제어부(300) 및 인터페이스부(400)를 포함한다.The user-customized
센싱부(100)는 사용자의 신체적 특징 및 움직임을 센싱하여 동작 데이터를 수집한다. 구체적으로, 센싱부(100)는 동작센싱부(110) 및 시선추적부(120)를 포함한다.The
동작센싱부(110)는 사용자의 기초체형정보, 생체정보 및 관절들의 움직임 정보를 측정하여 동작 데이터를 수집한다. 예시적으로, 상기 기초체형정보는 체형, 키, 몸무게, 체성분, 근육량, 체내수분량, 대사량 등일 수 있다. 생체정보는, 맥박, 혈압, 체열, 바이탈(Vital) 정보, 호흡량 등일 수 있다. 관절들의 움직임 정보는 관절들 사이의 각도, 각속도, 선속도 등일 수 있다.The
동작센싱부(110)는 측정된 기초체형정보, 생체정보 및 관절들의 움직임 정보를 통하여 동작 데이터를 산출할 수 있다. 구체적으로, 동작 데이터는 복수의 동작 요소들 중 적어도 어느 일 동작 요소의 수치일 수 있다. 상기 동작 요소들은, 사용자의 근력, 근육량, 체형, 자세, 지방량, 체중, 가동범위, 유연성, 순발력, 균형능력, 심폐능력, 조화능력, 신체-운동지능, 운동감각능력 등을 포함한다.The
동작센싱부(110)는 복수의 센서들을 포함한다. 센서들은 사용자와 소정 거리 이격된 거리에 설치되어 사용자의 움직임을 촬영하거나, 사용자의 신체의 일부에 착용, 접촉 또는 부착되어 사용자의 움직임을 센싱할 수 있다. 예시적으로, 동작센싱부(110)는 카메라, 자이로센서, 압력센서, 지자계센서, 피부전도도 센서, 적외선 센서, 레이져 센서, RF 센서, 초음파 센서 중 적어도 어느 하나를 포함할 수 있다. The
시선추적부(120)는 사용자의 동공의 움직임을 측정하여 사용자의 시선을 센싱한다. 구체적으로, 시선추적부(120)는 사용자가 응시하는 영역을 검출할 수 있다. 검출된 정보는 관심 정보로 정의되며, 관심 정보는 제어부(300)에 전송될 수 있다.The
도면에 도시되지 않았으나, 본 발명의 다른 실시 예에 따르면, 사용자 맞춤형 운동 훈련 시스템(1000)에 기입력된 사용자 데이터에 의하여 동작 데이터가 가공될 수 있다. 사용자 데이터는 사용자에 의하여 입력되는 데이터이다. 예시적으로, 사용자 데이터는 사용자의 질환정보, 과거 의료 진단 기록, 식단 정보, 수면량 정보 등을 포함할 수 있다.Although not shown in the drawings, according to another embodiment of the present invention, motion data may be processed according to user data input to the user-customized
산출부(200)는 아바타생성부(210) 및 분석부(220)를 포함한다. 아바타생성부(210)는 동작 데이터 및 입력 데이터를 기초로 하여 복수의 아바타들을 생성한다. 복수의 아바타들은 사용자에게 제공되는 영상에 표시된다. 입력데이터는 사용자에 의하여 시스템에 입력되는 데이터로, 예시적으로, 관심종목정보 또는 선호하는 동작요소정보, 및 해당 동작요소에 대한 목표 수치 등일 수 있다.The
분석부(220)는 동작 데이터 및 입력 데이터 간의 차이점을 추출하고. 상기 차이점을 기초로 하여 변환 요소를 산출한다. 산출된 정보는 아바타생성부(210)에 전송되고, 아바타생성부(210)는 변환 요소가 적용된 아바타를 생성할 수 있다. 이하 도 3에서, 산출부(200)에 관하여 보다 상세히 후술된다.The
제어부(300)는 센싱부(100), 산출부(200), 인터페이스부(400) 각각의 구동을 제어하고, 센싱부(100), 산출부(200), 및 인터페이스부(400) 간의 데이터를 송수신한다.The
인터페이스부(400)는 사용자에게 영상 및 사운드를 제공하고, 사용자의 입력을 수신한다. 구체적으로, 인터페이스부(400)는 디스플레이부(410), 스피커(420), 및 컨트롤러(430)를 포함한다.The
디스플레이부(410)는 사용자에게 영상을 제공한다. 본 실시 예에서, 디스플레이부(410)는 TV, 태블릿, PC, 모바일 전자기기 등에 탑재된 형태로 제공될 수 있다. 또한, 본 발명의 다른 실시 예에서, 디스플레이부(410)는 3차원 영상을 사용자에게 제공하는 VR 기기에 적용될 수 있다. 이 경우, 디스플레이부(410)는 사용자의 머리에 착용되는 헤드마운트 디스플레이(HMD, Head Mounted Display)일 수 있다. 또한, 본 발명의 또 다른 실시 예에서, 디스플레이부(410)는 스마트 글래스, 홀로렌즈와 같은 AR 디스플레이 형태로 제공될 수 있다.The
본 실시 예에 따르면, 디스플레이부(410)는 디스플레이부(410)가 제공하는 영상 중 시선추적부(120)로부터 측정된 특정 영역을 확대 또는 강조할 수 있다. 예시적으로, 사용자가 일 아바타의 다리를 응시하는 것을 시선추적부(120)가 센싱하고, 상기 일 아바타의 다리 부분을 확대하거나, 다리 부분을 다른 색상으로 처리하여 강조하거나, 다리의 움직임을 슬로모션 처리하여 사용자에게 제공할 수 있다.According to the present embodiment, the
스피커(420)는 사용자에게 사운드를 제공한다. 사운드는 효과음, 음악, 목소리 등일 수 있다.The
컨트롤러(430)는 사용자의 입력을 수신하기 위한 수단이다. 사용자는 컨트롤러(430)를 통하여 의사를 표현할 수 있다.The
본 발명의 다른 실시 예에서, 사용자는 컨트롤러(430)를 이용하여 동작 데이터를 입력할 수도 있다. 즉, 컨트롤러(430)는 자이로 센서 또는 지자계 센서 등을 내장할 수 있으며, 상기 센서들을 통하여 사용자의 움직임을 센싱할 수 있다.In another embodiment of the present invention, the user may input motion data using the
본 발명은 사용자의 입력을 수신하는 범위에서 다양한 형태의 수단들이 컨트롤러(430)를 대체할 수 있다. 본 발명의 다른 실시 예에서, 컨트롤러(430)는 키보드, 마우스, 버튼, 리모콘, 마이크 등의 형태로 대체될 수 있다.In the present invention, various types of means may replace the
본 발명의 또 다른 실시 예에서, 컨트롤러(430)는 생략될 수 있다.In another embodiment of the present invention, the
도면에 도시되지 않았으나, 본 발명의 실시 예에 따른 사용자 맞춤형 운동 훈련 시스템(1000)은 저장부(미도시)를 더 포함할 수 있다. 저장부(미도시)는 사용자 데이터, 센싱부(100)로부터 수집된 동작 데이터, 입력 데이터, 아바타생성부(210)에서 생성된 복수의 아바타들 및 분석부(220)에서 산출되는 변환요소 데이터 등을 저장할 수 있다.Although not shown in the drawings, the user-customized
도 2a 및 도 2b는 사용자가 사용자 맞춤형 운동 훈련 시스템을 통하여 운동하는 모습이 예시적으로 도시된 도면이다. 도 2a 및 도 2b에서는 사용자(US)가 해당 시스템(1000, 도 1)을 통하여 골프 스윙을 연습하는 모습이 예시적으로 도시되었다.2A and 2B are diagrams exemplarily illustrating a state in which a user exercises through a user-customized exercise training system. 2A and 2B , a state in which the user US practices a golf swing through the corresponding system 1000 ( FIG. 1 ) is exemplarily shown.
도 2a는 디스플레이부(410)가 모니터 또는 TV를 통하여 영상을 제공하는 경우이다. 사용자(US)는 디스플레이부(410)가 제공하는 영상을 통하여 자신의 모습을 모니터링할 수 있다.2A is a case in which the
센싱부(100)가 포함하는 센서들 중 카메라, 적외선 센서와 같은 일부 센서들은 디스플레이부(410)의 상부에 배치되어 사용자(US)의 모습을 센싱한다.Among the sensors included in the
센싱부(100)가 포함하는 센서들 중 자이로 센서, 지자계 센서와 같은 일부 센서들은 사용자(US)의 어깨, 무릎, 팔꿈치 등 신체의 일부에 패드(PD) 형태로 부착된 형태로 제공되어 사용자(US)의 움직임을 센싱한다.Among the sensors included in the
사용자(US)가 들고 있는 골프채는 센서들을 포함하는 컨트롤러(430)의 역할을 수행할 수 있다. 제어부(300, 도 1)는 셋탑박스(SB)의 형태로 제공되어 중앙처리 장치의 역할을 수행한다.The golf club held by the user (US) may serve as a
도 2b는 디스플레이부(410)가 헤드마운트디스플레이(HMD) 형태로 제공되는 경우가 도시된다. 사용자(US)가 헤드마운트디스플레이(HMD)를 머리에 착용함으로써, 3D 영상이 사용자(US)에게 제공될 수 있다.2B illustrates a case in which the
도 3은 사용자, 사용자아바타, 타겟아바타, 및 훈련용아바타가 예시적으로 도시된 도면이다.3 is a diagram exemplarily illustrating a user, a user avatar, a target avatar, and an avatar for training.
도 3을 참조하면, 아바타생성부(210)는 사용자아바타(AV1), 타겟아바타(AV2), 및 훈련용아바타(AV3)를 생성한다. (a)는 사용자(US)의 모습이고, (b)는 사용자아바타(AV1)의 모습이고, (c)는 타겟아바타(AV2)의 모습이고, (d)는 훈련용아바타(AV3)의 모습이다.Referring to FIG. 3 , the
아바타생성부(210)는 사용자(US)의 동작데이터를 기초로 하여 사용자 아바타(AV1)를 생성한다. 따라서, 사용자아바타(AV1)의 동작 데이터는 사용자(US)의 동작데이터와 동일하다. 디스플레이부(410)는 사용자(US)의 움직임에 대응하여 사용자아바타(AV1)가 움직이도록 동기화하여 영상을 제공할 수 있다.The
타겟아바타(AV2)는 사용자(US)에 의하여 입력된 입력 데이터를 기초로 하여 생성된다. 사용자(US)는 복수의 동작 요소들 중 특정 동작 요소에 대한 목표 수치를 시스템(1000)에 입력할 수 있으며, 아바타생성부(210)는 해당 수치를 충족하는 타겟아바타(AV2)를 생성할 수 있다. 예시적으로, 사용자(US)가 타이거우즈의 골프 스윙 자세를 배우고자 한다면, 아바타생성부(210)는 타이거우즈가 갖는 동작 요소들 중 스윙 자세에 기여하는 특정 동작 요소들의 수치를 반영한 타겟아바타(AV2)를 생성한다.The target avatar AV2 is generated based on input data input by the user US. The user US may input a target value for a specific motion element among a plurality of motion elements into the
분석부(220)는 사용자의 동작 데이터 및 입력 데이터를 분석하여 동작 데이터 및 입력 데이터 간의 차이점을 추출하여 변환 요소를 산출한다. 즉, 분석부(220)는 사용자아바타(AV1) 및 타겟아바타(AV2) 간의 차이점을 추출하여 변환 요소를 산출한다. 변환요소는 타겟아바타(AV2)가 갖는 동작 요소들을 사용자아바타(AV1)가 갖는 동작 요소들에 정합시키기 위하여 변환이 요구되는 요소로 정의된다. 예시적으로, 변환요소는 운동량, 동작유지시간, 휴식시간, 동작횟수, 호흡주기, 중량, 소모칼로리, 각 관절들의 각속도 및 선속도 등을 포함할 수 있다.The
도면에 도시되지 않았으나, 본 발명의 다른 실시 예에 따르면, 사용자는 사용자아바타(AV1) 및 타겟아바타(AV2) 사이의 차이점을 적어도 일부를 디스플레이부(410)를 통하여 확인할 수 있다. 예시적으로, 디스플레이부(410)는 사용자아바타(AV1) 및 타겟아바타(AV2)의 분절 길이의 비율, 선속도, 각속도 등의 정보를 사용자에게 제공할 수 있다. 본 발명은 디스플레이부(410)가 사용자에게 상기 차이점 정보를 제공하는 방법에 관하여 특별히 한정되지 않는다.Although not shown in the drawings, according to another embodiment of the present invention, the user may check at least a part of the difference between the user avatar AV1 and the target avatar AV2 through the
일반적으로, 사용자아바타(AV1)가 갖는 동작 요소의 수치는 타겟아바타(AV2)가 갖는 동작 요소의 수치와는 상이하다. 즉, 인간의 동작은 물리적 조건, 체력적 조건 및 신체-운동 지능적 조건에 의하여 결정되나, 사용자아바타(AV1)가 갖는 조건들의 수치와, 타겟아바타(AV2)가 갖는 조건들의 수치는 상이할 수 있다. 이 때, 물리적 조건의 예는, 신장, 신체분절의 길이 및 무게 등이고, 체력적 조건의 예는 근력, 지구력, 유연성 등 체력적 조건 등일 수 있다. 신체-운동 지능적 조건의 예는 감각능력 및 운동 능력 등일 수 있다. 예시적으로, 사용자(US)가 타이거 우즈의 스윙 자세를 배우고자 하는 경우, 타이거 우즈의 키, 팔/다리의 길이, 관절의 위치, 근육량, 몸무게, 가동범위, 운동 능력은 사용자(US)의 것과는 상이하다. 따라서, 타겟아바타(AV2)가 갖는 동작 요소들의 수치를 사용자아바타(AV1)가 갖는 동작 요소들에 정합시키기 위하여 변환해야 한다.In general, the numerical value of the operation element of the user avatar AV1 is different from the numerical value of the operation element of the target avatar AV2 . That is, human motion is determined by physical conditions, physical conditions, and body-motor intelligence conditions, but the values of the conditions of the user avatar AV1 and the values of the conditions of the target avatar AV2 may be different. . In this case, examples of the physical condition may include height, length and weight of body segments, and the like, and examples of the physical condition may include physical conditions such as muscle strength, endurance, and flexibility. Examples of body-motor intellectual conditions may be sensory abilities and motor abilities, and the like. Illustratively, when the user (US) wants to learn the swing posture of Tiger Woods, the height of Tiger Woods, the length of arms/legs, the position of the joints, muscle mass, weight, range of motion, and exercise ability of the user (US) different from that Therefore, it is necessary to convert the numerical values of the operation elements of the target avatar AV2 to match the operation elements of the user avatar AV1.
아바타생성부(210)는 상기 변환 요소를 적용하여 훈련용아바타(AV3)를 생성한다. 본 실시 예에서, 훈련용아바타(AV3)의 체형은 사용자아바타(AV1)의 체형과 동일하다.The
도 4는 디스플레이부에 표시되는 사용자아바타 및 훈련용아바타가 도시된 도면이다.4 is a diagram illustrating a user avatar and a training avatar displayed on the display unit.
도 4를 참조하면, 훈련용아바타(AV3)는 디스플레이부(410)가 제공하는 영상을 통하여 사용자아바타(AV1)와 함께 표시될 수 있다. 훈련용아바타(AV3)는 사용자(US)에게 운동 처방을 제공한다. 사용자(US)는 훈련용아바타(AV3)의 움직임을 따라함으로써, 운동을 수행할 수 있으며, 사용자아바타(AV1)를 통하여 자신의 움직임을 확인할 수 있다.Referring to FIG. 4 , the training avatar AV3 may be displayed together with the user avatar AV1 through an image provided by the
본 실시 예에 따르면, 센싱부(100)는 운동 중 실시간으로 사용자(US)의 움직임정보 및 생체정보를 포함하는 피드백 데이터를 수집할 수 있다. 산출부(200)는 피드백 데이터에 기초하여 동작 데이터를 보정하거나, 운동 처방 내용을 재설정할 수 있다.또한, 도면에 도시되지 않았으나, 디스플레이부(410)는 사용자에게 사용자아바타(AV1)의 동작과 훈련용아바타(AV3)의 동작의 차이를 사용자에게 제공할 수도 있다. 예시적으로, 디스플레이부(410)는 상기 동작의 차이를 화면을 확대하여 표시하거나, 동작의 차이가 표시되는 화면을 슬로우 모션으로 재생하는 방법, 동작의 차이를 수치로 그래프화 하여 표시하는 방법 등으로 사용자에게 제공할 수 있다.According to the present embodiment, the
본 실시 예와는 다르게, 사용자(US)가 변환 요소가 적용되지 않은 타겟 아바타(AV2)의 움직임을 따라하는 경우, 사용자(US)의 움직임은 타겟 아바타(AV2)의 움직임과 동일할 수 없으며, 운동 효과도 예측한 수치와 동일하지 않을 수 있다. 즉, 사용자(US)에게 사용자(US)의 입력 데이터가 제대로 반영되지 않은 운동 처방이 제공될 수 있다. 그러나, 본 발명의 실시 예에 따르면, 산출부(400)가 사용자 아바타(AV1)의 동작 요소와 동일한 동작 요소를 갖되, 변환요소가 적용되어 사용자(US)에게 맞춤형 운동 처방을 제공할 수 있는 훈련용 아바타(AV3)를 생성하므로, 사용자(US)의 운동 효과가 향상될 수 있다.Unlike this embodiment, when the user US follows the movement of the target avatar AV2 to which the transformation element is not applied, the movement of the user US cannot be the same as the movement of the target avatar AV2. The exercise effect may not be the same as the predicted value. That is, an exercise prescription in which the input data of the user US is not properly reflected may be provided to the user US. However, according to an embodiment of the present invention, the
도 5는 본 발명의 실시 예에 따른 사용자 맞춤형 운동 훈련 방법의 단계도이다. 후술되는 내용에서, 전술된 구성과 동일한 구성에 대하여 도면 부호를 병기하거나, 설명이 생략될 수 있다.5 is a step diagram of a user-customized exercise training method according to an embodiment of the present invention. In the following description, reference numerals may be used for the same components as those described above, or descriptions may be omitted.
도 5를 참조하면, 본 발명의 실시 예에 따른 사용자 맞춤형 운동 훈련 방법은, 동작 데이터 수집 단계(S10), 사용자아바타 생성 단계(S20), 타겟아바타 생성 단계(S30), 사용자아바타와 타겟아바타와의 차이점을 비교하는 단계(S40), 차이점을 적용하여 훈련용 아바타를 생성하는 단계(S50), 및 훈련용아바타를 통한 운동 처방 단계(S60)를 포함한다.Referring to FIG. 5 , the user-customized exercise training method according to an embodiment of the present invention includes a motion data collection step (S10), a user avatar generation step (S20), a target avatar generation step (S30), a user avatar and a target avatar Comparing the differences (S40), generating an avatar for training by applying the differences (S50), and prescribing an exercise through the training avatar (S60).
먼저, 동작 데이터 수집 단계(S10)에서, 동작 데이터는 사용자의 신체적 특징 및 움직임을 센싱하는 형태로 수집될 수 있으며, 동작 데이터는 복수의 동작 요소들 중 적어도 어느 일 동작 요소의 수치를 포함할 수 있다.First, in the motion data collection step S10, motion data may be collected in the form of sensing the user's physical characteristics and motion, and the motion data may include the numerical value of at least one motion element among a plurality of motion elements. have.
사용자아바타 생성 단계(S20)에서, 사용자아바타(AV1)는 동작 데이터에 기초하여 생성될 수 있다. 사용자 아바타(AV1)의 동작 요소는 사용자의 동작 요소와 동일할 수 있다.In the user avatar generation step S20 , the user avatar AV1 may be generated based on motion data. The motion element of the user avatar AV1 may be the same as that of the user.
타겟아바타 생성 단계(S30)에서, 타겟아바타(AV2)는 사용자의 입력에 의하여 생성될 수 있으며, 타겟아바타 생성 단계(S30)는, 사용자가 복수의 동작 요소들 중 사용자가 목표하는 특정 동작 요소를 선택하는 단계, 사용자가 특정 동작 요소에 대한 목표 수치를 선택하는 단계, 및 특정 동작 요소에 대한 목표 수치를 충족하는 타겟아바타(AV2)를 생성하는 단계를 포함한다.In the target avatar generating step S30 , the target avatar AV2 may be generated according to a user input, and in the target avatar generating step S30 , the user selects a specific action element that the user targets from among the plurality of action elements. It includes the steps of selecting, the user selecting a target value for a specific motion element, and generating a target avatar AV2 that satisfies the target value for the specific motion element.
사용자아바타 및 타겟아바타 간의 차이점을 비교하는 단계(S40)에서, 차이점은 사용자아바타(AV1)와 타겟아바타(AV2) 간의 근력, 근육량, 체형, 자세, 지방량, 체중, 가동범위, 유연성, 순발력, 균형능력, 심폐능력, 조화능력, 신체-운동지능, 운동감각능력 중 적어도 어느 하나의 차이값을 포함할 수 있으며, 분석부(220)는 상기 차이값을 기초로 하여 변환요소를 산출할 수 있다.In the step (S40) of comparing the differences between the user avatar and the target avatar, the difference is muscle strength, muscle mass, body type, posture, fat mass, weight, range of motion, flexibility, reflexes, and balance between the user avatar (AV1) and the target avatar (AV2). It may include a difference value of at least one of ability, cardiopulmonary ability, coordination ability, body-motor intelligence, and kinesthetic ability, and the
훈련용아바타를 생성하는 단계(S50)에서, 훈련용아바타(AV3)는 사용자아바타(AV1)와 동일한 동작 요소를 갖는다. 예시적으로, 훈련용아바타(AV3)는 사용자아바타(AV1)의 체형과 동일하다.In the step of generating the training avatar (S50), the training avatar AV3 has the same operation elements as the user avatar AV1. Illustratively, the training avatar AV3 is the same as the body type of the user avatar AV1.
훈련용아바타를 통하여 운동 처방 단계(S60)에서, 디스플레이부(410)는 표시되는 영상을 통하여 사용자아바타(AV1) 및 훈련용아바타(AV2)를 사용자에게 제공할 수 있으며, 사용자(US)는 훈련용아바타(AV3)의 움직임을 따라함으로써, 운동을 수행할 수 있으며, 사용자아바타(AV1)를 통하여 자신의 움직임을 확인할 수 있다.In the exercise prescription step (S60) through the training avatar, the
이상 첨부된 도면을 참조하여 본 발명의 실시 예들을 더욱 상세하게 설명하였으나, 본 발명은 반드시 이러한 실시 예로 국한되는 것은 아니고, 본 발명의 기술사상을 벗어나지 않는 범위 내에서 다양하게 변형 실시될 수 있다. Although the embodiments of the present invention have been described in more detail with reference to the accompanying drawings, the present invention is not necessarily limited to these embodiments, and various modifications may be made within the scope without departing from the technical spirit of the present invention.
따라서, 본 발명에 개시된 실시 예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 그러므로, 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Therefore, the embodiments disclosed in the present invention are not intended to limit the technical spirit of the present invention, but to explain, and the scope of the technical spirit of the present invention is not limited by these embodiments. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive. The protection scope of the present invention should be construed by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present invention.
1000: 사용자 맞춤형 운동 훈련 시스템
100: 센싱부
110: 동작센싱부
120: 시선추적부
200: 산출부
210: 아바타생성부
220: 분석부
300: 제어부
400: 인터페이스부
410: 디스플레이부
420: 스피커
430: 컨트롤러
US: 사용자
SB: 셋탑박스
PD: 센싱패드
HMD: 헤드마운트디스플레이
AV1: 사용자아바타
AV2: 타겟아바타
AV3: 훈련용아바타1000: user-customized exercise training system 100: sensing unit
110: motion sensing unit 120: eye tracking unit
200: calculation unit 210: avatar generation unit
220: analysis unit 300: control unit
400: interface unit 410: display unit
420: speaker 430: controller
US: User SB: Set-top box
PD: Sensing pad HMD: Head mounted display
AV1: User avatar AV2: Target avatar
AV3: Training Avatar
Claims (19)
상기 동작 데이터 및 사용자에 의하여 입력되는 입력 데이터를 분석하고, 분석한 데이터에 기초하여 훈련용 아바타를 생성하는 산출부;
사용자에게 영상 및 사운드를 제공하고, 사용자의 입력을 수신하는 인터페이스부; 및
상기 센싱부, 상기 산출부 및 상기 인터페이스부 간의 데이터를 송수신하고, 상기 센싱부, 상기 산출부 및 상기 인터페이스부 각각의 구동을 제어하는 제어부를 포함하고,
상기 산출부는,
상기 동작 데이터 및 상기 입력 데이터를 분석하여 상기 동작 데이터 및 상기 입력 데이터 간의 차이점을 추출하고, 변환 요소를 산출하는 분석부; 및
상기 동작 데이터에 기초하여 사용자 아바타를 생성하고, 상기 입력 데이터에 기초하여 타겟 아바타를 생성하고, 상기 변환 요소를 적용하여 상기 훈련용 아바타를 생성하는 아바타 생성부를 포함하는 사용자 맞춤형 운동 훈련 시스템.
a sensing unit for collecting motion data by sensing the user's physical characteristics and movement;
a calculator that analyzes the motion data and input data input by a user, and generates an avatar for training based on the analyzed data;
an interface unit that provides images and sounds to a user and receives a user's input; and
a control unit for transmitting and receiving data between the sensing unit, the calculating unit, and the interface unit, and controlling driving of each of the sensing unit, the calculating unit, and the interface unit;
The calculation unit,
an analysis unit that analyzes the motion data and the input data to extract a difference between the motion data and the input data, and calculates a conversion factor; and
and an avatar generator configured to generate a user avatar based on the motion data, generate a target avatar based on the input data, and apply the transformation element to generate the training avatar.
상기 사용자 아바타는 사용자에게 제공되는 상기 영상을 통하여 상기 사용자의 움직임에 대응하여 움직이도록 동기화되고,
상기 훈련용 아바타의 체형은 상기 사용자 아바타의 체형과 동일한 사용자 맞춤형 운동 훈련 시스템.
The method of claim 1,
The user avatar is synchronized to move in response to the user's movement through the image provided to the user,
The body shape of the training avatar is the same as that of the user avatar.
상기 동작 데이터는 복수의 동작 요소들 중 적어도 어느 일 동작 요소의 수치를 포함하고, 상기 복수의 동작 요소들은 사용자의 근력, 근육량, 체형, 자세, 지방량, 체중, 가동범위, 유연성, 순발력, 균형능력, 심폐능력, 조화능력, 신체-운동지능, 운동감각능력 등을 포함하는 사용자 맞춤형 운동 훈련 시스템.
The method of claim 1,
The motion data includes the numerical value of at least any one of the plurality of motion elements, and the plurality of motion factors include the user's muscle strength, muscle mass, body type, posture, fat mass, body weight, range of motion, flexibility, quickness, and balance ability. , a user-customized exercise training system including cardiorespiratory ability, coordination ability, body-motor intelligence, and kinesthetic ability.
상기 입력 데이터는 상기 복수의 동작 요소들 중 사용자가 목표하는 특정 동작 요소에 대한 목표 수치를 포함하고,
상기 아바타 생성부는 상기 특정 동작 요소에 대한 상기 목표 수치를 충족하는 타겟 아바타를 생성하는 사용자 맞춤형 운동 훈련 시스템.
4. The method of claim 3,
The input data includes a target value for a specific operation element targeted by the user among the plurality of operation elements,
The avatar generator generates a target avatar that satisfies the target value for the specific motion element.
상기 변환 요소는 운동량, 동작유지시간, 휴식시간, 동작횟수, 호흡주기, 중량, 소모칼로리, 각 관절들의 각속도, 선속도 등을 포함하는 사용자 맞춤형 운동 훈련 시스템.
The method of claim 1,
The conversion factor is a user-customized exercise training system including an amount of exercise, an operation maintenance time, a rest time, the number of operations, a breathing cycle, weight, calories consumed, an angular velocity of each joint, a linear velocity, and the like.
상기 인터페이스부는,
상기 사용자에게 영상을 제공하는 디스플레이부;
상기 사용자에게 사운드를 제공하는 스피커; 및
상기 사용자의 입력을 수신하는 컨트롤러를 포함하고,
상기 디스플레이부는 상기 사용자 아바타 및 상기 훈련용 아바타를 동시에 표시하는 사용자 맞춤형 운동 훈련 시스템.
The method of claim 1,
The interface unit,
a display unit providing an image to the user;
a speaker providing sound to the user; and
A controller for receiving the user's input,
The display unit is a user-customized exercise training system for simultaneously displaying the user avatar and the training avatar.
상기 센싱부는,
사용자의 기초체형정보, 생체정보 및 관절들의 움직임정보를 측정하는 동작센싱부; 및
사용자의 동공의 움직임을 측정하여 사용자의 시선을 센싱하는 시선추적부를 포함하는 사용자 맞춤형 운동 훈련 시스템.
7. The method of claim 6,
The sensing unit,
a motion sensing unit for measuring the user's basic body type information, biometric information, and motion information of joints; and
A user-customized exercise training system including an eye tracking unit sensing the user's gaze by measuring the user's pupil movement.
상기 동작센싱부는 카메라, 자이로센서, 압력센서, 지자계센서, 피부전도도 센서, 적외선 센서, 레이져 센서, RF 센서, 초음파 센서 중 적어도 어느 하나를 포함하는 사용자 맞춤형 운동 훈련 시스템.
8. The method of claim 7,
The motion sensing unit is a user-customized exercise training system comprising at least one of a camera, a gyro sensor, a pressure sensor, a geomagnetic sensor, a skin conductivity sensor, an infrared sensor, a laser sensor, an RF sensor, and an ultrasonic sensor.
상기 디스플레이부는 상기 디스플레이부가 제공하는 영상 범위 내에서, 상기 시선추적부에 의하여 센싱된 일 영역을 확대 또는 강조하여 표시하는 사용자 맞춤형 운동 훈련 시스템.
8. The method of claim 7,
The display unit is a user-customized exercise training system for displaying an area sensed by the eye tracking unit by enlarging or emphasizing within the image range provided by the display unit.
상기 디스플레이부는 헤드 마운트 디스플레이 형태로 제공되는 사용자 맞춤형 운동 훈련 시스템.
7. The method of claim 6,
The display unit is a user-customized exercise training system provided in the form of a head mounted display.
상기 동작 데이터에 기초하여 사용자 아바타를 생성하는 단계;
사용자의 입력을 통하여 타겟 아바타를 생성하는 단계;
상기 동작 데이터 및 상기 입력 데이터를 분석하여, 상기 동작 데이터 및 상기 입력 데이터 간의 차이점을 추출하는 단계;
상기 차이점을 분석하여 변환 요소를 산출하는 단계;
상기 변환 요소를 적용하여 훈련용 아바타를 생성하는 단계; 및
상기 훈련용 아바타를 통하여 사용자에게 운동을 처방하는 단계를 포함하는 사용자 맞춤형 운동 훈련 방법.
collecting motion data by sensing the user's physical characteristics and movement;
generating a user avatar based on the motion data;
generating a target avatar through a user input;
analyzing the motion data and the input data to extract a difference between the motion data and the input data;
calculating a transformation factor by analyzing the difference;
generating an avatar for training by applying the transformation factor; and
and prescribing exercise to the user through the training avatar.
상기 동작 데이터를 수집하는 단계에서,
상기 동작 데이터는 복수의 동작 요소들 중 적어도 어느 일 동작 요소의 수치를 포함하고, 상기 복수의 동작 요소들은 사용자의 근력, 근육량, 체형, 자세, 지방량, 체중, 가동범위, 유연성, 순발력, 균형능력, 심폐능력, 조화능력, 신체-운동지능, 운동감각능력 등을 포함하는 사용자 맞춤형 운동 훈련 방법.
12. The method of claim 11,
In the step of collecting the motion data,
The motion data includes the numerical value of at least any one of the plurality of motion elements, and the plurality of motion factors include the user's muscle strength, muscle mass, body type, posture, fat mass, body weight, range of motion, flexibility, quickness, and balance ability. , cardiorespiratory ability, coordination ability, body-motor intelligence, a user-customized exercise training method including kinesthetic ability, etc.
상기 타겟 아바타를 생성하는 단계는,
사용자가 상기 복수의 동작 요소들 중 사용자가 목표하는 특정 동작 요소를 선택하는 단계;
사용자가 상기 특정 동작 요소에 대한 목표 수치를 선택하는 단계; 및
상기 특정 동작 요소에 대한 상기 목표 수치를 충족하는 타겟 아바타를 생성하는 단계를 포함하는 사용자 맞춤형 운동 훈련 방법.
13. The method of claim 12,
The step of generating the target avatar comprises:
selecting, by the user, a specific operation element targeted by the user from among the plurality of operation elements;
selecting a target value for the specific action element by the user; and
and generating a target avatar that satisfies the target value for the specific motion element.
상기 동작 데이터 및 상기 입력 데이터 간의 차이점을 추출하는 단계에서,
상기 차이점은, 상기 사용자 아바타와 상기 타겟 아바타 간의 근력, 근육량, 체형, 자세, 지방량, 체중, 가동범위, 유연성, 순발력, 균형능력, 심폐능력, 조화능력, 신체-운동지능, 운동감각능력 중 적어도 어느 하나의 차이값을 포함하는 사용자 맞춤형 운동 훈련 방법.
12. The method of claim 11,
In the step of extracting the difference between the motion data and the input data,
The difference between the user avatar and the target avatar is at least one of muscle strength, muscle mass, body type, posture, fat mass, weight, range of motion, flexibility, agility, balance ability, cardiorespiratory ability, coordination ability, body-motor intelligence, and kinesthetic ability. A user-customized exercise training method including any one difference value.
상기 변환 요소를 산출하는 단계에서,
상기 변환 요소는 운동량, 동작유지시간, 휴식시간, 동작횟수, 호흡주기, 중량, 소모칼로리, 각 관절들의 각속도, 선속도 등을 포함하는 사용자 맞춤형 운동 훈련 방법.
12. The method of claim 11,
In the step of calculating the transformation factor,
The conversion factor is a user-customized exercise training method including the amount of exercise, the duration of the motion, the rest time, the number of motions, the breathing cycle, the weight, the calories consumed, the angular velocity of each joint, the linear velocity, and the like.
상기 사용자에게 운동을 처방하는 단계는,
디스플레이를 통하여 제공되는 영상에 표시되는 상기 사용자 아바타가 상기 사용자의 움직임에 대응하여 움직이도록 동기화시키는 단계; 및
사용자로 하여금 상기 영상에 표시되는 상기 훈련용 아바타의 움직임을 따라하도록 요청하는 단계를 포함하는 사용자 맞춤형 운동 훈련 방법.
12. The method of claim 11,
Prescribing exercise to the user includes:
synchronizing the user avatar displayed on an image provided through a display to move in response to the user's movement; and
and requesting a user to follow the movement of the training avatar displayed on the image.
상기 동작 데이터를 수집하는 단계에서, 상기 동작 데이터는 카메라, 자이로센서, 압력센서, 지자계센서, 피부전도도 센서, 적외선 센서, 레이져 센서, RF 센서, 초음파 센서 중 적어도 어느 하나를 통하여 측정함으로써 수집되는 사용자 맞춤형 운동 훈련 방법.
12. The method of claim 11,
In the step of collecting the motion data, the motion data is collected by measuring through at least one of a camera, a gyro sensor, a pressure sensor, a geomagnetic sensor, a skin conductivity sensor, an infrared sensor, a laser sensor, an RF sensor, and an ultrasonic sensor. User-tailored workout training methods.
상기 사용자에게 운동을 처방하는 단계는,
운동 중 사용자의 피드백 데이터를 수집하는 단계; 및
상기 피드백 데이터에 기초하여 운동 처방 내용을 재설정하는 단계를 더 포함하는 사용자 맞춤형 운동 훈련 방법,
12. The method of claim 11,
Prescribing exercise to the user includes:
collecting user feedback data during exercise; and
User-customized exercise training method further comprising the step of resetting the exercise prescription contents based on the feedback data;
상기 동작 데이터를 수집하는 단계에서,
상기 동작 데이터는 사용자의 동공의 움직임을 측정하여 사용자의 시선을 추적함으로써 획득되는 관심 정보를 더 포함하는 사용자 맞춤형 운동 훈련 방법.
19. The method of claim 18,
In the step of collecting the motion data,
The motion data further includes interest information obtained by measuring the movement of the user's pupil and tracking the user's gaze.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200188963A KR102556863B1 (en) | 2020-12-31 | 2020-12-31 | User customized exercise method and system |
PCT/KR2021/000771 WO2022145563A1 (en) | 2020-12-31 | 2021-01-20 | User-customized exercise training method and system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200188963A KR102556863B1 (en) | 2020-12-31 | 2020-12-31 | User customized exercise method and system |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220098064A true KR20220098064A (en) | 2022-07-11 |
KR102556863B1 KR102556863B1 (en) | 2023-07-20 |
Family
ID=82259444
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200188963A KR102556863B1 (en) | 2020-12-31 | 2020-12-31 | User customized exercise method and system |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR102556863B1 (en) |
WO (1) | WO2022145563A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102613638B1 (en) | 2022-12-08 | 2023-12-14 | 주식회사 테렌즈랩스 | Application-based health managing system installed in terminals |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016517314A (en) * | 2013-03-13 | 2016-06-16 | ウィット, ジェイムズWitt, James | Method and apparatus for teaching repetitive kinematic movements |
KR101904889B1 (en) * | 2016-04-21 | 2018-10-05 | 주식회사 비주얼캠프 | Display apparatus and method and system for input processing therof |
KR101931784B1 (en) | 2018-08-29 | 2018-12-21 | 주식회사 큐랩 | Virtual fitness system for multi-user |
KR102125748B1 (en) * | 2018-08-23 | 2020-06-23 | 전자부품연구원 | Apparatus and method for motion guide using 4d avatar |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9897805B2 (en) * | 2013-06-07 | 2018-02-20 | Sony Interactive Entertainment Inc. | Image rendering responsive to user actions in head mounted display |
US20170103672A1 (en) * | 2015-10-09 | 2017-04-13 | The Regents Of The University Of California | System and method for gesture capture and real-time cloud based avatar training |
US10971030B2 (en) * | 2017-01-26 | 2021-04-06 | International Business Machines Corporation | Remote physical training |
-
2020
- 2020-12-31 KR KR1020200188963A patent/KR102556863B1/en active IP Right Grant
-
2021
- 2021-01-20 WO PCT/KR2021/000771 patent/WO2022145563A1/en active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016517314A (en) * | 2013-03-13 | 2016-06-16 | ウィット, ジェイムズWitt, James | Method and apparatus for teaching repetitive kinematic movements |
KR101904889B1 (en) * | 2016-04-21 | 2018-10-05 | 주식회사 비주얼캠프 | Display apparatus and method and system for input processing therof |
KR102125748B1 (en) * | 2018-08-23 | 2020-06-23 | 전자부품연구원 | Apparatus and method for motion guide using 4d avatar |
KR101931784B1 (en) | 2018-08-29 | 2018-12-21 | 주식회사 큐랩 | Virtual fitness system for multi-user |
Non-Patent Citations (1)
Title |
---|
미국 등록특허 등록번호 제11210855호 "Analyzing 2d movement in comparison with 3d avatar" |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102613638B1 (en) | 2022-12-08 | 2023-12-14 | 주식회사 테렌즈랩스 | Application-based health managing system installed in terminals |
Also Published As
Publication number | Publication date |
---|---|
KR102556863B1 (en) | 2023-07-20 |
WO2022145563A1 (en) | 2022-07-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210272376A1 (en) | Virtual or augmented reality rehabilitation | |
JP6938542B2 (en) | Methods and program products for articulated tracking that combine embedded and external sensors | |
KR101687252B1 (en) | Management system and the method for customized personal training | |
US20160140867A1 (en) | Fatigue Indices and Uses Thereof | |
US20140371633A1 (en) | Method and system for evaluating a patient during a rehabilitation exercise | |
US20150279231A1 (en) | Method and system for assessing consistency of performance of biomechanical activity | |
US11273341B2 (en) | Interactive visualization system for biomechanical assessment | |
US11426099B2 (en) | Mobile device avatar generation for biofeedback to customize movement control | |
US20220019284A1 (en) | Feedback from neuromuscular activation within various types of virtual and/or augmented reality environments | |
TW201411507A (en) | Method and system for motion comparison | |
US20150092980A1 (en) | Tracking program and method | |
Gauthier et al. | Human movement quantification using Kinect for in-home physical exercise monitoring | |
KR102425481B1 (en) | Virtual reality communication system for rehabilitation treatment | |
KR102429630B1 (en) | A system that creates communication NPC avatars for healthcare | |
WO2022034771A1 (en) | Program, method, and information processing device | |
KR102556863B1 (en) | User customized exercise method and system | |
CN117148977B (en) | Sports rehabilitation training method based on virtual reality | |
JP2023168557A (en) | Program, method, and information processing device | |
Georgiadis et al. | A remote rehabilitation training system using Virtual Reality | |
Scherer et al. | Development of a system for supervised training at home with Kinect V2 | |
Chatzitofis et al. | Technological module for unsupervised, personalized cardiac rehabilitation exercising | |
Peeters | Design guidelines for vibrotactile motion steering | |
TWI796035B (en) | Biochemical evaluation system and biomechanical sensor and biomechanical evaluation platform thereof | |
JP7333537B2 (en) | Program, information processing device, and information processing method | |
WO2023027046A1 (en) | Program, information processing device, and information processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E90F | Notification of reason for final refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |