KR102456055B1 - Apparatus and method for quantitatively analyzing and evaluating posture to train exercise by repetitive motion - Google Patents

Apparatus and method for quantitatively analyzing and evaluating posture to train exercise by repetitive motion Download PDF

Info

Publication number
KR102456055B1
KR102456055B1 KR1020200125736A KR20200125736A KR102456055B1 KR 102456055 B1 KR102456055 B1 KR 102456055B1 KR 1020200125736 A KR1020200125736 A KR 1020200125736A KR 20200125736 A KR20200125736 A KR 20200125736A KR 102456055 B1 KR102456055 B1 KR 102456055B1
Authority
KR
South Korea
Prior art keywords
posture
vector
user
analysis
motion
Prior art date
Application number
KR1020200125736A
Other languages
Korean (ko)
Other versions
KR20220042666A (en
Inventor
원홍인
이수웅
정승현
장진석
Original Assignee
한국생산기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국생산기술연구원 filed Critical 한국생산기술연구원
Priority to KR1020200125736A priority Critical patent/KR102456055B1/en
Publication of KR20220042666A publication Critical patent/KR20220042666A/en
Application granted granted Critical
Publication of KR102456055B1 publication Critical patent/KR102456055B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1124Determining motor skills
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1116Determining posture transitions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1121Determining geometric values, e.g. centre of rotation or angular range of movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • A63B24/0003Analysing the course of a movement or motion sequences during an exercise or trainings sequence, e.g. swing for golf or tennis
    • A63B24/0006Computerised comparison for qualitative assessment of motion sequences or the course of a movement
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • A63B71/0619Displays, user interfaces and indicating devices, specially adapted for sport equipment, e.g. display mounted on treadmills
    • A63B71/0622Visual, audio or audio-visual systems for entertaining, instructing or motivating the user
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2505/00Evaluating, monitoring or diagnosing in the context of a particular type of medical care
    • A61B2505/09Rehabilitation or training
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • A63B24/0003Analysing the course of a movement or motion sequences during an exercise or trainings sequence, e.g. swing for golf or tennis
    • A63B24/0006Computerised comparison for qualitative assessment of motion sequences or the course of a movement
    • A63B2024/0012Comparing movements or motion sequences with a registered reference
    • A63B2024/0015Comparing movements or motion sequences with computerised simulations of movements or motion sequences, e.g. for generating an ideal template as reference to be achieved by the user

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Physiology (AREA)
  • Dentistry (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Geometry (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

본 발명의 일 실시 예는, 운동 자세 또는 동작이 육안으로 관측 가능하면서도 운동하는 사용자의 자세에 대해 정량적으로 분석 및 평가가 가능하도록 하는 기술을 제공한다. 본 발명의 실시 예에 따른 반복 운동의 동작 훈련을 위한 정량적 자세 분석 및 평가 장치는, 운동기기를 이용하는 사용자의 각 관절의 위치 정보를 획득하고 사용자의 동작을 인식하여 사용자의 자세 정보를 생성하는 동작인식부; 동작인식부로부터 자세 정보를 전달 받고, 자세 정보를 이용하여 복수 개의 자세 지표에 대한 데이터를 도출하며, 복수 개의 자세 지표와 미리 저장된 복수 개의 기준 지표에 대한 데이터와 비교하여 분석 정보를 생성하고 사용자의 자세에 대한 평가 정보를 생성하는 분석평가부; 및 사용자의 이미지와 복수 개의 기준 지표에 의한 가상의 신체 이미지인 기준 이미지를 표시하고, 분석 정보와 평가 정보를 표시하는 디스플레이부;를 포함한다.An embodiment of the present invention provides a technique that enables quantitative analysis and evaluation of a user's posture while exercising while an exercise posture or motion can be observed with the naked eye. Quantitative posture analysis and evaluation apparatus for motion training of repetitive exercise according to an embodiment of the present invention obtains position information of each joint of a user using an exercise device, recognizes the user's motion, and generates the user's posture information recognition unit; It receives the posture information from the motion recognition unit, derives data on a plurality of posture indicators using the posture information, and generates analysis information by comparing it with data for a plurality of posture indicators and a plurality of pre-stored reference indicators, and Analysis and evaluation unit for generating evaluation information about the posture; and a display unit that displays a reference image that is a virtual body image based on an image of a user and a plurality of reference indicators, and displays analysis information and evaluation information.

Description

반복 운동의 동작 훈련을 위한 정량적 자세 분석 및 평가 장치 및 방법{APPARATUS AND METHOD FOR QUANTITATIVELY ANALYZING AND EVALUATING POSTURE TO TRAIN EXERCISE BY REPETITIVE MOTION}Apparatus and method for quantitative posture analysis and evaluation for motion training of repetitive exercise

본 발명은 반복 운동의 동작 훈련을 위한 정량적 자세 분석 및 평가 장치 및 방법에 관한 것으로, 더욱 상세하게는, 운동 자세 또는 동작이 육안으로 관측 가능하면서도 운동하는 사용자의 자세에 대해 정량적으로 분석 및 평가가 가능하도록 하는 기술에 관한 것이다.The present invention relates to a quantitative posture analysis and evaluation apparatus and method for motion training of repetitive exercise, and more particularly, quantitative analysis and evaluation of the user's posture while exercising while the exercise posture or motion is observable with the naked eye It's about technology that makes it possible.

헬스케어에 대한 관심이 증대함에 따라 이러한 목적으로 운동 능력을 분석하는 다양한 형태의 제품이 출시되고 있으나, 대다수의 장비는 하드웨어에 기반하여 신체와 직접적 접촉을 통한 동작 센싱 방식에 근거하고 있어, 운동의 편의성 등에 한계를 가지고 있다. 이에 따라, 육안으로 직접 인지하는 것과 동일한 방법으로 사용자의 동작(또는 자세)를 관측할 수 있는 장비에 대한 요구가 증가하는 추세이다.As interest in health care increases, various types of products that analyze exercise ability for this purpose are being released, but most of the equipment is based on hardware-based motion sensing methods through direct contact with the body. There are limits to convenience. Accordingly, there is an increasing demand for equipment capable of observing the user's motion (or posture) in the same way as directly recognizing it with the naked eye.

상기와 같은 요구에 대응하여 개발된 기존 기술은 사용자의 동작(또는 자세)를 관절 위치의 측정값에 기초하여 관절 위치의 범위(또는 값)와 미리 결정된 범위(또는 값)을 단순 비교하여 운동 동작(또는 자세)의 오류 여부를 판단함으로써, 대략적인 동작(또는 자세)의 오류 여부를 알 수 있을 뿐, 사용자의 신체 부위 각각의 오류 정도가 어느 정도인지를 알 수 없는 문제가 있다.Existing technology developed in response to the above needs is a movement motion by simply comparing the user's motion (or posture) with a range (or value) of the joint position and a predetermined range (or value) based on the measured value of the joint position. There is a problem in that, by determining whether an error (or posture) exists, only an approximate operation (or posture) error can be known, and the degree of error of each body part of the user cannot be known.

대한민국 공개특허 제 10-2017-0092378 호(발명의 명칭: 키넥트 센서를 이용한 자세교정 시스템 및 자세교정 방법)에서는, 미리 설정된 센싱 범위 내에 착석자를 인지에 따라, 착석자의 스켈레톤 데이터를 추출하는 키넥트 센서; 및 상기 키넥트 센서로부터 스켈레톤 데이터를 수신한 뒤, 스켈레톤 데이터와 미리 설정된 5가지의 자세 표본 데이터(바른 자세 표본 데이터, 우 기울임 표본 데이터, 좌 기울임 표본 데이터, 앞 기울임 표본 데이터, 뒤 기울임 표본 데이터)를 비교하여, 좌표 오차를 연산하여 비정상 자세인지 정상 자세인지를 분석하여 출력하는 사용자단말; 을 포함하는 것을 특징으로 하는 키넥트 센서를 이용한 자세교정 시스템이 개시되어 있다.In Korean Patent Laid-Open No. 10-2017-0092378 (Title of the Invention: Posture Correction System and Posture Correction Method Using Kinect Sensor), Kinect extracts skeleton data of a seated person according to recognition of a seated person within a preset sensing range. sensor; and after receiving the skeleton data from the Kinect sensor, the skeleton data and five preset posture sample data (correct posture sample data, right tilt sample data, left tilt sample data, front tilt sample data, back tilt sample data) a user terminal that compares and outputs a coordinate error to analyze and output whether the posture is abnormal or normal; There is disclosed a posture correction system using a Kinect sensor, characterized in that it comprises a.

대한민국 공개특허 제10-2019-0044952호Republic of Korea Patent Publication No. 10-2019-0044952

상기와 같은 문제점을 해결하기 위한 본 발명의 목적은, 운동 자세 또는 동작이 육안으로 관측 가능하면서도 운동하는 사용자의 자세에 대해 정량적으로 분석 및 평가가 가능하도록 하는 것이다.An object of the present invention for solving the above problems is to enable quantitative analysis and evaluation of the user's posture while exercising while the exercise posture or motion is observable with the naked eye.

그리고, 본 발명의 목적은, 각각의 신체 부위를 구분하고 구분된 부위에 따라 자세에 대한 교정 분석이 가능하도록 하는 것이다.In addition, an object of the present invention is to classify each body part and to enable corrective analysis of posture according to the divided parts.

본 발명이 이루고자 하는 기술적 과제는 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다. The technical problems to be achieved by the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned can be clearly understood by those of ordinary skill in the art to which the present invention belongs from the description below. There will be.

상기와 같은 목적을 달성하기 위한 본 발명의 구성은, 운동기기를 이용하는 사용자의 각 관절의 위치 정보를 획득하고 상기 사용자의 동작을 인식하여 상기 사용자의 자세 정보를 생성하는 동작인식부; 상기 동작인식부로부터 상기 자세 정보를 전달 받고, 상기 자세 정보를 이용하여 복수 개의 자세 지표에 대한 데이터를 도출하며, 상기 복수 개의 자세 지표와 미리 저장된 복수 개의 기준 지표에 대한 데이터와 비교하여 분석 정보를 생성하고 상기 사용자의 자세에 대한 평가 정보를 생성하는 분석평가부; 및 상기 사용자의 이미지와 상기 복수 개의 기준 지표에 의한 가상의 신체 이미지인 기준 이미지를 표시하고, 상기 분석 정보와 상기 평가 정보를 표시하는 디스플레이부;를 포함한다.The configuration of the present invention for achieving the above object includes: a motion recognition unit for acquiring position information of each joint of a user using an exercise device and recognizing the user's motion to generate the user's posture information; Receives the posture information from the motion recognition unit, derives data on a plurality of posture indicators using the posture information, and compares the plurality of posture indicators with data for a plurality of pre-stored reference indicators to obtain analysis information an analysis and evaluation unit for generating and generating evaluation information about the user's posture; and a display unit that displays a reference image that is a virtual body image based on the user's image and the plurality of reference indicators, and displays the analysis information and the evaluation information.

본 발명의 실시 예에 있어서, 상기 복수 개의 자세 지표에 대한 데이터는, 상기 사용자의 신체 일 부위의 자세에 대한 벡터인 자세벡터와 기준이 되는 벡터인 기준벡터를 이용하여 도출될 수 있다.In an embodiment of the present invention, the data for the plurality of posture indicators may be derived using a posture vector that is a vector for the posture of a part of the user's body and a reference vector that is a reference vector.

본 발명의 실시 예에 있어서, 상기 자세벡터의 산출에 이용되며 상기 사용자의 신체 일 부위 대한 신체벡터는, 상기 사용자의 신체 일 부위에 있어서 하나의 관절로부터 다른 관절 방향으로 형성될 수 있다.In an embodiment of the present invention, the body vector for one part of the user's body used to calculate the posture vector may be formed in a direction from one joint to another in the one part of the user's body.

본 발명의 실시 예에 있어서, 상기 자세벡터는 상기 신체벡터 자체, 상기 신체벡터의 법선벡터, 상기 신체벡터의 사영벡터 및 하나의 신체벡터와 다른 신체벡터에 의해 형성된 평면에 수직인 벡터 중 선택될 수 있다.In an embodiment of the present invention, the posture vector may be selected from among the body vector itself, a normal vector of the body vector, a projection vector of the body vector, and a vector perpendicular to a plane formed by one body vector and another body vector. can

본 발명의 실시 예에 있어서, 상기 사용자의 신체 일 부위는 머리, 몸통, 좌측 팔, 우측 팔, 좌측 다리 및 우측 다리 중에서 선택되는 어느 하나일 수 있다.In an embodiment of the present invention, the part of the user's body may be any one selected from the group consisting of a head, a torso, a left arm, a right arm, a left leg, and a right leg.

본 발명의 실시 예에 있어서, 상기 기준벡터는, 3차원 기본 단위 벡터를 포함할 수 있다.In an embodiment of the present invention, the reference vector may include a three-dimensional basic unit vector.

본 발명의 실시 예에 있어서, 상기 분석평가부는, 하나의 자세벡터에 대한 기준벡터로써 다른 자세벡터를 선택할 수 있다.In an embodiment of the present invention, the analysis and evaluation unit may select another posture vector as a reference vector for one posture vector.

본 발명의 실시 예에 있어서, 상기 복수 개의 자세 지표에 대한 데이터는, 상기 사용자의 신체 일 부위에 대한 벡터인 자세벡터와 기준이 되는 평면인 기준평면을 이용하여 도출될 수 있다.In an embodiment of the present invention, the data on the plurality of posture indicators may be derived using a posture vector that is a vector for a part of the user's body and a reference plane that is a reference plane.

본 발명의 실시 예에 있어서, 상기 평가 정보는, 상기 사용자의 신체 각 부위에 대해 환산된 점수를 포함할 수 있다.In an embodiment of the present invention, the evaluation information may include a score converted for each part of the user's body.

본 발명의 실시 예에 있어서, 상기 동작인식부는, 키넥트 동작 추적 시스템(Kinect Body Tracking System)을 구비할 수 있다.In an embodiment of the present invention, the motion recognition unit may include a Kinect Body Tracking System.

본 발명의 실시 예에 있어서, 상기 분석평가부는, 상기 사용자의 신장에 따라 상기 기준 이미지의 확대 또는 축소 비율을 조절할 수 있다.In an embodiment of the present invention, the analysis and evaluation unit may adjust an enlargement or reduction ratio of the reference image according to the height of the user.

상기와 같은 목적을 달성하기 위한 본 발명의 구성은, 상기 사용자의 각 관절의 위치 정보를 획득하고 상기 사용자의 동작을 인식하여 상기 자세 정보를 수집하는 제1단계; 상기 사용자의 각 관절의 위치 정보를 이용하여 상기 신체벡터를 생성하고, 각각의 신체벡터를 이용하여 상기 자세벡터를 산출하는 제2단계; 상기 자세벡터와 상기 기준벡터를 이용하여 각각의 자세 지표에 대한 각도를 산출하여 상기 복수 개의 자세 지표에 대한 데이터를 수집하는 제3단계; 상기 복수 개의 자세 지표에 대한 데이터와 상기 복수 개의 기준 지표에 대한 데이터를 이용하여 상기 사용자의 신체 부위 각각에 대한 점수를 산출하는 제4단계; 및 상기 점수를 포함하는 상기 평가 정보와 상기 기준 이미지를 상기 디스플레이부에 표시하는 제5단계;를 포함한다.The configuration of the present invention for achieving the above object includes: a first step of acquiring position information of each joint of the user and collecting the posture information by recognizing the user's motion; a second step of generating the body vector by using the position information of each joint of the user and calculating the posture vector using each body vector; a third step of calculating an angle for each posture index by using the posture vector and the reference vector and collecting data for the plurality of posture indices; a fourth step of calculating a score for each body part of the user by using the data on the plurality of posture indicators and the data on the plurality of reference indicators; and a fifth step of displaying the evaluation information including the score and the reference image on the display unit.

상기와 같은 구성에 따른 본 발명의 효과는, 사용자의 자세 또는 동작을 정량화할 수 있고, 이를 데이터화하여, 사용자의 자세 또는 동작에 대해 정량 분석이 가능함과 동시에, 사용자의 신체 부위 각각의 오류 정도를 정밀하게 측정할 수 있다는 것이다.The effect of the present invention according to the above configuration is that it is possible to quantify the user's posture or motion, and by dataizing it, quantitative analysis of the user's posture or motion is possible, and at the same time, the error level of each body part of the user can be measured. that it can be accurately measured.

그리고, 본 발명의 효과는, 사용자는 반복 운동의 동작 훈련에서 자세 정확도가 상대적으로 낮은 신체 부위를 파악할 수 있고, 사용자가 해당 부위의 자세 교정에 집중함으로써, 사용자의 자세 또는 동작 교정 효율이 현저히 증대될 수 있다는 것이다.In addition, an effect of the present invention is that the user can identify a body part having relatively low posture accuracy in motion training of repetitive exercise, and the user concentrates on correcting the posture of the corresponding part, thereby significantly increasing the user's posture or motion correction efficiency that it can be

본 발명의 효과는 상기한 효과로 한정되는 것은 아니며, 본 발명의 상세한 설명 또는 특허청구범위에 기재된 발명의 구성으로부터 추론 가능한 모든 효과를 포함하는 것으로 이해되어야 한다.The effects of the present invention are not limited to the above effects, and it should be understood to include all effects that can be inferred from the configuration of the invention described in the detailed description or claims of the present invention.

도 1은 본 발명의 일 실시 예에 따른 분석 및 평가 장치의 개략도이다.
도 2는 본 발명의 일 실시 예에 따른 동작인식부에 의한 관절 위치 정보에 대한 이미지이다.
도 3은 본 발명의 일 실시 예에 따른 사용자의 이미지와 기준 이미지이다.
도 4 내지 도 9는 본 발명의 일 실시 예에 따른 사용자의 머리, 몸통, 팔 및 다리 각각에 대한 자세 지표 도출에 관련된 이미지이다.
도 10은 본 발명의 일 실시 예에 따른 자세 지표 데이터 값을 정리한 표이다.
도 11은 본 발명의 일 실시 예에 따른 기준 지표 데이터 값을 정리한 표이다.
도 12는 본 발명의 일 실시 예에 따른 자세 지표 데이터 값과 기준 지표 데이터 값의 차이를 정리한 표이다.
도 13은 본 발명의 일 실시 예에 따른 평가 정보를 정리한 표이다.
1 is a schematic diagram of an analysis and evaluation apparatus according to an embodiment of the present invention.
2 is an image of joint position information by the motion recognition unit according to an embodiment of the present invention.
3 is an image of a user and a reference image according to an embodiment of the present invention.
4 to 9 are images related to deriving a posture index for each of a user's head, torso, arms, and legs according to an embodiment of the present invention.
10 is a table summarizing posture index data values according to an embodiment of the present invention.
11 is a table summarizing reference index data values according to an embodiment of the present invention.
12 is a table summarizing differences between posture index data values and reference index data values according to an embodiment of the present invention.
13 is a table summarizing evaluation information according to an embodiment of the present invention.

이하에서는 첨부한 도면을 참조하여 본 발명을 설명하기로 한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 따라서 여기에서 설명하는 실시 예로 한정되는 것은 아니다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. Hereinafter, the present invention will be described with reference to the accompanying drawings. However, the present invention may be embodied in several different forms, and thus is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결(접속, 접촉, 결합)"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 부재를 사이에 두고 "간접적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 구비할 수 있다는 것을 의미한다. Throughout the specification, when a part is "connected (connected, contacted, coupled)" with another part, it is not only "directly connected" but also "indirectly connected" with another member interposed therebetween. "Including cases where In addition, when a part "includes" a certain component, this means that other components may be further provided without excluding other components unless otherwise stated.

본 명세서에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. The terms used herein are used only to describe specific embodiments, and are not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise. In the present specification, terms such as “comprise” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It is to be understood that this does not preclude the possibility of the presence or addition of numbers, steps, operations, components, parts, or combinations thereof.

이하 첨부된 도면을 참고하여 본 발명에 대하여 상세히 설명하기로 한다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시 예에 따른 분석 및 평가 장치의 개략도이고, 도 2는 본 발명의 일 실시 예에 따른 동작인식부(210)에 의한 관절 위치 정보에 대한 이미지이며, 도 3은 본 발명의 일 실시 예에 따른 사용자(10)의 이미지와 기준 이미지(20)이다.1 is a schematic diagram of an analysis and evaluation apparatus according to an embodiment of the present invention, FIG. 2 is an image of joint position information by the motion recognition unit 210 according to an embodiment of the present invention, and FIG. The image of the user 10 and the reference image 20 according to an embodiment of the present invention.

도 1 내지 도 3에서 보는 바와 같이, 본 발명의 분석 및 평가 장치는, 운동기기(240)를 이용하는 사용자(10)의 각 관절의 위치 정보를 획득하고 사용자(10)의 동작을 인식하여 사용자(10)의 자세 정보를 생성하는 동작인식부(210); 동작인식부(210)로부터 자세 정보를 전달 받고, 자세 정보를 이용하여 복수 개의 자세 지표에 대한 데이터를 도출하며, 복수 개의 자세 지표와 미리 저장된 복수 개의 기준 지표에 대한 데이터와 비교하여 분석 정보를 생성하고 사용자(10)의 자세에 대한 평가 정보를 생성하는 분석평가부(220); 및 사용자(10)의 이미지와 복수 개의 기준 지표에 의한 가상의 신체 이미지인 기준 이미지(20)를 표시하고, 분석 정보와 평가 정보를 표시하는 디스플레이부(230);를 포함한다.1 to 3 , the analysis and evaluation apparatus of the present invention obtains position information of each joint of the user 10 using the exercise device 240 and recognizes the user's 10 operation ( 10) a motion recognition unit 210 for generating the posture information; Posture information is received from the motion recognition unit 210, data on a plurality of posture indicators is derived using the posture information, and analysis information is generated by comparing the data with respect to a plurality of posture indicators and a plurality of pre-stored reference indicators. and an analysis and evaluation unit 220 for generating evaluation information on the posture of the user 10; and a display unit 230 that displays an image of the user 10 and a reference image 20 that is a virtual body image based on a plurality of reference indicators, and displays analysis information and evaluation information.

운동기기(240)는 트램폴린(tranpoline)일 수 있으나, 이에 한정되는 것은 아니고, 사용자(10)가 복수의 동작을 수행하는 운동기기(240)는 모두 이용될 수 있다. 사용자(10)가 운동기기(240)를 이용하여 반복적인 동작을 수행하는 경우, 동작인식부(210)는 실시간으로 사용자(10)의 자세 정보를 획득하고 분석평가부(220)로 해당 정보를 전달하는데, 여기서, 반복적인 동작은 일정한 동작 또는 시간 변화에 따라 가변하는 동작일 수도 있다.The exercise device 240 may be a trampoline (tranpoline), but is not limited thereto, and any exercise device 240 in which the user 10 performs a plurality of operations may be used. When the user 10 performs a repetitive motion using the exercise device 240 , the motion recognition unit 210 acquires the posture information of the user 10 in real time and uses the information to the analysis and evaluation unit 220 . Here, the repetitive operation may be a constant operation or an operation that varies according to time change.

도 1에서 보는 바와 같이, 동작인식부(210)와 분석평가부(220), 디스플레이부(230), 및 운동기기(240) 각각은 하나의 공간에 설치될 수 있으며, 동작인식부(210)와 디스플레이부(230)가 서로 인접하게 위치하도록 동작인식부(210) 및 디스플레이부(230)와 결합하여 각각을 지지하는 지지부(250)가 형성될 수 있다. 다만, 이와 같은 설치 위치는 변경 가능할 수 있다.As shown in FIG. 1 , each of the motion recognition unit 210 , the analysis and evaluation unit 220 , the display unit 230 , and the exercise device 240 may be installed in one space, and the motion recognition unit 210 . A support unit 250 may be formed in combination with the motion recognition unit 210 and the display unit 230 to support each other so that the display unit 230 and the display unit 230 are positioned adjacent to each other. However, such an installation location may be changeable.

동작인식부(210)는, 키넥트 동작 추적 시스템(Kinect Body Tracking System)을 구비할 수 있다. 키넥트 동작 추적 시스템은 사용자(10)의 신체를 촬상하여 중심이 되는 뼈가 아닌 관절의 위치 정보를 획득할 수 있으며, 도 2에서 보는 바와 같이, 각각의 관절에는 0 내지 24(총 25개) 중 선택되는 어느 하나의 수가 대입될 수 있으며, 이를 이용하여 키넥트 동작 추적 시스템은 각각의 관절의 위치 및 그 변화를 지속적으로 추적할 수 있다. 도 2에서는 일부 관절에 대한 수가 표시되어 있다. 키넥트 동작 추적 시스템은 종래기술로써, 원리 등에 대한 상세한 사항에 대한 설명은 생략하기로 한다.The motion recognition unit 210 may include a Kinect body tracking system. The Kinect motion tracking system captures the body of the user 10 and obtains position information of joints, not bones, which are the center, and as shown in FIG. Any one selected number may be substituted, and using this, the Kinect motion tracking system can continuously track the position of each joint and its change. In FIG. 2, the numbers for some joints are indicated. Since the Kinect motion tracking system is a prior art, detailed descriptions of principles and the like will be omitted.

그리고, 본 발명의 분석 및 평가 장치는, 상기와 같이 각각의 관절의 위치 정보를 이용하여 사용자(10)의 자세 또는 동작에 대한 분석을 수행할 수 있으며, 이에 대한 상세한 사항은 하기에 설명하기로 한다.And, the analysis and evaluation apparatus of the present invention may perform an analysis of the posture or motion of the user 10 using the position information of each joint as described above, and details thereof will be described below. do.

분석평가부(220)는, 사용자(10)의 신장에 따라 기준 이미지(20)의 확대 또는 축소 비율을 조절할 수 있다. 분석평가부(220)는 미리 저장된 복수 개의 기준 지표에 대한 데이터에 의한 가상의 신체 이미지인 기준 이미지(20)를 생성하여 디스플레이부(230)로 전달하여 디스플레이부(230)에서 기준 이미지(20)가 표시되게 할 수 있다. 그리고, 동작인식부(210)는 사용자(10)의 이미지를 획득하여 분석평가부(220)로 전달하고, 분석평가부(220)는 사용자(10)의 이미지를 디스플레이부(230)로 전달하며, 디스플레이부(230)에서는 사용자(10)의 이미지와 기준 이미지(20)가 동시에 표시될 수 있다.The analysis and evaluation unit 220 may adjust the enlargement or reduction ratio of the reference image 20 according to the height of the user 10 . The analysis and evaluation unit 220 generates a reference image 20 that is a virtual body image based on data for a plurality of pre-stored reference indicators, and transmits it to the display unit 230 to display the reference image 20 in the display unit 230 . can be displayed. Then, the motion recognition unit 210 acquires the image of the user 10 and transmits it to the analysis and evaluation unit 220 , and the analysis and evaluation unit 220 transmits the image of the user 10 to the display unit 230 , , the image of the user 10 and the reference image 20 may be simultaneously displayed on the display unit 230 .

여기서, 기준 이미지(20)에서도 가상의 신체에 형성된 각각의 관절이 특정될 수 있으며, 분석평가부(220)는, 기준 이미지(20)에 형성된 각각의 관절이 사용자(10)의 이미지 상 각각의 관절과 디스플레이부(230)의 화면 상 일치되도록, 디스플레이부(230)의 화면 상 에서 기준 이미지(20)에 형성된 각각의 관절의 위치가 변하도록 기준 이미지(20) 관절의 위치 정보를 조절할 수 있다. 이와 같이 기준 이미지(20)에 형성된 각각의 관절의 위치가 변하면서 사용자(10)의 신체 각 부위의 면적에 대응되게 기준 이미지(20)의 각 부위의 면적이 확대 또는 축소될 수 있다. 이에 따라, 사용자(10)가 디스플레이부(230)를 시청하면서 사용자(10)의 자세 또는 동작 교정을 용이하게 수행할 수 있다.Here, each joint formed in the virtual body may be specified even in the reference image 20 , and the analysis and evaluation unit 220 determines that each joint formed in the reference image 20 is each of the respective joints in the image of the user 10 . The position information of the joints of the reference image 20 can be adjusted so that the positions of the joints formed in the reference image 20 on the screen of the display 230 are changed so that the joints and the joints on the screen of the display unit 230 are matched. . As described above, as the position of each joint formed in the reference image 20 is changed, the area of each part of the reference image 20 may be enlarged or reduced to correspond to the area of each part of the body of the user 10 . Accordingly, the user 10 can easily correct the posture or motion of the user 10 while watching the display unit 230 .

도 4 내지 도 9는 본 발명의 일 실시 예에 따른 사용자(10)의 머리, 몸통, 팔 및 다리 각각에 대한 자세 지표 도출에 관련된 이미지이다. 구체적으로, 도 4는 사용자(10) 머리의 굽힘 각도와 몸통의 굽힘 각도를 산출하는 방식을 나타내는 이미지이고, 도 5는 사용자(10) 몸통의 기울임 각도와 돌림 각도를 산출하는 방식을 나타내는 이미지이다.4 to 9 are images related to deriving a posture index for each of the head, torso, arms, and legs of the user 10 according to an embodiment of the present invention. Specifically, FIG. 4 is an image illustrating a method of calculating the bending angle of the user 10's head and the bending angle of the torso, and FIG. 5 is an image illustrating a method of calculating the inclination angle and turning angle of the user's 10 torso. .

또한, 도 6은 사용자(10) 팔의 올림 각도와 벌림 각도를 산출하는 방식을 나타내는 이미지이고, 도 7은 사용자(10) 팔의 굽힘 각도와 돌림 각도를 산출하는 방식을 나타내는 이미지이다. 그리고, 도 8은 사용자(10) 다리의 올림 각도와 벌림 각도를 산출하는 방식을 나타내는 이미지이고, 도 9는 사용자(10) 다리의 굽힘 각도와 돌림 각도를 산출하는 방식을 나타내는 이미지이다.In addition, FIG. 6 is an image illustrating a method of calculating the raising angle and the opening angle of the user 10's arm, and FIG. 7 is an image illustrating a method of calculating the bending angle and the turning angle of the user's 10 arm. And, FIG. 8 is an image illustrating a method of calculating the raising angle and the opening angle of the user 10's leg, and FIG. 9 is an image illustrating a method of calculating the bending angle and the turning angle of the user's 10 leg.

도 4 내지 도 9에서 보는 바와 같이, 복수 개의 자세 지표에 대한 데이터는, 사용자(10)의 신체 일 부위에 대한 벡터인 자세벡터와 기준이 되는 벡터인 기준벡터를 이용하여 도출될 수 있다. 또는, 복수 개의 자세 지표에 대한 데이터는, 사용자(10)의 신체 일 부위에 대한 벡터인 자세벡터와 기준이 되는 평면인 기준평면을 이용하여 도출될 수 있다. As shown in FIGS. 4 to 9 , data for a plurality of posture indicators may be derived using a posture vector that is a vector for a body part of the user 10 and a reference vector that is a reference vector. Alternatively, data on a plurality of posture indicators may be derived using a posture vector that is a vector for a part of the user 10 and a reference plane that is a reference plane.

여기서, 기준벡터는, 사용자(10)의 신체 다른 부위에 대한 자세벡터 또는 3차원 기준 단위 벡터일 수 있다. 즉, 기준벡터는, 3차원 기본 단위 벡터를 포함할 수 있다. 그리고, 분석평가부(220)는, 하나의 자세벡터에 대한 기준벡터로써 다른 자세벡터를 선택할 수 있다. 각각의 구체적인 실시 예에 대해서는 하기에 설명하기로 한다.Here, the reference vector may be a posture vector or a three-dimensional reference unit vector for another body part of the user 10 . That is, the reference vector may include a 3D basic unit vector. In addition, the analysis and evaluation unit 220 may select another posture vector as a reference vector for one posture vector. Each specific embodiment will be described below.

3차원 기준 단위 벡터는 3차원 좌표계에서 x, y 및 z축 방향의 벡터일 수 있으며, 지상에 수직인 방향으로 y축 벡터가 형성되고, 사용자(10)의 좌우 방향으로 x축 벡터가 형성되며, 사용자(10)의 전후 방향으로 z축 벡터가 형성될 수 있다. 또한, 기준평면은 3차원 좌표계에서 xy 평면, yz 평면 및 xz 평면일 수 있다. 기준평면이 이용되는 경우, 기준평면 상 해당 자세벡터의 사영벡터(projection vector)가 이용될 수 있다. 사영벡터는 해당 기준평면 상에 소정의 벡터를 수직으로 내려서 생긴 벡터를 의미한다. 그리고, 기준평면으로써 어느 하나의 신체벡터와 다른 신체 신체벡터에 의해 형성된 평면이 이용될 수도 있다.The three-dimensional reference unit vector may be a vector in x, y, and z-axis directions in a three-dimensional coordinate system, a y-axis vector is formed in a direction perpendicular to the ground, an x-axis vector is formed in the left and right direction of the user 10, , a z-axis vector may be formed in the front-rear direction of the user 10 . Also, the reference plane may be an xy plane, a yz plane, and an xz plane in a three-dimensional coordinate system. When the reference plane is used, a projection vector of the corresponding posture vector on the reference plane may be used. The projection vector refers to a vector generated by vertically lowering a predetermined vector on a corresponding reference plane. In addition, a plane formed by one body vector and another body vector may be used as the reference plane.

상기와 같이 자세벡터를 확정하여 사용자(10)의 신체 부위 각각에 대한 위치를 특정하고, 각각의 자세벡터의 위치 변화를 소정의 기준벡터를 기준으로 연산함으로써, 사용자(10)의 자세 또는 동작을 정량화할 수 있고, 이를 데이터화하여, 사용자(10)의 자세 또는 동작에 대해 정량 분석이 가능함과 동시에, 사용자(10)의 신체 부위 각각의 오류 정도를 정밀하게 측정할 수 있다.By determining the posture vector as described above, specifying the position of each body part of the user 10, and calculating the position change of each posture vector based on a predetermined reference vector, the posture or motion of the user 10 is controlled. It can be quantified, and by dataizing it, quantitative analysis of the posture or motion of the user 10 is possible and, at the same time, the degree of error of each body part of the user 10 can be precisely measured.

그리고, 자세벡터는, 사용자(10)의 신체 일 부위에 있어서 하나의 관절로부터 다른 관절 방향으로 형성될 수 있다. 또한, 사용자(10)의 신체 일 부위는 머리, 몸통, 좌측 팔, 우측 팔, 좌측 다리 및 우측 다리 중에서 선택되는 어느 하나일 수 있다.In addition, the posture vector may be formed in a direction from one joint to another in a body part of the user 10 . Also, one body part of the user 10 may be any one selected from a head, a torso, a left arm, a right arm, a left leg, and a right leg.

본 발명의 실시 예에서는, 20개의 자세 지표가 설정될 수 있으며, 구체적으로, 머리와 몸통 관련된 자세 지표로써, 머리의 굽힘 각도, 몸통의 굽힘 각도, 몸통의 기울임 각도 및 몸통의 돌림 각도가 설정될 수 있다.In an embodiment of the present invention, 20 posture indicators may be set, and specifically, as the head and trunk related posture indicators, the bending angle of the head, the bending angle of the torso, the inclination angle of the torso, and the turning angle of the torso are to be set. can

또한, 팔과 관련된 자세 지표로써, 좌측 팔의 올림 각도, 좌측 팔의 벌림 각도, 좌측 팔의 굽힘 각도, 좌측 팔의 돌림 각도, 우측 팔의 올림 각도, 우측 팔의 벌림 각도, 우측 팔의 굽힘 각도 및 우측 팔의 돌림 각도가 설정될 수 있다.In addition, as the arm-related posture indicators, the raising angle of the left arm, the opening angle of the left arm, the bending angle of the left arm, the turning angle of the left arm, the raising angle of the right arm, the opening angle of the right arm, the bending angle of the right arm and a rotation angle of the right arm may be set.

그리고, 다리와 관련된 자세 지표로써, 좌측 다리의 올림 각도, 좌측 다리의 벌림 각도, 좌측 다리의 굽힘 각도, 좌측 다리의 돌림 각도, 우측 다리의 올림 각도, 우측 다리의 벌림 각도, 우측 다리의 굽힘 각도 및 우측 다리의 돌림 각도가 설정될 수 있다.And, as the leg-related posture indicators, the raising angle of the left leg, the opening angle of the left leg, the bending angle of the left leg, the turning angle of the left leg, the raising angle of the right leg, the opening angle of the right leg, the bending angle of the right leg and a rotation angle of the right leg may be set.

상기와 같은 각각의 각도에 대응되는 자세 지표를 도출하기 위하여, 사용자(10)의 신체 부위 각각에 대응되는 자세벡터가 형성될 수 있으며, 이와 같은 자세벡터는, 도 2에서 보는 바와 같이 키넥트 동작 추적 시스템에 의해 확정되는 복수 개의 관절에서, 하나의 관절과 다른 관절을 잇는 선의 방향을 따라 형성되는 벡터로 형성될 수 있다.In order to derive the posture index corresponding to each angle as described above, a posture vector corresponding to each body part of the user 10 may be formed. In a plurality of joints determined by the tracking system, it may be formed as a vector formed along the direction of a line connecting one joint and another joint.

이하, 자세벡터의 산출에 이용되는 신체벡터로써 머리벡터(110), 몸통벡터(121), 어깨벡터(122), 골반벡터(123), 좌측팔상부벡터(131), 좌측팔하부벡터(132), 좌측다리상부벡터(141) 및 좌측다리하부벡터(142)가 설정되는 사항에 대해 설명하기로 한다. 즉, 신체벡터를 이용하여 자세벡터가 규정될 수 있으며, 자세벡터는 신체벡터 자체, 신체벡터의 법선벡터, 신체벡터의 사영벡터, 및 하나의 신체벡터와 다른 신체벡터에 의해 형성된 평면에 수직인 벡터 중 선택되는 어느 하나일 수 있다.Hereinafter, as body vectors used to calculate the posture vector, the head vector 110 , the body vector 121 , the shoulder vector 122 , the pelvis vector 123 , the left upper arm vector 131 , and the left lower arm vector 132 . ), the upper left leg vector 141 and the lower left leg vector 142 will be described. That is, a posture vector can be defined using a body vector, and the posture vector is perpendicular to the plane formed by the body vector itself, the normal vector of the body vector, the projection vector of the body vector, and one body vector and another body vector. It may be any one selected from vectors.

도 2에서 보는 바와 같이, 각각의 관절에는 매칭되는 숫자가 설정될 수 있으며, 사용자(10) 머리에 대한 벡터로써, 2번 관절로부터 1번 관절 방향으로 머리벡터(110)가 형성될 수 있다. 여기서, 방향만 전환되어 1번 관절로부터 3번 관절 방향으로 머리벡터(110)가 형성될 수도 있다. 이와 같은 벡터 생성 원리는 이하 동일하다. 그리고, 각각의 신체벡터의 크기는 임의로 설정될 수 있다.As shown in FIG. 2 , a matching number may be set for each joint, and as a vector for the user's 10 head, a head vector 110 may be formed in the direction from the second joint to the first joint. Here, only the direction may be switched to form the head vector 110 in the direction from the first joint to the third joint. Such a vector generation principle is the same as follows. In addition, the size of each body vector may be arbitrarily set.

또한, 사용자(10) 몸통에 대한 벡터로써, 3번 관절로부터 16번 관절, 3번 관절로부터 17번 관절 방향 또는 16번 관절로부터 17번 관절 방향으로 몸통벡터(121)가 형성될 수 있다. 그리고, 4번 관절로부터 5번 관절 방향으로 어깨벡터(122)가 형성될 수 있으며, 18번 관절로부터 19번 관절 방향으로 골반벡터(123)가 형성될 수 있다.In addition, as a vector for the user's 10 body, the body vector 121 may be formed in a direction from joint 3 to joint 16, from joint 3 to joint 17, or from joint 16 to joint 17. In addition, the shoulder vector 122 may be formed from the 4th joint to the 5th joint direction, and the pelvic vector 123 may be formed from the 18th joint to the 19th joint direction.

또한, 사용자(10) 팔에 대한 벡터로써, 5번 관절로부터 7번 관절 방향으로 좌측팔상부벡터(131)가 형성될 수 있고, 7번 관절로부터 9번 관절 방향으로 좌측팔하부벡터(132)가 형성될 수 있다. 그리고, 사용자(10) 다리에 대한 벡터로써, 19번 관절로부터 21번 관절 방향으로 좌측다리상부벡터(141)가 형성될 수 있고, 21번 관절로부터 23번 관절 방향으로 좌측다리하부벡터(142)가 형성될 수 있다.In addition, as a vector for the user 10's arm, the left upper arm vector 131 may be formed from the 5th joint to the 7th joint direction, and the left lower arm vector 132 from the 7th joint to the 9th joint direction. can be formed. And, as a vector for the user 10's leg, the upper left leg vector 141 may be formed from the 19th joint to the 21st joint direction, and the left lower leg vector 142 from the 21st joint to the 23rd joint direction. can be formed.

이상, 사용자(10)의 머리, 몸통, 좌측 팔 및 좌측 다리 각각에 대한 벡터를 도출하는 사항에 대해 설명하였으며, 우측 팔 및 우측 다리에 대한 신체벡터도 동일한 원리로 도출시켜 적용할 수 있다.As described above, the details of deriving vectors for each of the user 10's head, torso, left arm, and left leg have been described, and body vectors for the right arm and right leg can also be derived and applied in the same principle.

상기된 각각의 자세 지표의 각도는 하기의 [수학식 1]에 의해 산출될 수 있다.The angle of each of the above-described posture indicators may be calculated by the following [Equation 1].

[수학식 1][Equation 1]

Figure 112020103106108-pat00001
Figure 112020103106108-pat00001

여기서, θ는 자세 지표의 각도이고,

Figure 112020103106108-pat00002
는 기준벡터이며,
Figure 112020103106108-pat00003
는 사용자(10) 신체 일 부위의 자세벡터다. 각각의 경우에 적용되는 자세벡터와 기준벡터는 하기에 상세히 설명하기로 한다.where θ is the angle of the posture index,
Figure 112020103106108-pat00002
is the reference vector,
Figure 112020103106108-pat00003
is a posture vector of a body part of the user 10 . The posture vector and reference vector applied to each case will be described in detail below.

이하, 각각의 자세 지표 산출에 대해 설명하기로 한다. 먼저, 도 4에서 보는 바와 같이, 사용자(10) 머리의 굽힘 각도와 몸통의 굽힘 각도의 산출에 대해 설명하기로 한다. 여기서, 도 4의 (a)는 사용자(10) 머리의 굽힘에 따른 머리벡터(110)의 변화를 나타낸 이미지이고, 도 4의 (b)는 사용자(10) 몸통의 굽힘에 따른 몸통벡터(121)의 변화를 나타낸 이미지이다.(변화 전의 벡터는 점선으로 표시되어 있다. 이하, 동일하다)Hereinafter, calculation of each posture index will be described. First, as shown in FIG. 4 , the calculation of the bending angle of the head and the bending angle of the body of the user 10 will be described. Here, Fig. 4 (a) is an image showing the change of the head vector 110 according to the bending of the user's 10 head, and Fig. 4 (b) is the body vector 121 according to the bending of the user's 10 torso. ) is an image showing the change.

도 4의 (a)에서 보는 바와 같이, 머리의 굽힘 각도는 기준 자세(차렷 자세, 이하 동일하다)에서 사용자(10)가 머리를 당기는 각도로 정의될 수 있으며, 자세벡터로써 머리벡터(110)가 이용되고 기준벡터로써 y축 벡터가 이용될 수 있다. 그리고, y축 벡터(

Figure 112020103106108-pat00004
)와 머리벡터(110)(
Figure 112020103106108-pat00005
)를 상기된 [수학식 1]에 대입하여 머리의 굽힘 각도(θ)를 산출할 수 있다. 또는, 자세벡터로써 머리벡터(110)가 이용되고 기준벡터로써 몸통벡터(121)가 이용될 수 있다. 그리고, 몸통벡터(121)(
Figure 112020103106108-pat00006
)와 머리벡터(110)(
Figure 112020103106108-pat00007
)를 상기된 [수학식 1]에 대입하여 머리의 굽힘 각도(θ)를 산출할 수 있다. 여기서, 머리의 동작 특성 상 음의 방향 구분이 없을 수 있다.As shown in (a) of Figure 4, the bending angle of the head can be defined as the angle at which the user 10 pulls the head in the reference posture (attention posture, hereinafter the same), and the head vector 110 as the posture vector. is used, and a y-axis vector may be used as a reference vector. And, the y-axis vector (
Figure 112020103106108-pat00004
) and the head vector (110) (
Figure 112020103106108-pat00005
) can be substituted into [Equation 1] above to calculate the bending angle θ of the head. Alternatively, the head vector 110 may be used as the posture vector and the body vector 121 may be used as the reference vector. And, the body vector 121 (
Figure 112020103106108-pat00006
) and the head vector (110) (
Figure 112020103106108-pat00007
) can be substituted into [Equation 1] above to calculate the bending angle θ of the head. Here, there may be no division of negative directions due to the operation characteristics of the head.

도 4의 (b)에서 보는 바와 같이, 몸통의 굽힘 각도는 기준 자세에서 사용자(10)가 허리를 굽히는 각도로 정의될 수 있으며, 자세벡터로써 몸통벡터(121)의 법선벡터가 이용되고 기준평면으로써 xz 평면이 이용될 수 있다. 그리고, xz 평면 상 몸통벡터(121)의 법선벡터에 대한 사영벡터(

Figure 112020103106108-pat00008
)와 몸통벡터(121)의 법선벡터(
Figure 112020103106108-pat00009
)를 상기된 [수학식 1]에 대입하여 몸통의 굽힘 각도(θ)를 산출할 수 있다. 여기서, 몸통의 동작 특성 상 음의 방향 구분이 없을 수 있다.As shown in (b) of FIG. 4 , the bending angle of the body may be defined as the angle at which the user 10 bends the waist in the reference posture, and the normal vector of the body vector 121 is used as the posture vector, and the reference plane Therefore, the xz plane can be used. And, on the xz plane, the projection vector (
Figure 112020103106108-pat00008
) and the normal vector of the body vector 121 (
Figure 112020103106108-pat00009
) can be substituted into [Equation 1] above to calculate the bending angle θ of the body. Here, there may be no distinction in the direction of sound due to the motion characteristics of the body.

또한, 도 5에서 보는 바와 같이, 사용자(10) 몸통의 기울임 각도와 돌림 각도의 산출에 대해 설명하기로 한다. 여기서, 도 5의 (a)는 사용자(10) 몸통의 기울임에 따른 몸통벡터(121)의 변화를 나타낸 이미지이고, 도 5의 (b)는 사용자(10) 몸통의 돌림에 따른 몸통벡터(121)의 변화를 나타낸 이미지이다.In addition, as shown in FIG. 5 , the calculation of the inclination angle and the turning angle of the body of the user 10 will be described. Here, Fig. 5 (a) is an image showing the change of the body vector 121 according to the inclination of the user 10's torso, and Fig. 5 (b) is the body vector 121 according to the rotation of the user 10's torso. ) is an image showing the change in

도 5의 (a)에서 보는 바와 같이, 몸통의 기울임 각도는 기준 자세에서 사용자(10)가 몸통을 좌측 또는 우측으로 기울이는 각도로 정의될 수 있으며, 자세벡터로써 어깨벡터(122)가 이용되고 기준평면으로써 xz 평면이 이용될 수 있다. 그리고, xz 평면 상 어깨벡터(122)에 대한 사영벡터(

Figure 112020103106108-pat00010
)와 어깨 벡터(
Figure 112020103106108-pat00011
)를 상기된 [수학식 1]에 대입하여 몸통의 기울임 각도(θ)를 산출할 수 있다. 여기서, 몸통의 동작 특성 상 음의 방향 구분이 없을 수 있다. As shown in (a) of FIG. 5 , the tilt angle of the torso may be defined as the angle at which the user 10 tilts the torso left or right in the reference posture, and the shoulder vector 122 is used as the posture vector and the reference The xz plane may be used as the plane. And, the projection vector for the shoulder vector 122 on the xz plane (
Figure 112020103106108-pat00010
) and the shoulder vector(
Figure 112020103106108-pat00011
) can be substituted into [Equation 1] above to calculate the inclination angle θ of the body. Here, there may be no distinction in the direction of sound due to the motion characteristics of the body.

도 5의 (b)에서 보는 바와 같이, 몸통의 돌림 각도는 골반을 기준으로 몸통을 회전시키는 각도로 정의될 수 있으며, 자세벡터로써 xz 평면 상 어깨벡터(122)에 대한 사영벡터가 이용되고 기준벡터로써 xz 평면 상 골반벡터(123)에 대한 사영벡터가 이용될 수 있다. 그리고, xz 평면 상 골반벡터(123)에 대한 사영벡터 (

Figure 112020103106108-pat00012
)와 xz 평면 상 어깨벡터(122)에 대한 사영벡터(
Figure 112020103106108-pat00013
)를 상기된 [수학식 1]에 대입하여 몸통의 돌림 각도(θ)를 산출할 수 있다. 여기서, 몸통의 동작 특성 상 음의 방향 구분이 없을 수 있다.As shown in (b) of FIG. 5 , the rotation angle of the torso can be defined as an angle that rotates the torso with respect to the pelvis, and a projection vector for the shoulder vector 122 on the xz plane is used as the posture vector and the reference As a vector, a projection vector for the pelvis vector 123 on the xz plane may be used. And, the projection vector for the pelvis vector (123) on the xz plane (
Figure 112020103106108-pat00012
) and the projection vector for the shoulder vector (122) on the xz plane (
Figure 112020103106108-pat00013
) can be substituted into [Equation 1] above to calculate the turning angle θ of the body. Here, there may be no distinction in the direction of sound due to the motion characteristics of the body.

또한, 도 6에서 보는 바와 같이, 사용자(10) 팔의 올림 각도와 벌림 각도의 산출에 대해 설명하기로 한다. 여기서, 도 6의 (a)는 사용자(10) 좌측 팔의 올림에 따른 좌측팔상부벡터(131)의 변화를 나타낸 이미지이고, 도 6의 (b)는 좌측 팔의 벌림에 따른 좌측팔상부벡터(131)의 변화를 나타낸 이미지이다.In addition, as shown in FIG. 6 , the calculation of the raising angle and the opening angle of the arm of the user 10 will be described. Here, Fig. 6 (a) is an image showing the change of the left upper arm vector 131 according to the raising of the left arm of the user 10, and Fig. 6 (b) is the left upper arm vector according to the opening of the left arm. (131) is an image showing the change.

도 6의 (a)에서 보는 바와 같이, 팔의 올림 각도는 기준 자세에서 사용자(10)가 팔 상부를 들어올린 각도로 정의될 수 있으며, 자세벡터로써 좌측팔상부벡터(131)가 이용되고 기준벡터로써 y축 벡터가 이용될 수 있다. 그리고, y축 벡터(

Figure 112020103106108-pat00014
)와 좌측팔상부벡터(131)(
Figure 112020103106108-pat00015
)를 상기된 [수학식 1]에 대입하여 팔의 올림 각도(θ)를 산출할 수 있다. 또는, 자세벡터로써 좌측팔상부벡터(131)가 이용되고 기준벡터로써 몸통벡터(121)가 이용될 수 있다. 그리고, 몸통벡터(121)(
Figure 112020103106108-pat00016
)와 좌측팔상부벡터(131)(
Figure 112020103106108-pat00017
)를 상기된 [수학식 1]에 대입하여 팔의 올림 각도(θ)를 산출할 수 있다. 여기서, 팔의 동작 특성 상 음의 방향 구분이 없을 수 있다.As shown in (a) of FIG. 6 , the arm raising angle may be defined as the angle at which the user 10 lifts the upper arm in the reference posture, and the left upper arm vector 131 is used as the posture vector and the standard A y-axis vector may be used as the vector. And, the y-axis vector (
Figure 112020103106108-pat00014
) and the left upper arm vector (131) (
Figure 112020103106108-pat00015
) can be substituted into the above [Equation 1] to calculate the arm elevation angle (θ). Alternatively, the left upper arm vector 131 may be used as the posture vector and the body vector 121 may be used as the reference vector. And, the body vector 121 (
Figure 112020103106108-pat00016
) and the left upper arm vector (131) (
Figure 112020103106108-pat00017
) can be substituted into the above [Equation 1] to calculate the arm elevation angle (θ). Here, there may be no division of negative directions due to the motion characteristics of the arm.

도 6의 (b)에서 보는 바와 같이, 팔의 벌림 각도는 몸통의 정면에서 사용자(10)의 팔 상부가 벌어진 각도로 정의될 수 있으며, 기준평면으로써 몸통벡터(121)와 좌측팔상부벡터(131)의 곱에 의한 수평면이 이용되고 자세벡터로써 좌측팔상부벡터(131)가 이용될 수 있다. 그리고, 상기된 수평면(

Figure 112020103106108-pat00018
)과 좌측팔상부벡터(131)(
Figure 112020103106108-pat00019
)를 상기된 [수학식 1]에 대입하여 팔의 벌림 각도(θ)를 산출할 수 있다. 여기서, 팔의 올림 각도가 0도인 경우, 팔의 벌림 각도는 초기 각도인 0도로 설정될 수 있다. 그리고, 팔의 동작 특성 상 음의 방향 구분이 있을 수 있다. 사용자(10)가 몸의 정면이 아닌 후면을 향해 팔을 벌릴 수도 있기 때문이다.As shown in (b) of FIG. 6 , the open angle of the arm may be defined as the angle at which the upper arm of the user 10 is opened from the front of the body, and the body vector 121 and the left upper arm vector ( 131) is used, and the left upper arm vector 131 may be used as the posture vector. And, the above-mentioned horizontal plane (
Figure 112020103106108-pat00018
) and the left upper arm vector (131) (
Figure 112020103106108-pat00019
) can be substituted into the above [Equation 1] to calculate the arm opening angle (θ). Here, when the raising angle of the arm is 0 degrees, the opening angle of the arm may be set to 0 degrees, which is an initial angle. In addition, there may be a division of a negative direction due to the operation characteristic of the arm. This is because the user 10 may spread his or her arms toward the rear rather than the front of the body.

또한, 도 7에서 보는 바와 같이, 사용자(10) 팔의 굽힘 각도와 돌림 각도의 산출에 대해 설명하기로 한다. 여기서, 도 7의 (a)는 사용자(10) 좌측 팔의 굽힘에 따른 좌측팔상부벡터(131)와 좌측팔하부벡터(132)의 변화를 나타낸 이미지이고, 도 7의 (b)는 사용자(10) 좌측 팔의 돌림에 따른 좌측팔상부벡터(131)와 좌측팔하부벡터(132)의 변화를 나타낸 이미지이다.In addition, as shown in FIG. 7 , the calculation of the bending angle and the turning angle of the arm of the user 10 will be described. Here, Fig. 7 (a) is an image showing the change of the left upper arm vector 131 and the left lower arm vector 132 according to the bending of the left arm of the user 10, and Fig. 7 (b) is the user ( 10) It is an image showing the change of the left upper arm vector 131 and the left lower arm vector 132 according to the rotation of the left arm.

도 7의 (a)에서 보는 바와 같이, 팔의 굽힘 각도는 사용자(10)의 팔꿈치를 굽힌 각도로 정의될 수 있으며, 자세벡터로써 좌측팔하부벡터(132)가 이용되고 기준벡터로써 좌측팔상부벡터(131)가 이용될 수 있다. 그리고, 좌측팔상부벡터(131)(

Figure 112020103106108-pat00020
)와 좌측팔하부벡터(132)(
Figure 112020103106108-pat00021
)를 상기된 [수학식 1]에 대입하여 팔의 굽힘 각도(θ)를 산출할 수 있다. 여기서, 팔의 동작 특성 상 음의 방향 구분이 없을 수 있다.As shown in (a) of FIG. 7 , the bending angle of the arm may be defined as the bending angle of the user's 10 elbow, and the left lower arm vector 132 is used as the posture vector and the left upper arm portion as the reference vector. A vector 131 may be used. And, the left upper arm vector 131 (
Figure 112020103106108-pat00020
) and the left lower arm vector (132) (
Figure 112020103106108-pat00021
) can be substituted into [Equation 1] above to calculate the bending angle θ of the arm. Here, there may be no division of negative directions due to the motion characteristics of the arm.

도 7의 (b)에서 보는 바와 같이, 팔의 돌림 각도는 좌측 팔의 올림 평면을 기준으로 사용자(10)의 팔꿈치의 안쪽(팔 오금)이 몸통 측으로 회전한 각도로 정의될 수 있으며, 자세벡터로써 몸통벡터(121)와 좌측팔상부벡터(131)의 곱에 의한 평면에 수직인 벡터가 이용되고, 기준벡터로써 좌측팔상부벡터(131)와 좌측팔하부벡터(132)의 곱에 의한 평면에 수직인 벡터가 이용될 수 있다. 이를 바꿔 말하면, 몸통벡터(121)와 좌측팔상부벡터(131)의 곱에 의한 평면(

Figure 112020103106108-pat00022
)과 좌측팔상부벡터(131)와 좌측팔하부벡터(132)의 곱에 의한 평면(
Figure 112020103106108-pat00023
) 사이의 각도가 팔의 돌림 각도일 수 있다는 것이다. 따라서, 몸통벡터(121)와 좌측팔상부벡터(131)의 곱 (
Figure 112020103106108-pat00024
)과 좌측팔상부벡터(131)와 좌측팔하부벡터(132)의 곱(
Figure 112020103106108-pat00025
) 각각의 값을 상기된 [수학식 1]에 대입하여 팔의 돌림 각도(θ)를 산출할 수 있다. 여기서, 팔의 동작 특성 상 음의 방향 구분이 있을 수 있다. 사용자(10)가 몸의 정면이 아닌 후면을 향해 팔을 돌릴 수도 있기 때문이다.As shown in (b) of FIG. 7 , the arm rotation angle may be defined as the angle at which the inside of the user's 10 elbow (popliteal fossa) is rotated toward the torso side with respect to the raised plane of the left arm, and the posture vector A vector perpendicular to the plane obtained by the product of the body vector 121 and the left upper arm vector 131 is used as a reference vector, and a plane obtained by the product of the left upper arm vector 131 and the left lower arm vector 132 is used as a reference vector. A vector perpendicular to may be used. In other words, the plane by the product of the body vector 121 and the left upper arm vector 131 (
Figure 112020103106108-pat00022
) and the product of the left upper arm vector 131 and the left lower arm vector 132 (
Figure 112020103106108-pat00023
) can be the angle of rotation of the arm. Therefore, the product of the body vector 121 and the left upper arm vector 131 (
Figure 112020103106108-pat00024
) and the product of the left upper arm vector 131 and the left lower arm vector 132 (
Figure 112020103106108-pat00025
) by substituting each value into [Equation 1] above, the arm rotation angle θ can be calculated. Here, there may be a division of a negative direction due to the operation characteristic of the arm. This is because the user 10 may turn the arm toward the back of the body instead of the front.

또한, 도 8에서 보는 바와 같이, 사용자(10) 다리의 올림 각도와 벌림 각도의 산출에 대해 설명하기로 한다. 여기서, 도 8의 (a)는 사용자(10) 좌측 다리의 올림에 따른 좌측다리상부벡터(141)의 변화를 나타낸 이미지이고, 도 8의 (b)는 좌측 다리의 벌림에 따른 좌측다리상부벡터(141)의 변화를 나타낸 이미지이다.In addition, as shown in FIG. 8 , the calculation of the raising angle and the opening angle of the user 10's legs will be described. Here, (a) of FIG. 8 is an image showing the change of the upper left leg vector 141 according to the raising of the left leg of the user 10, and (b) of FIG. 8 is the upper left leg vector according to the spread of the left leg (141) is an image showing the change.

도 8의 (a)에서 보는 바와 같이, 다리의 올림 각도는 기준 자세에서 사용자(10)가 다리 상부(넓적다리)를 들어올린 각도로 정의될 수 있으며, 자세벡터로써 좌측다리상부벡터(141)가 이용되고 기준벡터로써 y축 벡터가 이용될 수 있다. 그리고, y축 벡터(

Figure 112020103106108-pat00026
)와 좌측다리상부벡터(141)(
Figure 112020103106108-pat00027
)를 상기된 [수학식 1]에 대입하여 다리의 올림 각도(θ)를 산출할 수 있다. 또는, 자세벡터로써 좌측다리상부벡터(141)가 이용되고 기준벡터로써 몸통벡터(121)가 이용될 수 있다. 그리고, 몸통벡터(121)(
Figure 112020103106108-pat00028
)와 좌측다리상부벡터(141)(
Figure 112020103106108-pat00029
)를 상기된 [수학식 1]에 대입하여 다리의 올림 각도(θ)를 산출할 수 있다. 여기서, 다리의 동작 특성 상 음의 방향 구분이 없을 수 있다.As shown in (a) of FIG. 8 , the lifting angle of the leg may be defined as the angle at which the user 10 lifts the upper leg (thigh) in the reference posture, and the upper left leg vector 141 as a posture vector is used, and a y-axis vector may be used as a reference vector. And, the y-axis vector (
Figure 112020103106108-pat00026
) and the upper left leg vector (141) (
Figure 112020103106108-pat00027
) can be substituted into the above [Equation 1] to calculate the lifting angle θ of the leg. Alternatively, the upper left leg vector 141 may be used as the posture vector and the body vector 121 may be used as the reference vector. And, the body vector 121 (
Figure 112020103106108-pat00028
) and the upper left leg vector (141) (
Figure 112020103106108-pat00029
) can be substituted into the above [Equation 1] to calculate the lifting angle θ of the leg. Here, there may be no distinction between the negative directions due to the operation characteristics of the legs.

도 8의 (b)에서 보는 바와 같이, 다리의 벌림 각도는 몸통의 정면에서 사용자(10)의 팔 상부가 벌어진 각도로 정의될 수 있으며, 기준평면으로써 몸통벡터(121)와 좌측다리상부벡터(141)의 곱에 의한 수평면이 이용되고 자세벡터로써 좌측다리상부벡터(141)가 이용될 수 있다. 그리고, 상기된 수평면(

Figure 112020103106108-pat00030
)과 좌측다리상부벡터(141)(
Figure 112020103106108-pat00031
)를 상기된 [수학식 1]에 대입하여 다리의 벌림 각도(θ)를 산출할 수 있다. 여기서, 다리의 올림 각도가 0도인 경우, 다리의 벌림 각도는 초기 각도인 0도로 설정될 수 있다. 그리고, 다리의 동작 특성 상 음의 방향 구분이 있을 수 있다. 사용자(10)가 몸의 정면이 아닌 후면을 향해 다리를 벌릴 수도 있기 때문이다.As shown in (b) of FIG. 8, the open angle of the leg may be defined as the angle at which the upper arm of the user 10 is opened from the front of the body, and the body vector 121 and the left leg upper vector ( 141) is used, and the left upper leg vector 141 may be used as the posture vector. And, the above-mentioned horizontal plane (
Figure 112020103106108-pat00030
) and the upper left leg vector (141) (
Figure 112020103106108-pat00031
) can be substituted into the above [Equation 1] to calculate the angle of openness (θ) of the leg. Here, when the raising angle of the leg is 0 degrees, the opening angle of the leg may be set to 0 degrees, which is an initial angle. In addition, there may be a division of a negative direction due to the operation characteristic of the leg. This is because the user 10 may spread his or her legs toward the rear rather than the front of the body.

그리고, 도 9에서 보는 바와 같이, 사용자(10) 다리의 굽힘 각도와 돌림 각도의 산출에 대해 설명하기로 한다. 여기서, 도 9의 (a)는 사용자(10) 좌측 다리의 굽힘에 따른 좌측다리상부벡터(141)와 좌측다리하부벡터(142)의 변화를 나타낸 이미지이고, 도 9의 (b)는 사용자(10) 좌측 다리의 돌림에 따른 좌측다리상부벡터(141)와 좌측다리하부벡터(142)의 변화를 나타낸 이미지이다.Then, as shown in FIG. 9 , the calculation of the bending angle and the turning angle of the user 10's legs will be described. Here, Fig. 9 (a) is an image showing the change of the left leg upper vector 141 and the left lower left leg vector 142 according to the bending of the left leg of the user 10, and Fig. 9 (b) is the user ( 10) It is an image showing the change of the upper left leg vector 141 and the lower left leg vector 142 according to the rotation of the left leg.

도 9의 (a)에서 보는 바와 같이, 다리의 굽힘 각도는 사용자(10)의 무릎을 굽힌 각도로 정의될 수 있으며, 자세벡터로써 좌측다리하부벡터(142)가 이용되고 기준벡터로써 좌측다리상부벡터(141)가 이용될 수 있다. 그리고, 좌측다리상부벡터(141)(

Figure 112020103106108-pat00032
)와 좌측다리하부벡터(142)(
Figure 112020103106108-pat00033
)를 상기된 [수학식 1]에 대입하여 다리의 굽힘 각도(θ)를 산출할 수 있다. 여기서, 다리의 동작 특성 상 음의 방향 구분이 없을 수 있다.As shown in (a) of FIG. 9 , the bending angle of the leg may be defined as the bending angle of the user 10's knee, and the left lower leg vector 142 is used as the posture vector and the left upper leg upper part as the reference vector. A vector 141 may be used. And, the upper left leg vector 141 (
Figure 112020103106108-pat00032
) and the left leg lower vector 142 (
Figure 112020103106108-pat00033
) can be substituted into [Equation 1] above to calculate the bending angle θ of the leg. Here, there may be no distinction between the negative directions due to the operation characteristics of the legs.

도 9의 (b)에서 보는 바와 같이, 다리의 돌림 각도는 좌측 다리의 올림 평면을 기준으로 사용자(10)의 무릎의 안쪽(다리 오금)이 몸통 측으로 회전한 각도로 정의될 수 있으며, 자세벡터로써 몸통벡터(121)와 좌측다리상부벡터(141)의 곱에 의한 평면에 수직인 벡터가 이용되고, 기준벡터로써 좌측다리상부벡터(141)와 좌측다리하부벡터(142)의 곱에 의한 평면에 수직인 벡터가 이용될 수 있다. 이를 바꿔 말하면, 몸통벡터(121)와 좌측다리상부벡터(141)의 곱에 의한 평면(

Figure 112020103106108-pat00034
)과 좌측다리상부벡터(141)와 좌측다리하부벡터(142)의 곱에 의한 평면(
Figure 112020103106108-pat00035
) 사이의 각도가 다리의 돌림 각도일 수 있다는 것이다. 따라서, 몸통벡터(121)와 좌측다리상부벡터(141)의 곱 (
Figure 112020103106108-pat00036
)과 좌측다리상부벡터(141)와 좌측다리하부벡터(142)의 곱(
Figure 112020103106108-pat00037
) 각각의 값을 상기된 [수학식 1]에 대입하여 다리의 돌림 각도(θ)를 산출할 수 있다. 여기서, 다리의 동작 특성 상 음의 방향 구분이 있을 수 있다. 사용자(10)가 몸의 정면이 아닌 후면을 향해 다리를 돌릴 수도 있기 때문이다.As shown in (b) of FIG. 9 , the rotation angle of the leg may be defined as the angle at which the inside of the user's 10 (the popliteal fold) of the user's 10 is rotated toward the torso with respect to the raising plane of the left leg, and the posture vector A vector perpendicular to the plane obtained by the product of the body vector 121 and the upper left leg vector 141 is used as a reference vector, and a plane formed by the product of the left upper leg vector 141 and the left lower leg vector 142 as a reference vector. A vector perpendicular to may be used. In other words, the plane (
Figure 112020103106108-pat00034
) and the product of the upper left leg vector 141 and the left lower leg vector 142 (
Figure 112020103106108-pat00035
) can be the angle of rotation of the leg. Therefore, the product of the body vector 121 and the upper left leg vector 141 (
Figure 112020103106108-pat00036
) and the product of the upper left leg vector 141 and the left lower leg vector 142 (
Figure 112020103106108-pat00037
) by substituting each value into [Equation 1] above, the rotation angle θ of the leg can be calculated. Here, there may be a division of a negative direction due to the operation characteristic of the leg. This is because the user 10 may turn his or her legs toward the back rather than the front of the body.

상기에 개시되지는 않았으나, 우측 팔에 대한 자세 지표와 우측 다리에 대한 자세 지표도 동일한 원리로 도출될 수 있다.Although not disclosed above, the posture index for the right arm and the posture index for the right leg may also be derived using the same principle.

도 10은 본 발명의 일 실시 예에 따른 자세 지표 데이터 값을 정리한 표이고, 도 11은 본 발명의 일 실시 예에 따른 기준 지표 데이터 값을 정리한 표이며, 도 12는 본 발명의 일 실시 예에 따른 자세 지표 데이터 값과 기준 지표 데이터 값의 차이를 정리한 표이다. 그리고, 도 13은 본 발명의 일 실시 예에 따른 평가 정보를 정리한 표이다.10 is a table summarizing posture index data values according to an embodiment of the present invention, FIG. 11 is a table summarizing reference indicator data values according to an embodiment of the present invention, and FIG. 12 is an embodiment of the present invention This is a table summarizing the differences between the posture index data values and the reference index data values according to the examples. And, FIG. 13 is a table summarizing evaluation information according to an embodiment of the present invention.

도 10과 도 11에서 보는 바와 같이, 복수 개의 자세 지표 데이터 값과 복수 개의 기준 지표 데이터 값은 각각의 자세 지표 별로 구분되어 서로 대응되도록 분석평가부(220)에 저장될 수 있으며, 분석평가부(220)는 각각의 자세 지표 별로 기준 지표와 비교하여 도 13의 박스 표시에서 보는 바와 같이 각도 차이 값을 연산하여 도출할 수 있다. 즉, 평가 정보는, 사용자(10)의 신체 각 부위에 대해 환산된 점수를 포함할 수 있다.As shown in FIGS. 10 and 11 , a plurality of posture index data values and a plurality of reference index data values may be stored in the analysis and evaluation unit 220 so as to correspond to each other by being divided for each posture index, and the analysis and evaluation unit ( 220) may be derived by calculating an angle difference value as shown in the box display of FIG. 13 by comparing with the reference index for each posture index. That is, the evaluation information may include a score converted for each body part of the user 10 .

그리고, 분석평가부(220)는, 사전에 저장되고 각각의 각도 차이에 따른 점수 데이터를 이용하여, 도 13의 (a)에서 보는 바와 같이 각각의 자세 지표에 대한 점수를 산출하고, 도 13의 (b)에서 보는 바와 같이 이와 같은 점수를 각각의 신체 부위에 따라 평균 내어 결과 값을 산출할 수 있다. 그리고, 분석평가부(220)는 디스플레이부(230)로 상기와 같은 평가 정보를 전달하여 이와 같은 결과 값이 디스플레이부(230)에 표시될 수 있다. 이에 따라, 사용자(10)는 반복 운동의 동작 훈련에서 자세 정확도가 상대적으로 낮은 신체 부위를 파악할 수 있고, 사용자(10)가 해당 부위의 자세 교정에 집중함으로써, 사용자(10)의 자세 또는 동작 교정 효율이 현저히 증대될 수 있다.Then, the analysis and evaluation unit 220, stored in advance and using the score data according to each angle difference, calculates a score for each posture index as shown in Fig. 13 (a), As shown in (b), the result value can be calculated by averaging these scores for each body part. Then, the analysis and evaluation unit 220 may transmit the evaluation information as described above to the display unit 230 , and such a result value may be displayed on the display unit 230 . Accordingly, the user 10 can identify a body part having a relatively low posture accuracy in the motion training of the repetitive exercise, and the user 10 concentrates on correcting the posture of the corresponding part, thereby correcting the posture or motion of the user 10 . Efficiency can be significantly increased.

이하, 본 발명의 분석 및 평가 방법에 대해서 설명하기로 한다.Hereinafter, the analysis and evaluation method of the present invention will be described.

먼저, 제1단계에서, 사용자(10)의 각 관절의 위치 정보를 획득하고 사용자(10)의 동작을 인식하여 자세 정보를 수집할 수 있다. 다음으로, 제2단계에서, 사용자(10)의 각 관절의 위치 정보를 이용하여 신체벡터를 생성하고, 각각의 신체벡터를 이용하여 자세벡터를 산출할 수 있다. 그리고, 제3단계에서, 자세벡터와 기준벡터를 이용하여 각각의 자세 지표에 대한 각도를 산출하여 복수 개의 자세 지표에 대한 데이터를 수집할 수 있다. 그 후, 제4단계에서, 복수 개의 자세 지표에 대한 데이터와 복수 개의 기준 지표에 대한 데이터를 이용하여 사용자(10)의 신체 부위 각각에 대한 점수를 산출할 수 있다. 그리고, 제5단계에서, 점수를 포함하는 평가 정보와 기준 이미지(20)를 디스플레이부(230)에 표시할 수 있다. 나머지 상세한 사항은, 상기된 본 발명의 분석 및 평가 장치의 설명에 기재된 사항과 동일하다.First, in the first step, position information of each joint of the user 10 may be obtained and posture information may be collected by recognizing the user's 10 motion. Next, in the second step, a body vector may be generated using the position information of each joint of the user 10 , and a posture vector may be calculated using each body vector. And, in the third step, by using the posture vector and the reference vector to calculate an angle for each posture index, it is possible to collect data for a plurality of posture indices. Thereafter, in a fourth step, a score for each body part of the user 10 may be calculated using data on a plurality of posture indicators and data on a plurality of reference indicators. And, in the fifth step, evaluation information including the score and the reference image 20 may be displayed on the display unit 230 . The remaining details are the same as those described in the description of the analysis and evaluation device of the present invention.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다. The foregoing description of the present invention is for illustration, and those of ordinary skill in the art to which the present invention pertains can understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present invention. will be. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive. For example, each component described as a single type may be implemented in a distributed manner, and likewise components described as distributed may also be implemented in a combined form.

본 발명의 범위는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the following claims, and all changes or modifications derived from the meaning and scope of the claims and their equivalents should be construed as being included in the scope of the present invention.

10 : 사용자
20 : 기준 이미지
110 : 머리벡터
121 : 몸통벡터
122 : 어깨벡터
123 : 골반벡터
131 : 좌측팔상부벡터
132 : 좌측팔하부벡터
141 : 좌측다리상부벡터
142 : 좌측다리하부벡터
210 : 동작인식부
220 : 분석평가부
230 : 디스플레이부
240 : 운동기기
250 : 지지부
10 : user
20: reference image
110: head vector
121: body vector
122: shoulder vector
123: pelvis vector
131: left upper arm vector
132: left arm lower vector
141: left leg upper vector
142: left leg lower vector
210: motion recognition unit
220: analysis and evaluation unit
230: display unit
240: exercise equipment
250: support

Claims (12)

운동기기를 이용하는 사용자의 각 관절의 위치 정보를 획득하고 상기 사용자의 동작을 인식하여 상기 사용자의 자세 정보를 생성하는 동작인식부;
상기 동작인식부로부터 상기 자세 정보를 전달 받고, 상기 자세 정보를 이용하여 복수 개의 자세 지표에 대한 데이터를 도출하며, 상기 복수 개의 자세 지표와 미리 저장된 복수 개의 기준 지표에 대한 데이터와 비교하여 분석 정보를 생성하고 상기 사용자의 자세에 대한 평가 정보를 생성하는 분석평가부; 및
상기 사용자의 이미지와 상기 복수 개의 기준 지표에 의한 가상의 신체 이미지인 기준 이미지를 표시하고, 상기 분석 정보와 상기 평가 정보를 표시하는 디스플레이부;를 포함하고,
상기 동작인식부는 상기 분석평가부로 상기 사용자의 이미지를 전달하며, 상기 분석평가부는 상기 기준 이미지를 생성하여 상기 사용자의 이미지와 상기 기준 이미지를 상기 디스플레이부로 전달하고,
상기 디스플레이부 상에서 상기 기준 이미지의 각 관절이 상기 사용자의 이미지의 각 관절과 일치되도록, 상기 분석평가부가 상기 기준 이미지에 형성된 각각의 관절의 위치를 변화시켜 상기 기준 이미지의 각 관절의 위치 정보를 조절함으로써, 상기 사용자의 신장에 따라 상기 기준 이미지가 확대 또는 축소되며,
상기 기준 이미지의 확대 또는 축소에 의해 상기 기준 이미지에 형성된 각각의 관절의 위치가 변하면서 사용자의 신체 각 부위의 면적에 대응되도록 상기 기준 이미지의 각 부위의 면적이 확대 또는 축소되고,
상기 디스플레이부의 화면 상 동시 표시되는 상기 사용자의 이미지와 상기 기준 이미지가 일치되도록 겹쳐져서 표시되어, 사용자의 자세 또는 동작 교정이 용이하며,
상기 복수 개의 자세 지표에 대한 데이터는, 상기 사용자의 신체 일 부위의 자세에 대한 벡터인 자세벡터와 기준이 되는 벡터인 기준벡터를 이용하여, 상기 자세벡터와 상기 기준벡터 간 각도 연산에 의해 도출되고,
상기 기준벡터는, 3차원 기본 단위 벡터를 포함하며,
상기 3차원 기본 단위 벡터는, 3차원 좌표계에서 획득되는 기준평면 상 상기 자세벡터의 사영벡터인 것을 특징으로 하는 반복 운동의 동작 훈련을 위한 정량적 자세 분석 및 평가 장치.
a motion recognition unit for acquiring position information of each joint of a user using an exercise device and recognizing the user's motion to generate the user's posture information;
Receives the posture information from the motion recognition unit, derives data on a plurality of posture indicators using the posture information, and compares the plurality of posture indicators with data for a plurality of pre-stored reference indicators to obtain analysis information an analysis and evaluation unit for generating and generating evaluation information about the user's posture; and
a display unit for displaying a reference image that is a virtual body image based on the user's image and the plurality of reference indicators, and displaying the analysis information and the evaluation information;
The motion recognition unit transmits the image of the user to the analysis and evaluation unit, and the analysis and evaluation unit generates the reference image and transmits the user's image and the reference image to the display unit,
The analysis and evaluation unit adjusts the position information of each joint of the reference image by changing the position of each joint formed in the reference image so that each joint of the reference image matches each joint of the user's image on the display unit By doing so, the reference image is enlarged or reduced according to the height of the user,
The area of each part of the reference image is enlarged or reduced to correspond to the area of each part of the user's body while the position of each joint formed in the reference image is changed by the enlargement or reduction of the reference image,
The user's image simultaneously displayed on the screen of the display unit and the reference image are overlapped and displayed to match, so that the user's posture or motion is easy to correct,
The data for the plurality of posture indicators is derived by calculating an angle between the posture vector and the reference vector using a posture vector that is a vector for the posture of a part of the user's body and a reference vector that is a reference vector, ,
The reference vector includes a three-dimensional basic unit vector,
The three-dimensional basic unit vector is a quantitative posture analysis and evaluation apparatus for motion training of repetitive exercise, characterized in that it is a projection vector of the posture vector on a reference plane obtained in a three-dimensional coordinate system.
삭제delete 청구항 1에 있어서,
상기 자세벡터의 산출에 이용되며 상기 사용자의 신체 일 부위 대한 신체벡터는, 상기 사용자의 신체 일 부위에 있어서 하나의 관절로부터 다른 관절 방향으로 형성되는 것을 특징으로 하는 반복 운동의 동작 훈련을 위한 정량적 자세 분석 및 평가 장치.
The method according to claim 1,
It is used to calculate the posture vector and the body vector for a part of the user's body is a quantitative posture for motion training of repetitive exercise, characterized in that it is formed in a direction from one joint to another in one part of the user's body. Analysis and evaluation device.
삭제delete 청구항 1에 있어서,
상기 사용자의 신체 일 부위는 머리, 몸통, 좌측 팔, 우측 팔, 좌측 다리 및 우측 다리 중에서 선택되는 어느 하나인 것을 특징으로 하는 반복 운동의 동작 훈련을 위한 정량적 자세 분석 및 평가 장치.
The method according to claim 1,
Quantitative posture analysis and evaluation apparatus for motion training of repetitive exercise, characterized in that the one part of the user's body is any one selected from a head, a torso, a left arm, a right arm, a left leg, and a right leg.
삭제delete 청구항 1에 있어서,
상기 분석평가부는, 하나의 자세벡터에 대한 기준벡터로써 다른 자세벡터를 선택하는 것을 특징으로 하는 반복 운동의 동작 훈련을 위한 정량적 자세 분석 및 평가 장치.
The method according to claim 1,
The analysis and evaluation unit, Quantitative posture analysis and evaluation apparatus for motion training of repeated exercise, characterized in that for selecting another posture vector as a reference vector for one posture vector.
삭제delete 청구항 1에 있어서,
상기 평가 정보는, 상기 사용자의 신체 각 부위에 대해 환산된 점수를 포함하는 것을 특징으로 하는 반복 운동의 동작 훈련을 위한 정량적 자세 분석 및 평가 장치.
The method according to claim 1,
The evaluation information, quantitative posture analysis and evaluation apparatus for motion training of repetitive exercise, characterized in that it includes a score converted for each part of the user's body.
청구항 1에 있어서,
상기 동작인식부는, 키넥트 동작 추적 시스템(Kinect Body Tracking System)을 구비하는 것을 특징으로 하는 반복 운동의 동작 훈련을 위한 정량적 자세 분석 및 평가 장치.
The method according to claim 1,
The motion recognition unit, a quantitative posture analysis and evaluation apparatus for motion training of repetitive exercise, characterized in that it is provided with a Kinect motion tracking system (Kinect Body Tracking System).
청구항 1에 있어서,
상기 분석평가부는, 상기 사용자의 신장에 따라 상기 기준 이미지의 확대 또는 축소 비율을 조절하는 것을 특징으로 하는 반복 운동의 동작 훈련을 위한 정량적 자세 분석 및 평가 장치.
The method according to claim 1,
The analysis and evaluation unit, Quantitative posture analysis and evaluation apparatus for motion training of repetitive exercise, characterized in that adjusting the enlargement or reduction ratio of the reference image according to the height of the user.
청구항 3의 반복 운동의 동작 훈련을 위한 정량적 자세 분석 및 평가 장치를 이용한 반복 운동의 동작 훈련을 위한 정량적 자세 분석 및 평가 방법에 있어서,
상기 사용자의 각 관절의 위치 정보를 획득하고 상기 사용자의 동작을 인식하여 상기 자세 정보를 수집하는 제1단계;
상기 사용자의 각 관절의 위치 정보를 이용하여 상기 신체벡터를 생성하고, 각각의 신체벡터를 이용하여 상기 자세벡터를 산출하는 제2단계;
상기 자세벡터와 상기 기준벡터를 이용하여 각각의 자세 지표에 대한 각도를 산출하여 상기 복수 개의 자세 지표에 대한 데이터를 수집하는 제3단계;
상기 복수 개의 자세 지표에 대한 데이터와 상기 복수 개의 기준 지표에 대한 데이터를 이용하여 상기 사용자의 신체 부위 각각에 대한 점수를 산출하는 제4단계; 및
상기 점수를 포함하는 상기 평가 정보와 상기 기준 이미지를 상기 디스플레이부에 표시하는 제5단계;를 포함하는 것을 특징으로 하는 반복 운동의 동작 훈련을 위한 정량적 자세 분석 및 평가 방법.
In the quantitative posture analysis and evaluation method for motion training of repetitive motion using the quantitative posture analysis and evaluation apparatus for motion training of repetitive motion of claim 3,
a first step of acquiring position information of each joint of the user and collecting the posture information by recognizing the user's motion;
a second step of generating the body vector by using the position information of each joint of the user and calculating the posture vector using each body vector;
a third step of calculating an angle for each posture index by using the posture vector and the reference vector and collecting data for the plurality of posture indices;
a fourth step of calculating a score for each body part of the user by using the data on the plurality of posture indicators and the data on the plurality of reference indicators; and
A fifth step of displaying the evaluation information including the score and the reference image on the display unit; Quantitative posture analysis and evaluation method for motion training of repetitive exercise, comprising:
KR1020200125736A 2020-09-28 2020-09-28 Apparatus and method for quantitatively analyzing and evaluating posture to train exercise by repetitive motion KR102456055B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200125736A KR102456055B1 (en) 2020-09-28 2020-09-28 Apparatus and method for quantitatively analyzing and evaluating posture to train exercise by repetitive motion

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200125736A KR102456055B1 (en) 2020-09-28 2020-09-28 Apparatus and method for quantitatively analyzing and evaluating posture to train exercise by repetitive motion

Publications (2)

Publication Number Publication Date
KR20220042666A KR20220042666A (en) 2022-04-05
KR102456055B1 true KR102456055B1 (en) 2022-10-19

Family

ID=81182368

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200125736A KR102456055B1 (en) 2020-09-28 2020-09-28 Apparatus and method for quantitatively analyzing and evaluating posture to train exercise by repetitive motion

Country Status (1)

Country Link
KR (1) KR102456055B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114870323A (en) * 2022-04-11 2022-08-09 北京觅淘智联科技有限公司 Fitness equipment and exercise evaluation method for fitness equipment

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100412932B1 (en) * 2000-10-11 2003-12-31 주식회사 닷에이스 Method of displaying and evaluating motion data using in motion game apparatus
KR20180130834A (en) * 2017-05-30 2018-12-10 (주)유인케어 Method and Apparatus for Providing of Movement Guide for Therapeutic Exercise
KR101967997B1 (en) * 2017-08-29 2019-04-10 안영샘 Apparatus for measuring range of motion, method thereof and computer recordable medium storing program to perform the method
KR102097190B1 (en) 2017-10-23 2020-04-03 남정우 Method for analyzing and displaying a realtime exercise motion using a smart mirror and smart mirror for the same
KR102141288B1 (en) * 2018-12-17 2020-08-04 이화여자대학교 산학협력단 Supporting method and system for home fitness

Also Published As

Publication number Publication date
KR20220042666A (en) 2022-04-05

Similar Documents

Publication Publication Date Title
Plantard et al. Validation of an ergonomic assessment method using Kinect data in real workplace conditions
CN103127691B (en) Video-generating device and method
CN108697921B (en) Systems, methods, devices, and markers for assessing performance of an action
Durgin et al. Palm boards are not action measures: An alternative to the two-systems theory of geographical slant perception
US7761269B1 (en) System and method of subjective evaluation of a vehicle design within a virtual environment using a virtual reality
CN112069933A (en) Skeletal muscle stress estimation method based on posture recognition and human body biomechanics
CN109872359A (en) Sitting posture detecting method, device and computer readable storage medium
US20180085045A1 (en) Method and system for determining postural balance of a person
JP5624625B2 (en) Exercise support system
CN107708555A (en) Measurement apparatus and measuring method
WO2017161734A1 (en) Correction of human body movements via television and motion-sensing accessory and system
KR20160046082A (en) Method of proving service of assessment of physical fitness and exercise prescrition by system for proving service of assessment of physical fitness and exercise prescrition
KR102456055B1 (en) Apparatus and method for quantitatively analyzing and evaluating posture to train exercise by repetitive motion
CN109219426A (en) Rehabilitation training sub-controlling unit and computer program
CN112990089A (en) Method for judging human motion posture
CN110559639B (en) Robot teaching method for gymnastics movement and robot
KR102013705B1 (en) Apparatus and method for recognizing user's posture in horse-riding simulator
CN113255622B (en) System and method for intelligently identifying sit-up action posture completion condition
JP6525180B1 (en) Target number identification device
JP6199038B2 (en) Line of sight analyzer
KR100955539B1 (en) Motion analysis system for golf swing and motion analysis method adapted for the same
JP7482471B2 (en) How to generate a learning model
Li et al. Fitness coach: Design and implementation of a smart mirror based on automatic image recognition and action model comparison
JP2019209106A (en) Visual line vector detector, vision function inspection device, vision function training device and method
Vox et al. A Framework for the Analysis of Biomechanical Loading Using Human Motion Tracking

Legal Events

Date Code Title Description
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right