KR20220065487A - Method and apparatus for evaluating physical exercise ability of patient using avatar - Google Patents

Method and apparatus for evaluating physical exercise ability of patient using avatar Download PDF

Info

Publication number
KR20220065487A
KR20220065487A KR1020200152065A KR20200152065A KR20220065487A KR 20220065487 A KR20220065487 A KR 20220065487A KR 1020200152065 A KR1020200152065 A KR 1020200152065A KR 20200152065 A KR20200152065 A KR 20200152065A KR 20220065487 A KR20220065487 A KR 20220065487A
Authority
KR
South Korea
Prior art keywords
motion
patient
avatar
display means
exercise ability
Prior art date
Application number
KR1020200152065A
Other languages
Korean (ko)
Inventor
김호진
이정아
안광옥
임명준
이민영
Original Assignee
대한민국(국립재활원장)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 대한민국(국립재활원장) filed Critical 대한민국(국립재활원장)
Priority to KR1020200152065A priority Critical patent/KR20220065487A/en
Publication of KR20220065487A publication Critical patent/KR20220065487A/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1124Determining motor skills
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/744Displaying an avatar, e.g. an animated cartoon character
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physiology (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

An embodiment of the present invention relates to a patient's exercise ability evaluation method using an avatar, comprising: a characteristic collection step of collecting physical characteristics of a patient; an avatar creation step of generating an avatar of the patient displayed by a display means based on the collected information on the physical characteristics of the patient; a motion selection step of selecting one or more body motions to be implemented by the avatar in the display means; a motion display step of displaying on the display means that the avatar performs the body motion; a motion photographing step of photographing the motion of the patient following the body motion of the avatar displayed on the display means by a photographing means; a concordance rate calculation step of calculating a concordance rate between the photographed motion of the patient and the body motion of the avatar; and an exercise ability evaluation step of evaluating the exercise ability of the patient using the calculated concordance rate. Accordingly, in consideration of the physical characteristics of the test subject, it is possible to precisely evaluate the exercise ability of the test subject.

Description

아바타를 이용한 환자의 운동능력 평가 방법 및 운동능력 평가 장치{METHOD AND APPARATUS FOR EVALUATING PHYSICAL EXERCISE ABILITY OF PATIENT USING AVATAR} Method and apparatus for evaluating exercise ability of a patient using an avatar

본 발명은 아바타를 이용한 환자의 운동능력을 평가하는 방법 및 장치로서, 검사 수행자와의 비대면 상태에서, 검사 대상자의 운동능력을 정밀도 높게 평가할 수 있는 평가 방법 및 평가 장치에 관한 것이다.The present invention relates to a method and apparatus for evaluating the exercise ability of a patient using an avatar, and to an evaluation method and an apparatus for evaluating the exercise ability of a subject to be tested with high precision in a non-face-to-face state with a test performer.

일반적으로, 노인, 신체 장애를 갖고 있는 환자 및 뇌졸중 등 중추신경 장애를 갖고 있는 환자의 경우, 일반 헬스, 수영, 조깅, 자전거 타기 등과 같은 일반 운동을 할 수 없게 된다. 만약 하더라도 오랜 시간동안 운동을 할 수 없고, 잘못 할 경우 부상이나 기존의 질병을 악화시키게 된다.In general, the elderly, patients with physical disabilities, and patients with central nervous system disorders such as stroke cannot perform general exercises such as general fitness, swimming, jogging, and cycling. Even if you can't exercise for a long time, if you do it wrong, you can exacerbate an injury or an existing disease.

한편, 버그 균형 검사(Berg balance test)는 보행 능력 평가, 균형 능력 평가, 낙상 위험 예측, 일상생활 동작 수행능력 평가 등의 항목을 체크할 수 있는 검사방법이다.On the other hand, the Berg balance test is a test method that can check items such as walking ability evaluation, balance ability evaluation, fall risk prediction, and daily life performance evaluation.

이러한 버그 균형 검사는 균형 능력이 저하된 노인, 뇌졸중, 척수손상, 파킨슨병 등 균형 장애 환자, 보행능력이 저하된 노인 및 환자를 그 대상으로 한다.This bug balance test targets the elderly with reduced balance ability, patients with balance disorders such as stroke, spinal cord injury, and Parkinson's disease, and the elderly and patients with reduced walking ability.

검사 방법은 물리 치료사, 의사가 환자를 대상으로 서기, 앉기 등 자세 변화의 영역에 속하는 복수 항목, 예를 들어 10개의 항목을 평가하여, 각 항목당 6단계의 척도(0점-5점)로 구성되어 총 50점 만점, 0점은 수행이 불가능한 경우, 5점은 독립수행이 가능한 경우 등으로 판단하여 점수를 합산하게 된다.In the test method, physical therapists and doctors evaluate patients with multiple items, for example, 10 items, belonging to the area of change of posture, such as standing and sitting, on a 6-step scale (0-5 points) for each item. It is composed of a total of 50 points, 0 points are judged as impossible, 5 points are judged as independent performance, etc., and the scores are added up.

그러나 종래기술에 의한 버그 균형 검사는 물리 치료사, 의사가 환자를 대상으로 하기 때문에 사람에 따라 달리 판단하여 검사자의 주관적인 관점에 따라 합계 점수에 차이가 발생할 수 있어 객관성이 없으며, 평가 결과 점수를 치료사가 검사와 별도로 컴퓨터에 입력해야 하기 때문에 소요 시간이 증가되며, 전문가가 직접 진행해야 하기 때문에 비용이 많이 소요되는 문제점이 있었다.However, the bug balance test according to the prior art has no objectivity because physical therapists and doctors target patients, so the total score may differ depending on the subjective point of view of the examiner, and the evaluation result score is determined by the therapist. Since it has to be entered into the computer separately from the examination, the time required increases, and there is a problem in that it takes a lot of money because an expert has to do it himself.

한편, 한국 등록특허공보 제10-2093185호(도 1)에는 발판 센서, 동작 센서 및 난간 센서를 이용하여 검사 대상자의 행동을 점수화하여 운동능력을 평가하는 기술을 개시하고 있다.On the other hand, Korean Patent Publication No. 10-2093185 (FIG. 1) discloses a technique for evaluating the exercise ability by scoring the behavior of a test subject using a footrest sensor, a motion sensor, and a handrail sensor.

그러나, 한국 등록특허공보 제10-2093185호는 단순히 검사 대상자에게 표시 수단이나 스피커를 통해 지시를 주고, 검사 대상자가 지시되는 동작을 행하는 것을 발판 센서, 동작 센서 및 난간 센서를 통해 감지하여 점수화할 뿐이므로, 검사 대상자의 신체적인 특징으로 고려하고 있지 않아, 검사 대상자의 운동능력을 정밀하게 평가할 수 없는 문제가 있다.However, Korea Patent Publication No. 10-2093185 simply gives instructions to the subject to be inspected through a display means or a speaker, and detects the subject performing the indicated action through the footrest sensor, motion sensor and handrail sensor and scores it. Therefore, it is not considered as the physical characteristics of the test subject, and there is a problem that the exercise ability of the test subject cannot be accurately evaluated.

한국 등록특허공보 제10-2093185호Korean Patent Publication No. 10-2093185

본 발명은 상기와 같은 종래 기술의 문제점을 해결하기 위한 것으로, 검사 대상자의 신체적 특징이 반영된 아바타를 이용함으로써, 검사 대상자의 신체적 특징을 고려하여 검사 대상자의 운동능력을 정밀하게 평가할 수 있는 아바타를 이용한 환자의 운동능력 평가 방법 및 운동능력 평가 장치를 제공하는 것을 목적으로 한다.The present invention is to solve the problems of the prior art as described above, and by using an avatar reflecting the physical characteristics of the test subject, using the avatar that can precisely evaluate the exercise ability of the test subject in consideration of the test subject's physical characteristics An object of the present invention is to provide a method for evaluating a patient's motor ability and an apparatus for evaluating motor ability.

또한, 표시 수단과 촬영 수단이 구비되는 장치(노트북, 스마트폰, 태플릿PC 등)를 이용하여 환자의 운동능력을 평가할 수 있으므로, 비대면으로 간단히 검사 대상자의 운동능력을 평가할 수 있다.In addition, since the exercise ability of the patient can be evaluated using a device (laptop, smart phone, tablet PC, etc.) provided with the display means and the photographing means, it is possible to simply evaluate the exercise ability of the test subject non-face-to-face.

상기와 같은 목적을 달성 위한 본 발명이 일 실시형태는, 아바타를 이용한 환자의 운동능력 평가 방법에 있어서, 상기 환자의 신체적 특징을 수집하는 특징 수집 단계, 수집된 환자의 상기 신체적 특징에 관한 정보에 의거하여, 표시수단에 의해 표시되는 상기 환자의 아바타를 생성하는 아바타 생성 단계, 상기 표시수단에서 상기 아바타가 구현할 하나의 이상의 신체 동작을 선택하는 동작 선택 단계, 상기 아바타가 상기 신체 동작을 수행하는 것을 상기 표시수단에 표시하는 동작 표시 단계, 상기 표시수단에 표시되는 상기 아바타의 신체 동작을 따라하는 상기 환자의 동작을 촬영수단에 의해 촬영하는 동작 촬영 단계, 촬영된 상기 환자의 동작과 상기 아바타의 상기 신체 동작의 일치율을 산출하는 일치율 산출 단계, 산출된 상기 일치율을 이용하여 상기 환자의 운동능력을 평가하는 운동능력 평가 단계를 포함하는 것을 특징으로 한다.In one embodiment of the present invention for achieving the above object, in a method for evaluating a patient's exercise ability using an avatar, the feature collecting step of collecting the patient's physical characteristics, the collected information about the patient's physical characteristics based on the avatar generation step of generating the patient's avatar displayed by the display means, the action selection step of selecting one or more body motions to be implemented by the avatar on the display means, and the avatar performing the body motions. A motion display step of displaying on the display means, a motion photographing step of photographing the patient's motion following the body motion of the avatar displayed on the display means by a photographing means, the photographed motion of the patient and the image of the avatar It characterized in that it comprises the steps of calculating the coincidence rate of calculating the coincidence rate of the body motion, and the exercise capacity evaluation stage of evaluating the exercise ability of the patient using the calculated coincidence rate.

또한, 상기 신체적 특징은 상기 환자의 키, 팔 길이, 다리 길이, 관절의 위치, 머리 크기, 목 길이 중 하나 이상을 포함하여도 된다.In addition, the physical characteristic may include one or more of the patient's height, arm length, leg length, joint position, head size, and neck length.

또한, 상기 신체적 특징은, 하지의 전체 또는 일부의 유무, 또는, 상지의 전체 또는 일부의 유무 중 하나 이상을 포함하여도 된다.In addition, the said physical characteristic may include one or more of the presence or absence of all or part of a lower limb, and the presence or absence of all or part of an upper limb.

또한, 상기 동작 선택 단계에서 선택되는 신체 동작은, 앉은 자세에서 일어나기(sitting to standing), 서 있기(standing insupported), 서 있는 자세에서 앉기(standing to sitting), 이동하기(transfer), 눈 감고 서 있기(standing unsupported with eye closed), 두 발 모으고 서 있기(standing insupported with feet together), 팔을 뻗쳐 내밀기(reaching forward with outstretched arm), 바닥에 있는 물건 집어 올리기 (retrieving object from floor), 서 있는 자세에서 (왼쪽과 오른쪽으로) 뒤돌아보기 (turning to look behind), 제자리에서 360도 회전하기 (turning 360 degrees), 일정한 높이의 발판 위에 발을 교대로 놓기 (placing alternate foot on stool), 한 발 앞에 다른 발을 일자로 두고 서 있기 (standing with one foot in front), 한 발로 서 있기 (standing on one leg) 중 하나 이상을 포함하여도 된다.In addition, the body motions selected in the motion selection step include sitting to standing, standing insupported, standing to sitting, transfer, and standing with eyes closed. Standing unsupported with eye closed, standing insupported with feet together, reaching forward with outstretched arm, retrieving object from floor, standing posture Turning to look behind (left and right), turning 360 degrees in place, placing alternate foot on stool at constant height, one foot in front of the other This may include one or more of standing with one foot in front or standing on one leg.

또한, 상기 동작 표시 단계와 상기 동작 촬영 단계의 사이에는, 상기 환자에게 상기 표시수단에 표시되는 상기 아바타의 동작을 따라할 것을 지시하는 동작 지시 단계를 더 포함하여도 된다.In addition, between the motion display step and the motion photographing step, a motion instruction step of instructing the patient to imitate the motion of the avatar displayed on the display means may further include.

또한, 상기 특징 수집 단계는, 상기 촬영수단에 의해 환자의 신체를 촬영하여 얻어지는 화상 정보로부터 상기 환자의 신체적 특징을 수집하여도 된다.In the feature collecting step, the physical features of the patient may be collected from image information obtained by photographing the body of the patient by the photographing means.

또한, 상기 일치율 산출 단계는, 상기 동작 촬영 단계에서 얻어지는 상기 환자의 동작에 관한 촬영 데이터로부터 환자 동작 정보를 산출하는 단계, 상기 환자 동작 정보를 상기 아바타에 매치시켜 비교 동작 정보를 생성하는 단계, 상기 비교 동작 정보와 상기 동작 표시 단계에서 상기 표시수단에 표시되었던 상기 아바타의 동작 정보를 비교하는 단계를 포함하여도 된다.In addition, the step of calculating the matching rate may include calculating patient motion information from the imaging data about the patient's motion obtained in the motion imaging step, generating comparative motion information by matching the patient motion information to the avatar; The method may include comparing the comparison motion information with the motion information of the avatar displayed on the display means in the motion display step.

또한, 상기 일치율 산출 단계는, 상기 환자 동작 정보를 이용하여, 신체를 단순화한 골격 구조로 표현되는 비교 동작 정보를 생성하여, 상기 비교 동작 정보와 상기 동작 표시 단계에서 상기 표시수단에 표시되었던 상기 아바타의 동작 정보를 비교하는 단계를 포함할 수 있다.In the step of calculating the coincidence rate, the patient motion information is used to generate comparison motion information expressed in a simplified skeletal structure of the body, and the comparison motion information and the avatar displayed on the display means in the motion display step are generated. It may include comparing the operation information of

또한, 아바타를 이용한 환자의 운동능력 평가 방법은 상기 동작 촬영 단계에서 얻어지는 상기 환자의 동작의 촬영 데이터와 상기 아바타의 신체 동작의 동작 정보로부터, 상기 표시수단에 표시되는 아바타의 동작을 따라하는 상기 환자의 동작의 시작 시점과 종결 시점을 판정함과 함께, 상기 시작 시점으로부터 상기 종결 시점까지 소요되는 시간인 환자 동작 시간을 산출하는 동작 시간 산출 단계를 더 포함할 수 있다Also, in the method for evaluating the patient's exercise ability using the avatar, the patient imitates the motion of the avatar displayed on the display means based on the motion information of the body motion of the avatar and the motion picture data of the patient's motion obtained in the motion imaging step. The method may further include an operation time calculation step of calculating a patient operation time, which is a time required from the start time to the end time, while determining a start time and an end time of the operation.

또한, 상기 운동능력 평가 단계에서는, 상기 일치율에 상기 동작 시간을 반영하여 상기 환자의 운동능력을 평가할 수 있다.In addition, in the exercise ability evaluation step, the exercise ability of the patient may be evaluated by reflecting the operation time in the coincidence rate.

또한, 본 발명의 또 다른 실시형태는, 상기 아바타를 이용한 환자의 운동능력 평가 방법이 수행되는 아바타를 이용한 환자의 운동능력 평가 장치에 있어서, 상기 표시 수단과 상기 촬영 수단을 일체로 포함하는 것을 특징으로 한다.Further, another embodiment of the present invention provides an apparatus for evaluating a patient's exercise ability using an avatar, in which the method for evaluating a patient's exercise ability using the avatar is performed, comprising the display unit and the photographing unit integrally do it with

또한, 상기 아바타를 이용한 환자의 운동능력 평가 장치는 통신 가능한 단말기일 수 있다.In addition, the apparatus for evaluating the exercise ability of the patient using the avatar may be a communication terminal.

본 발명은 검사 대상자(환자)의 신체적 특징이 반영된 아바타를 이용함으로써, 검사 대상자의 신체적 특징을 고려하여 검사 대상자의 운동능력을 정밀하게 평가할 수 있다.According to the present invention, by using an avatar reflecting the physical characteristics of the test subject (patient), the exercise ability of the test subject can be precisely evaluated in consideration of the test subject's physical characteristics.

또한, 표시 수단과 촬영 수단이 구비되는 장치(노트북, 스마트폰, 태플릿PC 등)를 이용하여 환자의 운동능력을 평가할 수 있으므로, 비대면으로 간단히 환자의 운동능력을 평가할 수 있다.In addition, since the exercise ability of the patient can be evaluated using a device (laptop, smart phone, tablet PC, etc.) provided with the display means and the photographing means, it is possible to simply evaluate the exercise ability of the patient non-face-to-face.

도 1 은 종래의 운동능력 평가 장치를 보여주는 도면이다.
도 2 는 본 발명의 일 실시형태인 아바타를 이용한 환자의 운동능력 평가 방법의 블록도이다.
도 3 은 본 발명의 일 실시형태인 아바타를 이용한 환자의 운동능력 평가 방법의 아바타를 생성하는 것을 나타내는 도면이다.
도 4 는 본 발명의 일 실시형태인 아바타를 이용한 환자의 운동능력 평가 방법의 생성된 아바타의 다른 일례들을 보여주는 도면이다.
도 5 는 본 발명의 일 실시형태인 아바타를 이용한 환자의 운동능력 평가 장치(단말기)의 사용 모습을 보여주는 도면이다.
도 6 는 본 발명의 또 다른 실시형태인 아바타를 이용한 환자의 운동능력 평가 방법의 블록도이다.
도 7 은 본 발명의 또 다른 실시형태인 아바타를 이용한 환자의 운동능력 평가 방법의 블록도이다.
1 is a view showing a conventional exercise ability evaluation apparatus.
2 is a block diagram of a method for evaluating a patient's exercise ability using an avatar, which is an embodiment of the present invention.
3 is a diagram illustrating the generation of an avatar in a method for evaluating a patient's exercise ability using an avatar according to an embodiment of the present invention.
4 is a diagram illustrating another example of a generated avatar in a method for evaluating a patient's exercise ability using an avatar according to an embodiment of the present invention.
5 is a diagram illustrating a state of use of an apparatus (terminal) for evaluating a patient's exercise ability using an avatar, which is an embodiment of the present invention.
6 is a block diagram of a method for evaluating a patient's exercise ability using an avatar, which is another embodiment of the present invention.
7 is a block diagram of a method for evaluating a patient's exercise ability using an avatar, which is another embodiment of the present invention.

이하에서는 도면을 참조하여 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 바람직한 실시예를 상세히 설명한다. 다만, 본 발명의 바람직한 실시예를 상세하게 설명함에 있어, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략한다. 또한, 유사한 기능 및 작용을 하는 부분에 대해서는 도면 전체에 걸쳐 동일 또는 유사한 부호를 사용한다.Hereinafter, preferred embodiments will be described in detail with reference to the drawings so that those of ordinary skill in the art can easily practice the present invention. However, in describing the preferred embodiment of the present invention in detail, if it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted. In addition, the same or similar reference numerals are used throughout the drawings for parts having similar functions and functions.

덧붙여, 명세서 전체에서, 어떤 부분이 다른 부분과 ‘연결’되어 있다고 할 때, 이는 ‘직접적으로 연결’되어 있는 경우뿐만 아니라, 그 중간에 다른 소자를 사이에 두고 ‘간접적으로 연결’되어 있는 경우도 포함한다. 또한, 어떤 구성요소를 ‘포함’한다는 것은, 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있다는 것을 의미한다.In addition, throughout the specification, when a part is 'connected' with another part, it is not only 'directly connected' but also 'indirectly connected' with another element interposed therebetween. include In addition, "including" a certain component means that other components may be further included, rather than excluding other components, unless specifically stated otherwise.

도 2 는 본 발명의 일 실시형태인 아바타를 이용한 환자의 운동능력 평가 방법의 블록도이며, 도 3 은 본 발명의 일 실시형태인 아바타를 이용한 환자의 운동능력 평가 방법의 아바타를 생성하는 것을 나타내는 도면이고, 도 4 는 본 발명의 일 실시형태인 아바타를 이용한 환자의 운동능력 평가 방법의 생성된 아바타의 다른 일례들을 보여주는 도면이다.FIG. 2 is a block diagram of a method for evaluating a patient's exercise ability using an avatar, which is an embodiment of the present invention, and FIG. 3 is a diagram illustrating the generation of an avatar for a method for evaluating a patient's exercise ability using an avatar, which is an embodiment of the present invention. 4 is a view showing another example of the generated avatar in the method for evaluating the exercise ability of a patient using the avatar, which is an embodiment of the present invention.

본 발명의 일 실시형태인 아바타를 이용한 환자의 운동능력 평가 방법은, 아바타를 이용한 환자의 운동능력 평가 방법에 있어서, 상기 환자의 신체적 특징을 수집하는 특징 수집 단계(S101), 수집된 환자의 상기 신체적 특징에 관한 정보에 의거하여, 표시수단에 의해 표시되는 상기 환자의 아바타를 생성하는 아바타 생성 단계(S102), 상기 표시수단에서 상기 아바타가 구현할 하나의 이상의 신체 동작을 선택하는 동작 선택 단계(S103), 상기 아바타가 상기 신체 동작을 수행하는 것을 상기 표시수단에 표시하는 동작 표시 단계(S104), 상기 표시수단에 표시되는 상기 아바타의 신체 동작을 따라하는 상기 환자의 동작을 촬영수단에 의해 촬영하는 동작 촬영 단계(S105), 촬영된 상기 환자의 동작과 상기 아바타의 상기 신체 동작의 일치율을 산출하는 일치율 산출 단계(S106), 산출된 상기 일치율을 이용하여 상기 환자의 운동능력을 평가하는 운동능력 평가 단계(S107)를 포함한다.According to an embodiment of the present invention, a method for evaluating a patient's exercise ability using an avatar includes: a feature collecting step (S101) of collecting physical characteristics of the patient; An avatar generating step (S102) of generating the patient's avatar displayed by a display means based on information about physical characteristics, and an operation selection step of selecting one or more body motions to be implemented by the avatar on the display means (S103) ), an operation display step of displaying on the display means that the avatar performs the body motion (S104), and photographing the patient's motion following the body motion of the avatar displayed on the display means by a photographing means A motion photographing step (S105), a coincidence rate calculation step (S106) of calculating a matching rate between the photographed motion of the patient and the body motion of the avatar, and exercise ability evaluation for evaluating the patient's exercise ability using the calculated matching rate Step S107 is included.

본 명세서의 도 2에서는 S101로부터 S107까지 순서대로 본 발명의 운동능력 평가 방법이 수행되는 것을 일 실시형태로서 도시하고 있으나, 일부 단계들가 반복적(예를 들어, 여러 신체 동작을 선택함에 따라 S104 ~ S105 반복됨)으로 수행될 수도 있다.2 of the present specification shows that the exercise ability evaluation method of the present invention is performed in order from S101 to S107 as an embodiment, but some steps are repetitive (eg, S104 to S105 as several body movements are selected) repeated) may be performed.

본 발명의 일 실시형태의 상기 특징 수집 단계(S101)는 검사 대상자(환자, 장애인, 노인 등)의 신체적 특징을 수집하는 단계이다.The feature collecting step (S101) of an embodiment of the present invention is a step of collecting physical characteristics of a test subject (patient, disabled person, elderly person, etc.).

검사 대상자의 신체적 특징은 검사 대상자의 키, 팔 길이, 다리 길이, 관절의 위치, 머리의 크기, 목 길이 중 하나 이상을 포함할 수 있고, 또한, 하지의 전체 또는 일부의 유무, 또는, 상지의 전체 또는 일부의 유무 중 하나 이상을 포함할 수 있다. 또한, 검사 대상자의 시력과 청력도 신체적 특징으로 포함될 수 있다. The physical characteristics of the test subject may include one or more of the test subject's height, arm length, leg length, joint position, head size, and neck length, and also the presence or absence of all or part of the lower extremities, or upper extremities. It may include one or more of the whole or the presence or absence of a part. In addition, sight and hearing of the test subject may be included as physical characteristics.

또한, 상기 특징 수집 단계(S101)에서는 검사 대상자의 신체적 특징을 미리 작성되어 있는 환자 차트 또는 미리 작성되어 전산화되어 있는 환자 신체 데이터를 이용하여 수집할 수 있다.In addition, in the feature collection step ( S101 ), the physical characteristics of the test subject may be collected using a pre-written patient chart or pre-written and computerized patient body data.

또한, 상기 특징 수집 단계(S101)에서는 상기 촬영수단(디지털 방식의 화상 데이터를 생성하는 카메라 등)에 의해 검사 대상자의 신체를 촬영하여 얻어지는 화상 정보로부터 상기 검사 대상자의 신체적 특징을 수집할 수 있다.In addition, in the feature collection step ( S101 ), the physical characteristics of the test subject may be collected from image information obtained by photographing the subject's body by the photographing means (eg, a camera that generates digital image data).

다음으로, 상기 아바타 생성 단계(S102)에서는, 상기 특징 수집 단계(S101)에서 수집된 검사 대상자의 상기 신체적 특징에 관한 정보에 의거하여, 상기 검사 대상자의 신체적 특징이 반영되어 있는 상기 표시 수단에 표시되는 아바타 정보를 생성한다.Next, in the avatar creation step ( S102 ), based on the information on the physical characteristics of the test subject collected in the feature collection step ( S101 ), the physical characteristics of the test subject are displayed on the display means. Create avatar information that becomes

여기서, 아바타(Avatar)는 검사 대상자의 신체적 특징을 반영하는 디지털 환경에서의 캐릭터로서, 검사 대상자의 신체적 특징이 반영된 단순화된 형태(실루엣, 골격 구조 등)의 데이터 정보를 포함하고 있다.Here, the avatar is a character in a digital environment that reflects the physical characteristics of the subject, and includes data information in a simplified form (silhouette, skeletal structure, etc.) reflecting the physical characteristics of the subject.

도 3는 아바타가 생성되는 일 실시형태를 보여준다. 검사 대상자의 키, 머리의 크기, 팔 길이, 다리 길이, 관절의 위치 등이 반영되어 검사 대상자에 대응되는 아바타 정보가 생성된다.3 shows an embodiment in which an avatar is created. Avatar information corresponding to the test subject is generated by reflecting the test subject's height, head size, arm length, leg length, and joint position.

구체적으로, 검사 대상자의 아바타는 키(h0), 머리의 길이(h1), 팔 길이(h2), 다리의 길이(h3), 팔 관절의 위치(P1), 다리 관절의 위치(P2) 등이 반영되어 생성됨으로써, 환자의 신체적 특징이 반영될 수 있다.Specifically, the test subject's avatar has height (h0), head length (h1), arm length (h2), leg length (h3), arm joint position (P1), leg joint position (P2), etc. By being reflected and generated, the physical characteristics of the patient may be reflected.

또한, 도 4에서는 아바타가 생성되는 다른 실시형태를 보여준다. 검사 대상자는 신체 일부를 상실한 장애인을 수 있으며, 이 경우, 신체 일부의 유무는 운동능력 평가에 유의미한 영향을 끼치게 된다. In addition, FIG. 4 shows another embodiment in which an avatar is generated. The test subject may be a person with a disability who has lost a part of the body.

예를 들어, 신체 일부의 유무에 따라, 검사 대상자가 따라 할 수 있는 신체 동작이 제한되며, 이러한 정보가 동작 선택 단계(S103)에 자동적으로 반영되어 선택할 수 있는 신체 동작이 제한될 수 있다. 그에 따라, 검사 대상자에게 보다 적합한 신체 동작을 지시할 수 있게 된다.For example, depending on the presence or absence of a body part, body motions that the test subject can follow are limited, and this information is automatically reflected in the motion selection step S103 to limit body motions that can be selected. Accordingly, it is possible to instruct a more suitable body motion to the test subject.

결국, 본 발명은 검사 대상자의 상지의 전체 또는 일부의 유무, 또는, 하지의 전체 또는 일부의 유무 여부를 반영하여 아바타 정보를 생성함으로써, 신체 일부를 상실한 장애인에 대한 정밀도 높은 운동능력 평가가 가능하다.After all, according to the present invention, by generating avatar information by reflecting the presence or absence of all or part of the upper extremity of the test subject, or the presence or absence of all or part of the lower extremities, it is possible to evaluate the exercise ability with high precision for the disabled person who has lost a part of the body. .

다음으로, 동작 선택 단계(S103)에서는 생성된 아바타가 표시수단에서 구현하게 될 신체 동작이 선택된다.Next, in the motion selection step S103, a body motion to be implemented by the generated avatar on the display means is selected.

일반적으로, 노인이나 장애인(특히, 뇌졸중, 중추신경 장애를 갖는 장애인)의 운동능력 검사, 특히 버그 균형 검사(berg balance scale, BBS)를 하기 위해 다양한 신체 동작이 사용될 수 있다.In general, various body movements may be used to test the motor ability of the elderly or the disabled (especially, those with a stroke or central nervous system disorder), in particular, a berg balance scale (BBS).

가장 일반적으로 사용되는 신체 동작은, 앉은 자세에서 일어나기(sitting to standing), 서 있기(standing insupported), 서 있는 자세에서 앉기(standing to sitting), 이동하기(transfer), 눈 감고 서 있기(standing unsupported with eye closed), 두 발 모으고 서 있기(standing insupported with feet together), 팔을 뻗쳐 내밀기(reaching forward with outstretched arm), 바닥에 있는 물건 집어 올리기 (retrieving object from floor), 서 있는 자세에서 (왼쪽과 오른쪽으로) 뒤돌아보기 (turning to look behind), 제자리에서 360도 회전하기 (turning 360 degrees), 일정한 높이의 발판 위에 발을 교대로 놓기 (placing alternate foot on stool), 한 발 앞에 다른 발을 일자로 두고 서 있기 (standing with one foot in front), 한 발로 서 있기 (standing on one leg) 등 이다.The most commonly used body movements are sitting to standing, standing insupported, standing to sitting, transfer, and standing unsupported. with eye closed), standing insupported with feet together, reaching forward with outstretched arm, retrieving object from floor, from standing position (left and right Turning to look behind right), turning 360 degrees in place, placing alternate foot on stool at constant height, placing one foot in front of the other Standing with one foot in front, standing on one leg, etc.

위와 같은 신체 동작을 검사 대상자가 수행하면, 동작의 정확도와 동작 시간을 산출하여 검사 대상자의 운동능력을 평가할 수 있다.When the test subject performs the above body movements, the exercise ability of the test subject can be evaluated by calculating the accuracy and operation time of the movements.

다만, 위의 신체 동작들은 본 발명에 적용될 수 있는 일 실시예일 뿐이며, 원칙적으로 본 발명에 적용될 수 있는 신체 동작은 검사 대상자의 운동능력을 측정할 수 있는 동작이라면 특별히 제한되지 않는다.However, the above body motions are only examples that can be applied to the present invention, and in principle, the body motions applicable to the present invention are not particularly limited as long as they can measure the exercise ability of the subject to be tested.

상기 동작 선택 단계(S103)에서 하나 이상의 신체 동작이 선택되면, 검사 대상자의 아바타가 상기 동작을 수행하는 것이 상기 표시수단을 통하여 표시된다(S104).When one or more body motions are selected in the motion selection step S103, it is displayed through the display means that the test subject's avatar performs the motions (S104).

표시수단은 영상을 가시적으로 보여줄 수 있는 장치이면 족하며, 특별히 제한되지 않는다. 예를 들어, 표시수단은 LCD 디스플레이, OLED 디스플레이, 프로젝션, CRT 모니터, VR 장치일 수 있다.The display means may be any device capable of visually displaying an image, and is not particularly limited. For example, the display means may be an LCD display, an OLED display, a projection, a CRT monitor, or a VR device.

검사 대상자의 신체적 특징에 기초하여 생성된 아바타가 다양한 상기 신체 동작을 구현하는데에는 특정 디지털 아바타에 미리 설정된 동작을 매칭시키는 애니메이션 기법과 같은 다양한 컴퓨터 프로그램 기술이 적용될 수 있다. 그에 따라, 검사 대상자의 아바타가 위화감 없이 신체 동작을 수행하는 것을 표시수단을 통해 표시할 수 있다.Various computer program techniques, such as animation techniques for matching preset motions to specific digital avatars, may be applied to implement the various body motions in the avatar generated based on the physical characteristics of the subject. Accordingly, it is possible to display through the display means that the avatar of the test subject performs a body motion without a sense of incongruity.

검사 대상자는 표시 수단을 통해 상기 아바타가 수행하는 신체 동작을 보고 동일한 동작을 수행하게 되고, 촬영 수단은 검사 대상자의 동작을 촬영한다(S105).The test subject sees the body motion performed by the avatar through the display means and performs the same motion, and the photographing means captures the motion of the test subject ( S105 ).

한편, 상기 동작 표시 단계(S104)와 상기 동작 촬영 단계(S105)의 사이에는, 상기 환자에게 상기 표시수단에 표시되는 상기 아바타의 동작을 따라할 것을 지시하는 동작 지시 단계(S200)가 포함될 수 있다.Meanwhile, between the operation display step S104 and the action photographing step S105 , an operation instruction step S200 of instructing the patient to imitate the operation of the avatar displayed on the display means may be included. .

이러한 동작 지시는 검사 대상자에게 동작의 시작을 지시하는 방법이라면 별도로 제한되지 않는다. 예를 들어, 표시수단에 카운트다운 방식으로 가시적으로 표시되어 지시될 수 있으며, 별도의 스피커를 통해 소리 신호로 지시될 수도 있고, 가시적 표시와 소리 신호가 조합되어 지시될 수 있다.Such an operation instruction is not specifically limited as long as it is a method of instructing the test subject to start an operation. For example, it may be indicated and indicated visually in a countdown manner on the display means, may be indicated by a sound signal through a separate speaker, or may be indicated by a combination of the visual display and the sound signal.

한편, 이러한 동작의 지시는 후술할 검사 대상자의 동작 시간의 동작 시작점의 지표가 될 수 있다.On the other hand, the instruction of such an operation may be an indicator of the starting point of the operation of the operation time of the test subject, which will be described later.

다음으로, 상기 일치율 산출 단계(S106)에서는 촬영된 검사 대상자의 동작과 아바타의 신체 동작의 일치율을 산출한다.Next, in the step of calculating the matching rate ( S106 ), the matching rate between the photographed motions of the test subject and the body motions of the avatar is calculated.

상기 동작 촬영 단계에서 얻어지는 상기 환자의 동작에 관한 데이터는 디지털 방식의 촬영 데이터로 얻어지며, 이 촬영 데이터로부터 아바타의 동작 정보와 비교할 수 있는 비교 동작 정보를 생성한다.The data on the patient's motion obtained in the motion imaging step is obtained as digital imaging data, and comparative motion information that can be compared with the motion information of the avatar is generated from the shot data.

비교 동작 정보는 촬영된 영상의 촬영 데이터로부터 움직임이 있는 물체와 움직임이 없는 배경을 서로 구별시킨 다양한 기법에 의해 생성될 수 있다. 기존의 움직임 검출 기법은 장면 차이(Frame Differencing), 히스토그램의 밝기 값 변화, 색상 변화 등을 이용한 방법들이 있다.The comparative motion information may be generated by various techniques for differentiating a moving object and a non-moving background from photographing data of a photographed image. Existing motion detection techniques include methods using frame differencing, a change in the brightness value of a histogram, and a color change.

이러한 종래의 기법을 이용하여, 검사 대상자의 촬영 데이터로부터 움직임 정보를 추출하고, 이를 검사 대상자의 아바타에 매칭시켜 촬영된 검사 대상자의 동작을 아바타가 수행하는 비교 동작 정보를 산출한다.Using such a conventional technique, motion information is extracted from the photographed data of the examination subject, and comparison motion information in which the photographed operation of the examination subject is performed by the avatar is calculated by matching it to the examination subject's avatar.

다음으로, 산출된 비교 동작 정보와 상기 동작 표시 단계에서 상기 표시수단에 표시되었던 상기 아바타의 동작 정보를 비교한다. 검사 대상자의 신체적 특징이 반영된 아바타끼리를 비교함으로써, 검사 대상자가 선택된 신체 동작을 정확하게 추종하고 있는지 정밀도 높게 판정할 수 있다.Next, the calculated comparison motion information is compared with the motion information of the avatar displayed on the display means in the motion display step. By comparing the avatars in which the physical characteristics of the test subject are reflected, it is possible to determine with high precision whether the test subject is following the selected body motion accurately.

비교의 방식은 동작과 동작의 일치율을 산출할 수 있는 방식이라면 특별히 제한되지 않는다. The method of comparison is not particularly limited as long as it is a method capable of calculating the coincidence rate between the operation and the operation.

예를 들어, 검사 대상자의 비교 동작 정보의 각 프레임을 상기 동작 표시 단계에서 상기 표시수단에 표시되었던 상기 아바타의 동작 정보의 동작의 특이점이 일치하는 프레임에 매치시키고, 매칭되는 프레임들의에서 아바타를 비교하여 벗어남 량을 산출함으로써, 전체 동작의 일치율을 산출할 수 있다.For example, each frame of the comparative motion information of the test subject is matched with a frame in which the singularity of the motion of the motion information of the avatar displayed on the display means in the motion display step coincides, and the avatar is compared among the matching frames. By calculating the deviation amount, it is possible to calculate the coincidence rate of the entire operation.

한편 비교 동작 정보를 산출하는 또 다른 예로서, 상기 동작 촬영 단계에서 얻어지는 상기 환자의 동작에 관한 촬영 데이터로부터 환자 동작 정보를 산출하고, 상기 환자 동작 정보를 이용하여, 신체를 단순화한 골격 구조로 표현되는 비교 동작 정보를 산출하여도 된다.Meanwhile, as another example of calculating comparative motion information, patient motion information is calculated from the imaging data about the patient's motion obtained in the motion imaging step, and using the patient motion information, the body is expressed in a simplified skeletal structure. The comparison operation information to be used may be calculated.

이 경우, 검사 대상자의 비교 동작 정보의 각 프레임을 상기 동작 표시 단계에서 상기 표시수단에 표시되었던 상기 아바타의 동작 정보의 동작의 특이점이 일치하는 프레임에 매칭시키고, 매칭되는 프레임에서 아바타의 외곽선으로부터 상기 골격 구조의 벗어남량을 산출함으로써, 전체 동작의 일치율을 산출할 수 있다.In this case, each frame of the comparative motion information of the test subject is matched with a frame in which the singularity of the motion of the motion information of the avatar displayed on the display means in the motion display step coincides, and in the matching frame, the By calculating the amount of deviation of the skeletal structure, it is possible to calculate the coincidence rate of the entire motion.

다음으로, 산출된 상기 일치율을 이용하여 상기 환자의 운동능력을 평가한다(S107).Next, the exercise ability of the patient is evaluated using the calculated coincidence rate (S107).

상기 일치율을 이용한 운동능력의 평가는 검사 수행자(의사 등)에게 전송되어, 검사 수행자의 판단에 의해 평가될 수 있으며, 미리 정해진 평가표준표에 기초하여 인공지능(AI)과 같은 프로그램을 통해 평가될 수도 있다.The evaluation of exercise ability using the concordance rate may be transmitted to the test performer (doctor, etc.) and evaluated by the test performer's judgment, and may be evaluated through a program such as artificial intelligence (AI) based on a predetermined evaluation standard table. there is.

또한, 운동능력의 평가는 각 신체 동작 마다 미리 설정된 점수(예를 들어 0~5점)로 매겨질 수 있으며, 선택된 신체 동작에 대한 점수를 합산하여 종합적으로 점수가 매겨질 수 있다.In addition, the evaluation of the exercise ability may be scored as a preset score (for example, 0 to 5 points) for each body motion, and a score for the selected body motion may be added up to give a comprehensive score.

또한, 상기 평가표준표는 다양한 검사 대상의 특성 정보(성별, 연령, 질환명, 학력 등)와 동작 시간 정보를 수집하고, 이를 빅데이터 기술을 이용하여 특성별로 표준화함으로써 생성될 수도 있다.In addition, the evaluation standard table may be generated by collecting characteristic information (gender, age, disease name, academic background, etc.) and operation time information of various test subjects and standardizing them by characteristic using big data technology.

다음으로, 도 7을 참조하여, 본 발명의 또 다른 실시형태에 대해 설명한다. 도 7은 본 발명의 또 다른 실시형태인 아바타를 이용한 환자의 운동능력 평가 방법의 블록도이다.Next, another embodiment of the present invention will be described with reference to FIG. 7 . 7 is a block diagram of a method for evaluating a patient's exercise ability using an avatar, which is another embodiment of the present invention.

본 발명의 또 다른 실시형태는 기본적으로 상술한 S101 단계 내지 S107 단계를 모두 포함하며, 추가적으로 상기 표시수단에 표시되는 아바타의 동작을 따라하는 상기 검사 대상자의 동작 시간을 산출하는 동작 시간 산출 단계(S300)을 더 포함한다.Another embodiment of the present invention basically includes all of the above-described steps S101 to S107, and additionally an operation time calculation step of calculating the operation time of the test subject following the operation of the avatar displayed on the display means (S300). ) is further included.

여기서, 상기 검사 대상자의 동작 시간은 검사 대상자의 동작의 시작 시점과 종결 시점을 판정하고, 상기 시작 시점으로부터 상기 종결 시점까지 소요되는 시간을 측정하여 산출된다. Here, the operation time of the test subject is calculated by determining the start time and the end time of the operation of the test subject, and measuring the time taken from the start time to the end time.

상기 시작 시점과 사이 종결 시점의 판정은, 검사 대상자의 비교 동작 정보의 각 프레임을 상기 동작 표시 단계에서 상기 표시수단에 표시되었던 상기 아바타의 동작 정보의 동작의 특이점(비교의 기준이 되는 동작점, 예를 들어 앉는 동작에 있어서, 서 있는 동작점, 절반정도 구부린 동작, 완전하게 앉은 동작 등)이 일치하는 프레임에 매치시키고, 상기 아바타의 동작 정보 중 시작 프레임과 종결 프레임에 매칭되는 비교 동작 정보의 프레임에 해당되는 시점으로부터 판정된다. 즉, 상기 아바타의 동작 정보 중 시작 프레임에 매치되는 비교 동작 정보의 프레임에 해당되는 시점이 시작 시점으로 판정되며, 상기 아바타의 동작 정보 중 종결 프레임에 매치되는 비교 동작 정보의 프레임에 해당되는 시점이 종결 시점으로 판정된다.Determination of the start time and the end time between the start time point and the end time point is determined by displaying each frame of the comparative motion information of the subject to be examined as a singularity of the motion of the motion information of the avatar displayed on the display means in the motion display step (the operating point as a reference point for comparison; For example, in a sitting motion, a standing motion point, a half-bent motion, a completely sitting motion, etc.) are matched to the matching frame, and comparison motion information matching the start frame and the end frame among the motion information of the avatar is obtained. It is determined from the time point corresponding to the frame. That is, a time point corresponding to the frame of the comparative motion information matching the start frame among the motion information of the avatar is determined as the start time, and the time point corresponding to the frame of the comparative motion information matching the end frame among the motion information of the avatar is determined as the start time. It is judged at the end of time.

결국, 본 발명은 검사 대상자의 신체적 특징을 반영한 아바타를 이용하여, 검사 대상자의 동작 시간을 판정하고 있으므로, 보다 정밀하게 동작 시간을 판정할 수 있다.After all, according to the present invention, since the operation time of the examination subject is determined by using the avatar reflecting the physical characteristics of the examination subject, the operation time can be determined more precisely.

다음으로, 운동능력 평가 단계(S107)에서는 상기 일치율 산출 단계(S106)에서 산출된 상기 일치율에 동작 시간 산출 단계(S300)에서 산출되는 검사 대상자의 동작 시간을 반영하여, 검사 대상자의 운동능력을 보다 종합적으로 평가할 수 있다.Next, in the exercise ability evaluation step (S107), the movement time of the test subject calculated in the operation time calculation step (S300) is reflected to the coincidence rate calculated in the coincidence rate calculation step (S106), and the exercise ability of the test subject is more can be evaluated holistically.

예를 들어, 검사 대상자의 동작의 일치율이 높더라도, 동작 시간이 긴 경우 나 동작 시간이 짧더라도 동작의 일치율이 낮은 경우에는 종합적인 평가 점수는 낮아지게 된다.For example, even if the test subject's motion concordance rate is high, the overall evaluation score is lowered when the motion time is long or when the motion concordance rate is low even though the motion time is short.

상술한, 아바타를 이용한 검사 대상자의 운동능력 평가 방법은 표시 수단과 촬영 수단을 구비하고 제어부를 갖는 다양한 장치나 시스템을 통해 구현될 수 있다. The above-described method for evaluating the exercise ability of the test subject using the avatar may be implemented through various devices or systems that include a display means and a photographing means and have a controller.

여기서, 제어부는 CPU(Central Processing Unit), 마이크로 프로세서, 컴퓨터 또는 데이터 처리 시스템, 및/또는 이들의 조합으로서 그리고/또는 마이크로컨트롤러, 축소 명령 집합 컴퓨터(RISC), 주문형 집적회로(ASIC), 논리 회로, 및 본 명세서에 설명된 기능을 실행할 수 있는 하드웨어, 소프트웨어 또는 이들의 조합을 포함한 임의의 다른 회로 또는 프로세서를 사용한 시스템을 포함하는, 프로세서 기반 또는 마이크로 프로세서 기반 시스템으로서 구현될 수 있다.Here, the controller is a CPU (Central Processing Unit), a microprocessor, a computer or data processing system, and/or a combination thereof and/or a microcontroller, a reduced instruction set computer (RISC), an application specific integrated circuit (ASIC), a logic circuit , and systems using any other circuitry or processor, including hardware, software, or combinations thereof, capable of executing the functions described herein may be implemented as processor-based or microprocessor-based systems.

또한, 제어부는 저장부를 구비할 수 있다. 저장부는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어, SD 또는 XD 메모리 등), 램(Random Access Memory: RAM) SRAM(Static Random Access Memory), 롬(Read-Only Memory: ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 등의 저장매체를 포함하며, 이에 제한되는 것은 아니다.In addition, the control unit may include a storage unit. The storage unit is a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (eg, SD or XD memory, etc.), a RAM (Random) Access Memory: RAM) SRAM (Static Random Access Memory), ROM (Read-Only Memory: ROM), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM (Programmable Read-Only Memory), magnetic memory, magnetic disk, optical disk and storage media such as, but not limited to.

또한, 제어부는 통신부를 구비하며, 통신부는 블루투스(bluetooth) 통신, BLE(Bluetooth Low Energy) 통신, 근거리 무선 통신(Near Field Communication, NFC), WLAN 통신, 지그비(Zigbee) 통신, 적외선(Infrared Data Association, IrDA) 통신, WFD(Wi-Fi Direct) 통신, UWB(ultra-wideband) 통신, Ant+ 통신, WIFI 통신, RFID(Radio Frequency Identification) 통신, 3G 통신, 4G 통신 및 5G 통신 등을 이용하여 외부 기기(센서, 조작장치, 가상 현실 장치 등)와 통신할 수 있다. 그러나, 이는 일 예에 불과할 뿐이며, 이에 한정되는 것은 아니다.In addition, the control unit includes a communication unit, the communication unit is Bluetooth (bluetooth) communication, BLE (Bluetooth Low Energy) communication, near field communication (Near Field Communication, NFC), WLAN communication, Zigbee (Zigbee) communication, infrared (Infrared Data Association) , IrDA) communication, WFD (Wi-Fi Direct) communication, UWB (ultra-wideband) communication, Ant+ communication, WIFI communication, RFID (Radio Frequency Identification) communication, 3G communication, 4G communication, 5G communication, etc. It can communicate with (sensors, manipulators, virtual reality devices, etc.). However, this is only an example, and the present invention is not limited thereto.

예를 들어, 상기 장치는 통신 가능한 단말기와 같은 장치일 수 있다. 즉, 스마트폰, 태플릿PC, 노트북PC 일 수 있다.For example, the device may be a device such as a communicable terminal. That is, it may be a smartphone, a tablet PC, or a notebook PC.

상술한 실시예에 설명된 특징, 구조, 효과 등은 본 발명의 적어도 하나의 실시예에 포함되며, 반드시 하나의 실시예에만 한정되는 것은 아니다. 나아가, 각 실시예에서 예시된 특징, 구조, 효과 등은 실시예들이 속하는 분야의 통상의 지식을 가지는 자에 의하여 다른 실시예들에 대해서도 조합 또는 변형되어 실시 가능하다. 따라서 이러한 조합과 변형에 관계된 내용들은 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.Features, structures, effects, etc. described in the above-described embodiments are included in at least one embodiment of the present invention, and are not necessarily limited to only one embodiment. Furthermore, features, structures, effects, etc. illustrated in each embodiment can be combined or modified for other embodiments by those of ordinary skill in the art to which the embodiments belong. Accordingly, the contents related to such combinations and modifications should be interpreted as being included in the scope of the present invention.

또한, 이상에서 실시예들을 중심으로 설명하였으나 이는 단지 예시일 뿐 본 발명을 한정하는 것이 아니며, 본 발명이 속하는 분야의 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성을 벗어나지 않는 범위에서 이상에 예시되지 않은 여러 가지의 변형과 응용이 가능함을 알 수 있을 것이다. 예를 들어, 실시예들에 구체적으로 나타난 각 구성 요소는 변형하여 실시할 수 있는 것이다. 그리고 이러한 변형과 응용에 관계된 차이점들은 첨부한 청구 범위에서 규정하는 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.In addition, although the embodiments have been described above, these are merely examples and do not limit the present invention, and those of ordinary skill in the art to which the present invention pertains are exemplified above in a range that does not depart from the essential characteristics of the present embodiment. It can be seen that various modifications and applications that have not been made are possible. For example, each component specifically shown in the embodiments may be implemented by modification. And the differences related to these modifications and applications should be construed as being included in the scope of the present invention defined in the appended claims.

Claims (12)

아바타를 이용한 환자의 운동능력 평가 방법에 있어서,
상기 환자의 신체적 특징을 수집하는 특징 수집 단계;
수집된 환자의 상기 신체적 특징에 관한 정보에 의거하여, 표시수단에 의해 표시되는 상기 환자의 아바타를 생성하는 아바타 생성 단계;
상기 표시수단에서 상기 아바타가 구현할 하나의 이상의 신체 동작을 선택하는 동작 선택 단계;
상기 아바타가 상기 신체 동작을 수행하는 것을 상기 표시수단에 표시하는 동작 표시 단계;
상기 표시수단에 표시되는 상기 아바타의 신체 동작을 따라하는 상기 환자의 동작을 촬영수단에 의해 촬영하는 동작 촬영 단계;
촬영된 상기 환자의 동작과 상기 아바타의 상기 신체 동작의 일치율을 산출하는 일치율 산출 단계;
산출된 상기 일치율을 이용하여 상기 환자의 운동능력을 평가하는 운동능력 평가 단계를 포함하는 아바타를 이용한 환자의 운동능력 평가 방법.
A method for evaluating a patient's exercise ability using an avatar,
a feature collecting step of collecting physical features of the patient;
an avatar generating step of generating an avatar of the patient displayed by a display means based on the collected information about the patient's physical characteristics;
an action selection step of selecting one or more body motions to be implemented by the avatar in the display means;
a motion display step of displaying on the display means that the avatar performs the body motion;
a motion photographing step of photographing, by means of a photographing means, a motion of the patient following the body movement of the avatar displayed on the display means;
a coincidence rate calculating step of calculating a coincidence rate between the photographed motion of the patient and the body motion of the avatar;
and an exercise ability evaluation step of evaluating the patient's exercise ability using the calculated matching rate.
제 1 항에 있어서,
상기 신체적 특징은 상기 환자의 키, 팔 길이, 다리 길이, 관절의 위치, 머리 크기, 목 길이 중 하나 이상을 포함하는 것을 특징으로 하는 아바타를 이용한 환자의 운동능력 평가 방법.
The method of claim 1,
wherein the physical characteristics include one or more of the patient's height, arm length, leg length, joint position, head size, and neck length.
제 2 항에 있어서,
상기 신체적 특징은, 하지의 전체 또는 일부의 유무, 또는, 상지의 전체 또는 일부의 유무 중 하나 이상을 포함하는 것을 특징으로 하는 아바타를 이용한 환자의 운동능력 평가 방법.
3. The method of claim 2,
Wherein the physical characteristics include at least one of the presence or absence of all or part of the lower extremities and the presence or absence of all or part of the upper extremities.
제 1 항 내지 제 3 항 중 어느 한 항에 있어서,
상기 동작 선택 단계에서 선택되는 신체 동작은, 앉은 자세에서 일어나기(sitting to standing), 서 있기(standing insupported), 서 있는 자세에서 앉기(standing to sitting), 이동하기(transfer), 눈 감고 서 있기(standing unsupported with eye closed), 두 발 모으고 서 있기(standing insupported with feet together), 팔을 뻗쳐 내밀기(reaching forward with outstretched arm), 바닥에 있는 물건 집어 올리기 (retrieving object from floor), 서 있는 자세에서 (왼쪽과 오른쪽으로) 뒤돌아보기 (turning to look behind), 제자리에서 360도 회전하기 (turning 360 degrees), 일정한 높이의 발판 위에 발을 교대로 놓기 (placing alternate foot on stool), 한 발 앞에 다른 발을 일자로 두고 서 있기 (standing with one foot in front), 한 발로 서 있기 (standing on one leg) 중 하나 이상을 포함하는 것을 특징으로 하는 아바타를 이용한 환자의 운동능력 평가 방법.
4. The method according to any one of claims 1 to 3,
The body motions selected in the motion selection step include sitting to standing, standing insupported, standing to sitting, transfer, and standing with eyes closed ( standing unsupported with eye closed, standing insupported with feet together, reaching forward with outstretched arm, retrieving object from floor, from standing position ( Turning to look behind (left and right), turning 360 degrees, placing alternate foot on stool, one foot in front of the other A method for evaluating a patient's motor ability using an avatar, comprising at least one of standing with one foot in front and standing on one leg.
제 1 항 내지 제 3 항 중 어느 한 항에 있어서,
상기 동작 표시 단계와 상기 동작 촬영 단계의 사이에는, 상기 환자에게 상기 표시수단에 표시되는 상기 아바타의 동작을 따라할 것을 지시하는 동작 지시 단계를 더 포함하는 것을 특징으로 하는 아바타를 이용한 환자의 운동능력 평가 방법.
4. The method according to any one of claims 1 to 3,
Between the step of displaying the motion and the step of capturing the motion, the step of instructing the patient to imitate the motion of the avatar displayed on the display means is further included. Assessment Methods.
제 1 항 내지 제 3 항 중 어느 한 항에 있어서,
상기 특징 수집 단계는, 상기 촬영수단에 의해 환자의 신체를 촬영하여 얻어지는 화상 정보로부터 상기 환자의 신체적 특징을 수집하는 것을 특징으로 하는 아바타를 이용한 환자의 운동능력 평가 방법.
4. The method according to any one of claims 1 to 3,
The feature collecting step comprises collecting the patient's physical features from image information obtained by photographing the patient's body by the photographing means.
제 1 항 내지 제 3 항 중 어느 한 항에 있어서,
상기 일치율 산출 단계는,
상기 동작 촬영 단계에서 얻어지는 상기 환자의 동작에 관한 촬영 데이터로부터 환자 동작 정보를 산출하는 단계;
상기 환자 동작 정보를 상기 아바타에 매치시켜 비교 동작 정보를 생성하는 단계;
상기 비교 동작 정보와 상기 동작 표시 단계에서 상기 표시수단에 표시되었던 상기 아바타의 동작 정보를 비교하는 단계를 포함하는 것을 특징으로 하는 아바타를 이용한 환자의 운동능력 평가 방법.
4. The method according to any one of claims 1 to 3,
The matching rate calculation step is
calculating patient motion information from the imaging data about the motion of the patient obtained in the motion imaging step;
generating comparative motion information by matching the patient motion information to the avatar;
and comparing the comparison motion information with the motion information of the avatar displayed on the display means in the motion display step.
제 1 항 내지 제 3 항 중 어느 한 항에 있어서,
상기 일치율 산출 단계는,
상기 동작 촬영 단계에서 얻어지는 상기 환자의 동작에 관한 촬영 데이터로부터 환자 동작 정보를 산출하는 단계;
상기 환자 동작 정보를 이용하여, 신체를 단순화한 골격 구조로 표현되는 비교 동작 정보를 생성하는 단계;
상기 비교 동작 정보와 상기 동작 표시 단계에서 상기 표시수단에 표시되었던 상기 아바타의 동작 정보를 비교하는 단계를 포함하는 것을 특징으로 하는 아바타를 이용한 환자의 운동능력 평가 방법.
4. The method according to any one of claims 1 to 3,
The matching rate calculation step is
calculating patient motion information from the imaging data about the motion of the patient obtained in the motion imaging step;
generating comparative motion information expressed in a simplified skeletal structure of the body by using the patient motion information;
and comparing the comparison motion information with the motion information of the avatar displayed on the display means in the motion display step.
제 1 항 내지 제 3 항 중 어느 한 항에 있어서,
상기 동작 촬영 단계에서 얻어지는 상기 환자의 동작의 촬영 데이터와 상기 아바타의 신체 동작의 동작 정보로부터, 상기 표시수단에 표시되는 아바타의 동작을 따라하는 상기 환자의 동작의 시작 시점과 종결 시점을 판정함과 함께, 상기 시작 시점으로부터 상기 종결 시점까지 소요되는 시간인 환자 동작 시간을 산출하는 동작 시간 산출 단계를 더 포함하는 것을 특징으로 하는 아바타를 이용한 환자의 운동능력 평가 방법.
4. The method according to any one of claims 1 to 3,
determining a start time and an end time of the patient's motion to imitate the motion of the avatar displayed on the display means, based on the motion information of the body motion of the avatar and the motion picture data obtained in the motion imaging step; The method of claim 1, further comprising: calculating an operation time calculation step of calculating a patient operation time, which is a time taken from the start time to the end time.
제 9 항에 있어서,
상기 운동능력 평가 단계에서는, 상기 일치율에 상기 동작 시간을 반영하여 상기 환자의 운동능력을 평가하는 것을 특징으로 하는 아바타를 이용한 환자의 운동능력 평가 방법.
10. The method of claim 9,
In the exercise ability evaluation step, the exercise ability of the patient is evaluated by reflecting the operation time to the match rate.
제 1 항 내지 제 3 항 중 어느 한 항에 기재된 아바타를 이용한 환자의 운동능력 평가 방법이 수행되는 아바타를 이용한 환자의 운동능력 평가 장치에 있어서,
상기 표시 수단과 상기 촬영 수단을 일체로 포함하는 것을 특징으로 하는 아바타를 이용한 환자의 운동능력 평가 장치.
An apparatus for evaluating a patient's motor ability using an avatar, wherein the method for evaluating a patient's motor ability using the avatar according to any one of claims 1 to 3 is performed, the apparatus comprising:
An apparatus for evaluating exercise ability of a patient using an avatar, characterized in that the display means and the photographing means are integrally included.
제 11 항에 있어서,
상기 아바타를 이용한 환자의 운동능력 평가 장치는 통신 가능한 단말기인 것을 특징으로 하는 아바타를 이용한 환자의 운동능력 평가 장치.
12. The method of claim 11,
The apparatus for evaluating exercise ability of a patient using the avatar is a communication terminal.
KR1020200152065A 2020-11-13 2020-11-13 Method and apparatus for evaluating physical exercise ability of patient using avatar KR20220065487A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200152065A KR20220065487A (en) 2020-11-13 2020-11-13 Method and apparatus for evaluating physical exercise ability of patient using avatar

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200152065A KR20220065487A (en) 2020-11-13 2020-11-13 Method and apparatus for evaluating physical exercise ability of patient using avatar

Publications (1)

Publication Number Publication Date
KR20220065487A true KR20220065487A (en) 2022-05-20

Family

ID=81799252

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200152065A KR20220065487A (en) 2020-11-13 2020-11-13 Method and apparatus for evaluating physical exercise ability of patient using avatar

Country Status (1)

Country Link
KR (1) KR20220065487A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102093185B1 (en) 2017-12-28 2020-03-25 (주)맨엔텔 Berg balance testing apparatus and method for the same

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102093185B1 (en) 2017-12-28 2020-03-25 (주)맨엔텔 Berg balance testing apparatus and method for the same

Similar Documents

Publication Publication Date Title
US10863898B2 (en) System and method for determining distances from an object
US11266341B2 (en) Measuring dynamic body movement
US10776423B2 (en) Motor task analysis system and method
CN102458220B (en) Shape discrimination vision assessment and the system of tracking
CN103127691B (en) Video-generating device and method
AU2017386412A1 (en) Systems and methods for real-time data quantification, acquisition, analysis, and feedback
JP7057589B2 (en) Medical information processing system, gait state quantification method and program
KR20210020133A (en) Method, system, and device for diagnostic evaluation and screening of binocular disorders
CN111344222A (en) Method of performing an eye examination test
US20230355135A1 (en) Intelligent gait analyzing apparatus
KR20220065495A (en) Method and apparatus for evaluating physical exercise ability of patient using avatar
CN112438723A (en) Cognitive function evaluation method, cognitive function evaluation device, and storage medium
KR20220065487A (en) Method and apparatus for evaluating physical exercise ability of patient using avatar
JP2019024580A (en) Rehabilitation support system, rehabilitation support method, and program
WO2022249746A1 (en) Physical-ability estimation system, physical-ability estimation method, and program
CN115153517B (en) Testing method, device, equipment and storage medium for timing, standing and walking test
CN115299934B (en) Method, device, equipment and medium for determining test action
US20240055099A1 (en) Range of motion determination
Vilas et al. Gait Analysis in Hereditary Amyloidosis Associated to Variant Transthyretin
Rodrigues GaitGate-Towards a multi-scenario clinical gait characterization system for neurological diseases
KR20230102022A (en) system and control method for acquiring and analyzing swing data by classifying golf swing stages through the use of MEMS sensors
KR20230102021A (en) data collection apparatus and control method for golf swing analysis using MEMS built-in sensor
de Jesus Usage of KINECT to detect walking problems of elder people
Romacho et al. Automatic Estimation System of Dynamic Knee Alignment Based on Depth Video
JP2023138175A (en) Processing device, program, method, and processing system

Legal Events

Date Code Title Description
E601 Decision to refuse application