KR102529726B1 - 인공지능 기반의 근력 예측 방법 및 장치 - Google Patents

인공지능 기반의 근력 예측 방법 및 장치 Download PDF

Info

Publication number
KR102529726B1
KR102529726B1 KR1020210058466A KR20210058466A KR102529726B1 KR 102529726 B1 KR102529726 B1 KR 102529726B1 KR 1020210058466 A KR1020210058466 A KR 1020210058466A KR 20210058466 A KR20210058466 A KR 20210058466A KR 102529726 B1 KR102529726 B1 KR 102529726B1
Authority
KR
South Korea
Prior art keywords
data
muscle strength
learning
motion
learning data
Prior art date
Application number
KR1020210058466A
Other languages
English (en)
Other versions
KR20220151340A (ko
Inventor
유현석
배은경
Original Assignee
주식회사 리모
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 리모 filed Critical 주식회사 리모
Priority to KR1020210058466A priority Critical patent/KR102529726B1/ko
Publication of KR20220151340A publication Critical patent/KR20220151340A/ko
Application granted granted Critical
Publication of KR102529726B1 publication Critical patent/KR102529726B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1116Determining posture transitions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/112Gait analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1121Determining geometric values, e.g. centre of rotation or angular range of movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/22Ergometry; Measuring muscular strength or the force of a muscular blow
    • A61B5/224Measuring muscular strength
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/45For evaluating or diagnosing the musculoskeletal system or teeth
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Physiology (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Signal Processing (AREA)
  • Psychiatry (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Geometry (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Rheumatology (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

인공지능 기반의 근력 예측 방법이 제공된다. 본 발명의 몇몇 실시예에 따른 근력 예측 방법은 예측 대상자의 모션 데이터 및 예측 대상자의 상태 데이터를 수신하는 단계 및 모션 데이터 및 상태 데이터에 기초하여 근력 예측 데이터를 생성하는 단계를 포함하되, 근력 예측 데이터를 생성하는 단계는, 기계 학습 기반의 학습 데이터 생성 모델에서 상태 학습 데이터 및 근력 학습 데이터에 기초하여 모션 학습 데이터를 생성하는 단계, 상태 학습 데이터, 근력 학습 데이터 및 모션 학습 데이터가 레이블링된 학습 데이터 세트를 학습 데이터베이스에 저장하는 단계, 근력 예측 학습 모델에서 학습 데이터 세트를 학습 데이터베이스로부터 획득하고, 상태 학습 데이터 및 모션 학습 데이터를 입력(Input) 데이터로 사용하고 근력 학습 데이터를 라벨(Label) 데이터로 사용하여 학습하는 단계 및 근력 예측 데이터 생성 장치에서 근력 예측 학습 모델에서 학습된 모델에 기초하여 근력 예측 데이터를 생성하는 단계를 포함한다.

Description

인공지능 기반의 근력 예측 방법 및 장치{Method and apparatus for predicting muscle strength based on artificial intelligence}
본 발명은 인공지능 기반의 근력 예측 방법 및 장치에 관한 것으로, 더욱 상세하게는 기계학습 기반의 인공지능 모델을 이용하여 학습 데이터를 생성하고, 생성된 학습 데이터를 이용한 지도학습 기반의 근력 예측 학습 모델을 포함하는 근력 예측 방법 및 장치에 관한 것이다.
뇌졸중 등 뇌 질환 발생 후 가장 많이 발생하는 기능적인 제한은 보행 기능의 저하로, 뇌졸중 발생 후 3개월 내지 6개월까지 보행 기능이 향상되나 그 이후에는 정체기에 접어든다는 연구 결과가 발표되었고, 이에 따라 재활 초기의 보행 재활운동의 중요성이 강조되고 있다.
이러한 보행 재활운동은 각 근육의 활성도, 즉 근력을 향상시키는 것이 중요하고, 종래에는 바이오덱스(biodex) 등 물리적인 근력 측정 장비를 활용하여 근력을 측정하여 근력 향상 재활운동을 진행하였으나, 이러한 물리적인 근력 측정 장비는 고가로서 개인이 구비하기 어려워 병원 등에 방문하여 측정을 해야 하는 한계가 존재한다.
이에, 국내공개특허 제10-2021-0009854호에는 환자의 보행영상을 획득하여 3차원 보행모델을 생성하고, 보행모델이 이상보행에 속하는지 여부를 판단하는 기술이 제안되었으나, 이는 환자의 보행만을 판단하여 환자의 신체정보, 보행특성 등을 반영하지 못하는 한계가 존재하고, 인체 각각의 관절의 움직임을 정확히 반영하지 못해 예측의 정확도가 떨어질 수 있다는 한계가 존재한다.
국내공개특허 제10-2021-0009854호(2021년01월27일 공개)
본 발명이 해결하고자 하는 기술적 과제는 환자의 영상 데이터를 획득하고, 이를 분석하여 근력을 예측하는 방법 및 장치를 제공하는 것이다.
또한, 기계학습을 통해 근력 학습 데이터 세트를 생성하고, 이를 활용하여 근력 예측 모델을 학습함으로써 정확도 및 동작 특성이 향상된 근력 예측 방법 및 장치를 제공하는 것이다.
본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 해당 기술 분야의 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
상기 기술적 과제를 달성하기 위한 본 발명의 몇몇 실시예에 따른 근력 예측 방법은 예측 대상자의 모션 데이터 및 예측 대상자의 상태 데이터를 수신하는 단계 및 모션 데이터 및 상태 데이터에 기초하여 근력 예측 데이터를 생성하는 단계를 포함하되, 근력 예측 데이터를 생성하는 단계는, 기계 학습 기반의 학습 데이터 생성 모델에서 상태 학습 데이터 및 근력 학습 데이터에 기초하여 모션 학습 데이터를 생성하는 단계, 상태 학습 데이터, 근력 학습 데이터 및 모션 학습 데이터가 레이블링된 학습 데이터 세트를 학습 데이터베이스에 저장하는 단계, 근력 예측 학습 모델에서 학습 데이터 세트를 학습 데이터베이스로부터 획득하고, 상태 학습 데이터 및 모션 학습 데이터를 입력(Input) 데이터로 사용하고 근력 학습 데이터를 라벨(Label) 데이터로 사용하여 학습하는 단계 및 근력 예측 데이터 생성 장치에서 근력 예측 학습 모델에서 학습된 모델에 기초하여 근력 예측 데이터를 생성하는 단계를 포함할 수 있다.
몇몇 실시예에 따라, 모션 학습 데이터를 생성하는 단계는, 근골격 시뮬레이션 데이터 생성부에서 상태 학습 데이터 및 근력 학습 데이터에 기초하여 근골격 시뮬레이션 데이터를 생성하는 단계 및 근골격 시뮬레이션 데이터에 기초하여 모션 학습 데이터를 생성하는 단계를 포함할 수 있다.
몇몇 실시예에 따라, 근골격 시뮬레이션 데이터에 기초하여 모션 학습 데이터를 생성하는 단계는, 모션 학습 데이터 생성부에서 근골격 시뮬레이션 데이터에 기정의된 적어도 하나의 타겟 동작을 적용시키는 단계 및 모션 학습 데이터 생성부에서 타겟 동작이 적용된 근골격 시뮬레이션 데이터에 기초하여 모션 학습 데이터를 생성하는 단계를 포함할 수 있다.
몇몇 실시예에 따라, 모션 학습 데이터는 타겟 동작이 적용되는 구간에서의 타겟 관절의 각도에 대한 데이터이고, 근력 학습 데이터는 타겟 관절에 인접하는 근육의 활성화 값으로 생성될 수 있다.
몇몇 실시예에 따라, 모션 학습 데이터는 타겟 동작이 적용되는 구간에서의 타겟 관절의 각도의 변화에 대한 데이터일 수 있다.
몇몇 실시예에 따라, 타겟 관절은 기정의된 복수의 관절들을 포함할 수 있다.
이 때, 근력 학습 데이터는, 복수의 관절들 각각에 인접하는 복수의 근육들의 활성화 값들로 생성될 수 있다.
몇몇 실시예에 따라, 상태 학습 데이터는 신장, 몸무게, BMI, 체지방량, 신장 대비 하체의 비율, 팔 대비 하체의 비율 및 신장 대비 팔의 비율 중 적어도 하나의 정보가 포함될 수 있다.
몇몇 실시예에 따라, 근력 학습 데이터는 0 내지 1의 범위를 갖는 근육의 활성화 값으로 생성될 수 있다.
이 때, 상태 학습 데이터에 기초하여 결정되는 최대 근력이 1로 정의되고, 상태 학습 데이터 및 모션 학습 데이터에 기초하여 판단되는 근력을 최대 근력과 비교하여 근력 학습 데이터를 결정할 수 있다.
몇몇 실시예에 따라, 모션 데이터 및 상기 상태 데이터를 수신하는 단계는, 예측 대상자의 영상 데이터 및 상태 데이터를 수신하는 단계, 영상 데이터에 기초하여 예측 대상자의 골격 위치를 결정하는 단계 및 결정된 골격 위치에 기초하여 모션 데이터를 결정하는 단계를 포함할 수 있다.
기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
도 1은 본 발명의 몇몇 실시예에 따른 근력 예측 시스템을 설명하기 위한 도면이다.
도 2는 근력 예측 시스템으로 입력되는 영상 데이터를 예시적으로 설명하기 위한 도면이다.
도 3은 본 발명의 몇몇 실시예에 따른 근력 예측 데이터 생성 시스템을 설명하기 위한 도면이다.
도 4는 본 발명의 몇몇 실시예에 따른 근력 예측 모델 학습 장치를 설명하기 위한 도면이다.
도 5는 본 발명의 몇몇 실시예에 따른 학습 데이터 생성 모델을 설명하기 위한 도면이다.
도 6a는 상태 데이터 또는 상태 학습 데이터를 예시적으로 설명하기 위한 도면이다.
도 6b는 근력 예측 데이터 또는 근력 학습 데이터를 예시적으로 설명하기 위한 도면이다.
도 6c 내지 도 6f는 모션 데이터 또는 모션 학습 데이터를 예시적으로 설명하기 위한 도면이다.
도 7은 본 발명의 몇몇 실시예에 따른 근력 예측 학습 모델을 설명하기 위한 도면이다.
본 명세서에서 개시되어 있는 특정한 구조적 또는 기능적 설명들은 단지 기술적 개념에 따른 실시예들을 설명하기 위한 목적으로 예시된 것으로서, 실시예들은 다양한 다른 형태로 실시될 수 있으며 본 명세서에 설명된 실시예들에 한정되지 않는다.
제1 또는 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 이해되어야 한다. 예를 들어 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 표현들, 예를 들어 "~간의"와 "바로~간의" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설시 된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 해당 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
실시예들은 퍼스널 컴퓨터, 랩톱 컴퓨터, 태블릿 컴퓨터, 스마트 폰, 텔레비전, 스마트 가전 기기, 지능형 자동차, 키오스크, 웨어러블 장치 등 다양한 형태의 제품으로 구현될 수 있다. 이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.
이하에서, 도 1 내지 도 7을 참조하여 본 발명의 몇몇 실시예에 따른 근력 예측 방법 및 장치를 설명한다.
도 1은 본 발명의 몇몇 실시예에 따른 근력 예측 시스템을 설명하기 위한 도면이고, 도 2는 근력 예측 시스템으로 입력되는 영상 데이터를 예시적으로 설명하기 위한 도면이다.
도 1을 참조하면, 본 발명의 몇몇 실시예에 따른 근력 예측 시스템(10)은 외부로부터 영상 데이터(DT_IMG) 및 상태 데이터(DT_STATUS)를 수신하고, 이에 기초하여 예측 대상자의 근력 예측 데이터(DT_PRED(MS))를 생성한다. 보다 구체적으로, 외부(예를 들어, 클라이언트 시스템 또는 클라이언트 단말)로부터 예측 대상자의 영상 데이터(DT_IMG)를 수신하고, 영상 데이터(DT_IMG)에 기초하여 예측 대상자의 근골격 모션 데이터(DT_MOTION)를 생성하고, 생성된 모션 데이터(DT_MOTION) 및 외부로부터 수신된 상태 데이터(DT_STATUS)에 기초하여 근력 예측 데이터를 생성할 수 있다.
외부로부터 수신되는 영상 데이터(DT_IMG)는, 도 2의 예시와 같이, 예측 대상자를 촬영한 영상에 관한 데이터일 수 있다. 몇몇 실시예에 따라, 영상 데이터(DT_IMG)에는 기정의된 적어도 하나의 동작을 수행한 예측 대상자의 동작 이미지 데이터를 포함할 수 있다.
근력 예측 시스템(10)은 근골격 모션 데이터 생성 시스템(100) 및 근력 예측 데이터 생성 시스템(200)을 포함할 수 있다.
근골격 모션 데이터 생성 시스템(100)은 외부로부터 수신되는 영상 데이터(DT_IMG)에 기초하여 모션 데이터(DT_MOTION)를 생성할 수 있다. 예를 들어, 근골격 모션 데이터 생성 시스템(100)은 3차원 골격 위치 예측 알고리즘이 적용되어 영상 데이터(DT_IMG)를 예측 대상자의 골격 위치를 포함하는 모션 데이터(DT_MOTION)로 변환할 수 있고, 이 때 모션 데이터(DT_MOTION)는 시간 스텝별 3차원 골격 모션일 수 있다.
근력 예측 데이터 생성 시스템(200)은 근골격 모션 데이터 생성 시스템(100)으로부터 모션 데이터(DT_MOTION)를 수신하고, 모션 데이터(DT_MOTION) 및 상태 데이터(DT_STATUS)에 기초하여 예측 대상자의 근력 상태 및 근골격 질환 상태를 나타내는 근력 예측 데이터(DT_PRED(MS))를 생성할 수 있다. 근력 예측 데이터 생성 시스템(200)에 의해 근력 예측 모델이 학습되고, 학습된 인공지능 모델에 기초하여 근력 예측 데이터(DT_PRED(MS))가 생성되는 구체적인 동작은 도 3 내지 도 7을 참조하여 상세히 후술한다.
도 3은 본 발명의 몇몇 실시예에 따른 근력 예측 데이터 생성 시스템을 설명하기 위한 도면이다.
도 3을 참조하면, 본 발명의 몇몇 실시예에 따른 근력 예측 데이터 생성 시스템(200)은 각각이 인공 신경망을 활용하여 학습 및 구동되는 근력 예측 모델 학습 장치(1000) 및 근력 예측 데이터 생성 장치(2000)를 포함할 수 있다. 인공 신경망이란 사람의 두뇌가 정보를 처리하는 방식을 모방한 연산 시스템을 의미한다.
심층 신경망(Deep Neural Network)은 인공 신경망을 구현하는 하나의 방식으로서, 복수의 레이어(layer)를 포함할 수 있다. 예를 들어, 심층 신경망은 입력 데이터가 인가되는 입력 레이어(Input Layer), 학습을 바탕으로 입력 데이터에 기반한 예측을 통해 도출된 결과 값을 출력하는 출력 레이어(Output Layer) 및 입력 레이어와 출력 레이어 사이에 다중의 은닉 레이어(Hidden Layer)을 포함한다.
심층 신경망은 정보를 처리하기 위해 이용되는 알고리즘에 따라, 컨볼루션 신경망(Convolutional Neural Network, 이하 "CNN"), 리커런트 신경망(Recurrent Neural Network, 이하 "RNN") 등으로 분류된다.
인공 신경망을 학습하는 방식을 딥러닝(Deep Learning)이라 하며, 상술한 바와 같이 딥러닝에는 CNN, RNN 방식과 같이 다양한 알고리즘이 이용될 수 있다.
이 때, 인공 신경망을 학습한다는 것은 계층간 가중치 및 바이어스 또는 인접한 계층 중 서로 다른 레이어에 속하는 복수의 뉴런들간의 가중치 및 바이어스를 결정하고 갱신하는 것을 나타낼 수 있다.
예를 들어, 복수의 계층적 구조 및 복수의 레이어들, 또는, 뉴런들 간의 가중치 및 바이어스를 총칭하여 인공 신경망의 연결성(connectivity)이라 할 수 있다. 따라서, 인공 신경망을 학습한다는 것은 연결성을 구축하고 학습하는 것을 나타낼 수 있다.
몇몇 실시예에 따라, 근력 예측 모델 학습 장치(1000)는 뉴럴 네트워크를 생성하거나, 뉴럴 네트워크를 훈련(train)(또는 학습(learn))하거나, 뉴럴 네트워크를 재훈련(retrain)하는 기능들과 같은 다양한 프로세싱 기능들을 갖는 컴퓨팅 디바이스에 해당된다. 예를 들어, 학습 데이터 생성 모델(1100)은 PC(personal computer), 서버 디바이스, 모바일 디바이스 등의 다양한 종류의 디바이스들로 구현될 수 있다.
근력 예측 모델 학습 장치(1000)는 주어진 초기 뉴럴 네트워크를 반복적으로 훈련(학습)시킴으로써, 훈련된 뉴럴 네트워크를 생성할 수 있다. 훈련된 뉴럴 네트워크를 생성하는 것은 뉴럴 네트워크 파라미터를 결정하는 것을 의미할 수 있다. 여기서, 파라미터들은 예를 들어 뉴럴 네트워크의 입/출력 액티베이션들, 웨이트들, 바이어스들 등 뉴럴 네트워크에 입/출력되는 다양한 종류의 데이터를 포함할 수 있다. 뉴럴 네트워크의 반복적인 훈련이 진행됨에 따라, 뉴럴 네트워크의 파라미터들은 주어진 입력에 대해 보다 정확한 출력을 연산하기 위해 조정될(tuned) 수 있다.
근력 예측 모델 학습 장치(1000)는 훈련된 뉴럴 네트워크를 근력 예측 데이터 생성 장치(2000)에 전달할 수 있다. 근력 예측 데이터 생성 장치(2000)는 모바일 디바이스, 임베디드(embedded) 디바이스 등에 포함될 수 있다. 근력 예측 데이터 생성 장치(2000)는 뉴럴 네트워크의 구동을 위한 전용 하드웨어일 수 있다.
근력 예측 데이터 생성 장치(2000)는 근력 예측 모델 학습 장치(1000)에 의해 훈련된 뉴럴 네트워크를 그대로 구동하거나, 훈련된 뉴럴 네트워크가 가공(예를 들어, 양자화)된 뉴럴 네트워크를 구동할 수 있다. 가공된 뉴럴 네트워크를 구동하는 근력 예측 데이터 생성 장치(2000)는, 근력 예측 모델 학습 장치(1000)와는 별도의 독립적인 디바이스에서 구현될 수 있다. 하지만 이에 제한되지 않고, 근력 예측 데이터 생성 장치(2000)는 근력 예측 모델 학습 장치(1000)와 동일한 디바이스 내에도 구현될 수 있다.
도 4는 본 발명의 몇몇 실시예에 따른 근력 예측 모델 학습 장치를 설명하기 위한 도면이다.
도 4를 참조하면, 본 발명의 몇몇 실시예에 따른 근력 예측 모델 학습 장치(1000)는 학습 데이터 생성 모델(1100), 근력 예측 학습 모델(1300) 및 학습 데이터베이스(1500)를 포함할 수 있다.
학습 데이터 생성 모델(1100)은 외부 또는 학습 데이터베이스(1500)로부터 상태 학습 데이터(DT_TN(STT1)) 및 근력 학습 데이터(DT_TN(MS))를 수신하고, 이에 기초하여 모션 학습 데이터(DT_TN(MT1))를 생성할 수 있다. 몇몇 실시예에 따라, 학습 데이터 생성 모델(1100)은 기계학습 모델이 적용될 수 있다.
학습 데이터 생성 모델(1100)로 입력되고, 생성되는 상태 학습 데이터(DT_TN(STT1)), 근력 학습 데이터(DT_TN(MS)) 및 모션 학습 데이터(DT_TN(MT1))는 학습 데이터 세트로 레이블링되고, 학습 데이터베이스(1500)에 저장될 수 있다.
근력 예측 학습 모델(1300)은 학습 데이터베이스(1500)로부터 학습 데이터 세트를 획득하고, 이에 기초하여 근력 예측 알고리즘을 학습할 수 있다. 이 때, 상태 학습 데이터(DT_TN(STT1)) 및 모션 학습 데이터(DT_TN(MT1))를 입력(Input) 데이터로 사용하고, 근력 학습 데이터(DT_TN(MS))를 라벨(Label) 데이터로 사용하여 학습할 수 있다.
즉, 학습 데이터 생성 모델(1100)은 생체 학습 데이터(), 근력 학습 데이터(DT_TN(MS)) 및 모션 학습 데이터(DT_TN(MT1))가 레이블링된 학습 데이터 세트를 생성하고, 근력 예측 학습 모델(1300)은 학습 데이터 생성 모델(1100)에 의해 생성된 학습 데이터 세트를 사용하여 근력 예측 알고리즘을 학습할 수 있다.
도 5는 본 발명의 몇몇 실시예에 따른 학습 데이터 생성 모델을 설명하기 위한 도면이다.
도 5를 참조하면, 학습 데이터 생성 모델(1100)은 근골격 시뮬레이션 데이터 생성부(1110) 및 모션 학습 데이터 생성부(1130)를 포함할 수 있고, 상태 학습 데이터(DT_TN(STT1)), 근력 학습 데이터(DT_TN(MS)) 및 모션 학습 데이터(DT_TN(MT1))로 레이블링된 학습 데이터 세트를 생성할 수 있다.
근골격 시뮬레이션 데이터 생성부(1110)는 외부 또는 학습 데이터베이스(1500)로부터 수신된 상태 학습 데이터(DT_TN(STT1)) 및 근력 학습 데이터(DT_TN(MS))에 기초하여 근골격 시뮬레이션 데이터(DT_SIM(SK))를 생성한다. 보다 구체적으로, 예측 대상자의 신체 정보 등을 포함하는 상태 학습 데이터(DT_TN(STT1))를 통해 예측 대상자에 대응되는 근골격 시뮬레이션 데이터(DT_SIM(SK))를 생성할 수 있다.
모션 학습 데이터 생성부(1130)는 기계학습을 적용하여 근골격 시뮬레이션 데이터(DT_SIM(SK))의 개별 근육들을 활성화시켜 운동 모션(예를 들어, 걷기, 뛰기, 일어나기, 앉기, 한발 서기 등)이 가능하도록 학습시킨다. 근육들이 활성화된 근골격 시뮬레이션 데이터(DT_SIM(SK))에 기정의된 타겟 동작을 적용시키고, 이에 기초하여 모션 학습 데이터(DT_TN(MT1))를 생성할 수 있다. 타겟 동작은, 예를 들어, 앉았다 일어나기, 일정 구간 달리기, 점프 동작, 한발 서기 동작 등이 될 수 있으나, 이는 예시적인 것으로 모션 학습 데이터(DT_TN(MT1))를 생성할 수 있는 다양한 동작이 적용될 수 있음은 물론이다.
근골격 시뮬레이션 데이터 생성부(1110) 및 모션 학습 데이터 생성부(1130) 각각은 인공 신경망을 구성하는 하나 이상의 네트워크(또는, 레이어)일 수 있다. 또한, 근골격 시뮬레이션 데이터 생성부(1110) 및 모션 학습 데이터 생성부(1130)는 기능 및 논리적으로 분리될 수 있음을 나타내기 위해 별도로 도면에 표시한 것이며, 물리적으로 반드시 별도의 구성요소이거나 별도의 코드로 구현되는 것을 의미하는 것은 아니다.
도 6a는 상태 데이터 또는 상태 학습 데이터를 예시적으로 설명하기 위한 도면이고, 도 6b는 근력 예측 데이터 또는 근력 학습 데이터를 예시적으로 설명하기 위한 도면이고, 도 6c 내지 도 6f는 모션 데이터 또는 모션 학습 데이터를 예시적으로 설명하기 위한 도면이다.
도 6a를 참조하면, 상태 데이터(DT_STATUS)는 예측 대상자의 복수의 신체 상태 정보(S1 내지 Sn)를 포함할 수 있다. 예를 들어, 복수의 신체 상태 정보는 예측 대상자의 신장, 체중, BMI, 체지방량, 신장 대비 하체의 비율, 팔 대비 하체의 비율, 신장 대비 팔의 비율 등일 수 있다. 다만, 이는 예시적인 것으로 모션 데이터(DT_MOTION)를 생성하기 위한 다양한 종류의 신체 정보가 포함될 수 있다. 몇몇 실시예에 따라, 상태 학습 데이터(DT_TN(STT1)) 또한 상태 데이터(DT_STATUS)와 동일한 신체 상태 정보를 포함할 수 있다.
도 6b를 참조하면, 근력 예측 데이터(DT_PRED(MS))는 복수의 활성화 값(P1 내지 Pm)을 포함할 수 있다. 각각의 활성화 값은 기정의된 복수의 관절 또는 복수의 관절들 각각에 인접하는 복수의 근육에 대응되는 활성화 값일 수 있다. 즉, 신체를 움직이게 하는 하나의 근육 그룹을 하나의 단위 객체로 보고, 하나의 활성화 값은 하나의 근육 그룹의 상태(활성도)를 결정할 수 있다.
몇몇 실시예에 따라, 근력 예측 데이터(DT_PRED(MS))에 포함되는 활성화 값은 0 내지 1의 값으로 표현될 수 있다. 예를 들어, 활성화 값이 1인 경우 설정된 근력의 최대 능력을 발휘할 수 있는 상태를 의미할 수 있다. 활성화 값이 0.5인 경우 설정된 근력의 최대치의 50%의 근력을 사용할 수 있는 상태를 나타낼 수 있다. 활성화 값이 0인 경우 해당 관절 또는 근육은 작동(활용)할 수 없는 상태임을 의미할 수 있다. 몇몇 실시예에 따라, 근력 학습 데이터(DT_TN(MS)) 또는 상술한 근력 예측 데이터(DT_PRED(MS))와 동일한 정보를 포함할 수 있다.
도 6c 내지 도 6f를 참조하면, 모션 데이터(DT_MOTION)는 관절(joint)별 각도 변화에 대한 정보를 포함할 수 있다. 근골격 모션 데이터 생성 시스템(100)은 외부로부터 수신된 영상 데이터(DT_IMG)에 기초하여 모션 데이터(DT_MOTION)를 생성할 수 있고, 이 때 모션 데이터(DT_MOTION)는 복수의 관절별 각도 변화에 대한 정보를 포함할 수 있다.
몇몇 실시예에 따라, 도시된 바와 같이, 각 관절의 각도 변화를 x, y, z축의 각도 변화를 각각 포함하는 정보를 포함할 수 있다. 즉, 하나의 관절에 대한 각도 변화에 대한 복수(예를 들어, 3개)의 정보를 포함할 수 있다. 다른 예로서, 하나의 관절에 대해 3개의 축의 각도 변화를 모두 포함하는 데이터를 포함할 수 있다.
몇몇 실시예에 따라, 모션 데이터(DT_MOTION)에 포함되는 관절 각도 변화 데이터는 t개(t는 양의 정수)의 time step으로 구성될 수 있다. 예를 들어, 10초(s) 및 64 frame/s가 적용되어 640 time step으로 구성될 수 있다.
몇몇 실시예에 따라, 모션 데이터(DT_MOTION)는 서있는(standing) 상태를 기본(default) 위치로 설정하고, 타겟 동작이 시작되고 종료되는 시간을 포함하고 학습의 조건 시간(예를 들어, 10초) 동안의 변화 값을 포함할 수 있다. 학습 데이터로 사용되는 모션 데이터(DT_MOTION)는 타겟 동작에 따른 각도 변화에 대한 시퀀스(sequence) 데이터에서 크롭(crop)하여 사용될 수 있고, 크롭 위치(시점)는 시작 지점과 종료 지점이 학습의 조건 시간 이내에 포함되는 지점이라면 임의 위치(시점)으로 적용할 수 있다.
도 7은 본 발명의 몇몇 실시예에 따른 근력 예측 학습 모델을 설명하기 위한 도면이다.
도 7을 참조하면, 근력 예측 학습 모델(1300)은 모션 데이터 학습부(1310), 상태 데이터 학습부(1330) 및 근력 예측부(1350)를 포함할 수 있고, 학습 데이터베이스(1500)로부터 학습 데이터 세트를 수신하여 근력 예측 학습을 수행할 수 있다. 구체적으로, 학습 데이터베이스(1500)로부터 모션 학습 데이터(DT_TN(MT1)), 상태 학습 데이터(DT_TN(STT1)) 및 근력 학습 데이터(DT_TN(MS))로 레이블링된 학습 데이터 세트를 획득하고, 상태 학습 데이터(DT_TN(STT1)) 및 모션 학습 데이터(DT_TN(MT1))를 입력 데이터로 사용하고 근력 학습 데이터(DT_TN(MS))를 라벨 데이터로 사용하여 학습을 수행할 수 있다.
몇몇 실시예에 따라, 모션 데이터 학습부(1310)는 RNN 또는 CNN을 활용하여 학습할 수 있는 학습 네트워크로 구성되어 모션 학습 데이터(DT_TN(MT1))를 가공하여 모션 학습 데이터(DT_TN(MT2))를 생성할 수 있다. 상태 데이터 학습부(1330)는 Linear Neural Network를 활용하여 학습할 수 있는 학습 네트워크로 구성되어 상태 학습 데이터(DT_TN(STT1))를 가공하여 상태 학습 데이터(DT_TN(STT2))를 생성할 수 있다.
근력 예측부(1350)는 모션 학습 데이터(DT_TN(MT2)) 및 상태 학습 데이터(DT_TN(STT2))를 입력 데이터로 사용하고, 근력 학습 데이터(DT_TN(MS))를 라벨 데이터로 사용하여 학습할 수 있다.
모션 데이터 학습부(1310), 상태 데이터 학습부(1330) 및 근력 예측부(1350) 각각은 인공 신경망을 구성하는 하나 이상의 네트워크(또는, 레이어)일 수 있다. 또한, 모션 데이터 학습부(1310), 상태 데이터 학습부(1330) 및 근력 예측부(1350)는 기능 및 논리적으로 분리될 수 있음을 나타내기 위해 별도로 도면에 표시한 것이며, 물리적으로 반드시 별도의 구성요소이거나 별도의 코드로 구현되는 것을 의미하는 것은 아니다.
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 컨트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 컨트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.
10: 근력 예측 시스템
100: 근골격 모션 데이터 생성 시스템
200: 근력 예측 데이터 생성 시스템
1000: 근력 예측 모델 학습 장치
1100: 학습 데이터 생성 모델
1110: 근골격 시뮬레이션 데이터 생성부
1130: 모션 학습 데이터 생성부
1300: 근력 예측 학습 모델
1310: 모션 데이터 학습부
1330: 상태 데이터 학습부
1350: 근력 예측부
1500: 학습 데이터베이스
2000: 근력 예측 데이터 생성 장치

Claims (10)

  1. 근력 예측 시스템에 의해 예측 대상자의 모션 데이터 및 상기 예측 대상자의 상태 데이터를 수신하는 단계; 및
    근력 예측 시스템에 의해 상기 모션 데이터 및 상기 상태 데이터에 기초하여 근력 예측 데이터를 생성하는 단계를 포함하되,
    상기 근력 예측 데이터를 생성하는 단계는,
    기계 학습 기반의 학습 데이터 생성 모델에서, 상태 학습 데이터 및 근력 학습 데이터에 기초하여 모션 학습 데이터를 생성하는 단계;
    상기 상태 학습 데이터, 상기 근력 학습 데이터 및 상기 모션 학습 데이터가 레이블링된 학습 데이터 세트를 학습 데이터베이스에 저장하는 단계;
    근력 예측 학습 모델에서, 상기 학습 데이터 세트를 상기 학습 데이터베이스로부터 획득하고, 상기 상태 학습 데이터 및 상기 모션 학습 데이터를 입력(Input) 데이터로 사용하고 상기 근력 학습 데이터를 라벨(Label) 데이터로 사용하여 학습하는 단계; 및
    근력 예측 데이터 생성 장치에서, 상기 근력 예측 학습 모델에서 학습된 모델에 기초하여 상기 근력 예측 데이터를 생성하는 단계
    를 포함하고,
    상기 모션 학습 데이터는 관절별 각도 변화에 대한 정보를 포함하고,
    상기 근력 학습 데이터는 복수의 관절들 각각에 인접하는 복수의 근육들의 활성화 값으로 생성되는 인공지능 기반의 근력 예측 방법.
  2. 청구항 1에 있어서,
    상기 모션 학습 데이터를 생성하는 단계는,
    근골격 시뮬레이션 데이터 생성부에서, 상기 상태 학습 데이터 및 상기 근력 학습 데이터에 기초하여 근골격 시뮬레이션 데이터를 생성하는 단계; 및
    상기 근골격 시뮬레이션 데이터에 기초하여 상기 모션 학습 데이터를 생성하는 단계
    를 포함하는 인공지능 기반의 근력 예측 방법.
  3. 청구항 2에 있어서,
    상기 근골격 시뮬레이션 데이터에 기초하여 상기 모션 학습 데이터를 생성하는 단계는,
    모션 학습 데이터 생성부에서, 상기 근골격 시뮬레이션 데이터에 기정의된 적어도 하나의 타겟 동작을 적용시키는 단계; 및
    상기 모션 학습 데이터 생성부에서, 상기 타겟 동작이 적용된 상기 근골격 시뮬레이션 데이터에 기초하여 상기 모션 학습 데이터를 생성하는 단계
    를 포함하는 인공지능 기반의 근력 예측 방법.
  4. 청구항 3에 있어서,
    상기 모션 학습 데이터는 상기 타겟 동작이 적용되는 구간에서의 타겟 관절의 각도에 대한 데이터이고,
    상기 근력 학습 데이터는, 상기 타겟 관절에 인접하는 근육의 활성화 값으로 생성되는 인공지능 기반의 근력 예측 방법.
  5. 청구항 4에 있어서,
    상기 모션 학습 데이터는, 상기 타겟 동작이 적용되는 구간에서의 상기 타겟 관절의 각도의 변화에 대한 데이터인, 인공지능 기반의 근력 예측 방법.
  6. 삭제
  7. 청구항 1에 있어서,
    상기 상태 학습 데이터는 신장, 몸무게, BMI, 체지방량, 신장 대비 하체의 비율, 팔 대비 하체의 비율 및 신장 대비 팔의 비율 중 적어도 하나의 정보가 포함되는, 인공지능 기반의 근력 예측 방법.
  8. 청구항 1에 있어서,
    상기 근력 학습 데이터는 0 내지 1의 범위를 갖는 근육의 활성화 값으로 생성되되,
    상기 상태 학습 데이터에 기초하여 결정되는 최대 근력이 1로 정의되고, 상기 상태 학습 데이터 및 상기 모션 학습 데이터에 기초하여 판단되는 근력을 상기 최대 근력과 비교하여 상기 근력 학습 데이터를 결정하는, 인공지능 기반의 근력 예측 방법.
  9. 청구항 1에 있어서,
    상기 모션 데이터 및 상기 상태 데이터를 수신하는 단계는,
    상기 예측 대상자의 영상 데이터 및 상기 상태 데이터를 수신하는 단계;
    상기 영상 데이터에 기초하여, 상기 예측 대상자의 골격 위치를 결정하는 단계; 및
    상기 결정된 골격 위치에 기초하여 상기 모션 데이터를 결정하는 단계
    를 포함하는 인공지능 기반의 근력 예측 방법.
  10. 하드웨어와 결합되어 청구항 1 내지 5와 7 내지 9 중 어느 하나의 항의 방법을 실행시키기 위하여 컴퓨터 판독 가능한 기록 매체에 저장된 컴퓨터 프로그램.
KR1020210058466A 2021-05-06 2021-05-06 인공지능 기반의 근력 예측 방법 및 장치 KR102529726B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210058466A KR102529726B1 (ko) 2021-05-06 2021-05-06 인공지능 기반의 근력 예측 방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210058466A KR102529726B1 (ko) 2021-05-06 2021-05-06 인공지능 기반의 근력 예측 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20220151340A KR20220151340A (ko) 2022-11-15
KR102529726B1 true KR102529726B1 (ko) 2023-05-08

Family

ID=84041693

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210058466A KR102529726B1 (ko) 2021-05-06 2021-05-06 인공지능 기반의 근력 예측 방법 및 장치

Country Status (1)

Country Link
KR (1) KR102529726B1 (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102140229B1 (ko) * 2020-01-31 2020-07-31 이경석 운동기능 평가 시스템 및 방법

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102251925B1 (ko) 2019-07-18 2021-05-13 경상국립대학교 산학협력단 근골격계 이상예측장치 및 어플리케이션

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102140229B1 (ko) * 2020-01-31 2020-07-31 이경석 운동기능 평가 시스템 및 방법

Also Published As

Publication number Publication date
KR20220151340A (ko) 2022-11-15

Similar Documents

Publication Publication Date Title
Rane et al. Deep learning for musculoskeletal force prediction
KR101986002B1 (ko) 행동-인식 연결 학습 기반 의도 이해 장치, 방법 및 그 방법을 수행하기 위한 기록 매체
US10130311B1 (en) In-home patient-focused rehabilitation system
Helaoui et al. A probabilistic ontological framework for the recognition of multilevel human activities
JP2022530868A (ja) 機械学習に基づくターゲットオブジェクト属性予測方法、関連機器及びコンピュータプログラム
JP2022082464A (ja) ロボットの変換器を基盤としたメタ模倣学習
Saranya et al. FIGS-DEAF: An novel implementation of hybrid deep learning algorithm to predict autism spectrum disorders using facial fused gait features
KR102529726B1 (ko) 인공지능 기반의 근력 예측 방법 및 장치
Trifonov et al. Human–Machine Interface of Rehabilitation Exoskeletons with Redundant Electromyographic Channels
JP2021140749A (ja) 人間の知能を人工知能に移植するための精密行動プロファイリングのための電子装置およびその動作方法
Kolonin Neuro-symbolic architecture for experiential learning in discrete and functional environments
Abdi et al. Muscle excitation estimation in biomechanical simulation using NAF reinforcement learning
Camardella et al. A Random Tree Forest decision support system to personalize upper extremity robot-assisted rehabilitation in stroke: A pilot study
KR102546807B1 (ko) 대변 이미지 분석 기반 영양 정보 제공 방법, 장치 및 시스템
Yu et al. A Control and Posture Recognition Strategy for Upper‐Limb Rehabilitation of Stroke Patients
KR102182807B1 (ko) 순환 신경망과 가우시안 프로세스를 이용한 복합 모델 장치 및 그 동작 방법
Zhong Reliable deep learning for intelligent wearable systems
Dorschky Optimal Control and Machine Learning in Biomechanics: Hybrid Models for Inertial Sensor-based Gait Analysis and Virtual Footwear Testing
KR102514799B1 (ko) 일반화 가능한 인간 모사형 강화학습 알고리즘 설계를 위한 정책 신뢰도, 정보처리 효율 및 일반화 능력의 정량화 방법 및 장치
Sun et al. Physical based motion reconstruction from videos using musculoskeletal model
CN117875407B (zh) 一种多模态持续学习方法、装置、设备及存储介质
KR20230053828A (ko) 영상 데이터에 기초한 근력 예측 데이터 생성 방법 및 장치
Zhang et al. Predict Hip Joint Moment Using CNN for Hip Exoskeleton Control
Lovanshi et al. 3D Skeleton-Based Non-Autoregressive Human Motion Prediction Using Encoder-Decoder Attention-Based Model
Weidler et al. AngoraPy: A Python toolkit for modeling anthropomorphic goal-driven sensorimotor systems

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant