CN112970074A - 身体活动量化和监测 - Google Patents
身体活动量化和监测 Download PDFInfo
- Publication number
- CN112970074A CN112970074A CN201980072574.0A CN201980072574A CN112970074A CN 112970074 A CN112970074 A CN 112970074A CN 201980072574 A CN201980072574 A CN 201980072574A CN 112970074 A CN112970074 A CN 112970074A
- Authority
- CN
- China
- Prior art keywords
- state
- physical activity
- determining
- states
- critical
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000037081 physical activity Effects 0.000 title claims abstract description 212
- 238000012544 monitoring process Methods 0.000 title claims description 14
- 238000011002 quantification Methods 0.000 title description 3
- 230000033001 locomotion Effects 0.000 claims abstract description 168
- 238000000034 method Methods 0.000 claims abstract description 140
- 230000004069 differentiation Effects 0.000 claims abstract description 72
- 238000012545 processing Methods 0.000 claims description 45
- 230000000386 athletic effect Effects 0.000 claims description 8
- 238000012549 training Methods 0.000 description 35
- 230000000694 effects Effects 0.000 description 23
- 230000015654 memory Effects 0.000 description 15
- 230000006870 function Effects 0.000 description 13
- 238000000554 physical therapy Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 12
- 238000004458 analytical method Methods 0.000 description 9
- 238000003860 storage Methods 0.000 description 8
- 230000007704 transition Effects 0.000 description 8
- 239000013598 vector Substances 0.000 description 7
- 230000009471 action Effects 0.000 description 5
- 238000011161 development Methods 0.000 description 5
- 239000003550 marker Substances 0.000 description 5
- 239000000203 mixture Substances 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 238000005259 measurement Methods 0.000 description 4
- 208000027418 Wounds and injury Diseases 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 230000006378 damage Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 210000003414 extremity Anatomy 0.000 description 3
- 208000014674 injury Diseases 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 230000004907 flux Effects 0.000 description 2
- 238000009472 formulation Methods 0.000 description 2
- 210000002414 leg Anatomy 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000011084 recovery Methods 0.000 description 2
- 230000003252 repetitive effect Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000007619 statistical method Methods 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 208000031074 Reinjury Diseases 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 210000000746 body region Anatomy 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000013075 data extraction Methods 0.000 description 1
- 238000013499 data model Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000001747 exhibiting effect Effects 0.000 description 1
- 230000005021 gait Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000003064 k means clustering Methods 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012067 mathematical method Methods 0.000 description 1
- 230000037230 mobility Effects 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 238000012567 pattern recognition method Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/50—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/30—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Medical Informatics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Social Psychology (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Psychiatry (AREA)
- Biomedical Technology (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Pathology (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- Optics & Photonics (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
某些方面提供了一种生成身体活动模型的方法,其包括:经由运动捕获装置接收对应于与身体活动序列相关联的多个关键状态的运动数据;对于所述多个关键状态中的每个相应关键状态:确定与所述相应关键状态相关联的多个关节位置;基于所述多个关节位置,确定与所述相应关键状态相关联的多个体段位置;确定所述相应关键状态的多个状态间分化变量;确定所述相应关键状态的一个或多个状态特征度量;以及基于所述一个或多个状态特征度量确定所述相应关键状态的分类器;以及基于所述一个或多个状态特征度量和与每个关键状态相关联的分类器,定义身体活动模型。
Description
相关申请的交叉引用
本申请要求2019年10月15日提交的美国专利申请第16/653,153号的优先权,后者要求2018年11月15日提交的美国临时专利申请第62/768,012号的权益,每个专利申请的全部内容以引用的方式并入本文中。
背景技术
本公开的各方面涉及用于基于运动数据量化和监测身体活动的***和方法,并且具体地涉及基于从运动跟踪***捕获的运动数据生成身体活动模型。
在身体康复环境中,患者通常被开具物理治疗,所述物理治疗可以包括特定的身体活动,例如针对特定四肢和关节的特定运动的锻炼。通常,向患者提供关于何时以及如何进行身体活动的书面指导(例如,每十二小时重复特定锻炼一定次数)。以往,患者也需要去理疗诊所,或者让临床医生去家里,以监测他们的物理治疗并获得反馈和指导,以最大限度地提高对其物理治疗的依从性。此类现场监测通常例如通过确保物理治疗得到正确且一致地执行而改善物理治疗的功效。然而,这种常规做法是耗时的、昂贵的且在组织上具有挑战性。此外,对于行动能力或经济能力有限的人,可能无法获得诊所或家庭物理治疗指导。虽然患者可以在没有专业支持的情况下自行进行规定的物理治疗,但无法保证患者会遵循指示并使用适当的形式—这对于规定的物理治疗的功效至关重要。实际上,未得到支持的物理治疗经常导致较差的患者结果、再次受伤的可能性更高等。
值得注意的是,在物理治疗环境中面临的相同问题存在于其它环境中,例如用于改进表现而不是损伤恢复的身体素质训练、在运动员进行各种运动的训练中,以及在身体运动的一致性和质量可改善期望结果的任何其它环境中。
因此,需要用于量化地定义身体活动的***和方法,其可以进行自动监测和反馈而无需现场人员。
发明内容
某些实施例提供了一种生成身体活动模型的方法,其包括:经由运动捕获装置接收对应于与身体活动序列相关联的多个关键状态的运动数据;对于所述多个关键状态中的每个相应关键状态:确定与所述相应关键状态相关联的多个关节位置;基于与所述相应关键状态相关联的多个关节位置,确定与所述相应关键状态相关联的多个体段位置;以及基于以下中的一者或多者确定所述相应关键状态的多个状态间分化变量:与所述相应关键状态相关联的多个关节位置,或者与所述相应关键状态相关联的多个体段位置;基于与所述相应关键状态相关联的多个状态间分化变量,确定所述相应关键状态的一个或多个状态特征度量;以及基于所述一个或多个状态特征度量确定所述相应关键状态的分类器;以及基于所述一个或多个状态特征度量和与每个关键状态相关联的分类器,定义身体活动模型。
另外的实施例提供了一种处理***,其包括:非暂时性计算机可读介质,所述非暂时性计算机可读介质包括计算机可执行指令;以及处理器,所述处理器被配置成执行所述计算机可执行指令并且使所述处理***执行生成身体活动模型的方法,所述方法包括:经由运动捕获装置接收对应于与身体活动序列相关联的多个关键状态的运动数据;对于所述多个关键状态中的每个相应关键状态:确定与所述相应关键状态相关联的多个关节位置;以及基于与所述相应关键状态相关联的多个关节位置,确定与所述相应关键状态相关联的多个体段位置;基于以下中的一者或多者确定所述相应关键状态的多个状态间分化变量:与所述相应关键状态相关联的多个关节位置,或者与所述相应关键状态相关联的多个体段位置;基于与所述相应关键状态相关联的多个状态间分化变量,确定所述相应关键状态的一个或多个状态特征度量;以及基于所述一个或多个状态特征度量确定所述相应关键状态的分类器;以及基于所述一个或多个状态特征度量和与每个关键状态相关联的分类器,定义身体活动模型。
另外的实施例提供了一种用于使用身体活动模型的方法,其包括:从运动捕获装置接收运动数据;向身体活动模型提供所接收的运动数据,其中所述身体活动模型包括:多个分类器,其中所述多个分类器中的每个分类器与身体活动的关键状态相关联;以及多个状态特征度量,其中所述多个状态特征度量中的每个状态特征度量与所述多个分类器中的一个或多个分类器相关联;从所述身体活动模型接收多个得分,其中所述多个得分中的每个得分与所述多个分类器中的一个分类器相关联;以及基于所述多个得分确定关键状态表示在所接收的运动数据中。
其它实施例包括非暂时性计算机可读介质,所述非暂时性计算机可读介质包括用于执行前述过程和本文所述的额外过程的计算机可执行指令,以及被配置成执行前述过程和本文所述的额外过程的处理***。
以下描述和相关附图详细阐述了一个或多个实施例的某些说明性特征。
附图说明
附图描绘了一个或多个实施例的某些方面,因此不应被视为限制本公开的范围。
图1描绘了创建和使用身体活动模型的示例流程。
图2描绘了来自运动捕获***的示例输出,其示出了两个身体活动状态之间的差异。
图3描绘了确定可用于区分身体活动的关键状态的候选状态间分化变量的示例。
图4描绘了基于多个关键状态训练身体活动模型的示例。
图5描绘了使用身体活动模型来确定身体活动状态概率的示例。
图6描绘了跟踪定义的身体活动状态序列的示例。
图7描绘了用于记录训练数据以用于身体活动模型开发的示例用户界面。
图8描绘了在训练数据记录过程期间的示例用户界面的另一视图。
图9描绘了其中显示各种状态特征度量的用户界面的一部分。
图10描绘了处于活动跟踪模式的示例图形用户界面。
图11描绘了处于活动跟踪模式的示例图形用户界面的另一视图。
图12描绘了处于活动跟踪模式的示例图形用户界面的另一视图。
图13描绘了用于训练身体活动模型的示例方法。
图14描绘了使用身体活动模型的示例方法1400。
图15描绘了被配置成生成和使用身体活动模型的示例处理***1500。
为了便于理解,在可能的情况下,相同的附图标记已用于标示附图共有的相同元件。可以设想,一个实施例的元件和特征可以有利地并入到其它实施例中,不再进一步叙述。
具体实施方式
本公开的各方面提供了用于基于所捕获的运动数据量化地定义和监测身体活动的设备、方法、处理***和计算机可读介质。
通常,身体活动可包括体力活动,该体力活动包括受试者身体状态的时间序列。身体活动可以采取许多不同的形式。例如,身体活动可包括为了发展、改进或显示身体能力或技能而进行或练习的锻炼或其它规定的运动。
与身体活动相关联的状态或活动状态通常可以包括受试者身体的特定位置、姿态或举止,无论是特征性的还是出于特殊目的而呈现的。定义身体活动的状态序列中的一个或多个状态可被视为关键状态,该关键状态是部分地定义身体活动的特定状态。确定特定的关键状态对于确保用于状态分化的适当身体活动模型制定是有用的。
例如,坐下的身体活动可以具有站立的第一关键状态和坐下的第二关键状态。站立与坐下之间的状态可以不被视为是“关键的”,因为它们对于定义坐下的整个身体活动可能不重要。关键状态可以由诸如培训师、临床医生、医生等的专家确定,或者基于对与身体活动相关联的状态的时间序列的分析来确定。例如,特定体段或关节的运动路径期间的拐点可以指示特定身体活动的关键状态。
在某些情况下,身体活动还可以由时间规范限定,例如需要在指定时间内从一种状态移动到另一种状态,或者需要在指定时间内保持一种状态,仅举几个示例。
身体活动状态序列中的每个状态可以参考受试者身体的个别区段或部分来定义,所述区段或部分是例如受试者的头部、颈部、躯干、手臂、手、手指、腿、脚、骨骼和其它。身体活动还可以由关节来定义,所述关节通常是两个邻接的体段之间的连接点,其允许一个区段相对于另一连接区段的某种铰接。在一些情况下,与受试者相关联的个别区段和关节可以组合以形成数字身体表示(例如,骨架表示)或其它更具有特征的表示(例如,虚拟形象)。
可以通过运动捕获、运动监测、运动跟踪等过程捕获和数字化身体活动状态序列,所述过程通常是指使用各种电子传感器生成关于受试者的运动学运动和静态姿态的数据的过程。通常,运动跟踪***可包括被配置成监测受试者的身体活动(例如,运动、锻炼等)的硬件和软件部件。在一些实施例中,运动捕获装置可包括具有图像处理的光学相机***、具有各种标记(有源、无源、半有源、调制)和检测器(光学、射频)类型的基于标记的跟踪***、具有目标识别算法的深度相机***、惯性测量单元、机械外骨架运动捕获***或磁通量测量***,仅举几个示例。运动跟踪***的一个示例是由提供的传感器及其相关联的姿态检测软件。
可以比较身体活动状态序列中的状态以生成状态分化变量。例如,可以基于体段和关节来定义多个候选状态间分化变量,以便识别或改进对身体活动的状态(包括关键状态)之间的差异的识别。在一些实施例中,可以测试多个候选状态间分化变量以确定状态间分化变量的子集,该子集对于识别所捕获的运动数据中的特定状态(例如,关键状态)最有效。所选子集的状态间分化变量可以被称为状态特征度量,其通常由身体活动模型用于识别和跟踪运动数据中的身体活动的关键状态。
可以例如通过捕获以指定方式进行身体活动的专业人员的运动数据,并且随后基于所捕获的运动数据定义该身体活动的关键状态来定义理想的身体活动序列。如上文所述,关键状态可以由例如专业人员手动定义,或通过分析在进行理想身体活动序列期间所捕获的运动数据中的变量的变化来自动定义。此外,在一些实施方式中,关键状态可以在没有采集的运动捕获数据的样本的情况下用数字定义,例如通过使用骨架数据模型来定义。
一旦已通过量化定义了身体活动,如上文所述,就可以生成身体活动模型以确定(例如,认出或识别)所捕获的运动数据中的身体活动的状态,例如关键状态。此外,身体活动模型可以将确定的状态与理想的身体活动状态序列的状态进行比较,以对受试者的身体活动表现“评分”和/或向受试者提供关于身体活动表现质量的实时反馈。这实际上使得无需现场专业人员即可对受试者进行实时监测和反馈。
在一些实施例中,身体活动模型包括一个或多个分类器,该一个或多个分类器被配置成确定特定状态表示在所捕获的运动数据中的概率。此外,对于身体活动模型的每个分类器,分类器置信度可以被确定为定量评估,该定量评估与分类器在确定所捕获的运动数据的正确状态、分类或类别时的表现对应。通过身体活动模型确定特定状态还可以使得确定包括一些或全部所确定的状态的定义的身体活动表示在所捕获的运动数据中。
在一些实施例中,如上文所述,身体活动模型还包括一个或多个状态特征度量。分类器和状态特征度量的组合使得单个身体活动模型能够生成关于所捕获运动数据中的多个定义的状态和身体活动的预测。
捕获用于量化和监测身体活动的运动数据
在本文所述的实施例中,身体活动监测***被配置成捕获关于受试者的身体活动(例如,执行作为锻炼的一部分的特定运动或运动序列)的运动数据,将所捕获的运动数据与一个或多个定义的身体活动模型进行量化比较,以及提供关于受试者的身体活动的实时监测和反馈。值得注意的是,这可以在不需要诸如医生、临床医生、教练、培训师等现场专业人员的情况下完成。即使没有现场专业人员,本文所述的实施例也使得场外专业人员能够例如查看所捕获的运动数据,查看由一个或多个身体活动模型生成的监测数据,以及查看***基于监测数据生成的反馈,以进一步改进对受试者的反馈。
图1描绘了用于生成和使用身体活动模型的示例流程100。
流程100开始于步骤102,捕获与身体活动的关键状态相关联的运动数据。如上文所示,关键状态可包括特定身体姿态以及姿态中的时间的特定时间方面以及姿态之间的过渡时间。
在一些实施例中,关键状态可以由专业人员定义并由专业人员执行,以便通过所捕获的运动数据量化地定义身体活动。在其它实施例中,关键状态可以基于所捕获的运动数据,例如通过识别暂停、过渡序列或一个关键状态正过渡到另一关键状态的其它指示来自动地确定。
在一个示例中,在康复环境中,培训师(例如,专家从业者,可能为临床医师)可以预定义包括时间特征的关键状态序列,然后在运动捕获装置前方演示关键状态序列。运动捕获装置在培训师执行活动时记录其关节位置。因此,可以从活动的连续执行状态中选择关键状态,而不使培训师静态地保持某姿态。在一些实施例中,可以基于其中特定活动重复一次或多次的运动数据序列来计算关键状态。
在一些实施例中,由运动捕获***捕获的运动数据可用于确定多个关节位置的坐标,可以根据所述多个关节位置的坐标确定体段(例如,四肢)以创建骨架模型或在执行身体活动期间重建培训师的运动。在一些实施例中,每个体段被定义为区分关节之间的长度,并且可以进一步限定单位矢量,其给出体段在坐标框架中的取向。在一些实施例中,也可以基于使用矢量数学比较邻接的体段矢量的单位矢量来计算关节角。
在本文中,绝对关节位置和相对关节位置被描述为跟踪受试者运动状态的一种方式。然而,本文所述的方法与状态的任何数学表示都相容,包括体段、关节位置和其它身体特征。此外,各种方法或方法的组合可以表示状态,包括:肢体取向、身体伸展、使用旋转矩阵或四元组的身体运动学模型、身体轮廓、身体3D点云空间分布度量、参数方法,如高斯和(SoG)表示及其它。换句话说,不必仅将状态表示为一组关节位置。
在一些实施例中,基于不直接提供关节位置的跟踪数据,使用数学运算得出受试者的关节位置。例如,3D点云***可能不会固有地提供关节位置,但可以使用机器学习方法从3D点云获取关节位置。类似地,基于标记的***可能并不总是在关节处具有标记,但是在给定传感器的位置的情况下,可以使用身体的运动学模型来找出关节位置。
在某些情况下,记录来自多个受试者的训练数据(在步骤102处)和/或使用多个跟踪方法或装置记录训练数据可能是有利的。对于不同身材和身形的受试者,并且取决于所使用的运动捕获装置,可以在关键状态中发现不同。使训练数据多样化可以有益地为用于模型制定的姿态变量提供更宽范围的可接受值,并且因此可以使得对于不同受试者有更稳健的跟踪性能。下文图7、8、10、11和12描绘了同时利用两种不同的运动捕获装置捕获运动数据的示例。
在步骤104处,基于在步骤102中捕获的关键状态运动数据确定一个或多个候选状态间分化变量。
在一个实施例中,在与身体活动相关联的状态的时间序列中的每个关键状态处,可以从量化变量(例如,举几个示例,关节角、体段单位矢量取向和特定关节之间的距离)生成一组候选状态间分化变量。
在步骤106处,可以基于一个或多个候选状态间分化变量来训练一个或多个分类器。
在一个实施例中,可以训练分类器以分析在步骤104中生成的所有候选状态间分化变量。用于训练分类器的方法可包括例如仅举几个示例线性和非线性回归技术、监督机器学习技术、曲线拟合,和聚类技术(例如,高斯混合模型(GMM)和k均值)。
在分类器的训练期间,可以将给定状态下的每个候选状态间分化变量的值与来自身体活动中的所有其它状态的值的组合进行比较。在一个实施例中,可以训练与每个个别关键状态相关联的分类器,以通过将其自身与活动序列中的所有其他关键状态的组合进行比较来生成预测分类。因此,分类器可以提供分类置信水平的连续定量测量,该分类置信水平可用于在跟踪受试者运动期间确定关键状态实现。
在一些实施例中,使用例如分类器结果和关于状态之间的相应候选状态间分化变量值的相对变化的信息来评估每个相应候选状态间分化变量的统计显著性。在一些实施例中,可以基于每个状态间分化变量的显著性分析来选择状态特征度量的子集(步骤108)并将其保留在身体活动模型110中。基于显著性分析减少状态间分化变量可以有益地减少与身体活动模型相关联的计算资源需求,并且因此使得身体活动模型能够在例如便携式电子装置的低功率装置上运行。然而,如果例如计算效率不是考虑因素,并且如果每个状态间分化变量是不同状态的统计显著性判别因素,则可以将状态间分化变量的完整集合用作状态特征度量。
注意,虽然在此示例中描述了分类器,但可以使用和设计其它类型的数学方法,例如上述那些,以执行类似功能。
在步骤106中,分类器训练的结果是在步骤108处识别一个或多个状态特征度量。在此示例中,状态特征度量被配置成结合训练过的分类器用作身体活动模型110的一部分,以便例如在步骤114中识别运动数据中的关键状态。值得注意的是,识别运动数据中的关键状态可以基于运动数据中存在关键状态的似然性或概率计算。在某些情况下,可以将似然度量与阈值进行比较,以确定关键状态是否在运动数据中。下文关于图4的描述提供了关于身体活动模型生成的额外细节。
一旦例如通过训练过的分类器和状态特征度量生成了身体活动模型110,其就可以用来跟踪另一受试者的运动,以识别该运动中的关键状态,并相比于理想的身体活动状态序列量化所观察到的身体活动的表现(例如,通过参考其关键状态),例如在步骤102-108中可能确定的。例如,身体活动模型110可用于监测在家中进行物理治疗的患者112。
例如,受试者112可以在运动捕获装置前方执行规定的身体活动,使得在步骤114处采集运动捕获数据。然后,在步骤116处,可以使用运动捕获数据来计算(在步骤108中定义的)状态特征度量,在步骤118处,由身体活动模型110经由训练过的分类器产生一个或多个状态分类估计值。在一些实施例中,分类器结果可以是代表身体活动模型110对受试者(例如,在此示例中是患者112)当前正在执行与每个特定分类器相关联的关键状态的置信度的概率值。
可在(例如,患者112的)身体活动的连续运动的整个过程中监测每个分类器的输出,并且可以记录峰值概率值。此外,当患者112移动通过状态序列时,对照阈值检查每个顺序状态的概率。如果每种状态的峰值概率值高于此阈值,则可以确定受试者已完成规定锻炼的成功重复,并且可以在步骤120处更新重复***。在一些实施例中,阈值是预定的,而在其它实施例中,可以动态地计算该阈值。例如,阈值可以随着重复次数的增加,或者随着训练方案的进行而随时间变化。此外,阈值可以动态地响应患者的表现,使得其随着患者变得更好或与运动更一致而增加,或者替代地如果患者表现不佳则减小。这些只是几个示例。
值得注意的是,虽然在图1的描述中并且贯穿全文使用锻炼作为一个示例背景,但是本文所述的方法适用于任何类型的身体活动。这包括对体育活动训练、健身方案和运动科学研究的生物力学分析,例如训练适当的形式或检测关键运动。本文所述的方法还可用于临床科学,例如姿势、平衡、步态和运动控制的分析。此外,本文所述的方法可用于虚拟现实、游戏应用、机器人、制造应用和人体工程学研究中的手势/姿势识别和检测。此外,本文所述的状态识别模型还可以应用于心理学研究,以分析行为和身体反应。
图1中描绘的流程100呈现了优于常规***和方法的许多优点。例如,在流程100中,适合特定结束任务要求的特定的一组分类器可用于建模活动,而无需对所呈现的方法进行任何改变。例如,如果需要状态分类的似然估计值,则可以实施统计概率模型以在跟踪活动时输出置信水平。此外,各种分类器可以提供关于受试者的重复跟踪和总体表现的附加信息。
此外,本文中所述的身体活动模型可产生连续值输出,其可用于跟踪状态之间的进展。这可以为受试者提供关于其活动进展的实时反馈,并且可以用作指导以确定他们必须移动多远以实现期望的状态姿势。
身体活动模型结果还可以用于提供风险预测,并允许谨慎反馈以防止在活动期间的潜在受伤。以此方式,实时身体活动模型反馈可以降低被监测的体段和关节角的过度伸展的风险。一旦已经达到预期状态,受试者更可能停止其运动,并且在提供实时反馈时不会用力过度。
此外,可以使用来自不同受试者和不同装置的数据的集合来训练本文所述的身体活动模型,以产生更稳健的监测结果。
如本文所述,状态特征度量的识别可基于每个候选状态间分化变量的统计显著性而自动进行。这克服了在常规方法中手动识别度量的艰巨任务。
此外,可以使用状态之间的统计推断关系自动地制定本文所述的身体活动模型。常规方法更多地依赖于启发式方法,其利用基于模型演示者的经验观察而手动设置的离散状态识别阈值。本文所述的概率分类器方法还可以去除活动模型创建器的潜在偏差,并且产生统计上更显著的活动跟踪方法。
此外,本文所述的身体活动模型受益于其从所记录的活动的实际全部表现的直接推导。从真实活动生成身体活动模型明显地比启发式方法快,启发式方法需要模型开发期间的试错方法。
此外,如果需要进行轻微的修改,那么本文所述的身体活动模型是容易调节的。例如,可以执行模型参数化,并且可以缩放模型的分类器公式以使用相同的训练数据集跟踪具有不同运动范围的活动。此外,在模型制定期间,用户可以细化状态特征度量列表以更加注重跟踪更受关注的体段,如图9中所描绘的。此外,如上所述,随着例如恢复方案的进展或所测量的表现的改善,实现关键状态的阈值可以随时间动态地改变,以便提高运动的严格性。
尽管图1描绘了一个示例实施方式,但是有各种方式来实施本文所述的方法。
例如,不需要专业人员或其它用户明确演示每个关键状态的方法。替代地,可以从对运动捕获数据的分析用算法确定关键状态。
作为另一示例,身体活动模型还可用于检测受试者在活动序列期间应当避免的错误位置。在这方面,可以使用来自所记录的错误姿势的运动数据来训练身体活动模型,并且制定身体活动模型以识别受试者何时到达此类不期望的位置。这些姿态可包括可能导致受伤或涉及不正确的身体区域的位置。
作为另一示例,本文所述的身体活动模型可用于患者筛选。例如,具有运动范围受限或与常见疾病相关联的某些关节不灵活的问题的患者可以可辨别的方式执行身体活动。可基于来自不同类型的受试者的训练数据来制定识别模型,以检测患者可能表现的某些病症。
此外,本文所述的身体活动模型可以被配置成跟踪活动集的全过程内的活动进展和依从性。连续值模型输出可用于确定受试者是否真正完成规定的身体活动所需的全部运动范围。为此,受试者在身体活动过程中的进展可以被监测,并且最终用于改变规定的活动。
如上所述,身体活动模型的制定通常可能需要关于关键状态的量化信息。该数据可以来自除了基于光学的运动捕获来源之外的不同来源或方法。运动捕获装置可包括具有图像处理的光学相机***、具有各种标记(有源、无源、半无源、调制)和检测器(光学、射频)类型的基于标记的跟踪***、具有目标识别算法的深度相机***、惯性测量单元(IMU)、机械外骨骼运动捕获***,或磁通量测量***,或那些***的组合。其它潜在来源包括但不限于数据提取型处理方法,其比较数据的连续帧以确定差异。深度相机和/或点云映射也可用于提取关于不同状态的信息。
在一些实施例中,身体活动模型可以由在各种其它坐标空间而不是本文大体描述的三维(3D)空间中表示的数据来制定。例如,可以从图像处理技术中提取二维(2D)数据,或者3D运动捕获装置可以将所捕获的运动数据投影到2D平面上。
虽然身体活动模型在本文所述的示例中可以是时不变的,但是它们仍然完全能够跟踪和比较身体活动序列定时。在一些实施例中,可以从训练数据中提取理想定时以确定状态之间的期望过渡速率。可以使用状态分类器及其相关联的概率输出来识别状态之间的这些过渡周期。通过在状态与过渡区之间建立离散边界,可以记录时间信息并将其分组到相关联的状态/过渡区中。可以将状态之间和状态期间的受试者定时与来自模型训练期间记录的理想运动的定时进行比较。
各种统计方法和分类器可以用于状态分化。这些包括但不限于逻辑回归、高斯混合模型、贝叶斯分类器、k均值聚类、人工神经网络、决策树分类器、随机森林回归、梯度树增强和支持向量机。
如上所述,可以通过将每种状态与活动序列中的所有其它状态的组合进行比较来制定状态检测。状态比较的许多其它变型对于身体活动模型制定也是有效的。例如,对于序列内有许多状态位置的身体活动序列,可以实施多项式回归技术。来自每种状态的状态间分化变量可以与所有其他个别状态进行比较,从而产生比较状态的所有可能的两项组合的分类器。可以在状态跟踪期间组合这些1对1型分类器的输出以产生估计的分类。状态还可以仅与活动序列中紧接的其它状态进行比较。另一种有效方法是将所有状态仅与初始状态进行比较,并且可以组合所得模型结果以在跟踪期间产生状态估计值。
示例身体活动状态序列
如上所述,身体活动可以定义为受试者在整个身体活动的一个完整周期中执行的关键状态序列。使用来自整个序列的“关键状态”的子集表示身体活动中的整个状态序列允许对身体活动进行时不变定义,这在计算上也更有效。考虑到铰接的人体骨架的运动学,适当选择的子集不会降低运动定义的保真度或质量。
图2描绘了来自运动捕获***的示例可视化,其示出了在从状态1前进到状态2并再次回到状态1的身体活动序列期间的两个身体活动状态(在本示例中为姿态)之间的差异。值得注意的是,状态1和状态2可以是身体活动序列中的关键状态。
在此示例中,受试者在状态1中直立地站立,然后在状态2中在膝盖不弯曲的情况下向外伸展一条腿。因此,在此示例中,显而易见的是,可用体段202的子集可用于区分状态1和状态2。
每个所识别的体段之间的差异以及状态1与状态2之间的关节可形成一组候选状态间分化变量,如关于图3进一步描述的。
示例候选状态间分化变量
图3描绘了确定可用于区分身体活动序列的关键状态的候选状态间分化变量的示例。
如图3中所描绘的,可以基于相对较少数量的关节和体段来确定许多候选状态间分化变量。例如,此处,候选状态间分化变量可包括:关节302、318与参考(例如,平面316)的角度;关节304、306、322和326与参考(例如,点或平面316)的距离;与体段(例如,308、312、320和324)相关联的单位矢量取向(例如,310、314);以及其它。
关注状态2,很明显,与状态1相比,存在与识别状态2最相关的候选状态间分化变量的子集。在此示例中,关节302与参考平面316的角度,关节304、306与参考平面316的距离,以及与体段308、312相关联的单位矢量取向310、314是状态2的最决定性因素,因为它们在状态1与状态2之间变化最大。
值得注意的是,跟踪状态(例如,关键状态),例如此示例中的状态1和状态2的子集,而不是跟踪身体活动运动序列中的每种可能状态,允许校准或调整遵守特定身体活动要求的严格程度。例如,此处当在状态1与状态2之间进行确定时,将不考虑体段320、324的轻微变化。有益的是,这允许受试者在需要时在状态之间的过渡期间从理想的身体活动状态序列偏离到可配置程度。为了改进跟踪,可以将额外关键状态添加到活动中以进一步约束运动。
基于关键状态的示例身体活动模型定义
图4描绘了用于基于多个关键状态定义身体活动模型的示例流程400。具体地,在此示例中,来自图2和图3的活动状态402用作用于训练身体活动模型408的示例关键状态。
如上文关于图3所论述的,可基于在运动捕获数据中识别的可跟踪方面,例如状态1和状态2中的可跟踪体段和关节定位来确定多个候选状态间分化变量404。
候选状态间分化变量404可以在406处使用分类方法(例如上文所述的那些分类方法)进行分析,以识别在区分状态1和状态2时最有效的状态间分化变量的子集(402)。在此示例中,针对每个关键状态识别的统计上显著的状态间分化变量被称为状态特征度量,并且使用与每个关键状态相关联的状态度量来制定最终分类器,如关于身体活动模型408所示的。
特别地,在此示例中,候选状态间分化变量404包括变量{A,...,Z},而基于406处的分类器分析,状态1的所得状态特征度量为{A,C,R}。类似地,基于406处的分类器分析,状态2的所得状态特征度量为{A,D,P}。与本示例中的情况一样,所选的状态间分化变量可以作为多于一个关键状态的状态特征度量而被包括(此处A包括在每个关键状态中),但在其它示例中,每个关键状态可以具有唯一的一组状态特征度量。
此外,在此示例中,一旦已经确定特征度量,就创建分类器的最终版本(例如,身体活动模型408中的状态1分类器和状态2分类器)以监测被监测的受试者何时达到每种状态。
如上文所提及,可以从执行体育活动的若干组受试者收集关于状态1和状态2的训练数据,并且可以将特定训练数据识别(例如,标记)为与每个关键状态相关联。当训练数据来自一组受试者时,可以针对每个受试者在每种状态下计算候选状态间分化变量,然后将其汇总在一起。然后,分类器比较身体活动中的不同关键状态的状态间分化变量值,以确定哪个状态间分化变量提供用于状态检测和分类的重要信息。从不同受试者捕获训练运动数据可以改善身体活动模型的稳健性,使得它们能够跟踪更广泛的受试者,例如身材和身体组成不同的受试者。
基于所捕获的运动数据示例确定身体活动状态概率
图5描绘了使用身体活动模型518基于(例如,可以由运动跟踪***捕获的)运动数据确定状态(例如,关键状态)概率的示例。
在图5中所描绘的示例中,受试者的当前位置502由运动跟踪***监测。由运动跟踪***生成的运动数据可包括关于受试者的身体的各个跟踪方面(例如,体段和关节)的数据。
将与特定状态特征度量相关联的运动数据提供至状态特征度量的每个状态特定组,例如504、506。然后,每种状态的分类器(例如,508、510)使用每种状态的状态特征度量数据,以产生每种状态(例如,512、514)的概率分类器置信结果。
当受试者移动通过身体活动运动序列时,跟踪分类器输出(例如,状态概率512、514)并将其与状态实现阈值进行比较。
此外,在一些实施例中,可以监测达到状态姿势的顺序并将其与由理想的身体活动状态序列定义的关键状态序列进行比较,以便确定身体活动的成功重复次数。下面参考图12描述这方面的示例。
示例活动状态实现和活动状态序列重复计数
图6描绘了跟踪身体活动状态序列,例如理想的身体活动状态序列的示例。
框602包括指示610,该指示表明身体活动模型已基于例如一个或多个状态特征度量和与状态1相关联的一个或多个状态特定分类器确定已达到状态1。此外,在框602中,存在指示608,该指示表明受试者现已达到期望的状态序列612中的第一状态,该状态序列在此示例中定义为从状态1前进到状态2,然后返回到状态1。
类似地,如框604中所描绘的,身体活动模型已基于例如一个或多个状态特征度量和与状态2相关联的一个或多个状态特定分类器确定已达到状态2。此外,在框604中,存在表明受试者现在已达到期望的状态序列612中的第一状态和第二状态的指示。
最后,在框606中,身体活动模型已确定已再次达到状态1。此外,在框606中,存在指示614,该指示表明受试者现在已达到期望的状态序列612中的所有状态,并且已对成功的重复进行计数。
用于记录身体活动模型的训练数据的示例图形用户界面
图7描绘了用于记录训练数据以用于身体活动模型开发的示例用户界面700。
特别地,用户界面700包括显示实时跟踪数据的部分702,该部分在此示例中包括同时从两个运动跟踪***捕获的运动数据。如上所述,从多个运动跟踪***捕获运动数据可以通过提供用于分类器训练的更多样化的训练数据(例如,如在图1中的步骤106中)来改善所产生的身体活动模型。此外,来自不同运动捕获***的运动数据可用于生成特定于运动捕获***或对其进行优化的身体活动模型。
用户界面700还包括多个模式选择选项卡,该多个模式选择选项卡包括锻炼跟踪模式选项卡704、模型开发选项卡706和数据分析选项卡708。在此示例中,选择模型开发选项卡706,并显示关于身体活动的信息。例如,此处,正在进行建模的身体活动的名称710是“髋外展左脚站立”,并且这种身体活动正在以1-2-1的关键状态序列712进行建模。此外,如在部分702中所描绘的,受试者目前正在展示状态1姿态。在一些实施例中,定义的身体活动状态序列中的第一状态(此处,状态1)可被称为初始状态。
图8描绘了示例用户界面700的另一视图,其中正在展示定义的身体活动状态序列中的第二状态(状态2)。
图9描绘了显示各种状态特征度量的(如图7和图8所描绘的)用户界面700的一部分900。
特别地,一组状态特征度量902以统计强度(例如,显著性)904的顺序显示,以用于识别状态1。此外,选择906该组状态特征的子集以用于重复跟踪。
在一些实施例中,状态特征度量的选择可以一开始基于标准自动执行,所述标准是例如最显著状态特征度量的个体显著性阈值或累积显著性。然而,用户还可以使用此用户界面修改状态特征度量的选择。
用于使用身体活动模型跟踪运动数据的示例图形用户界面
图10描绘了处于活动跟踪模式的图7和图8的图形用户界面700。在此示例中,通过模式选项卡704选择活动跟踪模式。
如所描绘的,关于受试者的运动数据同时由两个不同的运动跟踪***捕获。对于每个***,针对定义为被监测的身体活动的一部分的所有状态,身体活动模型输出状态概率1002A、1002B,所述状态概率也可以被称为分类器置信水平。在此示例中,正被监测的身体活动是“髋外展左脚站立”,其在用户界面元件1014中显示为被选择。值得注意的是,在此示例中,基于两个不同的运动跟踪***,概率1002A、1002B略微不同。然而,对于两个模型,由受试者基于所捕获的运动数据执行的(如图7中的训练中定义)状态1的概率几乎是1,即,身体活动模型几乎确定受试者正在执行状态1。
在此实施例中,用户界面700包括概率阈值调整用户界面元件1008,该概率阈值调整用户界面元件基于概率输出1002A、1002B设定阈值,高于该阈值则状态被确定。在这种情况下,阈值被设置为85%,这意味着状态1概率0.998通过阈值测试,并且状态2概率0.003和0.002没有通过阈值测试。在此示例中,独立地将每个相机的状态跟踪概率与阈值进行比较,但在其它实施例中,可以对每个相机的状态跟踪概率求平均以进行单个确定。
此外,在此实施例中,用户界面700包括一系列运动调整用户界面元件1010,通过该运动调整用户界面元件执行模型参数化以容易地调整模型。通过调整运动范围,对模型分类器公式(例如回归系数)进行缩放以跟踪具有不同运动范围的活动,所有这些都使用相同训练数据集。
此外,在此实施例中,用户界面700包括重复计数用户界面元件1004(每个当前运动跟踪***一个),其对身体活动的重复进行计数。在这种情况下,由于没有完成重复,因此每个计数为0。
此外,在此实施例中,用户界面700包括模型参数用户界面元件1006,该模型参数用户界面元件描绘了当前身体活动模型的特征,包括关键状态的数目、关键状态的时间序列和用于识别所捕获的运动数据中的关键状态的状态特征度量。
图11描绘了处于活动跟踪模式的图7和图8的图形用户界面700的另一视图。
如所描绘的,受试者已开始从状态1过渡到状态2(如上文在图8中定义的)。因此,状态分类器概率1002A、1002B已改变为有利于状态2,但它们尚未超过如用户界面元件1008设定的0.85的概率阈值。
此外,进度指示条1016A、1016B指示受试者执行当前目标状态(状态2)相对于在1008处指示的所选择的概率阈值的接近程度。
图12描绘了处于活动跟踪模式的图7和图8的图形用户界面700的另一视图。
如所描绘的,受试者已达到状态2(如上文在图8中定义的),并且状态2的状态分类器概率1002A、1002B现在超过由用户界面元件1008设定的0.85的概率阈值。因此,进度指示条1016A、1016B现在已改变外观(在此示例中,其颜色已改变)以指示已基于所选择的概率阈值达到状态2。
此外,重复计数器1004现在指示已完成一次重复,因为受试者已成功地执行了从状态1到状态2的身体活动序列。
用于生成身体活动模型的示例方法
图13描绘了用于生成身体活动模型的示例方法1300。
方法1300开始于步骤1302,由运动捕获装置接收对应于与身体活动序列相关联的多个关键状态的运动数据。如上所述,运动数据可以包括静态姿势数据以及动态运动数据,所有这些数据都由运动捕获装置捕获。
然后,方法1300继续到步骤1304,确定与多个关键状态中的每个关键状态相关联的多个关节位置,例如,如上文关于图1和图2所述。
然后,方法1300继续到步骤1306,确定与多个关键状态中的每个相应关键状态相关联的多个体段位置,例如,如上文关于图1和图2所述。
然后,方法1300继续到步骤1308,确定与多个关键状态中的每个关键状态相关联的多个状态间分化变量,例如,如上文关于图1、图3和图4所述。
方法1300接着进行到步骤1310,基于多个关键状态中的每个关键状态的多个状态间分化变量确定一个或多个状态特征度量,例如,如上文关于图1、图3和图4所述。
然后,方法1300继续到步骤1312,基于多个关键状态中的每个关键状态的一个或多个状态特征度量来确定分类器,例如,如上文关于图1和图4所述。
然后,可以基于与多个关键状态中的每个关键状态相关联的分类器和状态特征来生成(替代地,定义)身体活动模型。
在一些实施例中,方法1300还包括确定与多个关键状态中的每个关键状态相关联的多个关节角,例如,如上文关于图1和图3所述。在一些实施例中,确定与相应关键状态相关联的多个关节角中的每一个关节角可以基于与相应关键状态相关联的多个体段位置。在一些实施例中,确定相应关键状态的多个状态间分化变量还基于与多个关键状态中的相应关键状态相关联的多个关节角。
在方法1300的一些实施例中,基于多个状态间分化变量确定一个或多个状态特征度量包括使用以下中的一种:机器学习技术;统计方法;或模式识别方法。
在方法1300的一些实施例中,每个相应关键状态的分类器被配置成提供指示相应关键状态在所接收的运动数据中的似然性的得分。
在方法1300的一些实施例中,确定相应关键状态的一个或多个状态特征度量还包括:经由应用程序的用户界面接收对一个或多个状态特征度量的选择。
在方法1300的一些实施例中,确定相应关键状态的一个或多个状态特征度量还包括:确定多个状态间分化变量中的每一个的统计显著性,以识别相应关键状态;并且基于所确定的多个状态间分化变量中的每一个的统计显著性来选择多个状态间分化变量的子集作为一个或多个状态特征度量。
在方法1300的一些实施例中,多个状态间分化变量的子集中的每个状态间分化变量具有高于阈值的统计显著性。
在方法1300的一些实施例中,多个状态间分化变量的子集中的每个状态间分化变量的统计显著性值的总和超过阈值。
在方法1300的一些实施例中,通过监测执行相应关键状态的受试者来定义与身体活动序列相关联的多个关键状态中的每个相应关键状态。
在方法1300的一些实施例中,与身体活动序列相关联的多个关键状态中的每个相应关键状态由对所接收的运动数据的自动分析限定。
在方法1300的一些实施例中,运动数据包括与第一受试者相关联的运动数据的第一子集和与第二受试者相关联的运动数据的第二子集。
在方法1300的一些实施例中,运动捕获装置包括深度感测相机。
用于使用身体活动模型的示例方法
图14描绘了使用身体活动模型的示例方法1400。
方法1400开始于步骤1402,从运动捕获装置接收运动数据。
方法1400接着继续到步骤1404,将所接收的运动数据提供给身体活动模型。在方法1400的一些实施例中,身体活动模型包括:多个分类器,其中多个分类器中的每个分类器与身体活动的关键状态相关联;以及多个状态特征度量,其中多个状态特征度量中的每个状态特征度量与多个分类器中的一个或多个分类器相关联。
然后,方法1400继续到步骤1406,从身体活动模型接收多个得分。在方法1400的一些实施例中,多个得分中的每个得分与多个分类器中的一个分类器相关联。
然后,方法1400继续到步骤1408,基于多个得分确定关键状态表示在所接收的运动数据中。
在方法1400的一些实施例中,基于多个得分确定关键状态表示在所接收的运动数据中还包括:确定与关键状态相关联的得分超过阈值。
在方法1400的一些实施例中,与关键状态相关联的得分指示关键状态表示在所接收的运动数据中的概率。
在一些实施例中,方法1400还包括在显示装置上的图形用户界面中显示多个得分。
在一些实施例中,方法1400还包括通过改变图形用户界面中的相应得分的属性,在显示装置上的图形用户界面内指示多个得分中的相应得分何时超过阈值,其中属性包括以下中的一者或多者:相应得分的颜色、相应得分的大小,或相应得分的格式。
在一些实施例中,方法1400还包括基于所接收的得分的序列来递增身体活动的重复计数;以及在显示装置上的图形用户界面中显示重复计数。
在方法1400的一些实施例中,运动捕获装置是深度感测相机。
示例处理***
图15描绘了被配置成生成和使用身体活动模型的示例处理***1500。
例如,处理***1500可以被配置成执行关于图1描述的流程100、关于图4描述的流程400以及分别关于图13和14描述的方法1300和1400的一个或多个方面。
处理***1500包括连接到数据总线1550的CPU 1502。CPU 1502被配置成处理例如存储在存储器1510或存储装置1530中的计算机可执行指令,并且使处理***1500执行如本文所述的方法。包括CPU 1502以代表单个CPU、多个CPU、具有多个处理核心的单个CPU,以及能够执行计算机可执行指令的其它形式的处理架构。
处理***1500还包括:输入/输出装置1504,该输入/输出装置可包括如本文所述的运动捕获或跟踪装置;以及输入/输出接口1506,该输入/输出接口允许处理***1500与输入/输出装置相接,所述输入/输出装置是例如键盘、显示器、鼠标装置、笔输入、运动捕获或跟踪装置、运动跟踪传感器,以及允许与处理***1500交互的其它装置。
处理***1500还包括网络接口1508,该网络接口为处理***1500提供对例如网络1514的外部网络的访问。
处理***1500还包括存储器1510,该存储器在此示例中包括多个部件。
例如,存储器1510包括深度神经接收部件1512,该深度神经接收部件被配置成执行如上文例如关于方法1300和1400所描述的接收功能。
存储器1510还包括确定部件1514,该确定部件被配置成执行如上文例如关于方法1300、1400所描述的确定功能。
存储器1510还包括定义部件1516,该定义部件被配置成执行如上文例如关于方法1300、1400所描述的定义功能。
存储器1510还包括选择部件1518,该选择部件被配置成执行如上文例如关于方法1300、1400所描述的选择功能。
存储器1510还包括提供部件1520,该提供部件被配置成执行如上文例如关于方法1300、1400所描述的提供功能。
存储器1510还包括显示部件1522,该显示部件被配置成执行如上文关于方法1300、1400所描述的选择功能。
注意,尽管为了简单起见在图15中示出为单个存储器1510,但存储在存储器1510中的各个方面可以存储在不同的物理存储器中,不过所有存储器都可以经由内部数据连接,例如总线1550由CPU 1502访问。
处理***1500还包括存储装置1530,该存储装置在此示例中包括训练数据1532(例如,用于训练身体活动模型的运动捕获数据)、实时数据1534(例如,提供给身体活动模型的实时运动捕获数据)、状态特征度量1536、分类器1538和身体活动模型1540。注意,虽然为了清楚起见示出为单独的项目,但在一些实施例中,身体活动模型包括分类器和状态特征度量的集合。
尽管在图15中未描绘,但其它方面可包括于存储装置1510中。
与存储器1510一样,为了简单起见,在图15中描绘了单个存储装置1530,但存储在存储装置1530中的各个方面可以存储在不同的物理存储装置中,不过所有存储装置都可以经由内部数据连接(例如总线1550)或外部连接(例如网络接口1508)由CPU 1502访问。
值得注意的是,虽然在图15中描绘的示例中示出为单个处理***,但其它实施例可包括一起用作处理***的解耦部分。例如,存储器1510中的各个部件和存储装置1530中的数据可以跨处理***的网络,或者在基于云的处理***中,或者在其组合中实施或存储。例如,在一些实施例中,训练数据1532、身体活动模型1540、分类器1538和状态特征1536可以远离捕获实时数据1534的运动跟踪***存储。
例如,患者可以具有客户端处理***,该客户端处理***包括捕获实时数据并将其馈送回服务器处理***的运动跟踪I/O装置。类似地,患者的客户端处理***可以在本地存储身体活动模型1540、分类器1538和状态特征1536,所述身体活动模型、分类器和状态特征远程生成,并且通过网络连接例如互联网下载到本地客户端处理***。
此外,处理***1500可以被配置成用作训练***或跟踪***。处理***的其它实施例可仅仅是训练***,或者仅仅是跟踪***。例如,患者可以仅接收跟踪***。
一般来说,处理***1500仅仅是一个可能的实施例,并且处理***1500的各个方面可以分布在多个装置上,可以被省略或根据需要添加,以用于本文所述的任何特定功能或方法。
示例实施例
条款1:一种生成身体活动模型的方法,包括:经由运动捕获装置接收对应于与身体活动序列相关联的多个关键状态的运动数据;对于所述多个关键状态中的每个相应关键状态:确定与所述相应关键状态相关联的多个关节位置;基于与所述相应关键状态相关联的多个关节位置,确定与所述相应关键状态相关联的多个体段位置;以及基于以下中的一者或多者确定所述相应关键状态的多个状态间分化变量:与所述相应关键状态相关联的多个关节位置,或者与所述相应关键状态相关联的多个体段位置;基于与所述相应关键状态相关联的多个状态间分化变量,确定所述相应关键状态的一个或多个状态特征度量;以及基于所述一个或多个状态特征度量确定所述相应关键状态的分类器;以及基于所述一个或多个状态特征度量和与每个关键状态相关联的分类器,定义身体活动模型。
条款2:根据条款1所述的方法,其中所述相应关键状态的分类器被配置成提供指示所述相应关键状态在所接收的运动数据中的似然性的得分。
条款3:根据条款1或2所述的方法,其中确定所述相应关键状态的一个或多个状态特征度量还包括:经由应用程序的用户界面接收对一个或多个状态特征度量的选择。
条款4:根据条款1-3中任一项所述的方法,其中确定所述相应关键状态的一个或多个状态特征度量还包括:确定所述多个状态间分化变量中的每一个的统计显著性,以识别所述相应关键状态;以及基于所确定的多个状态间分化变量中的每一个的统计显著性来选择所述多个状态间分化变量的子集作为所述一个或多个状态特征度量。
条款5:根据条款4所述的方法,其中所述多个状态间分化变量的子集中的每个状态间分化变量具有高于阈值的统计显著性。
条款6:根据条款4所述的方法,其中所述多个状态间分化变量的子集中的每个状态间分化变量的统计显著性值的总和超过阈值。
条款7:根据条款1-6中任一项所述的方法,还包括:基于与所述相应关键状态相关联的多个体段位置,确定与所述相应关键状态相关联的多个关节角,其中确定所述相应关键状态的多个状态间分化变量还基于与所述多个关键状态的相应关键状态相关联的多个关节角。
条款8:根据条款1-7中任一项所述的方法,其中通过监测执行所述相应关键状态的受试者来定义与所述身体活动序列相关联的多个关键状态中的每个相应关键状态。
条款9:根据条款1-8中任一项所述的方法,其中所述运动数据包括与第一受试者相关联的运动数据的第一子集和与第二受试者相关联的运动数据的第二子集。
条款10:根据条款1-9中任一项所述的方法,其中所述运动捕获装置包括深度感测相机。
条款11:一种处理***,包括:非暂时性计算机可读介质,所述非暂时性计算机可读介质包括计算机可执行指令;以及处理器,所述处理器被配置成执行所述计算机可执行指令并且使所述处理***执行生成身体活动模型的方法,所述方法包括:经由运动捕获装置接收对应于与身体活动序列相关联的多个关键状态的运动数据;对于所述多个关键状态中的每个相应关键状态:确定与所述相应关键状态相关联的多个关节位置;基于与所述相应关键状态相关联的多个关节位置,确定与所述相应关键状态相关联的多个体段位置;以及基于与所述相应关键状态相关联的多个体段位置确定与所述相应关键状态相关联的多个关节角;基于以下中的一者或多者确定所述相应关键状态的多个状态间分化变量:与所述相应关键状态相关联的多个关节位置,或者与所述相应关键状态相关联的多个体段位置;基于与所述相应关键状态相关联的多个状态间分化变量,确定所述相应关键状态的一个或多个状态特征度量;以及基于所述一个或多个状态特征度量确定所述相应关键状态的分类器;以及基于所述一个或多个状态特征度量和与每个关键状态相关联的分类器,定义身体活动模型。
条款12:根据条款11所述的处理***,其中所述相应关键状态的分类器被配置成提供指示所述相应关键状态在所接收的运动数据中的似然性的得分。
条款13:根据条款11或12中任一项所述的处理***,其中确定所述相应关键状态的一个或多个状态特征度量还包括:经由应用程序的用户界面接收对一个或多个状态特征度量的选择。
条款14:根据条款11-13中任一项所述的处理***,其中所述方法还包括:基于与所述相应关键状态相关联的多个体段位置,确定与所述相应关键状态相关联的多个关节角,其中确定所述相应关键状态的多个状态间分化变量还基于与所述多个关键状态的相应关键状态相关联的多个关节角。
条款15:一种用于使用身体活动模型的方法,包括:从运动捕获装置接收运动数据;向身体活动模型提供所接收的运动数据,其中所述身体活动模型包括:多个分类器,其中所述多个分类器中的每个分类器与身体活动的关键状态相关联;以及多个状态特征度量,其中所述多个状态特征度量中的每个状态特征度量与所述多个分类器中的一个或多个分类器相关联;从所述身体活动模型接收多个得分,其中所述多个得分中的每个得分与所述多个分类器中的一个分类器相关联;以及基于所述多个得分确定关键状态表示在所接收的运动数据中。
条款16:根据条款15所述的方法,其中基于所述多个得分确定所述关键状态表示在所接收的运动数据中还包括:确定与所述关键状态相关联的得分超过阈值。
条款17:根据条款16所述的方法,其中与所述关键状态相关联的得分指示所述关键状态表示在所接收的运动数据中的概率。
条款18:根据条款15-17中任一项所述的方法,还包括:在显示装置上的图形用户界面中显示所述多个得分。
条款19:根据条款18所述的方法,还包括:通过改变所述图形用户界面中的相应得分的属性,在所述显示装置上的图形用户界面内指示所述多个得分中的相应得分何时超过阈值,其中所述属性包括以下中的一者或多者:所述相应得分的颜色、所述相应得分的大小,或所述相应得分的格式。
条款20:根据条款15-19中任一项所述的方法,还包括:基于所接收的得分的序列递增所述身体活动的重复计数;以及在显示装置上的图形用户界面中显示所述重复计数。
条款21:根据条款15-20中任一项所述的方法,其中所述运动捕获装置是深度感测相机。
提供前述描述以使所属领域的任何技术人员能够实践本文所述的各种实施例。本文讨论的示例并不限制权利要求书中阐述的范围、适用性或实施例。本领域的技术人员将显然明白对这些实施例的各种修改,并且本文中定义的一般原理可以应用于其它实施例。例如,在不脱离本公开的范围的情况下,可以对所讨论的元件的功能和布置进行改变。各种示例可酌情省略、替换或添加各种过程或部件。例如,所描述的方法可以不同于所描述的顺序执行,并且可以添加、省略或组合各种步骤。另外,关于一些示例描述的特征可以在一些其它示例中组合。例如,可以使用本文阐述的许多方面实施设备或实践方法。另外,本公开的范围旨在涵盖除了本文阐述的本公开的各个方面之外或者不同于所述各个方面的使用其它结构、功能或结构和功能实践的此类设备或方法。应理解,本文公开的本公开的任何方面可以由权利要求的一个或多个元件体现。
如本文中所使用的,词语“示例性”表示“用作示例、实例或说明”。本文中描述为“示例性”的任何方面不一定被解释为优选的或优于其它方面。
如本文所使用的,提及项目列表“中的至少一个”的短语是指这些项目的任何组合,包括单个成员。例如,“a、b或c中的至少一个”旨在涵盖a、b、c、a-b、a-c、b-c和a-b-c,以及与多个相同元件的任何组合(例如,a-a、a-a-a、a-a-b、a-a-c、a-b-b、a-c-c、b-b、b-b-b、b-b-c、c-c和c-c-c,或者a、b和c的任何其它排序)。
如本文所使用的,术语“确定”涵盖广泛多种动作。例如,“确定”可以包括计算、运算、处理、推导、调查、查找(例如,在表、数据库或另一数据结构中查找)、断定等。此外,“确定”可包括接收(例如,接收信息)、访问(例如,访问存储器中的数据)等。此外,“确定”可包括解析、选择、选定、建立等。
本文公开的方法包括用于实现所述方法的一个或多个步骤或动作。在不脱离权利要求书的范围的情况下,方法步骤和/或动作可以彼此交换。换句话说,除非指定步骤或动作的具体顺序,否则可在不脱离权利要求书的范围的情况下修改具体步骤和/或动作的顺序和/或使用。此外,上述方法的各种操作可以由能够执行对应功能的任何合适的装置来执行。所述装置可包括各种硬件和/或软件部件和/或模块,包括但不限于电路、专用集成电路(ASIC)或处理器。通常,当存在图中所示的操作时,那些操作可具有带类似编号的相应对应装置加功能部件。
以下的权利要求书并非旨在限于本文所示的实施例,而是被赋予与权利要求书的语言一致的完整范围。在权利要求中,除非特别说明,否则对单数元件的提及并不旨在表示“一个且仅一个”,而是“一个或多个”。除非另有特别说明,否则术语“一些”是指一个或多个。任何权利要求要素都不应根据35U.S.C.§112(f)的规定进行解释,除非该要素是使用短语“用于……的装置(means for)”明确叙述的,或者,在方法权利要求的情况下,该要素是使用短语“用于……的步骤(step for)”叙述的。所属领域的普通技术人员已知或稍后已知的贯穿本公开描述的各个方面的元件的所有结构和功能等同物以引用方式明确并入本文中,且旨在由权利要求书涵盖。此外,本文中公开的任何内容都不旨在专用于公开,而不管此公开是否在权利要求书中明确陈述。
Claims (21)
1.一种生成身体活动模型的方法,包括:
经由运动捕获装置接收对应于与身体活动序列相关联的多个关键状态的运动数据;
对于所述多个关键状态中的每个相应关键状态:
确定与所述相应关键状态相关联的多个关节位置;
基于与所述相应关键状态相关联的多个关节位置,确定与所述相应关键状态相关联的多个体段位置;以及
基于以下中的一者或多者确定所述相应关键状态的多个状态间分化变量:
与所述相应关键状态相关联的多个关节位置;或者
与所述相应关键状态相关联的多个体段位置;
基于与所述相应关键状态相关联的多个状态间分化变量,确定所述相应关键状态的一个或多个状态特征度量;以及
基于所述一个或多个状态特征度量确定所述相应关键状态的分类器;以及
基于所述一个或多个状态特征度量和与每个关键状态相关联的分类器,定义身体活动模型。
2.根据权利要求1所述的方法,其中所述相应关键状态的分类器被配置成提供指示所述相应关键状态在所接收的运动数据中的似然性的得分。
3.根据权利要求1所述的方法,其中确定所述相应关键状态的一个或多个状态特征度量还包括:经由应用程序的用户界面接收对一个或多个状态特征度量的选择。
4.根据权利要求1所述的方法,其中确定所述相应关键状态的一个或多个状态特征度量还包括:
确定所述多个状态间分化变量中的每一个的统计显著性,以识别所述相应关键状态;以及
基于所确定的多个状态间分化变量中的每一个的统计显著性来选择所述多个状态间分化变量的子集作为所述一个或多个状态特征度量。
5.根据权利要求4所述的方法,其中所述多个状态间分化变量的子集中的每个状态间分化变量具有高于阈值的统计显著性。
6.根据权利要求4所述的方法,其中所述多个状态间分化变量的子集中的每个状态间分化变量的统计显著性值的总和超过阈值。
7.根据权利要求1所述的方法,还包括:
基于与所述相应关键状态相关联的多个体段位置,确定与所述相应关键状态相关联的多个关节角,
其中确定所述相应关键状态的多个状态间分化变量还基于与所述多个关键状态的相应关键状态相关联的多个关节角。
8.根据权利要求1所述的方法,其中通过监测执行所述相应关键状态的受试者来定义与所述身体活动序列相关联的多个关键状态中的每个相应关键状态。
9.根据权利要求1所述的方法,其中所述运动数据包括与第一受试者相关联的运动数据的第一子集和与第二受试者相关联的运动数据的第二子集。
10.根据权利要求1所述的方法,其中所述运动捕获装置包括深度感测相机。
11.一种处理***,包括:
非暂时性计算机可读介质,所述非暂时性计算机可读介质包括计算机可执行指令;和
处理器,所述处理器被配置成执行所述计算机可执行指令并且使所述处理***执行生成身体活动模型的方法,所述方法包括:
经由运动捕获装置接收对应于与身体活动序列相关联的多个关键状态的运动数据;
对于所述多个关键状态中的每个相应关键状态:
确定与所述相应关键状态相关联的多个关节位置;以及
基于与所述相应关键状态相关联的多个关节位置,确定与所述相应关键状态相关联的多个体段位置;以及
基于以下中的一者或多者确定所述相应关键状态的多个状态间分化变量:
与所述相应关键状态相关联的多个关节位置;或者
与所述相应关键状态相关联的多个体段位置;
基于与所述相应关键状态相关联的多个状态间分化变量,确定所述相应关键状态的一个或多个状态特征度量;以及
基于所述一个或多个状态特征度量确定所述相应关键状态的分类器;以及
基于所述一个或多个状态特征度量和与每个关键状态相关联的分类器,定义身体活动模型。
12.根据权利要求11所述的处理***,其中所述相应关键状态的分类器被配置成提供指示所述相应关键状态在所接收的运动数据中的似然性的得分。
13.根据权利要求11所述的处理***,其中确定所述相应关键状态的一个或多个状态特征度量还包括:经由应用程序的用户界面接收对一个或多个状态特征度量的选择。
14.根据权利要求11所述的处理***,其中所述方法还包括:
基于与所述相应关键状态相关联的多个体段位置,确定与所述相应关键状态相关联的多个关节角,
其中确定所述相应关键状态的多个状态间分化变量还基于与所述多个关键状态的相应关键状态相关联的多个关节角。
15.一种用于使用身体活动模型的方法,包括:
从运动捕获装置接收运动数据;
将所接收的运动数据提供给身体活动模型,其中所述身体活动模型包括:
多个分类器,其中所述多个分类器中的每个分类器与身体活动的关键状态相关联;和
多个状态特征度量,其中所述多个状态特征度量中的每个状态特征度量与所述多个分类器中的一个或多个分类器相关联;
从所述身体活动模型接收多个得分,其中所述多个得分中的每个得分与所述多个分类器中的一个分类器相关联;以及
基于所述多个得分确定关键状态表示在所接收的运动数据中。
16.根据权利要求15所述的方法,其中基于所述多个得分确定所述关键状态表示在所接收的运动数据中还包括:确定与所述关键状态相关联的得分超过阈值。
17.根据权利要求16所述的方法,其中与所述关键状态相关联的得分指示所述关键状态表示在所接收的运动数据中的概率。
18.根据权利要求15所述的方法,还包括:在显示装置上的图形用户界面中显示所述多个得分。
19.根据权利要求18所述的方法,还包括:
通过改变所述图形用户界面中的相应得分的属性,在所述显示装置上的图形用户界面内指示所述多个得分中的相应得分何时超过阈值,
其中所述属性包括以下中的一者或多者:所述相应得分的颜色、所述相应得分的大小、或所述相应得分的格式。
20.根据权利要求15所述的方法,还包括:
基于所接收的得分的序列递增所述身体活动的重复计数;以及
在显示装置上的图形用户界面中显示所述重复计数。
21.根据权利要求15所述的方法,其中所述运动捕获装置是深度感测相机。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862768012P | 2018-11-15 | 2018-11-15 | |
US62/768,012 | 2018-11-15 | ||
US16/653,153 | 2019-10-15 | ||
US16/653,153 US11281896B2 (en) | 2018-11-15 | 2019-10-15 | Physical activity quantification and monitoring |
PCT/US2019/060637 WO2020102042A1 (en) | 2018-11-15 | 2019-11-08 | Physical activity quantification and monitoring |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112970074A true CN112970074A (zh) | 2021-06-15 |
Family
ID=70726367
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201980072574.0A Pending CN112970074A (zh) | 2018-11-15 | 2019-11-08 | 身体活动量化和监测 |
Country Status (4)
Country | Link |
---|---|
US (2) | US11281896B2 (zh) |
EP (1) | EP3881338A1 (zh) |
CN (1) | CN112970074A (zh) |
WO (1) | WO2020102042A1 (zh) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018081795A1 (en) | 2016-10-31 | 2018-05-03 | Zipline Medical, Inc. | Systems and methods for monitoring physical therapy of the knee and other joints |
GB2574074B (en) | 2018-07-27 | 2020-05-20 | Mclaren Applied Tech Ltd | Time synchronisation |
US11281896B2 (en) * | 2018-11-15 | 2022-03-22 | Smith & Nephew, Inc. | Physical activity quantification and monitoring |
EP3966834A4 (en) * | 2019-05-21 | 2023-02-08 | Smith&Nephew, Inc. | PHYSICAL ACTIVITY AND EXERCISE RATING |
CA3089403A1 (en) * | 2019-08-08 | 2021-02-08 | Curv Labs Inc. | System and method for performing biomechanical assessments |
GB2588236B (en) | 2019-10-18 | 2024-03-20 | Mclaren Applied Ltd | Gyroscope bias estimation |
JP2021071794A (ja) * | 2019-10-29 | 2021-05-06 | キヤノン株式会社 | 主被写体判定装置、撮像装置、主被写体判定方法、及びプログラム |
US11918370B2 (en) * | 2020-06-10 | 2024-03-05 | The Board Of Trustees Of The Leland Stanford Junior University | Systems and methods for estimation of Parkinson's Disease gait impairment severity from videos using MDS-UPDRS |
US20210406738A1 (en) * | 2020-06-29 | 2021-12-30 | International Business Machines Corporation | Methods and systems for providing activity feedback utilizing cognitive analysis |
US11733259B2 (en) * | 2021-01-14 | 2023-08-22 | Robert Bosch Gmbh | Methods and system for cycle recognition in repeated activities by identifying stable and repeatable features |
US11794073B2 (en) | 2021-02-03 | 2023-10-24 | Altis Movement Technologies, Inc. | System and method for generating movement based instruction |
WO2022212883A1 (en) * | 2021-04-01 | 2022-10-06 | Exer Labs, Inc. | Motion engine |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102567638A (zh) * | 2011-12-29 | 2012-07-11 | 无锡微感科技有限公司 | 一种基于微型传感器的交互式上肢康复*** |
US20120214594A1 (en) * | 2011-02-18 | 2012-08-23 | Microsoft Corporation | Motion recognition |
CN103764021A (zh) * | 2011-05-20 | 2014-04-30 | 南洋理工大学 | 一种用于协同神经-生理学修复和/或功能提升的***、仪器、装置和方法 |
US20170156662A1 (en) * | 2014-07-17 | 2017-06-08 | Elwha Llc | Monitoring body movement or condition according to motion regimen with conformal electronics |
US20170164876A1 (en) * | 2014-07-17 | 2017-06-15 | Elwha Llc | Monitoring body movement or condition according to motion regimen with conformal electronics |
CN107463591A (zh) * | 2016-06-02 | 2017-12-12 | 百度(美国)有限责任公司 | 响应于搜索查询对待与内容匹配的图像动态排序的方法和*** |
CN107533563A (zh) * | 2015-05-29 | 2018-01-02 | 英特尔公司 | 用于动态自动化内容发现的技术 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8213680B2 (en) | 2010-03-19 | 2012-07-03 | Microsoft Corporation | Proxy training data for human body tracking |
US9161708B2 (en) | 2013-02-14 | 2015-10-20 | P3 Analytics, Inc. | Generation of personalized training regimens from motion capture data |
WO2014194337A1 (en) | 2013-05-30 | 2014-12-04 | Atlas Wearables, Inc. | Portable computing device and analyses of personal data captured therefrom |
US9510789B2 (en) | 2013-10-31 | 2016-12-06 | Roshanak Houmanfar | Motion analysis method |
US9826923B2 (en) | 2013-10-31 | 2017-11-28 | Roshanak Houmanfar | Motion analysis method |
US10854104B2 (en) | 2015-08-28 | 2020-12-01 | Icuemotion Llc | System for movement skill analysis and skill augmentation and cueing |
WO2017055792A1 (en) * | 2015-10-02 | 2017-04-06 | Mas Innovation (Pvt) Limited | System and method for monitoring the running technique of a user |
US11281896B2 (en) * | 2018-11-15 | 2022-03-22 | Smith & Nephew, Inc. | Physical activity quantification and monitoring |
-
2019
- 2019-10-15 US US16/653,153 patent/US11281896B2/en active Active
- 2019-11-08 CN CN201980072574.0A patent/CN112970074A/zh active Pending
- 2019-11-08 WO PCT/US2019/060637 patent/WO2020102042A1/en unknown
- 2019-11-08 EP EP19836132.1A patent/EP3881338A1/en not_active Withdrawn
-
2022
- 2022-03-04 US US17/687,417 patent/US11763603B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120214594A1 (en) * | 2011-02-18 | 2012-08-23 | Microsoft Corporation | Motion recognition |
CN102693413A (zh) * | 2011-02-18 | 2012-09-26 | 微软公司 | 运动识别 |
CN103764021A (zh) * | 2011-05-20 | 2014-04-30 | 南洋理工大学 | 一种用于协同神经-生理学修复和/或功能提升的***、仪器、装置和方法 |
CN102567638A (zh) * | 2011-12-29 | 2012-07-11 | 无锡微感科技有限公司 | 一种基于微型传感器的交互式上肢康复*** |
US20170156662A1 (en) * | 2014-07-17 | 2017-06-08 | Elwha Llc | Monitoring body movement or condition according to motion regimen with conformal electronics |
US20170164876A1 (en) * | 2014-07-17 | 2017-06-15 | Elwha Llc | Monitoring body movement or condition according to motion regimen with conformal electronics |
CN107533563A (zh) * | 2015-05-29 | 2018-01-02 | 英特尔公司 | 用于动态自动化内容发现的技术 |
CN107463591A (zh) * | 2016-06-02 | 2017-12-12 | 百度(美国)有限责任公司 | 响应于搜索查询对待与内容匹配的图像动态排序的方法和*** |
Also Published As
Publication number | Publication date |
---|---|
US11281896B2 (en) | 2022-03-22 |
US20220189211A1 (en) | 2022-06-16 |
EP3881338A1 (en) | 2021-09-22 |
WO2020102042A1 (en) | 2020-05-22 |
US11763603B2 (en) | 2023-09-19 |
US20200160044A1 (en) | 2020-05-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11763603B2 (en) | Physical activity quantification and monitoring | |
Liao et al. | A review of computational approaches for evaluation of rehabilitation exercises | |
US11403882B2 (en) | Scoring metric for physical activity performance and tracking | |
US11980790B2 (en) | Automated gait evaluation for retraining of running form using machine learning and digital video data | |
Nieto-Hidalgo et al. | A vision based proposal for classification of normal and abnormal gait using RGB camera | |
Chaudhari et al. | Yog-guru: Real-time yoga pose correction system using deep learning methods | |
US9510789B2 (en) | Motion analysis method | |
JP7057589B2 (ja) | 医療情報処理システム、歩行状態定量化方法およびプログラム | |
US9826923B2 (en) | Motion analysis method | |
Houmanfar et al. | Movement analysis of rehabilitation exercises: Distance metrics for measuring patient progress | |
Leightley et al. | Benchmarking human motion analysis using kinect one: An open source dataset | |
Mortazavi et al. | Continues online exercise monitoring and assessment system with visual guidance feedback for stroke rehabilitation | |
Nunes et al. | Human motion analysis and simulation tools: a survey | |
Williams et al. | Assessment of physical rehabilitation movements through dimensionality reduction and statistical modeling | |
Frangoudes et al. | Assessing human motion during exercise using machine learning: A literature review | |
Romeo et al. | Video based mobility monitoring of elderly people using deep learning models | |
Nandy et al. | A study on human gait dynamics: modeling and simulations on OpenSim platform | |
US20230367398A1 (en) | Leveraging machine learning and fractal analysis for classifying motion | |
CN116543455A (zh) | 建立帕金森症步态受损评估模型、使用方法、设备及介质 | |
Derungs et al. | Synthesising motion sensor data from biomechanical simulations to investigate motion sensor placement and orientation variations | |
Kao et al. | Validation of automated mobility assessment using a single 3d sensor | |
Pham et al. | A summative scoring system for evaluation of human kinematic performance | |
Yee et al. | Vision-based motion capture for the gait analysis of neurodegenerative diseases: A review | |
Ang et al. | Markerless Human Motion Analysis for Telerehabilitation: A Case Study on Squat | |
Mustafaoglu | Feasibility of markerless motion capture in clinical gait analysis in children with cerebral palsy |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20210615 |
|
WD01 | Invention patent application deemed withdrawn after publication |