CN109117799B - 一种基于niosh提举方程的评估方法 - Google Patents

一种基于niosh提举方程的评估方法 Download PDF

Info

Publication number
CN109117799B
CN109117799B CN201810945758.0A CN201810945758A CN109117799B CN 109117799 B CN109117799 B CN 109117799B CN 201810945758 A CN201810945758 A CN 201810945758A CN 109117799 B CN109117799 B CN 109117799B
Authority
CN
China
Prior art keywords
frame
ankle
coefficient
shoulder
recommending
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201810945758.0A
Other languages
English (en)
Other versions
CN109117799A (zh
Inventor
刘鹏
王磊
姜盛乾
张起勋
李晓雯
魏超虎
吴可歆
刘思阅
任宇欣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jilin University
Original Assignee
Jilin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jilin University filed Critical Jilin University
Priority to CN201810945758.0A priority Critical patent/CN109117799B/zh
Publication of CN109117799A publication Critical patent/CN109117799A/zh
Application granted granted Critical
Publication of CN109117799B publication Critical patent/CN109117799B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0639Performance analysis of employees; Performance analysis of enterprise or organisation operations

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Development Economics (AREA)
  • Educational Administration (AREA)
  • Economics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Theoretical Computer Science (AREA)
  • Strategic Management (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Operations Research (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Game Theory and Decision Science (AREA)
  • Health & Medical Sciences (AREA)
  • Quality & Reliability (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本发明属于人因工效学领域,具体的说是一种基于NIOSH提举方程的评估方法。本发明从一种NIOSH提举方程评估方法出发,旨在利用Kinect V2设备采集的人体骨骼数据对提举方程的各项系数自动计算。通过对提举动作的开始及终止动作进行识别,通过双手和双脚踝的坐标中点、双手距离和偏移角度、脚踝的偏移角度等指标对水平系数、高度系数、距离系数、角度系数、频率系数和物体系数进行自动测算,从而减少专业人员的工作量,减少人力成本。

Description

一种基于NIOSH提举方程的评估方法
技术领域
本发明属于人因工效学领域,具体的说是一种基于NIOSH提举方程的评估方法。
背景技术
在生产制造中存在许多要求进行手工物料搬运的场合,如拆卸箱子、搬运零件等,由于制造单元设计的不合理,容易造成大量的工人职业性肌肉骨骼损伤,尤其是与手工提举作业不合理导致的下背痛。因此在进行工效学分析时,提举作业分析是必不可少的一项。
NIOSH提举方程分析法是美国国家职业安全与卫生研究院提出的用来预测提举重物劳动的符合所在数值范围,评价提举负荷是否安全,是否应采取改进措施,旨在避免或减轻工人背部损伤的工效学分析方法,该方法重点是进行提举限值和提取指数计算。提举重量推荐值RWL包括重量常数、水平系数、高度系数、距离系数、角度系数、频率系数和物体系数。其中重量常数为23KG。
发明内容
本发明提供了一种体感技术,通过对提举开始及终止动作进行识别,以人体骨骼坐标点和角度自动判断出NIOSH提举方程的各项系数,从而完成计算机自动评估的基于NIOSH提举方程的评估方法。
本发明技术方案结合附图说明如下:
一种基于NIOSH提举方程的评估方法,该评估方法包括以下步骤:
步骤一、将Kinect V2设备放置于提举物体的正前方,通过Kinect V2设备捕捉人体25个部位骨骼点数据;
其中25个部位骨骼点包括头、颈、肩中心、左拇指、右拇指、左指尖、右指尖、左手、右手、左手腕、右手腕、左肘、右肘、左肩膀、右肩膀、脊柱、髋关节中心、左臀、左膝盖、左脚踝、左脚、右臀、右膝盖、右脚踝、右脚;其中,A1(x1,i,y1,i,z1,i)表示第i帧左手的坐标点,每秒25帧,1帧0.04秒;A2(x2,i,y2,i,z2,i)表示第i帧右手的坐标点,每秒25帧,1帧0.04秒;A3(x3,i,y3,i,z3,i)表示第i帧左肘的坐标点,每秒25帧,1帧0.04秒;A4(x4,i,y4,i,z4,i)表示第i帧右肘的坐标点,每秒25帧,1帧0.04秒;A5(x5,i,y5,i,z5,i)表示第i帧左肩膀的坐标点,每秒25帧,1帧0.04秒;A6(x6,i,y6,i,z6,i)表示第i帧右肩膀的坐标点,每秒25帧,1帧0.04秒;A7(x7,i,y7,i,z7,i)表示第i帧左脚踝的坐标点,每秒25帧,1帧0.04秒;A8(x8,i,y8,i,z8,i)表示第i帧右脚踝的坐标点,每秒25帧,1帧0.04秒;
得到左手到右手的向量左肩膀到左肘的向量右肩膀到右肘的向量左肩膀到右肩膀的向量左脚踝到右脚踝的向量左手到右手的中心点左脚踝到右脚踝的中心点左手到右手的距离左肩膀到左肘的向量与左肩膀到右肩膀的向量夹角右肩膀到右肘的向量与左肩膀到右肩膀的向量夹角
步骤二、提举动作开始识别;
记录操作动作的每一帧数据,持续计算l1,i,当每i帧出现15个连续数据时,计算15项数据的平均值标准差当σ1<5,θ1∈(75°,105°)且θ2∈(75°,105°),认为开始提举动作,记录此时时刻T1,此时的h1=Z2-Z1,v1=Y1-Y2,i=i+1转步骤三;否则i=i+1,转步骤二,其中,T1为初次提举动作开始记录时间,h1为提举开始的高度;Z2为左脚踝到右脚踝的中心点Z坐标的数据;Z1为左手到右手的中心点Z坐标的数据;v1为提举开始的速度;Y2为左脚踝到右脚踝的中心点Y坐标的数据;Y1为左手到右手的中心点Y坐标的数据;i为连续数据序号,通过i=i+1,识别连续数据的状况;步骤三、提举动作终止识别;
持续计算l1,i,计算15项数据的平均值标准差当σ1≥5,y3,i-y5,i>0且y4,i-y6,i>0,认为开始提举动作终止,此时的h2=Z2-Z1,v2=Y1-Y2,D=v2-v1,j=j+1,初始j=0, 记录提举结束时刻T2,转步骤二;否则i=i+1,转步骤三;其中,h2为提举终止的高度;v2为提举终止的速度;v1为提举开始的速度;D为提举起始与终止的垂直间距;j为记录的提举的次数;A为偏离矢状面的角度;P1为记录的双手在XOZ平面偏离X轴的角度;P2为记录的双手在XOY平面偏离X轴的角度;Q为记录的双手的间距;Z2为左脚踝到右脚踝的中心点Z坐标的数据;Z1为左手到右手的中心点Z坐标的数据;Y2为左脚踝到右脚踝的中心点Y坐标的数据;Y1为左手到右手的中心点Y坐标的数据;
步骤四、确定频率系数FM;
频率系数FM通过提举的次数j和提举时间T=T2-T1来决定,可得频率再根据频率k、提举起始与终止的垂直间距D和提举持续时间T查阅频率系数FM表即可得到频率系数FM;其中,T2为提举结束时刻,T1为初次提举动作开始记录时间;j为记录的提举的次数;
步骤五、确定物体抓取的难易程度;
物体抓取的难易程度通过双手在XOZ平面偏离X轴的角度P1,双手在XOY平面偏离X轴的角度P2和双手的间距Q来判定;具体判定标准如表难易程度划分表所示,具体如下:
表2难易程度划分
步骤六、确定物体系数CM;
物体系数CM通过提举起始与终止的垂直间距D和物体抓取的难易程度进行划分;具体判定如物体系数表所示,具体如下:
表3物体系数
步骤七、求得提举重量推荐值RWL;
根据NIOSH提举方程RWL=23KG×HM×VM×DM×AM×FM×CM最终求得提举重量推荐值RWL,其中,HM为水平系数;VM为高度系数;DM为距离系数;AM为角度系数。
本发明的有益效果为:
本发明通过对提举动作的开始及终止动作进行识别,通过双手和双脚踝的坐标中点、双手距离和偏移角度、脚踝的偏移角度等指标对水平系数、高度系数、距离系数、角度系数、频率系数和物体系数进行自动测算,从而减少专业人员的工作量,减少人力成本。
附图说明
图1为本发明的提举示意图。
具体实施方式
一种基于NIOSH提举方程的评估方法,该方法利用Kinect V2设备,通过人体骨骼点的数据采集,可以自动得到水平系数HM、高度系数VM、距离系数DM、角度系数AM、频率系数FM和物体系数CM,从而求出提举限值RWL。
已知NIOSH提举方程RWL=23KG×HM×VM×DM×AM×FM×CM。其中,23KG为重量常数;水平系数H表示提举起始高度h1或终止高度h2双手中心距离两踝关节中间的水平距离,单位为cm。高度系数VM=1-0.003|V-75|,V表示提举起始速度v1或终止速度v2双手中心距地面的垂直距离,单位为cm。距离系数D表示提举起始与终止的垂直间距,单位为cm。频率系数FM表示提举的频率参数,角度系数AM=1-0.0032×A,A表示偏离矢状面的角度(本申请识别为双手在XOZ平面偏离X轴的角度)。物体系数CM表示提举物体的抓取难度。
参阅图1,该评估方法包括以下步骤:
步骤一、将Kinect V2设备放置于提举物体的正前方,通过Kinect V2设备捕捉人体25个部位骨骼点数据;
其中25个部位骨骼点包括头、颈、肩中心、左拇指、右拇指、左指尖、右指尖、左手、右手、左手腕、右手腕、左肘、右肘、左肩膀、右肩膀、脊柱、髋关节中心、左臀、左膝盖、左脚踝、左脚、右臀、右膝盖、右脚踝、右脚;其中,A1(x1,i,y1,i,z1,i)表示第i帧左手的坐标点,每秒25帧,1帧0.04秒;A2(x2,i,y2,i,z2,i)表示第i帧右手的坐标点,每秒25帧,1帧0.04秒;A3(x3,i,y3,i,z3,i)表示第i帧左肘的坐标点,每秒25帧,1帧0.04秒;A4(x4,i,y4,i,z4,i)表示第i帧右肘的坐标点,每秒25帧,1帧0.04秒;A5(x5,i,y5,i,z5,i)表示第i帧左肩膀的坐标点,每秒25帧,1帧0.04秒;A6(x6,i,y6,i,z6,i)表示第i帧右肩膀的坐标点,每秒25帧,1帧0.04秒;A7(x7,i,y7,i,z7,i)表示第i帧左脚踝的坐标点,每秒25帧,1帧0.04秒;A8(x8,i,y8,i,z8,i)表示第i帧右脚踝的坐标点,每秒25帧,1帧0.04秒;
得到左手到右手的向量左肩膀到左肘的向量右肩膀到右肘的向量左肩膀到右肩膀的向量左脚踝到右脚踝的向量左手到右手的中心点左脚踝到右脚踝的中心点左手到右手的距离左肩膀到左肘的向量与左肩膀到右肩膀的向量夹角右肩膀到右肘的向量与左肩膀到右肩膀的向量夹角
步骤二、提举动作开始识别;
记录操作动作的每一帧数据,持续计算l1,i,当每i帧出现15个连续数据时,计算15项数据的平均值标准差当σ1<5,θ1∈(75°,105°)且θ2∈(75°,105°),认为开始提举动作,记录此时时刻T1,此时的h1=Z2-Z1,v1=Y1-Y2,i=i+1转步骤三;否则i=i+1,转步骤二,其中,T1为初次提举动作开始记录时间,h1为提举开始的高度;Z2为左脚踝到右脚踝的中心点Z坐标的数据;Z1为左手到右手的中心点Z坐标的数据;v1为提举开始的速度;Y2为左脚踝到右脚踝的中心点Y坐标的数据;Y1为左手到右手的中心点Y坐标的数据;i为连续数据序号,通过i=i+1,识别连续数据的状况;
步骤三、提举动作终止识别;
持续计算l1,i,计算15项数据的平均值标准差当σ1≥5,y3,i-y5,i>0且y4,i-y6,i>0,认为开始提举动作终止,此时的h2=Z2-Z1,v2=Y1-Y2,D=v2-v1,j=j+1,初始j=0, 记录提举结束时刻T2,转步骤二;否则i=i+1,转步骤三;其中,h2为提举终止的高度;v2为提举终止的速度;D为提举起始与终止的垂直间距;j为记录的提举的次数;A为偏离矢状面的角度;P1为记录的双手在XOZ平面偏离X轴的角度;P2为记录的双手在XOY平面偏离X轴的角度;Q为记录的双手的间距;Z2为左脚踝到右脚踝的中心点Z坐标的数据;Z1为左手到右手的中心点Z坐标的数据;Y2为左脚踝到右脚踝的中心点Y坐标的数据;Y1为左手到右手的中心点Y坐标的数据;
步骤四、确定频率系数FM;
频率系数FM通过提举的次数j和提举时间T=T2-T1来决定,可得频率再根据频率k、提举起始与终止的垂直间距D和提举持续时间T查阅NOISH提举方程表1即可得到FM;其中,T2为提举结束时刻,T1为初次提举动作开始记录时间;j为记录的提举的次数;
表1频率系数FM
步骤五、确定物体抓取的难易程度;
物体抓取的难易程度通过双手在XOZ平面偏离X轴的角度P1,双手在XOY平面偏离X轴的角度P2和双手的间距Q来判定;具体判定标准如表难易程度划分表所示;具体见下表2,
表2难易程度划分
步骤六、确定物体系数CM;
物体系数CM通过提举起始与终止的垂直间距D和物体抓取的难易程度进行划分;具体判定如物体系数表所示;具体见下表3,
表3物体系数
步骤七、求得提举重量推荐值RWL;
根据NIOSH提举方程RWL=23KG×HM×VM×DM×AM×FM×CM最终求得提举重量推荐值RWL,其中,HM为水平系数;VM为高度系数;DM为距离系数;AM为角度系数。
计算机最后将各类系数带入NIOSH提举方程即可自动求出提举重量推荐值RWL。

Claims (1)

1.一种基于NIOSH提举方程的评估方法,其特征在于,该评估方法包括以下步骤:
步骤一、将Kinect V2设备放置于提举物体的正前方,通过Kinect V2设备捕捉人体25个部位骨骼点数据;
其中25个部位骨骼点包括头、颈、肩中心、左拇指、右拇指、左指尖、右指尖、左手、右手、左手腕、右手腕、左肘、右肘、左肩膀、右肩膀、脊柱、髋关节中心、左臀、左膝盖、左脚踝、左脚、右臀、右膝盖、右脚踝、右脚;其中,A1(x1,i,y1,i,z1,i)表示第i帧左手的坐标点,每秒25帧,1帧0.04秒;A2(x2,i,y2,i,z2,i)表示第i帧右手的坐标点,每秒25帧,1帧0.04秒;A3(x3,i,y3,i,z3,i)表示第i帧左肘的坐标点,每秒25帧,1帧0.04秒;A4(x4,i,y4,i,z4,i)表示第i帧右肘的坐标点,每秒25帧,1帧0.04秒;A5(x5,i,y5,i,z5,i)表示第i帧左肩膀的坐标点,每秒25帧,1帧0.04秒;A6(x6,i,y6,i,z6,i)表示第i帧右肩膀的坐标点,每秒25帧,1帧0.04秒;A7(x7,i,y7,i,z7,i)表示第i帧左脚踝的坐标点,每秒25帧,1帧0.04秒;A8(x8,i,y8,i,z8,i)表示第i帧右脚踝的坐标点,每秒25帧,1帧0.04秒;
得到左手到右手的向量左肩膀到左肘的向量右肩膀到右肘的向量左肩膀到右肩膀的向量左脚踝到右脚踝的向量左手到右手的中心点左脚踝到右脚踝的中心点左手到右手的距离左肩膀到左肘的向量与左肩膀到右肩膀的向量夹角右肩膀到右肘的向量与左肩膀到右肩膀的向量夹角
步骤二、提举动作开始识别;
记录操作动作的每一帧数据,持续计算l1,i,当每i帧出现15个连续数据时,计算15项数据的平均值标准差当σ1<5,θ1∈(75°,105°)且θ2∈(75°,105°),认为开始提举动作,记录此时时刻T1,此时的h1=Z2-Z1,v1=Y1-Y2,i=i+1转步骤三;否则i=i+1,转步骤二,其中,T1为初次提举动作开始记录时间,h1为提举开始的高度;Z2为左脚踝到右脚踝的中心点Z坐标的数据;Z1为左手到右手的中心点Z坐标的数据;v1为提举开始的速度;Y2为左脚踝到右脚踝的中心点Y坐标的数据;Y1为左手到右手的中心点Y坐标的数据;i为连续数据序号,通过i=i+1,识别连续数据的状况;
步骤三、提举动作终止识别;
持续计算l1,i,计算15项数据的平均值标准差当σ1≥5,y3,i-y5,i>0且y4,i-y6,i>0,认为开始提举动作终止,此时的h2=Z2-Z1,v2=Y1-Y2,D=v2-v1,j=j+1,初始j=0, Q=l1,i,i=i+1,记录此时时刻T2,转步骤二;否则i=i+1,转步骤三;其中,h2为提举终止的高度;v2为提举终止的速度;v1为提举开始的速度;D为提举起始与终止的垂直间距;j为记录的提举的次数;A为偏离矢状面的角度;P1为记录的双手在XOZ平面偏离X轴的角度;P2为记录的双手在XOY平面偏离X轴的角度;Q为记录的双手的间距;Z2为左脚踝到右脚踝的中心点Z坐标的数据;Z1为左手到右手的中心点Z坐标的数据;Y2为左脚踝到右脚踝的中心点Y坐标的数据;Y1为左手到右手的中心点Y坐标的数据;
步骤四、确定频率系数FM;
频率系数FM通过提举的次数j和提举时间T=T2-T1来决定,可得频率再根据频率k、提举起始与终止的垂直间距D和提举持续时间T查阅频率系数FM表即可得到频率系数FM;其中,T2为提举结束时刻,T1为初次提举动作开始记录时间;j为记录的提举的次数;
步骤五、确定物体抓取的难易程度;
物体抓取的难易程度通过双手在XOZ平面偏离X轴的角度P1,双手在XOY平面偏离X轴的角度P2和双手的间距Q来判定;具体判定标准如表难易程度划分表所示,具体如下:
表2难易程度划分
步骤六、确定物体系数CM;
物体系数CM通过提举起始与终止的垂直间距D和物体抓取的难易程度进行划分;具体判定如物体系数表所示;具体如下:
表3物体系数
步骤七、求得提举重量推荐值RWL;
根据NIOSH提举方程RWL=23KG×HM×VM×DM×AM×FM×CM最终求得提举重量推荐值RWL,其中,HM为水平系数;VM为高度系数;DM为距离系数;AM为角度系数。
CN201810945758.0A 2018-08-20 2018-08-20 一种基于niosh提举方程的评估方法 Expired - Fee Related CN109117799B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810945758.0A CN109117799B (zh) 2018-08-20 2018-08-20 一种基于niosh提举方程的评估方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810945758.0A CN109117799B (zh) 2018-08-20 2018-08-20 一种基于niosh提举方程的评估方法

Publications (2)

Publication Number Publication Date
CN109117799A CN109117799A (zh) 2019-01-01
CN109117799B true CN109117799B (zh) 2019-07-12

Family

ID=64853430

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810945758.0A Expired - Fee Related CN109117799B (zh) 2018-08-20 2018-08-20 一种基于niosh提举方程的评估方法

Country Status (1)

Country Link
CN (1) CN109117799B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110047591B (zh) * 2019-04-23 2023-02-21 吉林大学 一种针对外科手术过程中医生姿态评估方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106960473A (zh) * 2017-03-27 2017-07-18 北京交通大学 一种行为感知***及方法
CN107831897A (zh) * 2017-11-17 2018-03-23 吉林大学 一种虚拟装配操作中rula评测方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008097499A1 (en) * 2007-02-02 2008-08-14 Hartford Fire Insurance Company Safety evaluation and feedback system and method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106960473A (zh) * 2017-03-27 2017-07-18 北京交通大学 一种行为感知***及方法
CN107831897A (zh) * 2017-11-17 2018-03-23 吉林大学 一种虚拟装配操作中rula评测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Real time RULA assessment using Kinect v2 sensor;Vito Modesto Manghisi等;《Applied Ergonomics》;20171231;第481-491页
基于NIOSH手工提举方程的汽车配件搬运作业的工效学改善研究;孙林辉 等;《人类工效学》;20161031;第22卷(第5期);第55-58页

Also Published As

Publication number Publication date
CN109117799A (zh) 2019-01-01

Similar Documents

Publication Publication Date Title
Wang et al. Development of anthropometric work environment for Taiwanese workers
CN107831897B (zh) 一种虚拟装配操作中rula评测方法
CN106780530B (zh) 一种体型预测方法及设备
CN105608467A (zh) 基于Kinect的无接触式学生体质测评方法
JP2014530047A (ja) ゴルフ・スイングを分析するための装置および方法
US20200074667A1 (en) Clothing Size Determination Systems and Methods of Use
CN111883229B (zh) 一种基于视觉ai的智能运动指导方法及***
Yu et al. ESTIMATING CONSTRUCTION WORKERS'PHYSICAL WORKLOAD BY FUSING COMPUTER VISION AND SMART INSOLE TECHNOLOGIES
US11450148B2 (en) Movement monitoring system
CN111105881B (zh) 一种3d测量人类表型的数据库***
Oyekan et al. Applying a fusion of wearable sensors and a cognitive inspired architecture to real-time ergonomics analysis of manual assembly tasks
CN109117799B (zh) 一种基于niosh提举方程的评估方法
JP2022544793A (ja) 身体活動のコンテキストにおいて対象者に関する生体力学的活動及び生体力学的リスク因子への曝露を解析するための方法及びシステム
CN110047591A (zh) 一种针对外科手术过程中医生姿态评估方法
Haratian et al. Toward flexibility in sensor placement for motion capture systems: a signal processing approach
Bassani et al. A dataset of human motion and muscular activities in manual material handling tasks for biomechanical and ergonomic analyses
CN108958478A (zh) 一种虚拟装配操作中脚踏动作识别和评估方法
US9639151B2 (en) Method and apparatus for presenting an option
CN110675936A (zh) 一种基于OpenPose和双目视觉的健体代偿评估方法和***
CN115607899A (zh) 一种基于虚拟现实的脑卒中肢体康复训练***及方法
Grassi et al. Spatiotemporal consistency of trajectories in gymnastics: a three-dimensional analysis of flic-flac
Sanders et al. Accuracy of derived ground reaction force curves for a rigid link human body model
CN110852137B (zh) 一种个体紧张评估方法
Hulleck et al. Accuracy of computer vision-based pose estimation algorithms in predicting joint kinematics during gait
Bonin et al. Digital Assessment of Anthropometric and Kinematic Parameters for the Individualization of Direct Human-Robot Collaborations

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20190712

Termination date: 20200820