CN113781462A - 一种人体伤残检测方法、装置、设备及存储介质 - Google Patents

一种人体伤残检测方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN113781462A
CN113781462A CN202111091683.2A CN202111091683A CN113781462A CN 113781462 A CN113781462 A CN 113781462A CN 202111091683 A CN202111091683 A CN 202111091683A CN 113781462 A CN113781462 A CN 113781462A
Authority
CN
China
Prior art keywords
disability
human body
user
information
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111091683.2A
Other languages
English (en)
Inventor
孙安国
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Ping An Medical Health Technology Service Co Ltd
Original Assignee
Ping An Medical and Healthcare Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Medical and Healthcare Management Co Ltd filed Critical Ping An Medical and Healthcare Management Co Ltd
Priority to CN202111091683.2A priority Critical patent/CN113781462A/zh
Publication of CN113781462A publication Critical patent/CN113781462A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

本申请公开了一种人体伤残检测方法、装置、设备及存储介质,属于人工智能技术领域。本申请通过识别用户状态图像中的人体区域以确定第一伤残信息,基于第一伤残信息确定示例动作视频,接收客户端上传的行为记录视频,其中,行为记录视频为用户完成示例动作视频中的行为动作时产生的视频影像,将行为记录视频导入到人体伤残检测模型,得到第二伤残信息,基于第一伤残信息和第二伤残信息,生成待检测用户的伤残检测结果。此外,本申请还涉及区块链技术,用户的伤残检测结果可存储于区块链中。本申请通过结合体表伤残情况和关节伤残情况来实现全面的伤残检测,能够降低人力投入,可以减少检测误差,提高检测精度。

Description

一种人体伤残检测方法、装置、设备及存储介质
技术领域
本申请属于人工智能技术领域,具体涉及一种人体伤残检测方法、装置、设备及存储介质。
背景技术
目前,针对于人体的伤残鉴定,现有的检测方案是通过专业医生或者医护人员评估伤残患者体表状态,并辅助伤残患者完成测量动作,获得患者各个关节的活动角度,同时对患者进行问卷调查,最后由专业医生或者医护人员根据伤残患者体表状态、各个关节的活动角度和问卷调查结果,判断患者的伤残情况。但是现有的人体伤残鉴定方案在执行时需要至少两名专业医生或者医护人员参与,这就需要耗费较大的人力投入,且上述方案结合问卷结果进行间接预估,带有主观因素影响,这种预估方式不是很准确较差,检测结果可能偏差较大,导致检测结果不准确。
发明内容
本申请实施例的目的在于提出一种人体伤残检测方法、装置、计算机设备及存储介质,以解决现有伤残检测方案存在的过多耗费人力资源,以及过于依赖主观判定,导致检测结果不准确的技术问题。
为了解决上述技术问题,本申请实施例提供一种人体伤残检测方法,采用了如下所述的技术方案:
一种人体伤残检测方法,包括:
接收客户端上传的用户状态图像,并对所述用户状态图像进行扫描,识别所述用户状态图像中的人体区域,其中,所述用户状态图像为待检测用户伤残状态下的图像;
基于所述用户状态图像中的人体区域,确定所述待检测用户的第一伤残信息,其中,所述第一伤残信息为体表伤残信息;
基于所述第一伤残信息确定示例动作视频,并将所述示例动作视频发送至所述客户端;
接收所述客户端上传的行为记录视频,其中,所述行为记录视频为所述待检测用户完成所述示例动作视频中的行为动作时产生的视频影像;
将所述行为记录视频导入到预先训练好的人体伤残检测模型,得到所述待检测用户的第二伤残信息,其中,所述第二伤残信息为关节伤残信息;
基于所述第一伤残信息和所述第二伤残信息,生成所述待检测用户的伤残检测结果。
进一步地,所述接收客户端上传的用户状态图像,并对所述用户状态图像进行扫描,识别所述用户状态图像中的人体区域的步骤,具体包括:
获取所述用户状态图像中的人体轮廓特征;
对所述用户状态图像进行去噪处理,去除所述用户状态图像的椒盐噪点,得到去噪图像;
基于所述去噪图像和所述人体轮廓特征,确定所述用户状态图像中的人体区域。
进一步地,所述基于所述用户状态图像中的人体区域,确定所述待检测用户的第一伤残信息的步骤,具体包括:
将识别人体区域后的所述用户状态图像输入到预先训练好的肢体检测模型;
对所述用户状态图像中的人体区域进行特征提取,得到人体图像特征,其中,所述人体图像特征包括空间特征和纹理特征;
获取所述肢体检测模型的中心约束条件,并基于所述中心约束条件对所述空间特征和所述纹理特征进行特性融合,得到图像融合特征;
计算所述图像融合特征和预设的标准特征的相似度,并基于所述相似度得到所述待检测用户的第一伤残信息。
进一步地,所述将所述行为记录视频导入到预先训练好的人体伤残检测模型,得到所述待检测用户的第二伤残信息的步骤之前,还包括:
计算所述行为记录视频中相邻两个视频帧的直方图数据和灰度图数据;
基于所述直方图数据和所述灰度图数据,计算相邻两个视频帧的加权欧式距离;
基于所述加权欧式距离确定所述行为记录视频的镜头转换边界;
基于所述镜头转换边界确定所述行为记录视频中的关键帧图像。
进一步地,所述将所述行为记录视频导入到预先训练好的人体伤残检测模型,得到所述待检测用户的第二伤残信息的步骤,具体包括:
对所述所述行为记录视频中的关键帧图像进行人体关节点检测,获取所述关键帧图像中的人体关节点;
对所述关键帧图像中的人体关节点进行标注,得到人体关节点信息;
将所述人体关节点信息导入到预先训练好的人体伤残检测模型,得到所述待检测用户的第二伤残信息。
进一步地,所述对所述关键帧图像中的人体关节点进行标注,得到人体关节点信息的步骤,具体包括:
构建图像坐标系,并基于所述图像坐标系获取所述人体关节点坐标;
计算所述人体关节点之间的亲和力值,并基于所述亲和力场对所述人体关节点进行连接;
计算人体关节点连线之间的夹角,得到人体关节活动角度;
基于所述人体关节点坐标和所述人体关节活动角度,生成所述人体关节点信息。
进一步地,所述人体伤残检测模型包括编码层和解码层,所述将所述人体关节点信息导入到预先训练好的人体伤残检测模型,得到所述待检测用户的第二伤残信息的步骤,具体包括:
对所述人体关节点信息进行特征提取,得到特征向量;
将所述特征向量导入所述编码层,对所述特征向量进行编码,得到编码向量;
对所述编码向量进行空间映射,获取空间映射结果;
将所述空间映射结果导入所述解码层,对所述空间映射结果进行解码,得到所述待检测用户的第二伤残信息。
为了解决上述技术问题,本申请实施例还提供一种人体伤残检测装置,采用了如下所述的技术方案:
一种人体伤残检测装置,包括:
用户状态图像接收模块,用于接收客户端上传的用户状态图像,并对所述用户状态图像进行扫描,识别所述用户状态图像中的人体区域,其中,所述用户状态图像为待检测用户伤残状态下的图像;
第一伤残信息生成模块,用于基于所述用户状态图像中的人体区域,确定所述待检测用户的第一伤残信息,其中,所述第一伤残信息为体表伤残信息;
示例动作视频生成模块,用于基于所述第一伤残信息确定示例动作视频,并将所述示例动作视频发送至所述客户端;
行为记录视频接收模块,用于接收所述客户端上传的行为记录视频,其中,所述行为记录视频为所述待检测用户完成所述示例动作视频中的行为动作时产生的视频影像;
第二伤残信息生成模块,用于将所述行为记录视频导入到预先训练好的人体伤残检测模型,得到所述待检测用户的第二伤残信息,其中,所述第二伤残信息为关节伤残信息;
伤残检测结果预测模块,用于基于所述第一伤残信息和所述第二伤残信息,生成所述待检测用户的伤残检测结果。
为了解决上述技术问题,本申请实施例还提供一种计算机设备,采用了如下所述的技术方案:
一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机可读指令,所述处理器执行所述计算机可读指令时实现如上述所述的人体伤残检测方法的步骤。
为了解决上述技术问题,本申请实施例还提供一种计算机可读存储介质,采用了如下所述的技术方案:
一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机可读指令,所述计算机可读指令被处理器执行时实现如上述所述的人体伤残检测方法的步骤。
与现有技术相比,本申请实施例主要有以下有益效果:
本申请公开了一种人体伤残检测方法、装置、设备及存储介质,属于人工智能技术领域。本申请通过识别用户状态图像中的人体区域,初步判断待检测用户的伤残情况,得到体表伤残信息,并基于初步伤残情况为待检测用户生成个性化的示例动作影像,然后获取检测用户完成示例动作时产生的行为记录视频,并通过预先训练好的人体伤残检测模型对行为记录视频进行识别和解析,得到待检测用户的关节伤残信息,最后基于待检测用户的体表伤残信息和关节伤残信息,生成待检测用户的伤残检测报告。本申请的技术方案能够结合体表伤残情况和关节伤残情况来实现全面的伤残检测,能够降低人力投入,可以减少检测误差,提高检测精度。
附图说明
为了更清楚地说明本申请中的方案,下面将对本申请实施例描述中所需要使用的附图作一个简单介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出了本申请可以应用于其中的示例性***架构图;
图2示出了根据本申请的一种人体伤残检测方法的一个实施例的流程图;
图3示出了根据本申请的一种人体伤残检测装置的一个实施例的结构示意图;
图4示出了根据本申请的计算机设备的一个实施例的结构示意图。
具体实施方式
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同;本文中在申请的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本申请;本申请的说明书和权利要求书及上述附图说明中的术语“包括”和“具有”以及它们的任何变形,意图在于覆盖不排他的包含。本申请的说明书和权利要求书或上述附图中的术语“第一”、“第二”等是用于区别不同对象,而不是用于描述特定顺序。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
为了使本技术领域的人员更好地理解本申请方案,下面将结合附图,对本申请实施例中的技术方案进行清楚、完整地描述。
如图1所示,***架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如网页浏览器应用、购物类应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等。
终端设备101、102、103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、MP3播放器(Moving PictureExpertsGroup Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(MovingPictureExperts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、膝上型便携计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103上显示的页面提供支持的后台服务器,服务器可以是独立的服务器,也可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(Content Delivery Network,CDN)、以及大数据和人工智能平台等基础云计算服务的云服务器。
需要说明的是,本申请实施例所提供的人体伤残检测方法一般由服务器执行,相应地,人体伤残检测装置一般设置于服务器中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,示出了根据本申请的人体伤残检测的方法的一个实施例的流程图。,本申请实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用***。
人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互***、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、机器人技术、生物识别技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。所述的人体伤残检测方法,包括以下步骤:
S201,接收客户端上传的用户状态图像,并对所述用户状态图像进行扫描,识别所述用户状态图像中的人体区域,其中,所述用户状态图像为待检测用户伤残状态下的图像。
具体的,服务器接收到客户端上传的伤残检测指令后,启动检测程序,先接收客户端上传的用户状态图像,并对用户状态图像进行全局扫描,识别用户状态图像中的人体区域,其中,用户状态图像指的是通过摄像设备拍摄的待检测用户当前状态下的照片。
在本实施例中,人体伤残检测方法运行于其上的电子设备(例如图1所示的服务器)可以通过有线连接方式或者无线连接方式接收到客户端上传的伤残检测指令。需要指出的是,上述无线连接方式可以包括但不限于3G/4G连接、WiFi连接、蓝牙连接、WiMAX连接、Zigbee连接、UWB(ultra wideband)连接、以及其他现在已知或将来开发的无线连接方式。
S202,基于所述用户状态图像中的人体区域,确定所述待检测用户的第一伤残信息,其中,所述第一伤残信息为体表伤残信息。
具体的,第一伤残信息为体表伤残信息,包括伤残部位以及伤残等级,如一级手臂伤残、一级大腿伤残等等。服务器通过确定用户状态图像中的人体区域,并将用户状态图像中的人体区域输入到预先训练好的肢体检测模型,可以获得待检测用户的第一伤残信息,即体表伤残部位以及伤残等级。
S203,基于所述第一伤残信息确定示例动作视频,并将所述示例动作视频发送至所述客户端。
其中,每一种第一伤残信息对应一种示例动作视频,例如,一级手臂伤残对应一级手臂伤残示例动作视频,示例动作视频预先存储在服务器中。
具体的,服务器通过肢体检测模型识别出待检测用户的第一伤残信息后,遍历存储在服务器中的示例动作视频,确定与待检测用户的第一伤残信息对应的示例动作视频,并将该示例动作视频发送至客户端。
需要说明的是,客户端接收上述示例动作视频后,在显示界面上展示该示例动作视频,同时引导用户按照示例动作视频的提示完成相应的示例动作,由一个辅助人员辅助用户完成预设行为动作或者由用户自行完成示例动作,能够降低人力投入。并在用户完成期间,调用客户端摄像头,以记录用户完成示例动作的整个过程,生成行为记录视频。
S204,接收所述客户端上传的行为记录视频,其中,所述行为记录视频为所述待检测用户完成所述示例动作视频中的行为动作时产生的视频影像。
具体的,服务器在检测到用户完成示例动作后,指示客户端上传的行为记录视频,然后服务器接收客户端上传的行为记录视频,并对行为记录视频进行预处理,以获取行为记录视频中的关键帧图像。
S205,将所述行为记录视频导入到预先训练好的人体伤残检测模型,得到所述待检测用户的第二伤残信息,其中,所述第二伤残信息为关节伤残信息。
其中,人体伤残检测模型基于transformer网络架构构建,Transformer是一种基于encoder(编码器)-decoder(解码器)结构的模型,其编码器和解码器均是由注意力模块和前项神经网络构成,是第一个用纯attention搭建的模型,不仅计算速度更快,在翻译任务上获得了更好的结果。
具体的,服务器先识别行为记录视频中的关键帧图像上的所有人体关节点,并提取人体关节点的特征,形成特征向量,通过transformer网络的编码层对特征向量进行编码,得到编码向量,将编码向量映射到高维空间,获取空间映射结果,利用transformer网络的解码层对空间映射结果进行解码得到待检测用户的第二伤残信息,其中,第二伤残信息为体内关节伤残信息,如各个关键活动角度是否正常等等。
需要说明的是,在将特征向量输入到编码层之前,需要先将特征向量输入至自注意力层,获得预设自注意力层的Q权重(查询,query)、K权重(键,key)、V权重(值,value),将特征向量分别与三个预设的权重相乘,分别获得第一权重向量q、第二权重向量k、第三权重向量v,通过计算所述qk的点积,获得点积结果,为了防止其结果过大,将点积结果除以一个尺度标度(一般为query或者key的维度平方根),得到调整后的特征矩阵。将调整后的特征矩阵输入transformer网络的编码层,得到编码向量,将编码向量映射到高维空间,获取空间映射结果,利用transformer网络的解码层对空间映射结果进行解码,得到解码信息,通过softmax函数对解码信息进行归一化,获得概率分布,例如:softmax([2,4,4])=[0.0,0.5,0.5],将概率分别中的最大值乘以V(值,value)获得待检测用户的第二伤残信息。
S206,基于所述第一伤残信息和所述第二伤残信息,生成所述待检测用户的伤残检测结果。
具体的,服务器整合基于第一伤残信息和第二伤残信息,生成待检测用户的伤残检测结果,并将伤残检测结果发送至用户的客户端,供用户查看。本申请通过结合体表伤残情况和关节伤残情况来实现全面的伤残检测,能够降低人力投入,可以减少检测误差,提高检测精度。
在上述实施例中,本申请通过识别用户状态图像中的人体区域,初步判断待检测用户的伤残情况,得到体表伤残信息,并基于初步伤残情况为待检测用户生成个性化的示例动作影像,然后获取检测用户完成示例动作时产生的行为记录视频,并通过预先训练好的人体伤残检测模型对行为记录视频进行识别和解析,得到待检测用户的关节伤残信息,最后基于待检测用户的体表伤残信息和关节伤残信息,生成待检测用户的伤残检测报告。本申请的技术方案能够结合体表伤残情况和关节伤残情况来实现全面的伤残检测,能够降低人力投入,可以减少检测误差,提高检测精度。
进一步地,所述接收客户端上传的用户状态图像,并对所述用户状态图像进行扫描,识别所述用户状态图像中的人体区域的步骤,具体包括:
获取所述用户状态图像中的人体轮廓特征;
对所述用户状态图像进行去噪处理,去除所述用户状态图像的椒盐噪点,得到去噪图像;
基于所述去噪图像和所述人体轮廓特征,确定所述用户状态图像中的人体区域。
具体的,服务器通过扫描用户状态图像,获取用户状态图像中的人体轮廓特征,以获得人体边缘轮廓,在本申请具体的实施例中,可以通过对用户状态图像进行二值化或红外转化等方式以获取用户状态图像中的人体轮廓特征,对此本申请并不做限定。服务器再对用户状态图像进行去噪处理,去除用户状态图像的椒盐噪点,得到去噪图像,以保证图像的清晰度;最后服务器基于去噪图像和人体轮廓特征,确定用户状态图像中的人体区域。
在上述实施例中,为了便于后续进行人体体表伤残情况的检测,服务器需要预先对用户状态图像进行预处理,预处理包括图像转换、去噪处理以及人体区域识别,通过上述图像预处理,获得用户状态图像中的人体区域,方便后续进行人体体表伤残情况的检测。
进一步地,所述基于所述用户状态图像中的人体区域,确定所述待检测用户的第一伤残信息的步骤,具体包括:
将识别人体区域后的所述用户状态图像输入到预先训练好的肢体检测模型;
对所述用户状态图像中的人体区域进行特征提取,得到人体图像特征,其中,所述人体图像特征包括空间特征和纹理特征;
获取所述肢体检测模型的中心约束条件,并基于所述中心约束条件对所述空间特征和所述纹理特征进行特性融合,得到图像融合特征;
计算所述图像融合特征和预设的标准特征的相似度,并基于所述相似度得到所述待检测用户的第一伤残信息。
其中,肢体检测模型采用的是CMP(Critical Path Method,关键路径)模型,CPM的贡献在于使用顺序化的卷积架构来表达空间信息和纹理信息。CPM网络分为多个阶段,每一个阶段都有监督训练的部分。前面的阶段使用原始图片作为输入,后面阶段使用之前阶段的特征图作为输入,主要是为了融合空间信息、纹理信息和中心约束。另外,对同一个卷积架构同时使用多个尺度处理输入的特征和响应,这样既能保证精度,又考虑了各特征之间的远近距离关系。
CPM网络处理过程分为三个阶段,每个阶段都能输出各个特征的响应,使用时以最后一个阶段的响应输出为准。第一阶段通过一个卷积层对图像进行特征提取,以直接预测每个特征的响应;第二阶段也是通过一个卷积层实现,但是在卷积层中多配置了一个串联层,串联层内保存有中心约束,获取第一阶段的特征响应,把以第一阶段的特征响应和中心约束融合,生成深度特征图;第三阶段不再使用原始图像为输入,而是从第二阶段中的的特征特征图作为输入,同样使用串联层再次融合特征,保证图像特征能够被完全保留,防止特征丢失。其中,中心约束是一个训练模型时生成的高斯函数模板,用来把响应归拢到图像中心。
具体的,肢体检测模型包括输入层、卷积层和输出层,服务器将识别人体区域后的用户状态图像输入到肢体检测模型的输入层,在肢体检测模型的输入层对用户状态图像中的人体区域进行特征提取,得到人体图像特征,并将人体图像特征导入到肢体检测模型的卷积层,其中,人体图像特征包括空间特征和纹理特征。肢体检测模型的卷积层中多配置了一个串联层,串联层内保存有中心约束,卷积层在接收到人体图像特征后,获取串联层的中心约束条件,并基于中心约束条件对空间特征和纹理特征进行特性融合,得到图像融合特征,并将图像融合特征发送至肢体检测模型的输出层。在肢体检测模型的输出层计算图像融合特征和预设的标准特征的相似度,并基于相似度得到待检测用户的第一伤残信息。
在上述实施例中,通过预先训练好的肢体检测模型对输入的用户状态图像进行处理,以获得待检测用户的第一伤残信息,肢体检测模型内包含多个针对图像特征进行处理的卷积层,保证图像特征能够被完全保留,防止特征丢失。
进一步地,所述将所述行为记录视频导入到预先训练好的人体伤残检测模型,得到所述待检测用户的第二伤残信息的步骤之前,还包括:
计算所述行为记录视频中相邻两个视频帧的直方图数据和灰度图数据;
基于所述直方图数据和所述灰度图数据,计算相邻两个视频帧的加权欧式距离;
基于所述加权欧式距离确定所述行为记录视频的镜头转换边界;
基于所述镜头转换边界确定所述行为记录视频中的关键帧图像。
具体的,在将行为记录视频导入到预先训练好的人体伤残检测模型之前,服务器先获取相邻两个视频帧的参数,并计算相邻两个视频帧的直方图数据和灰度图数据,其中,直方图数据包括直方图的帧差异值,灰度图数据包括灰度图的均值差值和灰度图的方差差值。对直方图的帧差异值、灰度图的均值差值和灰度图的方差差值进行加权求和,得到相邻两个视频帧的加权欧式距离,通过比对加权欧式距离与预设镜头变化阈值来确定行为记录视频的镜头转换边界,然后根据镜头转换边界确定行为记录视频中的关键帧图像。
在上述实施例中,通过计算相邻两个视频帧的直方图数据和灰度图数据,以及计算直方图数据和灰度图数据加权欧式距离,并将加权欧式距离与预设镜头变化阈值比对,获得镜头转换边界,通过镜头转换边界确定视频中的关键帧图像。
进一步地,所述将所述行为记录视频导入到预先训练好的人体伤残检测模型,得到所述待检测用户的第二伤残信息的步骤,具体包括:
对所述所述行为记录视频中的关键帧图像进行人体关节点检测,获取所述关键帧图像中的人体关节点;
对所述关键帧图像中的人体关节点进行标注,得到人体关节点信息;
将所述人体关节点信息导入到预先训练好的人体伤残检测模型,得到所述待检测用户的第二伤残信息。
具体的,服务器将行为记录视频中的关键帧图像导入预设的多阶段网络,基于预设的多阶段网络对关键帧图进行人体关节点检测,识别关键帧图像上的人体关节点,对行为记录视频中的人体关节点进行标注,得到人体关节点信息,其中,人体关节点信息包括人体关节点坐标和人体关节活动角度。最后服务器将人体关节点信息导入到预先训练好的人体伤残检测模型,通过特征编码/解码和特征映射,生成待检测用户的第二伤残信息。
其中,多阶段网络可以是关键点亲和力场网络(Part Affinity Fields,PAF),PAF能够针对多人做到实时人体关键点检测,并生成人体关键点图像,PAF采用的是自底向上的方法,网络框架分为两路,一路为使用CNN网络根据人体轮廓图和预设的置信参数进行关节点预测,另一路使用CNN网络获得每个关节点的PAF值,PAF值为关节点的亲和力值,PAF可以看作是记录关节点相邻两个关节点连线的位置和方向的2D向量。其中,两路CNN网络均为多阶段网络结构,每一个阶段均有一个输出值,每一个阶段表示一个维度。两路CNN网络进行人体关键点的联合预测和连接,得到人体关键点图像。
在上述实施例中,本申请通过预先训练好的人体伤残检测模型对行为记录视频进行识别和解析,得到待检测用户的第二伤残信息,其中,第二伤残信息为待检测用户的关节伤残信息。
进一步地,所述对所述关键帧图像中的人体关节点进行标注,得到人体关节点信息的步骤,具体包括:
构建图像坐标系,并基于所述图像坐标系获取所述人体关节点坐标;
计算所述人体关节点之间的亲和力值,并基于所述亲和力场对所述人体关节点进行连接;
计算人体关节点连线之间的夹角,得到人体关节活动角度;
基于所述人体关节点坐标和所述人体关节活动角度,生成所述人体关节点信息。
具体的,服务器通过在关键帧图像上构建图像坐标系,并基于图像坐标系获取各个人体关节点坐标,然后计算相邻两个人体关节点之间的亲和力值,并基于亲和力场确定相邻两个人体关节点是否需要进行连接,当各个人体关节点连接完成后,计算相邻两个关节点连线之间的夹角,得到人体关节活动角度,基于人体关节点坐标和人体关节活动角度,生成人体关节点信息。
需要说明的是,判断相邻两个人体关节点亲和力场是否大于或等于预设阈值,当相邻两个人体关节点亲和力场大于或等于预设阈值时,对相邻两个人体关节点人体关节点进行匹配连接,当相邻两个人体关节点亲和力场小于预设阈值时,则不对这两个人体关节点进行连接。
进一步地,所述人体伤残检测模型包括编码层和解码层,所述将所述人体关节点信息导入到预先训练好的人体伤残检测模型,得到所述待检测用户的第二伤残信息的步骤,具体包括:
对所述人体关节点信息进行特征提取,得到特征向量;
将所述特征向量导入所述编码层,对所述特征向量进行编码,得到编码向量;
对所述编码向量进行空间映射,获取空间映射结果;
将所述空间映射结果导入所述解码层,对所述空间映射结果进行解码,得到所述待检测用户的第二伤残信息。
其中,人体伤残检测模基于transformer模型训练得到,transformer模型主要结构包括编码层和解码层,除此之外,在每一个编码层前面配置有对应的自注意力层,自注意力层用于提高关键特征的权重,在解码层后面配置有对应的全连接层,全连接层由softmax函数构成,用于实现结果的归一化。
具体的,对人体关节点信息进行特征提取,得到特征向量,将特征向量输入至自注意力层,调整特征向量中各个因子权重,将调整后的特征向量导入transformer模型的编码层,通过编码层对特征向量进行编码,得到编码向量,将编码向量映射到高维空间,获取空间映射结果,利用transformer网络的解码层对空间映射结果进行解码,得到解码信息,通过softmax函数对解码信息进行归一化,得到待检测用户的第二伤残信息。
本申请公开了一种人体伤残检测方法,属于人工智能技术领域。本申请通过识别用户状态图像中的人体区域,初步判断待检测用户的伤残情况,得到体表伤残信息,并基于初步伤残情况为待检测用户生成个性化的示例动作影像,然后获取检测用户完成示例动作时产生的行为记录视频,并通过预先训练好的人体伤残检测模型对行为记录视频进行识别和解析,得到待检测用户的关节伤残信息,最后基于待检测用户的体表伤残信息和关节伤残信息,生成待检测用户的伤残检测报告。本申请的技术方案能够结合体表伤残情况和关节伤残情况来实现全面的伤残检测,能够降低人力投入,可以减少检测误差,提高检测精度。
需要强调的是,为进一步保证上述用户的伤残检测结果的私密和安全性,上述用户的伤残检测结果还可以存储于一区块链的节点中。
本申请所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机可读指令来指令相关的硬件来完成,该计算机可读指令可存储于一计算机可读取存储介质中,该计算机可读指令在执行时,可包括如上述各方法的实施例的流程。其中,前述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)等非易失性存储介质,或随机存储记忆体(Random Access Memory,RAM)等。
应该理解的是,虽然附图的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,其可以以其他的顺序执行。而且,附图的流程图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,其执行顺序也不必然是依次进行,而是可以与其他步骤或者其他步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
进一步参考图3,作为对上述图2所示方法的实现,本申请提供了一种人体伤残检测装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图3所示,本实施例所述的人体伤残检测装置包括:
用户状态图像接收模块301,用于接收客户端上传的用户状态图像,并对所述用户状态图像进行扫描,识别所述用户状态图像中的人体区域,其中,所述用户状态图像为待检测用户伤残状态下的图像;
第一伤残信息生成模块302,用于基于所述用户状态图像中的人体区域,确定所述待检测用户的第一伤残信息,其中,所述第一伤残信息为体表伤残信息;
示例动作视频生成模块303,用于基于所述第一伤残信息确定示例动作视频,并将所述示例动作视频发送至所述客户端;
行为记录视频接收模块304,用于接收所述客户端上传的行为记录视频,其中,所述行为记录视频为所述待检测用户完成所述示例动作视频中的行为动作时产生的视频影像;
第二伤残信息生成模块305,用于将所述行为记录视频导入到预先训练好的人体伤残检测模型,得到所述待检测用户的第二伤残信息,其中,所述第二伤残信息为关节伤残信息;
伤残检测结果预测模块306,用于基于所述第一伤残信息和所述第二伤残信息,生成所述待检测用户的伤残检测结果。
进一步地,所述用户状态图像接收模块301具体包括:
人体轮廓获取单元,用于获取所述用户状态图像中的人体轮廓特征;
图像去噪单元,用于对所述用户状态图像进行去噪处理,去除所述用户状态图像的椒盐噪点,得到去噪图像;
人体区域识别单元,用于基于所述去噪图像和所述人体轮廓特征,确定所述用户状态图像中的人体区域。
进一步地,所述第一伤残信息生成模块302具体包括:
状态图像输入单元,用于将识别人体区域后的所述用户状态图像输入到预先训练好的肢体检测模型;
图像特征提取单元,用于对所述用户状态图像中的人体区域进行特征提取,得到人体图像特征,其中,所述人体图像特征包括空间特征和纹理特征;
图像特性融合单元,用于获取所述肢体检测模型的中心约束条件,并基于所述中心约束条件对所述空间特征和所述纹理特征进行特性融合,得到图像融合特征;
第一伤残信息生成单元,用于计算所述图像融合特征和预设的标准特征的相似度,并基于所述相似度得到所述待检测用户的第一伤残信息。
进一步地,所述人体伤残检测装置还包括:
图数据计算模块,用于计算所述行为记录视频中相邻两个视频帧的直方图数据和灰度图数据;
欧式距离计算模块,用于基于所述直方图数据和所述灰度图数据,计算相邻两个视频帧的加权欧式距离;
转换边界确认模块,用于基于所述加权欧式距离确定所述行为记录视频的镜头转换边界;
关键帧图像获取模块,用于基于所述镜头转换边界确定所述行为记录视频中的关键帧图像。
进一步地,所述第二伤残信息生成模块305具体包括:
人体关节点检测单元,用于对所述所述行为记录视频中的关键帧图像进行人体关节点检测,获取所述关键帧图像中的人体关节点;
人体关节点标注单元,用于对所述关键帧图像中的人体关节点进行标注,得到人体关节点信息;
第二伤残信息生成单元,用于将所述人体关节点信息导入到预先训练好的人体伤残检测模型,得到所述待检测用户的第二伤残信息。
进一步地,所述人体关节点标注单元具体包括:
坐标获取子单元,用于构建图像坐标系,并基于所述图像坐标系获取所述人体关节点坐标;
关节点连接子单元,用于计算所述人体关节点之间的亲和力值,并基于所述亲和力场对所述人体关节点进行连接;
活动角度获取子单元,用于计算人体关节点连线之间的夹角,得到人体关节活动角度;
关节点信息生成子单元,用于基于所述人体关节点坐标和所述人体关节活动角度,生成所述人体关节点信息。
进一步地,所述人体伤残检测模型包括编码层和解码层,所述第二伤残信息生成单元具体包括:
关节点特征提取子单元,用于对所述人体关节点信息进行特征提取,得到特征向量;
特征编码子单元,用于将所述特征向量导入所述编码层,对所述特征向量进行编码,得到编码向量;
空间映射子单元,用于对所述编码向量进行空间映射,获取空间映射结果;
特征解码子单元,用于将所述空间映射结果导入所述解码层,对所述空间映射结果进行解码,得到所述待检测用户的第二伤残信息。
本申请公开了一种人体伤残检测装置,属于人工智能技术领域。本申请通过识别用户状态图像中的人体区域,初步判断待检测用户的伤残情况,得到体表伤残信息,并基于初步伤残情况为待检测用户生成个性化的示例动作影像,然后获取检测用户完成示例动作时产生的行为记录视频,并通过预先训练好的人体伤残检测模型对行为记录视频进行识别和解析,得到待检测用户的关节伤残信息,最后基于待检测用户的体表伤残信息和关节伤残信息,生成待检测用户的伤残检测报告。本申请的技术方案能够结合体表伤残情况和关节伤残情况来实现全面的伤残检测,能够降低人力投入,可以减少检测误差,提高检测精度。
为解决上述技术问题,本申请实施例还提供计算机设备。具体请参阅图4,图4为本实施例计算机设备基本结构框图。
所述计算机设备4包括通过***总线相互通信连接存储器41、处理器42、网络接口43。需要指出的是,图中仅示出了具有组件41-43的计算机设备4,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。其中,本技术领域技术人员可以理解,这里的计算机设备是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(ApplicationSpecific Integrated Circuit,ASIC)、可编程门阵列(Field-Programmable GateArray,FPGA)、数字处理器(Digital Signal Processor,DSP)、嵌入式设备等。
所述计算机设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述计算机设备可以与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互。
所述存储器41至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等。在一些实施例中,所述存储器41可以是所述计算机设备4的内部存储单元,例如该计算机设备4的硬盘或内存。在另一些实施例中,所述存储器41也可以是所述计算机设备4的外部存储设备,例如该计算机设备4上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(FlashCard)等。当然,所述存储器41还可以既包括所述计算机设备4的内部存储单元也包括其外部存储设备。本实施例中,所述存储器41通常用于存储安装于所述计算机设备4的操作***和各类应用软件,例如人体伤残检测方法的计算机可读指令等。此外,所述存储器41还可以用于暂时地存储已经输出或者将要输出的各类数据。
所述处理器42在一些实施例中可以是中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器、或其他数据处理芯片。该处理器42通常用于控制所述计算机设备4的总体操作。本实施例中,所述处理器42用于运行所述存储器41中存储的计算机可读指令或者处理数据,例如运行所述人体伤残检测方法的计算机可读指令。
所述网络接口43可包括无线网络接口或有线网络接口,该网络接口43通常用于在所述计算机设备4与其他电子设备之间建立通信连接。
本申请公开了一种设备,属于人工智能技术领域。本申请通过识别用户状态图像中的人体区域,初步判断待检测用户的伤残情况,得到体表伤残信息,并基于初步伤残情况为待检测用户生成个性化的示例动作影像,然后获取检测用户完成示例动作时产生的行为记录视频,并通过预先训练好的人体伤残检测模型对行为记录视频进行识别和解析,得到待检测用户的关节伤残信息,最后基于待检测用户的体表伤残信息和关节伤残信息,生成待检测用户的伤残检测报告。本申请的技术方案能够结合体表伤残情况和关节伤残情况来实现全面的伤残检测,能够降低人力投入,可以减少检测误差,提高检测精度。
本申请还提供了另一种实施方式,即提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机可读指令,所述计算机可读指令可被至少一个处理器执行,以使所述至少一个处理器执行如上述的人体伤残检测方法的步骤。
本申请公开了一种存储介质,属于人工智能技术领域。本申请通过识别用户状态图像中的人体区域,初步判断待检测用户的伤残情况,得到体表伤残信息,并基于初步伤残情况为待检测用户生成个性化的示例动作影像,然后获取检测用户完成示例动作时产生的行为记录视频,并通过预先训练好的人体伤残检测模型对行为记录视频进行识别和解析,得到待检测用户的关节伤残信息,最后基于待检测用户的体表伤残信息和关节伤残信息,生成待检测用户的伤残检测报告。本申请的技术方案能够结合体表伤残情况和关节伤残情况来实现全面的伤残检测,能够降低人力投入,可以减少检测误差,提高检测精度。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本申请各个实施例所述的方法。
本申请可用于众多通用或专用的计算机***环境或配置中。例如:个人计算机、服务器计算机、手持设备或便携式设备、平板型设备、多处理器***、基于微处理器的***、置顶盒、可编程的消费电子设备、网络PC、小型计算机、大型计算机、包括以上任何***或设备的分布式计算环境等等。本申请可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本申请,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
显然,以上所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例,附图中给出了本申请的较佳实施例,但并不限制本申请的专利范围。本申请可以以许多不同的形式来实现,相反地,提供这些实施例的目的是使对本申请的公开内容的理解更加透彻全面。尽管参照前述实施例对本申请进行了详细的说明,对于本领域的技术人员来而言,其依然可以对前述各具体实施方式所记载的技术方案进行修改,或者对其中部分技术特征进行等效替换。凡是利用本申请说明书及附图内容所做的等效结构,直接或间接运用在其他相关的技术领域,均同理在本申请专利保护范围之内。

Claims (10)

1.一种人体伤残检测方法,其特征在于,包括:
接收客户端上传的用户状态图像,并对所述用户状态图像进行扫描,识别所述用户状态图像中的人体区域,其中,所述用户状态图像为待检测用户伤残状态下的图像;
基于所述用户状态图像中的人体区域,确定所述待检测用户的第一伤残信息,其中,所述第一伤残信息为体表伤残信息;
基于所述第一伤残信息确定示例动作视频,并将所述示例动作视频发送至所述客户端;
接收所述客户端上传的行为记录视频,其中,所述行为记录视频为所述待检测用户完成所述示例动作视频中的行为动作时产生的视频影像;
将所述行为记录视频导入到预先训练好的人体伤残检测模型,得到所述待检测用户的第二伤残信息,其中,所述第二伤残信息为关节伤残信息;
基于所述第一伤残信息和所述第二伤残信息,生成所述待检测用户的伤残检测结果。
2.如权利要求1所述的人体伤残检测方法,其特征在于,所述接收客户端上传的用户状态图像,并对所述用户状态图像进行扫描,识别所述用户状态图像中的人体区域的步骤,具体包括:
获取所述用户状态图像中的人体轮廓特征;
对所述用户状态图像进行去噪处理,去除所述用户状态图像的椒盐噪点,得到去噪图像;
基于所述去噪图像和所述人体轮廓特征,确定所述用户状态图像中的人体区域。
3.如权利要求1所述的人体伤残检测方法,其特征在于,所述基于所述用户状态图像中的人体区域,确定所述待检测用户的第一伤残信息的步骤,具体包括:
将识别人体区域后的所述用户状态图像输入到预先训练好的肢体检测模型;
对所述用户状态图像中的人体区域进行特征提取,得到人体图像特征,其中,所述人体图像特征包括空间特征和纹理特征;
获取所述肢体检测模型的中心约束条件,并基于所述中心约束条件对所述空间特征和所述纹理特征进行特性融合,得到图像融合特征;
计算所述图像融合特征和预设的标准特征的相似度,并基于所述相似度得到所述待检测用户的第一伤残信息。
4.如权利要求1所述的人体伤残检测方法,其特征在于,所述将所述行为记录视频导入到预先训练好的人体伤残检测模型,得到所述待检测用户的第二伤残信息的步骤之前,还包括:
计算所述行为记录视频中相邻两个视频帧的直方图数据和灰度图数据;
基于所述直方图数据和所述灰度图数据,计算相邻两个视频帧的加权欧式距离;
基于所述加权欧式距离确定所述行为记录视频的镜头转换边界;
基于所述镜头转换边界确定所述行为记录视频中的关键帧图像。
5.如权利要求4所述的人体伤残检测方法,其特征在于,所述将所述行为记录视频导入到预先训练好的人体伤残检测模型,得到所述待检测用户的第二伤残信息的步骤,具体包括:
对所述所述行为记录视频中的关键帧图像进行人体关节点检测,获取所述关键帧图像中的人体关节点;
对所述关键帧图像中的人体关节点进行标注,得到人体关节点信息;
将所述人体关节点信息导入到预先训练好的人体伤残检测模型,得到所述待检测用户的第二伤残信息。
6.如权利要求5所述的人体伤残检测方法,其特征在于,所述对所述关键帧图像中的人体关节点进行标注,得到人体关节点信息的步骤,具体包括:
构建图像坐标系,并基于所述图像坐标系获取所述人体关节点坐标;
计算所述人体关节点之间的亲和力值,并基于所述亲和力场对所述人体关节点进行连接;
计算人体关节点连线之间的夹角,得到人体关节活动角度;
基于所述人体关节点坐标和所述人体关节活动角度,生成所述人体关节点信息。
7.如权利要求5所述的人体伤残检测方法,其特征在于,所述人体伤残检测模型包括编码层和解码层,所述将所述人体关节点信息导入到预先训练好的人体伤残检测模型,得到所述待检测用户的第二伤残信息的步骤,具体包括:
对所述人体关节点信息进行特征提取,得到特征向量;
将所述特征向量导入所述编码层,对所述特征向量进行编码,得到编码向量;
对所述编码向量进行空间映射,获取空间映射结果;
将所述空间映射结果导入所述解码层,对所述空间映射结果进行解码,得到所述待检测用户的第二伤残信息。
8.一种人体伤残检测装置,其特征在于,包括:
用户状态图像接收模块,用于接收客户端上传的用户状态图像,并对所述用户状态图像进行扫描,识别所述用户状态图像中的人体区域,其中,所述用户状态图像为待检测用户伤残状态下的图像;
第一伤残信息生成模块,用于基于所述用户状态图像中的人体区域,确定所述待检测用户的第一伤残信息,其中,所述第一伤残信息为体表伤残信息;
示例动作视频生成模块,用于基于所述第一伤残信息确定示例动作视频,并将所述示例动作视频发送至所述客户端;
行为记录视频接收模块,用于接收所述客户端上传的行为记录视频,其中,所述行为记录视频为所述待检测用户完成所述示例动作视频中的行为动作时产生的视频影像;
第二伤残信息生成模块,用于将所述行为记录视频导入到预先训练好的人体伤残检测模型,得到所述待检测用户的第二伤残信息,其中,所述第二伤残信息为关节伤残信息;
伤残检测结果预测模块,用于基于所述第一伤残信息和所述第二伤残信息,生成所述待检测用户的伤残检测结果。
9.一种计算机设备,其特征在于,包括存储器和处理器,所述存储器中存储有计算机可读指令,所述处理器执行所述计算机可读指令时实现如权利要求1至7中任一项所述的人体伤残检测方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机可读指令,所述计算机可读指令被处理器执行时实现如权利要求1至7中任一项所述的人体伤残检测方法的步骤。
CN202111091683.2A 2021-09-17 2021-09-17 一种人体伤残检测方法、装置、设备及存储介质 Pending CN113781462A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111091683.2A CN113781462A (zh) 2021-09-17 2021-09-17 一种人体伤残检测方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111091683.2A CN113781462A (zh) 2021-09-17 2021-09-17 一种人体伤残检测方法、装置、设备及存储介质

Publications (1)

Publication Number Publication Date
CN113781462A true CN113781462A (zh) 2021-12-10

Family

ID=78851961

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111091683.2A Pending CN113781462A (zh) 2021-09-17 2021-09-17 一种人体伤残检测方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN113781462A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114240364A (zh) * 2021-12-13 2022-03-25 深圳壹账通智能科技有限公司 一种工伤自动审核的方法、装置、计算机设备及存储介质
CN116630318A (zh) * 2023-07-24 2023-08-22 凯泰铭科技(北京)有限公司 移动终端测量活动度的优化方法及***

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114240364A (zh) * 2021-12-13 2022-03-25 深圳壹账通智能科技有限公司 一种工伤自动审核的方法、装置、计算机设备及存储介质
CN116630318A (zh) * 2023-07-24 2023-08-22 凯泰铭科技(北京)有限公司 移动终端测量活动度的优化方法及***
CN116630318B (zh) * 2023-07-24 2023-10-13 凯泰铭科技(北京)有限公司 移动终端测量活动度的优化方法及***

Similar Documents

Publication Publication Date Title
CN109558832B (zh) 一种人体姿态检测方法、装置、设备及存储介质
CN108509915B (zh) 人脸识别模型的生成方法和装置
CN110728209B (zh) 一种姿态识别方法、装置、电子设备及存储介质
CN112395979B (zh) 基于图像的健康状态识别方法、装置、设备及存储介质
CN111523389A (zh) 情绪智能识别方法、装置、电子设备及存储介质
CN111339990A (zh) 一种基于人脸特征动态更新的人脸识别***和方法
CN111401318B (zh) 动作识别方法及装置
CN112699297A (zh) 基于用户画像的服务推荐方法、装置、设备及存储介质
CN113705534A (zh) 基于深度视觉的行为预测方法、装置、设备及存储介质
CN113591566A (zh) 图像识别模型的训练方法、装置、电子设备和存储介质
CN108229375B (zh) 用于检测人脸图像的方法和装置
CN114241459B (zh) 一种驾驶员身份验证方法、装置、计算机设备及存储介质
CN113781462A (zh) 一种人体伤残检测方法、装置、设备及存储介质
CN113177449B (zh) 人脸识别的方法、装置、计算机设备及存储介质
CN113420690A (zh) 基于感兴趣区域的静脉识别方法、装置、设备及存储介质
CN114140831A (zh) 人体姿态估计方法、装置、电子设备及存储介质
CN110909578A (zh) 一种低分辨率图像识别方法、装置和存储介质
Kim et al. Human Activity Recognition as Time‐Series Analysis
CN111753618A (zh) 图像识别方法、装置、计算机设备及计算机可读存储介质
CN114783597B (zh) 多类疾病诊断的诊断方法及装置、电子设备和存储介质
CN115497152A (zh) 基于图像识别的客户信息分析方法、装置、***及介质
CN116431827A (zh) 信息处理方法、装置、存储介质及计算机设备
CN116229584A (zh) 一种人工智能领域的文本分割识别方法、***、设备及介质
CN113505716B (zh) 静脉识别模型的训练方法、静脉图像的识别方法及装置
CN113643283A (zh) 一种人体衰老状况的检测方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20220523

Address after: 518000 China Aviation Center 2901, No. 1018, Huafu Road, Huahang community, Huaqiang North Street, Futian District, Shenzhen, Guangdong Province

Applicant after: Shenzhen Ping An medical and Health Technology Service Co.,Ltd.

Address before: Room 12G, Area H, 666 Beijing East Road, Huangpu District, Shanghai 200001

Applicant before: PING AN MEDICAL AND HEALTHCARE MANAGEMENT Co.,Ltd.