CN113257440A - 一种基于病患视频识别的icu智能看护*** - Google Patents

一种基于病患视频识别的icu智能看护*** Download PDF

Info

Publication number
CN113257440A
CN113257440A CN202110682391.XA CN202110682391A CN113257440A CN 113257440 A CN113257440 A CN 113257440A CN 202110682391 A CN202110682391 A CN 202110682391A CN 113257440 A CN113257440 A CN 113257440A
Authority
CN
China
Prior art keywords
nursing
patient
human body
facial
head
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110682391.XA
Other languages
English (en)
Inventor
徐新明
曾向荣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Jinxianlian Technology Co ltd
Original Assignee
Hangzhou Jinxianlian Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Jinxianlian Technology Co ltd filed Critical Hangzhou Jinxianlian Technology Co ltd
Priority to CN202110682391.XA priority Critical patent/CN113257440A/zh
Publication of CN113257440A publication Critical patent/CN113257440A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H80/00ICT specially adapted for facilitating communication between medical practitioners or patients, e.g. for collaborative diagnosis, therapy or health monitoring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Social Psychology (AREA)
  • Biomedical Technology (AREA)
  • Psychiatry (AREA)
  • Pathology (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Public Health (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

一种基于病患视频识别的ICU智能看护***,属于智能看护技术领域。***包括智能监控装置,以及分别连接智能监控装置的图像采集器、身体指标监测装置、看护端;智能监控装置包括人脸检测模块、面部表情识别模块、头部姿态识别模块、人体姿态识别模块、活动评估模块、监控决策模块;监控决策模块用于根据面部表情识别模块识别出的面部表情信息或头部姿态识别模块识别出的头部姿态信息,判断是否发送看护指令给看护端;还根据面部表情信息、头部姿态信息、活动数据、生理数据和生命体征数据,综合评估病患状况并依据病患状况发送综合护理指令给看护端。本发明可对患者进行实时监护、分析评估,提高医护人员的及时干预能力,减少护理工作量。

Description

一种基于病患视频识别的ICU智能看护***
技术领域
本发明涉及智能看护技术领域,尤其涉及一种基于病患视频识别的ICU智能看护***。
背景技术
当前,许多重症监护指标不是自动捕获的,而是由护士反复评估得到,这样不但给医护人员带来大量的高强度工作负荷,同时也很难保证对重症患者尤其是无意识重症病人的服务质量。在美国,重症监护室(Intensive Care Unit,ICU)是美国医疗***中开销最大的一部分。大约每天有55000个病人在ICU中被照顾,每天成本在3000美元到10000美元之间。累计成本每年超过800亿美元。随着婴儿潮一代进入老年阶段,ICU变得越来越重要了。今天,在美国的ICU里,超过一半的病人都是65岁以上的。中国也有相同的趋势,这产生了一个世界性的难题。为了满足日益增长的急性护理需求,培训更多的重症监护专家是其中一个解决方案,但采用人工智能也是如此。
有严重呼吸疾病的患者会佩戴上机械呼吸机辅助进行呼吸。这些机器把空气推入到患者肺部时呼吸节奏可能与患者自然呼吸频率不一致(大部分时候该患者的自然呼吸频率是随生理状态改变),会导致患者实际在和呼吸机抗争,这个时候通常要有经验的护理人员来进行调整,如果调整不及时,或者有紧急状况发生,可能会造成严重的后果。智能控制***可以检测患者的表情,并实施识别患者呼吸困难的情况。一旦患者表情上出现痛苦可以及时的向医务人员报警。
发明专利申请CN108234956A公开了医护监控方法,方法包括接收监控视频采集端发送的当前视频帧;对所述当前视频帧进行分析,获得目标对象的身份信息;对所述当前视频帧进行分析,获得所述目标对象的状态信息;当根据所述状态信息判定所述目标对象的状态异常时,根据所述身份信息和所述状态 信息生成状态异常通知;将所述状态异常通知发送至处理端,以使所述处理端根据所述状态异常通知进行相应的预警。所述对所述当前视频帧进行分析,获得所述目标对象的状态信息,具体包括:采用预设的动作分析模型,对所述当前视频帧进行动作识别,获得所述目标对象的动作信息;和/或,采用预设的表情分析模型,对所述当前视频帧进行表情识别,获得所述目标对象的面部表情信息;和/或,采用预设的语义分析模型,对所述当前视频帧中的音频信息进行语义识别,获得所述目标对象的语义信息;和/或,采用预设的情感分析模型,对所述当前视频帧中的音频信息进行情感分析,获得所述目标对象的情感信息。该发明利用预设的动作分析模型、表情分析模型、语义分析模型、情感分析模型对目标对象进行多方面的监测,监测是否存在跌倒、痛苦表情、难受语言、痛苦情绪,继而通知医护人员进行及时看护。该方案从一定程度上解决了现有看护不及时的问题,并能实时监测病患状态。但是,该发明仅通过视频识别进行病患状态监测,并未结合医疗装置监测数据进行综合监测评估,仅对异常进行紧急看护,而未形成长期特定性看护方案。其中,关于动作监测仅局限于病患出现大动作异常的监测,未对病患进行其他动作监测,无法了解病患的恢复活动能力;而表情和情绪分析存在重复分析,两者均是通过视频的图像信息分析获得,并且情绪分析存在一定主观判断,监测可靠性不高,可能存在多次错误告警医护人员的情况发生;语义分析与表情分析也存在重复分析,虽然前者通过音频信息分析,后者通过图像信息分析,但均是对痛苦病症进行监测,表情分析和语义分析结果可能会存在差异,这个差异会导致多次告警医护人员,而导致出现差异的可能情况是表情分析和语义分析中某一个分析存在错误。
发明专利申请CN104506809B公开了一种基于智能视频的重症病患监控***,并具体公开了***包括两图像采集模块、医护人员识别模块、病患监测模块、人机交互模块、报警模块、数据存储模块。病患监测模块计算病患当前时刻的状态的方法为:(1)、病患监测模块每间隔时间T对采集的图像进行1次处理;(2)、对像素点矩阵进行灰度均衡化处理,补偿光线强弱对像素点坐标值的影响,得到灰度均衡图像像素点像素值矩阵;(3)、对像素点像素值矩阵进行前后帧求差;(4)、将差分灰度均衡图像矩阵中的像素值求平方和,得到标量函数f(k);(5)、对f(k)进行高斯低通滤波,得到低通滤波后的标量函数fLP(k);(6)、将fLP(k)与预设的经验阈值a、b进行比较,且a<b;如果fLP(k)<a,则表明病患出现轻微动作或状态正常;如果a<fLP(k)<b,则表明病患出现幅度偏大动作,此时再通过模式识别的方法判断病患是否有危险动作,如果病患没有危险动作,则继续检测;如果患者存在危险动作,则病患监测模块开始计时,如在T1时间内,始终保持a<fLP(k)<b,则生成报警信息并发送给报警模块;如果fLP(k)>b,则表明病患出现剧烈动作,并立即生成报警信息发送给报警模块。该发明虽然也公开了利用视频进行智能监测的***,但仅仅对病患肢体出现的危险动作进行检测,并未考虑病患脸部监测、病患活动量监测、身体指标检测,甚至未对全面的监测数据进行综合评估,得到合适地看护方案。
发明内容
本发明针对现有技术存在的问题,提出了一种基于病患视频识别的ICU智能看护***,通过计算机视觉从视频中对患者的面部表情进行识别,四肢运动进行检测,以提高患者活动的自主检测率,并可通过与实时生命体征数据和生理数据的融合,对患者进行全面自动化监测,提高医护人员的及时干预能力,减少护理工作量。
本发明是通过以下技术方案得以实现的:
一种基于病患视频识别的ICU智能看护***,包括图像采集器、智能监控装置、身体指标监测装置、看护端;所述图像采集器用于采集ICU内视频数据;所述身体指标监测装置用于监测病患的生理数据和生命体征数据;所述智能监控装置分别连接图像采集器、身体指标监测装置、看护端;其特征在于,所述智能监控装置包括:
人脸检测模块,用于从视频数据中识别出人脸位置区域,并获得该人脸位置区域内的若干面部特征点位置向量;
面部表情识别模块,用于基于若干面部特征点位置向量和面部表情对照向量,识别面部表情信息;
头部姿态识别模块,用于将若干面部特征点位置向量转化为三维坐标,并利用随机抽样一致算法识别头部姿态信息;
人体姿态识别模块,用于从视频数据中识别人***置区域,并获得该人***置区域内的若干关节向量,还基于若干关节向量和人体姿态对照条件,识别人体姿态信息;
活动评估模块,用于对在监测周期内获得的人体姿态信息进行病患活动情况评估,获得活动数据;
监控决策模块,用于根据面部表情信息或头部姿态信息,判断是否发送看护指令给看护端;还根据面部表情信息、头部姿态信息、活动数据、生理数据和生命体征数据,综合评估病患状况并依据病患状况发送综合护理指令给看护端。
该发明利用图像采集器(如摄像机)采集视频数据,实时监测重症监护室内情况。基于视频数据,进行人脸面部特征点识别,以识别面部表情信息、头部姿态信息,对病患进行面部状况监测。还基于视频数据,对人体姿态以及姿态变化情况进行识别,对病患进行四肢状况监测。面部状况监测和四肢状况监测实现了病患全身监测,并融合生理数据和生命体征数据可对病患状况进行综合评估并给出综合护理方案,以实现紧急救护以及病患自重症状态逐渐恢复至轻症/康复状态的日常监控。
该智能监护***能在紧急状态下,提示医护人员进行及时干预救治,也能对医护人员日常护理进行合理安排,提供医护管理效率,减少不必要的护理工作量,为病患提供针对性合理的看护。
作为优选,所述人脸检测模块包括:
人脸识别单元,用于利用计算机视觉和深度学习技术从视频数据中识别出人脸位置区域;
特征点识别单元,用于根据标准人脸模型识别人脸位置区域的若干面部特征点,并确定若干面部特征点位置向量;
其中,标准人脸模型包含基于标准人脸轮廓设定的若干标准面部特征点。
作为优选,所述面部表情识别模块包括:
面部动作提取单元,用于从若干面部特征点位置向量中提取面部各个部位的面部动作参数向量;其中,面部动作参数向量包括眉毛动作参数向量、眼动作参数向量、面颊动作参数向量、嘴动作参数向量、鼻子动作参数向量、上颚动作参数向量;
面部表情识别单元,用于将面部动作参数向量对照面部表情判断条件,识别面部各个部位的面部表情信息。
作为优选,所述头部姿态识别模块包括:
三维建模单元,用于将若干面部特征点位置向量转化为三维世界坐标系中的三维坐标和图像采集器坐标系中的三维坐标,并求解图像坐标和世界坐标的关系公式:
Figure 631276DEST_PATH_IMAGE001
以获得旋转矩阵R和平移矩阵T;
其中,
Figure DEST_PATH_IMAGE002
是三维世界坐标系中的面部特征点Pi的三维坐标,
Figure 151119DEST_PATH_IMAGE003
是面部特征点Pi在图像采集器坐标系中的三维坐标;
Figure DEST_PATH_IMAGE004
为面部特 征点Pi在成像平面上的物理坐标,
Figure 90126DEST_PATH_IMAGE005
为面部特征点Pi在成像平面上的像素坐标,i 为自然数;所述旋转矩阵R表示人脸的三个方向的角度,包括抬头低头角度、摇头角度和水 平偏转角度;
头部姿态识别单元,用于利用随机抽样一致算法拟合获得最佳的角度估计值,并识别出头部姿态信息。
作为优选,所述人体姿态识别模块包括:
人体关节识别单元,用于从视频数据中识别人***置区域,并利用深度卷积神经网络识别出人***置区域内关节和四肢的关键特征点;
人体姿态识别单元,用于利用深度卷积神经网络获取人体的若干关节向量,并计算关节向量的弯曲角度,将弯曲角度与人体姿态对照条件相对比,识别出人体姿态信息;其中,人体姿态对照条件包括躺在床上的人体姿态对照条件、坐在床上的人体姿态对照条件、站立的人体姿态对照条件、坐在椅子上的人体姿态对照条件。
作为优选,所述活动评估模块包括:
活动量评估单元,用于监测病患保持所识别出的人体姿态的统计时间,并监测病患在一定时期内从一个人体姿态变换为另一个人体姿态所移动的移动量;
活动能力评估单元,用于基于统计时间、移动量和生理数据中的心率数据,判断病患的活动能力。
作为优选,所述监控决策模块包括:
疼痛看护单元,用于将面部各个部位的面部表情信息对照疼痛表情判断条件,识别病患是否存在疼痛表情;若否,则不发送看护指令给看护端;若是:则还需识别该疼痛表情出现的时间是否大于疼痛阈值时间,或者还需识别该疼痛表情在一定时期内出现的频率是否大于疼痛阈值频率时,若满足大于条件,则发送看护指令给看护端,否则,不发送;
摇头看护单元,用于识别头部姿态信息中摇头姿态在一定时期内出现的频率是否大于摇头阈值频率,若是,发送看护指令给看护端,否则,不发送;
综合决策单元,用于根据面部表情信息、头部姿态信息、活动数据、生理数据和生命体征数据,综合评估病患状况并依据病患状况发送综合护理指令给看护端。
作为优选,***还包括设于ICU内的光源发射器,用于提供光源,以辅助图像采集器在黑暗环境下工作。
作为优选,***还包括数据库,用于存储对应病患的面部表情信息、头部姿态信息、活动数据、生理数据和生命体征数据。
作为优选,***还包括若干穿戴在病患关节处的加速度计,用于检测病患肢体动作。所述监控决策模块还包括危险看护单元,用于识别关节活动角度,当关节活动角度大于安全活动角度阈值时,判断病患摔倒或剧烈运动,则发送看护指令给看护端。
本发明具有以下有益效果:
本发明公开了通过视频识别病患的面部表情以及肢体姿态,对病患表情和病情进行自动识别的人工智能***(Artificial Intelligence,AI)。该技术旨在提供一些预警性的和细致入微的护理,通过对病患动作的准确和精确量化,来提供有关病患状况的更全面的数据,就像一位专家每时每刻都陪在病人身边一样,仔细校准治疗。本发明通过与实时生命体征数据和生理数据的结合,对患者进行全面自动化监测,***可以缓解重症监护室员工负担过重的压力,帮助实时管理重复的病患评估,并可实现更准确的突发事件预测和检测。更重要的是,如果这项技术应用于重症监护室(Intensive Care Unit,ICU),将能为重症患者提供更优质的服务,减少其痛苦,提高生命安全。本发明并非取代人工,而是可以成为医疗***的一部分,让医生和护士在他们最被需要的时候发挥他们的技能,提高医疗资源的利用率。
附图说明
图1为本发明一种基于病患视频识别的ICU智能看护***的结构框图;
图2为人脸检测模块识别人脸位置区域及面部特征点所采用的卷积神经网络示例;
图3为标准人脸模型的示意图,图中标识了68个标准面部特征点;
图4为面部表情的示意图,图中以痛苦表情为例;
图5为人体姿态识别的深度卷积网络结构图;
图6为人体处于站立状态下,双手高举伸挺在两耳侧时的整个身体特征点标识示意图;图中的点为关节和四肢的关键点,连线将各个关节、四肢相关联在一起构成当前状态下的身体架构。
具体实施方式
以下是本发明的具体实施例并结合附图,对本发明的技术方案作进一步的描述,但本发明并不限于这些实施例。
如图1,一种基于病患视频识别的ICU智能看护***,,包括图像采集器、智能监控装置、身体指标监测装置、看护端。所述图像采集器用于采集ICU内视频数据,设置于ICU内正对病床,如采用高分辨率和宽视场摄像机。所述身体指标监测装置用于监测病患的生理数据和生命体征数据,所述生理数据包括血压、红细胞数、血脂、优球蛋白等数据,所述生命体征数据包括心电、动脉血压数据。所述身体指标监测装置为实现上述数据监测的医疗器械,如心率监测仪等。所述智能监控装置分别连接图像采集器、身体指标监测装置、看护端。图像采集器采集视频数据输入给智能监控装置,身体指标监测装置用于将监测到的生理数据和生命体征数据输入给智能监控装置。智能监控装置执行监测、分析、判断,对需要监测的情况发送监测指令给看护端,医护人员根据收到的监测指令执行看护动作。
所述智能监控装置包括人脸检测模块、面部表情识别模块、头部姿态识别模块、人体姿态识别模块、活动评估模块、监控决策模块。所述人脸检测模块用于从视频数据中识别出人脸位置区域,并获得该人脸位置区域内的若干面部特征点位置向量。所述面部表情识别模块用于基于若干面部特征点位置向量和面部表情对照向量,识别面部表情信息。所述头部姿态识别模块,用于将若干面部特征点位置向量转化为三维坐标,并利用随机抽样一致算法识别头部姿态信息。所述人体姿态识别模块,用于从视频数据中识别人***置区域,并获得该人***置区域内的若干关节向量,还基于若干关节向量和人体姿态对照条件,识别人体姿态信息。所述活动评估模块,用于对在监测周期内获得的人体姿态信息进行病患活动情况评估,获得活动数据。所述监控决策模块,用于根据面部表情信息或头部姿态信息,判断是否发送看护指令给看护端;还根据面部表情信息、头部姿态信息、活动数据、生理数据和生命体征数据,综合评估病患状况并依据病患状况发送综合护理指令给看护端。
具体地,所述人脸检测模块包括人脸识别单元、特征点识别单元。所述人脸识别单元,用于利用计算机视觉和深度学习技术从视频数据中识别出人脸位置区域。所述特征点识别单元,用于根据标准人脸模型识别人脸位置区域的若干面部特征点,并确定若干面部特征点位置向量。其中,标准人脸模型包含基于标准人脸轮廓设定的若干标准面部特征点。例如,参见图2,采用基于深度学习的多任务卷积神经网络检测法,完成人脸检测和人脸特征点提取。对第一层和第二层卷积神经网络的输出结果按照人脸大小排序,根据人脸大致像素值快速获取人脸区域。第三层卷积神经网络输出若干面部特征点(一般输出68个,也可根据需要输出更多个)。68个特征点为标准人脸模型所确定的特征点,参见图3。68个特征点包括脸颊轮廓处的17个特征点、眉毛处的5*2个特征点、眼睛处的6*2个特征点、鼻梁处的4个特征点、鼻头处的5个特征点、嘴巴处的20个特征点。基于输出的面部特征点,获取面部特征点位置向量。
具体地,所述面部表情识别模块包括面部动作提取单元、面部表情识别单元。所述面部动作提取单元,用于从若干面部特征点位置向量中提取面部各个部位的面部动作参数向量。其中,面部动作参数向量包括眉毛动作参数向量、眼动作参数向量、面颊动作参数向量、嘴动作参数向量、鼻子动作参数向量、上颚动作参数向量。例如,每条眉毛设有5个特征点,基于该5个特征点,获取眉毛整体形态的动作参数向量,如包含若干个相邻特征点之间的向量,第18个特征点与第19个特征点之间的向量,第19个和第20个特征点之间的向量,第20个和第21个特征点之间的向量,第21个和第22个特征点之间的向量。嘴巴设有20个特征点,其中上嘴唇设有10个特征点,下嘴唇设有10个特征点,获取上下嘴唇各自上弧面和下弧面整体形态的动作参数向量,如包含若干个相邻特征点之间的向量,以上嘴唇为例,包含第49个和第50个特征点之间的向量,第50个和第51个特征点之间的向量,第51个和第52个特征点之间的向量,第52个和第53个特征点之间的向量,第53个和第54个特征点之间的向量,第61个和第62个特征点之间的向量,第62个和第63个特征点之间的向量,第63个和第64个特征点之间的向量,第64个和第65个特征点之间的向量;鼻子设有9个特征点,获取鼻梁处整体形态的动作参数向量以及鼻头处整体形态的动作向量,如包含若干个相邻特征点之间的向量。其他部位,也基于特征点形成的轮廓来确定该部位整体形态的动作参数向量(具体参见图3中的编号,在同一部位处的连续编号的特征点连线能大致形成该部位轮廓)。
所述面部表情识别单元,用于将面部动作参数向量对照面部表情判断条件,识别面部各个部位的面部表情信息。所述面部表情判断条件也是基于标准人脸模型所设定的若干个标准面部特征点确定的,例如,眉毛处的5个特征点,在表示眉毛上扬状态时,有其特定的标准动作参数向量;在表示眉毛下垂状态(参见图4中的111)时,也有其特定的标准动作参数向量;在表示眉毛弯曲或折皱状态时,亦有其特定的标准动作参数向量,通过对病患实时识别的动作向量与标准动作参数向量对照,当满足实时识别的动作向量与标准动作参数向量大致匹配时,则确定面部表情信息中包含眉毛上扬或眉毛下垂或眉毛弯曲或眉毛折皱;或者,面部表情判断条件可采用多个向量形态判断条件,如判断若干个向量之间的位置关系符合两边低中间高的条件时,则确定面部表情信息中包含眉毛弯曲;判断若干个向量之间的位置关系符合靠近鼻梁处一侧高,靠近耳朵处一侧低的条件时,则确定面部表情信息中包含眉毛下垂;判断若干个向量之间的位置关系符合靠近鼻梁处一侧低,靠近耳朵处一侧高的条件时,则确定面部表情信息中包含眉毛上扬;判断若干个向量之间的位置关系符合差不多一致且眉毛两端的特征点之间的距离缩短,或者出现高高低低的位置关系时,则确定面部表情信息中包含眉毛折皱。又例如,嘴唇处的20个特征点,在表示嘴唇太高(参见图4中的114)、嘴唇紧闭、撇嘴(参见图4中117)、嘴角上扬等状态时,有其特定的标准动作参数向量,通过对病患实时识别的动作向量与标准动作参数向量对照,当满足实时识别的动作向量与标准动作参数向量大致匹配时,则确定面部表情信息中包含嘴唇太高、嘴唇紧闭、撇嘴、嘴角上扬。或者,判断若干个向量的位置比标准嘴唇开合状态下的若干个向量的位置要高,则确定面部表情信息中包含嘴唇抬高;判断上嘴唇上下弧面上的向量之间距离比嘴唇开合状态下的上嘴唇上下弧面上的向量之间的距离短,则确定面部表情信息中包含嘴唇紧闭;判断上嘴唇上弧面上的向量之间的位置关系呈现低、高、低、高、低类似关系时,则确定面部表情信息中包含撇嘴;判断嘴唇两侧向量的位置高于中间向量的位置时,则确定面部表情信息中包含嘴角上扬。又例如,鼻子处的9个特征点,在表示鼻子皱起、鼻孔张开等状态时,尤其特定的标准动作参数向量,通过对病患实时识别的动作向量与标准动作参数向量对照,当满足实时识别的动作向量与标准动作参数向量大致匹配时,则确定面部表情信息中包含鼻子皱起(参见图4中的116)、鼻孔张开。或者,判断鼻梁处的向量距离相比于标准鼻子正常状态下鼻梁处的向量距离短时,则确定面部表情信息中包含鼻子皱起;判断鼻头处的向量距离大于标准鼻子正常状态下鼻头处的向量距离时,则确定面部表情信息中包含鼻孔张开。
除了上述描述到的面部表情外,对于眼处,还包括眼睛闭合(参见图4中的112)、眼皮锁紧(参见图4中的115)、眼睛张开等;对于面颊处,还包括面颊抬高(参见图4中的113)、上颚抬起(参见图4中的116)、下颚回收等。上述表情识别可参照前述方式实现,如通过将实时识别的动作向量与标准动作参数向量比对判断,也可通过对实时识别的动作向量进行位置、距离、长短关系等条件进行判断。
具体地,所述头部姿态识别模块包括三维建模单元、头部姿态识别单元。所述三维建模单元,用于将若干面部特征点位置向量转化为三维世界坐标系中的三维坐标和图像采集器坐标系中的三维坐标,构建三维公式(1)。
Figure 796743DEST_PATH_IMAGE006
公式(1)
并求解图像坐标和世界坐标的关系公式, 以获得旋转矩阵R和平移矩阵T:
Figure 188410DEST_PATH_IMAGE001
公式(2)
其中,
Figure 387311DEST_PATH_IMAGE002
是三维世界坐标系中的面部特征点Pi的三维坐标,
Figure 160315DEST_PATH_IMAGE003
是面部特征点Pi在图像采集器坐标系中的三维坐标;
Figure 153679DEST_PATH_IMAGE004
为面部特 征点Pi在成像平面上的物理坐标,
Figure 32642DEST_PATH_IMAGE005
为面部特征点Pi在成像平面上的像素坐标,i 为自然数;所述旋转矩阵R表示人脸的三个方向的角度,包括抬头低头角度、摇头角度和水 平偏转角度。
所述头部姿态识别单元,用于利用随机抽样一致RANSAC算法拟合获得最佳的角度估计值,并识别出头部姿态信息。
具体地,所述人体姿态识别模块包括人体关节识别单元、人体姿态识别单元。所述人体关节识别单元,用于从视频数据中识别人***置区域,并利用深度卷积神经网络识别出人***置区域内关节和四肢的关键特征点。本发明先通过深度卷积神经网络识别出人***置区域,之后基于深度卷积神经网络的实时人体3D姿势识别出该区域内关节和四肢的关键特征点。图5为采用MobileNet姿态识别网络结构,图6中的点为骨架点,即标识了关节和四肢的关键特征点。图6中有18个骨架点。利用多层卷积网络,对输入的视频图像进行处理、输出识别结果。所述人体姿态识别单元,用于利用深度卷积神经网络获取人体的若干关节向量,并计算关节向量的弯曲角度,将弯曲角度与人体姿态对照条件相对比,识别出人体姿态信息;其中,人体姿态对照条件包括躺在床上的人体姿态对照条件、坐在床上的人体姿态对照条件、站立的人体姿态对照条件、坐在椅子上的人体姿态对照条件。
以图6为例,对人体姿态识别进行具体说明。以床的长度边缘方向画一条直线,结 合图6,以床的长人为的画一条直线
Figure 769654DEST_PATH_IMAGE007
,以腰间点121为原点,脖子上的骨架点120与膝盖的 点122的夹角为
Figure 293039DEST_PATH_IMAGE008
,以膝盖的点122为原点,腰间点121与脚部点123的夹角为
Figure 847517DEST_PATH_IMAGE009
,脖子上的 点120与脚部点123构成的直线与直线
Figure 89143DEST_PATH_IMAGE007
的夹角为
Figure DEST_PATH_IMAGE010
。躺在床上
Figure 488900DEST_PATH_IMAGE008
为 =180°±
Figure 259935DEST_PATH_IMAGE011
,且
Figure 595101DEST_PATH_IMAGE010
=0°±
Figure 448656DEST_PATH_IMAGE011
;站立
Figure 319219DEST_PATH_IMAGE008
为 =180°±
Figure 944760DEST_PATH_IMAGE011
,且
Figure 716407DEST_PATH_IMAGE010
=90°±2*
Figure 791679DEST_PATH_IMAGE011
;坐在床上
Figure 674184DEST_PATH_IMAGE008
为 =90°±
Figure 151302DEST_PATH_IMAGE011
, 且
Figure 93850DEST_PATH_IMAGE009
=180°±
Figure 656419DEST_PATH_IMAGE011
;坐在椅子上
Figure 77036DEST_PATH_IMAGE008
为 =90°±
Figure 549605DEST_PATH_IMAGE011
,且
Figure 767181DEST_PATH_IMAGE009
=90°±
Figure 692411DEST_PATH_IMAGE011
,其中
Figure 168917DEST_PATH_IMAGE011
为允许 偏差角度, 可以为15°。由此可知,上述角度范围条件就是躺在床上的人体姿态对照条件、 坐在床上的人体姿态对照条件、站立的人体姿态对照条件、坐在椅子上的人体姿态对照条 件。通过实时计算出对应
Figure 230414DEST_PATH_IMAGE008
Figure 639398DEST_PATH_IMAGE009
Figure 51925DEST_PATH_IMAGE010
的角度值,分别对照上述角度范围条件,即可判断人 体姿态。
具体地,所述活动评估模块包括活动量评估单元、活动能力评估单元。所述活动量评估单元,用于监测病患保持所识别出的人体姿态的统计时间,并监测病患在一定时期内从一个人体姿态变换为另一个人体姿态所移动的移动量。根据前述人体姿态识别模块识别出的人体姿态信息,可确认某一时期病患的姿态,以及下一时期病患的姿态。根据姿态变换确定移动量,如从躺在床上到坐在床上,则认为移动量约为0.4米;如从坐在床上到站立,则认为移动量约为0.8米;如从站立到坐在椅子上,则认为移动量约为1米。病患在ICU的移动轨迹一般遵循躺在床上、坐在床上、站立、坐在椅子上,当完成多个移动动作时,则基于上述移动量进行叠加获得总计移动量。所述活动能力评估单元,用于基于统计时间、移动量和生理数据中的心率数据,判断病患的活动能力。例如,在统计时间内,统计总共的移动量,获得总移动量,并结合该时间内的心率数据的均值,确定病患是否在该移动量内保持正常心率水平,若是,则病患的活动能力良好,不需要额外告警提示,若否,则需要告警提示看护端进行看护,或者利用***内的提示装置(声音或显示器)进行告警提示病患暂停。
具体地,所述监控决策模块包括疼痛看护单元、摇头看护单元、综合决策单元。所述疼痛看护单元,用于将面部各个部位的面部表情信息对照疼痛表情判断条件,识别病患是否存在疼痛表情;若否,则不发送看护指令给看护端;若是:则还需识别该疼痛表情出现的时间是否大于疼痛阈值时间,或者还需识别该疼痛表情在一定时期内出现的频率是否大于疼痛阈值频率时,若满足大于条件,则发送看护指令给看护端,否则,不发送。图4示出了疼痛表情的示意图。在发生疼痛时,面部表情一般呈现眉毛下垂、眼睛闭上、面颊抬高、嘴唇太高、眼皮锁紧、鼻子皱起、撇嘴状态。例如,将疼痛表情判断条件设置为面部表情信息存在眉毛下垂、眼睛闭上、眼皮锁紧、撇嘴四个状态时,则识别病患存在疼痛表情。或者,也可将疼痛表情判断条件设置为存在图4中的任意一个状态,则识别为疼痛表情。但此识别太单一,存在误识别的可能。可根据需要设置疼痛表情判断条件,以能够识别到且识别状态不限于一个来进行设置。所述摇头看护单元,用于识别头部姿态信息中摇头姿态在一定时期内出现的频率是否大于摇头阈值频率,若是,发送看护指令给看护端,否则,不发送。通过获得头部姿态信息中的摇头角度确定病患存在摇头姿态,并在一定时期内统计识别到所有姿态的次数,并计算实际摇头姿态的频率。若以一分钟为统计时间,摇头阈值频率设置为2hz,当超过该频率时,则需要医护人员紧急看护。所述综合决策单元,用于根据面部表情信息、头部姿态信息、活动数据、生理数据和生命体征数据,综合评估病患状况并依据病患状况发送综合护理指令给看护端。该综合决策单元可利用两层卷积神经网络实现,将面部表情信息、头部姿态信息、活动数据、生理数据和生命体征数据作为输入参数输入到卷积神经网络中。该网络包含3*3*2和3*3*4的卷积层,全连接层采用1*1*4,最后采用Softmax层输出病患状况概率等级。根据概率最高者得到该病患状况。患者的状况可以用0表示为健康、1表示为轻度、2表示为中度、3表示为病危。对于健康病患,则综合护理指令为每天进行常规护理;对于轻度病患,则综合护理指令为每天进行轻度护理;对于中度病患,则综合护理指令为每天进行中度护理;对于病危病患,则综合护理指令为每天进行病患护理,如每隔30分钟~1小时进行巡检等。上述护理原则遵照医院ICU内看护原则。
本发明***还包括设于ICU内的光源发射器,用于提供光源,以辅助图像采集器在黑暗环境下工作。光源发射器可采用人眼不可见的红外光,当夜间需要把灯光调暗或关闭时,图像采集器仍能正常采集ICU内视频数据。
本发明***还包括数据库,用于存储对应病患的面部表情信息、头部姿态信息、活动数据、生理数据和生命体征数据。病患的个人信息可利用所在ICU房号和病历编号确定。将在ICU期间监测的数据与该病患进行捆绑存储,以便后续诊疗查询医疗记录。或者,可利用人脸检测模块进行人脸识别记忆,记录该人脸形态,并比对数据库内存储的病患照片,识别出病患个人信息。之后将在ICU期间监测的数据与该病患进行捆绑存储,以便后续诊疗查询医疗记录。
本发明***还包括若干穿戴在病患关节处的加速度计,用于检测病患肢体动作。所述加速度计一般设置4个,如手腕处2个,脚腕处2个,另外也可根据需要设置其他关节处。所述监控决策模块还包括危险看护单元,用于识别关节活动角度,当关节活动角度大于安全活动角度阈值时,判断病患摔倒或剧烈运动,则发送看护指令给看护端。医护人员在第一时间赶至ICU内进行紧急救治。
本领域的技术人员应理解,上述描述及附图中所示的本发明的实施例只作为举例而并不限制本发明。本发明的目的已经完整有效地实现。本发明的功能及结构原理已在实施例中展示和说明,在没有背离所述原理下,本发明的实施方式可以有任何变形或修改。

Claims (10)

1.一种基于病患视频识别的ICU智能看护***,包括图像采集器、智能监控装置、身体指标监测装置、看护端;所述图像采集器用于采集ICU内视频数据;所述身体指标监测装置用于监测病患的生理数据和生命体征数据;所述智能监控装置分别连接图像采集器、身体指标监测装置、看护端;其特征在于,所述智能监控装置包括:
人脸检测模块,用于从视频数据中识别出人脸位置区域,并获得该人脸位置区域内的若干面部特征点位置向量;
面部表情识别模块,用于基于若干面部特征点位置向量和面部表情对照向量,识别面部表情信息;
头部姿态识别模块,用于将若干面部特征点位置向量转化为三维坐标,并利用随机抽样一致算法识别头部姿态信息;
人体姿态识别模块,用于从视频数据中识别人***置区域,并获得该人***置区域内的若干关节向量,还基于若干关节向量和人体姿态对照条件,识别人体姿态信息;
活动评估模块,用于对在监测周期内获得的人体姿态信息进行病患活动情况评估,获得活动数据;
监控决策模块,用于根据面部表情信息或头部姿态信息,判断是否发送看护指令给看护端;还根据面部表情信息、头部姿态信息、活动数据、生理数据和生命体征数据,综合评估病患状况并依据病患状况发送综合护理指令给看护端。
2.根据权利要求1所述的一种基于病患视频识别的ICU智能看护***,其特征在于,所述人脸检测模块包括:
人脸识别单元,用于利用计算机视觉和深度学习技术从视频数据中识别出人脸位置区域;
特征点识别单元,用于根据标准人脸模型识别人脸位置区域的若干面部特征点,并确定若干面部特征点位置向量;
其中,标准人脸模型包含基于标准人脸轮廓设定的若干标准面部特征点。
3.根据权利要求1所述的一种基于病患视频识别的ICU智能看护***,其特征在于,所述面部表情识别模块包括:
面部动作提取单元,用于从若干面部特征点位置向量中提取面部各个部位的面部动作参数向量;其中,面部动作参数向量包括眉毛动作参数向量、眼动作参数向量、面颊动作参数向量、嘴动作参数向量、鼻子动作参数向量、上颚动作参数向量;
面部表情识别单元,用于将面部动作参数向量对照面部表情判断条件,识别面部各个部位的面部表情信息。
4.根据权利要求1所述的一种基于病患视频识别的ICU智能看护***,其特征在于,所述头部姿态识别模块包括:
三维建模单元,用于将若干面部特征点位置向量转化为三维世界坐标系中的三维坐标和图像采集器坐标系中的三维坐标,并求解图像坐标和世界坐标的关系公式:
Figure DEST_PATH_IMAGE001
以获得旋转矩阵R和平移矩阵T;
其中,
Figure 263745DEST_PATH_IMAGE002
是三维世界坐标系中的面部特征点Pi的三维坐标,
Figure DEST_PATH_IMAGE003
是面部特征点Pi在图像采集器坐标系中的三维坐标;
Figure 308448DEST_PATH_IMAGE004
为面部特 征点Pi在成像平面上的物理坐标,
Figure DEST_PATH_IMAGE005
为面部特征点Pi在成像平面上的像素坐标,i 为自然数;所述旋转矩阵R表示人脸的三个方向的角度,包括抬头低头角度、摇头角度和水 平偏转角度;
头部姿态识别单元,用于利用随机抽样一致算法拟合获得最佳的角度估计值,并识别出头部姿态信息。
5.根据权利要求1所述的一种基于病患视频识别的ICU智能看护***,其特征在于,所述人体姿态识别模块包括:
人体关节识别单元,用于从视频数据中识别人***置区域,并利用深度卷积神经网络识别出人***置区域内关节和四肢的关键特征点;
人体姿态识别单元,用于利用深度卷积神经网络获取人体的若干关节向量,并计算关节向量的弯曲角度,将弯曲角度与人体姿态对照条件相对比,识别出人体姿态信息;其中,人体姿态对照条件包括躺在床上的人体姿态对照条件、坐在床上的人体姿态对照条件、站立的人体姿态对照条件、坐在椅子上的人体姿态对照条件。
6.根据权利要求1所述的一种基于病患视频识别的ICU智能看护***,其特征在于,所述活动评估模块包括:
活动量评估单元,用于监测病患保持所识别出的人体姿态的统计时间,并监测病患在一定时期内从一个人体姿态变换为另一个人体姿态所移动的移动量;
活动能力评估单元,用于基于统计时间、移动量和生理数据中的心率数据,判断病患的活动能力。
7.根据权利要求1所述的一种基于病患视频识别的ICU智能看护***,其特征在于,所述监控决策模块包括:
疼痛看护单元,用于将面部各个部位的面部表情信息对照疼痛表情判断条件,识别病患是否存在疼痛表情;若否,则不发送看护指令给看护端;若是:则还需识别该疼痛表情出现的时间是否大于疼痛阈值时间,或者还需识别该疼痛表情在一定时期内出现的频率是否大于疼痛阈值频率时,若满足大于条件,则发送看护指令给看护端,否则,不发送;
摇头看护单元,用于识别头部姿态信息中摇头姿态在一定时期内出现的频率是否大于摇头阈值频率,若是,发送看护指令给看护端,否则,不发送;
综合决策单元,用于根据面部表情信息、头部姿态信息、活动数据、生理数据和生命体征数据,综合评估病患状况并依据病患状况发送综合护理指令给看护端。
8.根据权利要求1所述的一种基于病患视频识别的ICU智能看护***,其特征在于,还包括设于ICU内的光源发射器,用于提供光源,以辅助图像采集器在黑暗环境下工作。
9.根据权利要求1所述的一种基于病患视频识别的ICU智能看护***,其特征在于,还包括数据库,用于存储对应病患的面部表情信息、头部姿态信息、活动数据、生理数据和生命体征数据。
10.根据权利要求7所述的一种基于病患视频识别的ICU智能看护***,其特征在于,还包括若干穿戴在病患关节处的加速度计,用于检测病患肢体动作,所述监控决策模块还包括危险看护单元,用于识别关节活动角度,当关节活动角度大于安全活动角度阈值时,判断病患摔倒或剧烈运动,则发送看护指令给看护端。
CN202110682391.XA 2021-06-21 2021-06-21 一种基于病患视频识别的icu智能看护*** Pending CN113257440A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110682391.XA CN113257440A (zh) 2021-06-21 2021-06-21 一种基于病患视频识别的icu智能看护***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110682391.XA CN113257440A (zh) 2021-06-21 2021-06-21 一种基于病患视频识别的icu智能看护***

Publications (1)

Publication Number Publication Date
CN113257440A true CN113257440A (zh) 2021-08-13

Family

ID=77188672

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110682391.XA Pending CN113257440A (zh) 2021-06-21 2021-06-21 一种基于病患视频识别的icu智能看护***

Country Status (1)

Country Link
CN (1) CN113257440A (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114998834A (zh) * 2022-06-06 2022-09-02 杭州中威电子股份有限公司 一种基于人脸图像以及情感识别的医疗示警***
CN115414032A (zh) * 2022-08-03 2022-12-02 浙江大华技术股份有限公司 一种护理监测***、方法、装置、监测设备及存储介质
CN116013548A (zh) * 2022-12-08 2023-04-25 广州视声健康科技有限公司 基于计算机视觉的智慧病房监测方法和装置
CN116269437A (zh) * 2023-03-23 2023-06-23 大庆龙南医院 一种神经内科用护理监控***和方法
CN116664925A (zh) * 2023-05-17 2023-08-29 武汉大学中南医院 一种重症监护室内目标识别方法、装置、设备及存储介质
WO2023171356A1 (ja) * 2022-03-07 2023-09-14 ソニーグループ株式会社 患者モニタリングシステム、患者モニタリング方法、およびプログラム
CN116759044A (zh) * 2023-05-30 2023-09-15 急尼优医药科技(上海)有限公司 一种基于区块链的智能药店管理***及方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106355147A (zh) * 2016-08-26 2017-01-25 张艳 一种活体人脸检测头部姿态回归器的获取方法及检测方法
CN109806113A (zh) * 2019-03-14 2019-05-28 郑州大学 一种基于自组网导航的icu病房卧式下肢康复智能交互机器人群组***
US20210121121A1 (en) * 2019-10-28 2021-04-29 International Business Machines Corporation Parkinson?s disease treatment adjustment and rehabilitation therapy based on analysis of adaptive games

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106355147A (zh) * 2016-08-26 2017-01-25 张艳 一种活体人脸检测头部姿态回归器的获取方法及检测方法
CN109806113A (zh) * 2019-03-14 2019-05-28 郑州大学 一种基于自组网导航的icu病房卧式下肢康复智能交互机器人群组***
US20210121121A1 (en) * 2019-10-28 2021-04-29 International Business Machines Corporation Parkinson?s disease treatment adjustment and rehabilitation therapy based on analysis of adaptive games

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
张鑫 等: "基于计算机视觉的患者面部偏转角度对面瘫评定的影响分析", 《深圳中西医结合杂志》 *
徐建萍 等: "《疾病观察与护理技能丛书 风湿免疫科疾病观察与护理技能》", 30 April 2019, 北京:中国医药科技出版社 *
林强 等: "《行为识别与智能计算》", 30 November 2016, 西安:西安电子科技大学出版社 *
王崇仁 等: "《医事困学录 津门大全王士相学术经验集》", 31 January 2012, 北京:中国中医药出版社 *
邓开发: "《人工智能与艺术设计》", 30 September 2019, 上海:华东理工大学出版社 *
郭杰荣 等: "《光电信息技术实验教程》", 31 December 2015, 西安:西安电子科技大学出版社 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023171356A1 (ja) * 2022-03-07 2023-09-14 ソニーグループ株式会社 患者モニタリングシステム、患者モニタリング方法、およびプログラム
CN114998834A (zh) * 2022-06-06 2022-09-02 杭州中威电子股份有限公司 一种基于人脸图像以及情感识别的医疗示警***
CN115414032A (zh) * 2022-08-03 2022-12-02 浙江大华技术股份有限公司 一种护理监测***、方法、装置、监测设备及存储介质
CN115414032B (zh) * 2022-08-03 2023-10-03 浙江大华技术股份有限公司 一种护理监测***、方法、装置、监测设备及存储介质
CN116013548A (zh) * 2022-12-08 2023-04-25 广州视声健康科技有限公司 基于计算机视觉的智慧病房监测方法和装置
CN116013548B (zh) * 2022-12-08 2024-04-09 广州视声健康科技有限公司 基于计算机视觉的智慧病房监测方法和装置
CN116269437A (zh) * 2023-03-23 2023-06-23 大庆龙南医院 一种神经内科用护理监控***和方法
CN116269437B (zh) * 2023-03-23 2024-04-02 大庆龙南医院 一种神经内科用护理监控***和方法
CN116664925A (zh) * 2023-05-17 2023-08-29 武汉大学中南医院 一种重症监护室内目标识别方法、装置、设备及存储介质
CN116664925B (zh) * 2023-05-17 2023-12-26 武汉大学中南医院 一种重症监护室内目标识别方法、装置、设备及存储介质
CN116759044A (zh) * 2023-05-30 2023-09-15 急尼优医药科技(上海)有限公司 一种基于区块链的智能药店管理***及方法

Similar Documents

Publication Publication Date Title
CN113257440A (zh) 一种基于病患视频识别的icu智能看护***
US20230222805A1 (en) Machine learning based monitoring system
Sathyanarayana et al. Vision-based patient monitoring: a comprehensive review of algorithms and technologies
CN109394247B (zh) 一种多特征融合的就诊用户情绪监控方法
CN104834946B (zh) 一种非接触式睡眠监测方法及***
CN110477925A (zh) 一种针对敬老院老人的跌倒检测与预警方法及***
Zhang et al. Activity monitoring using a smart phone's accelerometer with hierarchical classification
Wang et al. Unconstrained video monitoring of breathing behavior and application to diagnosis of sleep apnea
EP1305767A1 (en) Method and apparatus for remote medical monitoring incorporating video processing and system of motor tasks
CN113762085B (zh) 一种基于人工智能的婴儿培养箱***及方法
CN114999646B (zh) 新生儿运动发育评估***、方法、装置及存储介质
KR102416878B1 (ko) 심박수 측정을 위한 헬스케어 장치
CN111312389A (zh) 脑卒中智能诊断***
CN115116133A (zh) 一种用于独居老人监护的异常行为检测***及方法
CN115662631A (zh) 基于ai智能判别的养老院管理***
KR102435808B1 (ko) 스트레스 지수 측정을 위한 헬스케어 장치
WO2021148301A1 (en) Determining the likelihood of patient self-extubation
CN116945156A (zh) 一种基于计算机视觉技术的老年人智能陪护***
Rescio et al. Ambient and wearable system for workers’ stress evaluation
Kau et al. Pressure-sensor-based sleep status and quality evaluation system
CN113658703A (zh) 一种智慧医疗养老***
Pogorelc et al. Home-based health monitoring of the elderly through gait recognition
CN113593693A (zh) 远程健康管理平台
CN115424162B (zh) 一种有创机械通气患者脱管预警***
Földesy et al. Reference free incremental deep learning model applied for camera-based respiration monitoring

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20210813