CN118097160B - 基于视觉技术的危急重症病患状态监测*** - Google Patents
基于视觉技术的危急重症病患状态监测*** Download PDFInfo
- Publication number
- CN118097160B CN118097160B CN202410458228.9A CN202410458228A CN118097160B CN 118097160 B CN118097160 B CN 118097160B CN 202410458228 A CN202410458228 A CN 202410458228A CN 118097160 B CN118097160 B CN 118097160B
- Authority
- CN
- China
- Prior art keywords
- pixel point
- face image
- target pixel
- window
- local window
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012544 monitoring process Methods 0.000 title claims abstract description 24
- 208000028399 Critical Illness Diseases 0.000 title claims abstract description 20
- 238000005516 engineering process Methods 0.000 title claims abstract description 13
- 238000001914 filtration Methods 0.000 claims abstract description 38
- 230000001815 facial effect Effects 0.000 claims abstract description 37
- 238000012545 processing Methods 0.000 claims abstract description 10
- 238000004364 calculation method Methods 0.000 claims abstract description 9
- 238000000034 method Methods 0.000 claims description 51
- 238000012937 correction Methods 0.000 claims description 38
- 238000003062 neural network model Methods 0.000 claims description 27
- 230000008569 process Effects 0.000 claims description 18
- 238000010606 normalization Methods 0.000 claims description 8
- 101100272279 Beauveria bassiana Beas gene Proteins 0.000 claims description 3
- 238000002372 labelling Methods 0.000 claims description 2
- 238000012549 training Methods 0.000 claims description 2
- 230000000694 effects Effects 0.000 abstract description 5
- 230000008921 facial expression Effects 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 238000003745 diagnosis Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 239000000758 substrate Substances 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000004083 survival effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Landscapes
- Image Processing (AREA)
Abstract
本发明涉及图像处理技术领域,具体涉及基于视觉技术的危急重症病患状态监测***,包括:面部图像获取模块,用于获取危急重症病患的面部图像;噪声度计算模块,用于得到面部图像中每个像素点的噪声度;关联性计算模块,用于得到面部图像的每个像素点的局部窗口的中心像素点与非中心像素点的关联性;高斯滤波核获取模块,用于得到面部图像中每个像素点的高斯滤波核;面部图像去噪模块,用于得到去噪之后的面部图像;病患状态获取模块,用于得到每个病患状态的参考指标。本发明提高了对病患的面部图像的滤波效果,进而使得病患状态的参考指标更加准确。
Description
技术领域
本发明涉及图像处理技术领域,具体涉及基于视觉技术的危急重症病患状态监测***。
背景技术
基于视觉技术的危急重症病患状态监测***是一种整合了计算机视觉和人工智能算法的智能监护***。该***旨在通过实时监测患者相关视觉信息来分析生命体征数据,及时发现患者的异常情况,提供辅助诊断和监护,以帮助医护人员做出更准确的诊断和治疗决策,从而提高治疗效果和患者生存率。
在利用视觉技术进行危急重症病患状态监测时,通过采集危急重症病患的面部图像进行分析,但在图像采集之后,为了保证数据的准确性需要对其进行滤波处理。现有技术中,一般利用高斯滤波算法对危急重症病患的面部图像进行滤波去噪,高斯滤波是对整幅图像进行加权平均滤波的,而这种加权平均会导致图像中不同区域的像素值受到影响,从而使得边缘处的像素值发生变化。由于边缘处的像素值变化较为剧烈,因此在平滑过程中,周围像素值的加权平均会使得边缘处的像素值与周围像素值产生混合,从而使得边缘变得模糊。但在危急重症病患的状态监测中,病人的意识较为模糊,面部表情的细微变化更需要进行关注,而高斯滤波使得危急重症病患的面部图像的边缘模糊,使得对病患的状态监测不准确,进而影响病患的安全。
发明内容
为解决上述问题,本发明提供基于视觉技术的危急重症病患状态监测***。
本发明的基于视觉技术的危急重症病患状态监测***采用如下技术方案:
本发明一个实施例提供了基于视觉技术的危急重症病患状态监测***,该***包括以下模块:
面部图像获取模块,用于获取危急重症病患的面部图像;
噪声度计算模块,用于预设面部图像中每个像素点的局部窗口;根据局部窗口中像素点的灰度值和灰度值在面部图像中出现的概率,得到面部图像中每个像素点的噪声度;
关联性计算模块,用于根据局部窗口中像素点之间的距离和局部窗口中像素点的灰度值,得到面部图像的每个像素点的局部窗口的中心像素点与非中心像素点的关联性;
高斯滤波核获取模块,用于根据噪声度和关联性,得到面部图像的每个像素点的局部窗口中每个像素点的高斯权值修正参数;根据高斯权值修正参数得到面部图像中每个像素点的高斯滤波核;
面部图像去噪模块,用于根据面部图像中每个像素点的高斯滤波核对面部图像进行高斯滤波,得到去噪之后的面部图像;
病患状态获取模块,用于根据去噪之后的面部图像并利用神经网络模型得到每个病患状态的参考指标。
进一步地,所述预设面部图像中每个像素点的局部窗口,包括的具体步骤如下:
将面部图像中任意一个像素点,记为目标像素点,以目标像素点为中心,构建一个的窗口,记为目标像素点的局部窗口,为预设的一个第一数值。
进一步地,所述根据局部窗口中像素点的灰度值和灰度值在面部图像中出现的概率,得到面部图像中每个像素点的噪声度,包括的具体步骤如下:
;
式中,为概率参数;为目标像素点的灰度值在面部图像中出现的概率,为目标像素点的二维熵;为目标像素点的噪声度。
进一步地,所述概率参数的具体获取方法如下:
将目标像素点的局部窗口中除目标像素点外第一个像素点的灰度值,记为第一灰度值;获取面部图像的所有像素点的局部窗口中存在第一灰度值和目标像素点的灰度值的局部窗口的数量,记为;将面部图像中所有像素点的局部窗口的数量,记为;将作为第一灰度值对应的条件概率;获取目标像素点的局部窗口中除目标像素点外每个像素点的灰度值对应的条件概率,将目标像素点的局部窗口中除目标像素点外所有像素点的灰度值对应的条件概率的最大值,记为概率参数。
进一步地,所述目标像素点的二维熵的具体获取方法如下:
将目标像素点的局部窗口中像素点的平均灰度值,记为第一平均灰度值,将目标像素点的灰度值和第一平均灰度值在面部图像中对应的二维熵,记为目标像素点的二维熵。
进一步地,所述根据局部窗口中像素点之间的距离和局部窗口中像素点的灰度值,得到面部图像的每个像素点的局部窗口的中心像素点与非中心像素点的关联性,包括的具体步骤如下:
;
式中,为目标像素点的局部窗口中第个像素点与目标像素点之间的欧式距离,所述第个像素点和目标像素点不会是同一个像素点,为目标像素点的灰度值,为目标像素点的局部窗口中第个像素点的灰度值,为取绝对值,的具体获取方法如下:获取面部图像的所有像素点的局部窗口中存在和的局部窗口的数量,记为;将面部图像中所有像素点的局部窗口的数量,记为;将与的比值,记为;为目标像素点与目标像素点的局部窗口中第个像素点的关联性。
进一步地,所述根据噪声度和关联性,得到面部图像的每个像素点的局部窗口中每个像素点的高斯权值修正参数,包括的具体步骤如下:
获取面部图像的每个像素点的局部窗口的中心像素点与非中心像素点的关联性,将面部图像的所有像素点的局部窗口的中心像素点与非中心像素点的关联性进行线性归一化处理,得到的结果,作为面部图像的每个像素点的局部窗口的中心像素点与非中心像素点的归一化关联性;
;
式中,为目标像素点与目标像素点的局部窗口中第个像素点的归一化关联性,为以自然常数为底的指数函数,为目标像素点的局部窗口中第个像素点的高斯权值修正参数。
进一步地,所述根据高斯权值修正参数得到面部图像中每个像素点的高斯滤波核,包括的具体步骤如下:
根据高斯滤波算法获取的滤波窗口,将的滤波窗口记为高斯滤波窗口,为预设的一个第一数值;
;
式中,为高斯滤波窗口中第个元素值,为高斯滤波窗口中第个元素值的修正参数;
将高斯滤波窗口的中心元素值,作为高斯滤波窗口的中心元素值的修正参数,获取高斯滤波窗口中每个元素值的修正参数,将高斯滤波窗口中所有元素值的修正参数进行线性归一化处理,得到的结果作为高斯滤波窗口中每个元素值的修正元素值;
将高斯滤波窗口中每个元素值替换为对应的修正元素值,得到的结果作为目标像素点的高斯滤波核。
进一步地,所述根据去噪之后的面部图像并利用神经网络模型得到每个病患状态的参考指标,包括的具体步骤如下:
获取若干病患的去噪之后的面部图像,将所有去噪之后的面部图像构成的集合,作为神经网络模型的数据集;
对数据集中每个去噪之后的面部图像进行标注,将去噪之后的面部图像划分为状态好和状态差两个类别,其中状态好的类别中去噪之后的面部图像标注为1,状态差的类别中去噪之后的面部图像标注为0;
将数据集中每个去噪之后的面部图像输入到神经网络模型中,神经网络模型的网络结构为ResNet50,神经网络模型的损失函数为交叉熵损失函数,输出得到每个去噪之后的面部图像为状态好的概率和状态差的概率;当损失函数收敛时,得到训练完成的神经网络模型;
将任意一个病患的去噪之后的面部图像,记为第一面部图像;将第一面部图像输入到训练完成的神经网络模型中,输出得到第一面部图像为状态好的概率和状态差的概率,将第一面部图像为状态好的概率和状态差的概率,作为病患状态的参考指标。
进一步地,所述获取危急重症病患的面部图像的具体方法如下:
通过相机获取危急重症病患的面部RGB图像,将面部RGB图像进行灰度化处理,得到的灰度图像,记为危急重症病患的面部图像。
本发明的技术方案的有益效果是:本发明在获取到危急重症病患的面部图像后,通过局部窗口中像素点的灰度值和灰度值在面部图像中出现的概率,得到面部图像中每个像素点的噪声度,通过局部窗口中像素点之间的距离和局部窗口中像素点的灰度值,得到面部图像的每个像素点的局部窗口的中心像素点与非中心像素点的关联性,通过获取高斯权值修正参数并依据修正参数得到面部图像中每个像素点的高斯滤波核,进而根据面部图像中每个像素点的高斯滤波核对面部图像进行高斯滤波,得到去噪之后的面部图像,通过分析噪声度、中心像素点与非中心像素点的关联性及高斯滤波核,使得面部图像去噪后效果更佳,更好的保留面部图像的边缘细节,使得根据去噪之后的面部图像利用神经网络模型得到病患状态的参考指标更加准确,从而更好的保障病患的安全。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明一个实施例所提供的基于视觉技术的危急重症病患状态监测***的框架图;
图2为本发明一个实施例所提供的获取病患状态的参考指标的流程图。
具体实施方式
为了更进一步阐述本发明为达成预定发明目的所采取的技术手段及功效,以下结合附图及较佳实施例,对依据本发明提出的基于视觉技术的危急重症病患状态监测***,其具体实施方式、结构、特征及其功效,详细说明如下。在下述说明中,不同的“一个实施例”或“另一个实施例”指的不一定是同一实施例。此外,一个或多个实施例中的特定特征、结构或特点可由任何合适形式组合。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。
下面结合附图具体的说明本发明所提供的基于视觉技术的危急重症病患状态监测***的具体方案。
请参阅图1和图2,其示出了本发明一个实施例提供的基于视觉技术的危急重症病患状态监测***的框架图和获取病患状态的参考指标的流程图,该***包括以下模块:
面部图像获取模块:
具体的,获取危急重症病患的面部图像,具体如下:
布设高清相机,通过相机获取危急重症病患的面部RGB图像,将面部RGB图像进行灰度化处理,得到的灰度图像,记为危急重症病患的面部图像。
至此,得到危急重症病患的面部图像。
噪声度计算模块:
需要说明的是,现有的高斯滤波算法对面部图像进行去噪时,因为高斯滤波卷积核中心像素周围的像素值被加权平均,而这种加权平均会导致图像中不同区域的像素值受到影响,从而使得边缘处的像素值发生变化。由于边缘处的像素值变化较为剧烈,因此在平滑过程中,周围像素值的加权平均会使得边缘处的像素值与周围像素值产生混合,从而使得边缘变得模糊。但是在危急重症病患的状态监测中,病人的意识较为模糊,面部表情的细微变化更需要进行关注,所以高斯滤波使得面部图像的边缘模糊,对于病患的面部表情微小的变化监测有着较为严重的影响。
进一步需要说明的是,为了面部图像有更好的滤波效果,本实施例通过对面部图像中的像素点在利用高斯滤波算法进行滤波的过程中,首先利用中心像素点在滤波窗口内的灰度结构在面部图像中的分布偶然性来判断中心像素点为噪声像素点的概率,而后利用中心像素点与滤波窗口内的像素点在基于空间位置的灰度值相似性以及全图分布必然性分析滤波窗口中的每个像素点对中心像素点的影响程度,进而获得窗口内的像素点与中心像素点的关联性,最后利用中心像素点的噪声概率以及窗口内的像素点与中心像素点的关联性对原始的高斯滤波模核内像素点的权值进行修正,而后通过修正之后的每个滤波像素点的权重结合高斯滤波算法进行面部图像的滤波,使得对面部图像进行滤除噪声像素点的同时,保留面部图像中的边缘细节,以便危机重症病患的状态监测。
需要说明的是,因为高斯滤波算法是通过邻域窗口之间的像素点的灰度值来进行面部图像滤波的,但当滤波窗口中心的像素点不是噪声像素点而是边缘细节像素点的时,因为其与窗口内的某些像素点有着较大的灰度值差异,所以利用这些像素点对于中心像素点进行滤波,往往可能导致中心边缘细节像素点的模糊,从而使得细节信息被进行滤除,因此本实施例通过在高斯滤波的基础上,获得每个(滤波)窗口中心像素点与窗口内部的像素点结构在面部图像的全局中的偶然性来判断中心像素点为噪声像素点的概率。
具体的,预设面部图像中每个像素点的局部窗口,具体如下:
将面部图像中任意一个像素点,记为目标像素点,以目标像素点为中心,构建一个的窗口,记为目标像素点的局部窗口,为预设的一个第一数值,本实施例以进行叙述;需要说明的是,在构建局部窗口时,若中心像素点靠近面部图像的边界,则局部窗口会超过面部图像的范围,此时本实施例利用二次线性插值的方法,将超出面部图像的部分进行插值填充数据。
进一步地,根据局部窗口中像素点的灰度值和灰度值在面部图像中出现的概率,得到面部图像中每个像素点的噪声度,作为一种实施例,具体计算方法如下:
;
式中,为概率参数,的具体获取方法如下:将目标像素点的局部窗口中除目标像素点外第一个像素点的灰度值,记为第一灰度值;获取面部图像的所有像素点的局部窗口中存在第一灰度值和目标像素点的灰度值的局部窗口的数量,记为;将面部图像中所有像素点的局部窗口的数量,记为;将作为第一灰度值对应的条件概率;获取目标像素点的局部窗口中除目标像素点外每个像素点的灰度值对应的条件概率,将目标像素点的局部窗口中除目标像素点外所有像素点的灰度值对应的条件概率的最大值,记为;为目标像素点的灰度值在面部图像中出现的概率;需要说明的是,目标像素点的灰度值在面部图像中出现的概率可通过目标像素点的灰度值在面部图像中出现的次数与面部图像中像素点数量的比值获得,即出现频次;为目标像素点的二维熵,的具体获取方法如下:将目标像素点的局部窗口中像素点的平均灰度值,记为第一平均灰度值,将目标像素点的灰度值和第一平均灰度值在面部图像中对应的二维熵,记为;为目标像素点的噪声度。
需要说明的是,表示像素点的结构紧密性,其值越小,说明在面部图像中,当存在与目标像素点的灰度值相同的像素点出现时,有较大的可能会出现一个固定的与目标像素点灰度值成一定搭配的像素点出现,而这种像素点一般为面部图像中的某些具有特殊纹理的像素点,例如病患面部的皮肤,而噪声像素点一般出现的较为随机,所以目标像素点为噪声像素点的可能性越小;表示邻域像素点的稳定性,一般而言,非噪声影响的窗口内部的像素点的二维熵较小,整体分布较为稳定,所以当较大的时候,说明窗口中心像素点与窗口内其余像素点在全图中的结构整体不够稳定,则有窗口中心像素点为噪声像素点的可能性越大,即噪声度越大。因此通过上述两个部分进行像素点的噪声度计算,该值越大,说明像素点为噪声像素点的可能性越大,反之则相反。
至此,得到面部图像中每个像素点的噪声度。
关联性计算模块:
需要说明的是,上述获得了面部图像中每个像素点的噪声度,但是无法明确每个局部窗口中心像素点与局部窗口内其他像素点的联系,所以需要利用中心像素点与局部窗口内的像素点在基于空间位置的灰度值相似性以及全图分布必然性计算局部窗口中每个像素点对中心像素点的影响程度,而后以上述两个参数来判断局部窗口内的像素点与中心像素点的关联性。
具体的,根据局部窗口中像素点之间的距离和局部窗口中像素点的灰度值,得到面部图像的每个像素点的局部窗口的中心像素点与非中心像素点的关联性,作为一种实施例,具体计算方法如下:
;
式中,为目标像素点的局部窗口中第个像素点与目标像素点之间的欧式距离,所述第个像素点和目标像素点不会是同一个像素点,为目标像素点的灰度值,为目标像素点的局部窗口中第个像素点的灰度值,为取绝对值,的具体获取方法如下:获取面部图像的所有像素点的局部窗口中存在和的局部窗口的数量,记为;将面部图像中所有像素点的局部窗口的数量,记为;将与的比值,记为;为目标像素点与目标像素点的局部窗口中第个像素点的关联性。
需要说明的是,表示基于空间位置的灰度值相似性,若局部窗口的中心像素点为细节边缘像素点时,那么其必然与局部窗口内的某些像素点存在一定的灰度值差异,并且距离越远,灰度值差异较大,因此利用对其进行计算,该值越大,说明局部窗口的中心像素点相对于第个像素点为边缘细节像素点的可能性越小,则后续进行滤波的时候,应该给予第个像素点更大的权重,反之则相反;表示面部图像分布必然性,当越大时,则有局部窗口的中心像素点与第个像素点在面部图像中出现的结构概率较大,即利用第个像素点对中心像素点进行滤波的时候,其滤波后对面部图像的影响越小,所以应该给予更高的权重。利用上述两个部分进行的计算,该值越大,说明局部窗口的中心像素点与第个像素点的关联性越大,则利用第个像素点对目标像素点(局部窗口的中心像素点)进行滤波时应该给予更高的权重。
至此,得到面部图像的每个像素点的局部窗口的中心像素点与非中心像素点的关联性。
高斯滤波核获取模块:
需要说明的是,上述中获得的两个参数(噪声度和关联性)在进行高斯权值的修正过程中,具体的表现过程为,如果局部窗口内的像素点为噪声像素点的可能性越大,并且局部窗口的中心像素点在未被噪声影响前为细节像素点的概率越大,则需要给予局部窗口内与中心像素点联系性更强的像素点来对中心像素点进行滤波,反之则相反,所以基于此逻辑,进行局部窗口内每个像素点的高斯权值的修正参数的计算。
具体的,根据噪声度和关联性,得到面部图像的每个像素点的局部窗口中每个像素点的高斯权值修正参数,作为一种实施例,具体计算方法如下:
获取面部图像的每个像素点的局部窗口的中心像素点与非中心像素点的关联性,将面部图像的所有像素点的局部窗口的中心像素点与非中心像素点的关联性进行线性归一化处理,得到的结果,作为面部图像的每个像素点的局部窗口的中心像素点与非中心像素点的归一化关联性。
;
式中,为目标像素点与目标像素点的局部窗口中第个像素点的归一化关联性,为目标像素点的噪声度,为以自然常数为底的指数函数,本实施例采用的模型来呈现反比例关系及归一化处理,为模型的输入,实施者可根据实际情况设置反比例函数及归一化函数,为目标像素点的局部窗口中第个像素点的高斯权值修正参数。
需要说明的是,像素点的噪声度越大,且局部窗口中心像素点与该像素点的关联性越强,则利用该像素点对局部窗口中心像素点进行滤波时应该给予更高的权重,即高斯权值修正参数越大,反之则相反。
进一步地,根据高斯权值修正参数得到面部图像中每个像素点的高斯滤波核,作为一种实施例,具体计算方法如下:
根据高斯滤波算法获取的滤波窗口,将的滤波窗口记为高斯滤波窗口,为预设的一个第一数值;需要说明的是,本实施例中高斯滤波窗口对应的标准差为1.4,根据高斯滤波算法获取的滤波窗口为高斯滤波算法的现有方法,本实施例不再赘述。
;
式中,为目标像素点的局部窗口中第个像素点的高斯权值修正参数,为高斯滤波窗口中第个元素值,为高斯滤波窗口中第个元素值的修正参数。
将高斯滤波窗口的中心元素值,作为高斯滤波窗口的中心元素值的修正参数,获取高斯滤波窗口中每个元素值的修正参数,将高斯滤波窗口中所有元素值的修正参数进行线性归一化处理,得到的结果作为高斯滤波窗口中每个元素值的修正元素值。
将高斯滤波窗口中每个元素值替换为对应的修正元素值,得到的结果作为目标像素点的高斯滤波核。
至此,得到面部图像中每个像素点的高斯滤波核。
面部图像去噪模块:
具体的,根据面部图像中每个像素点的高斯滤波核对面部图像进行高斯滤波,得到去噪之后的面部图像;需要说明的是,根据面部图像中每个像素点的高斯滤波核对面部图像进行高斯滤波,得到去噪之后的面部图像为高斯滤波算法的现有方法,本实施例不再赘述。
病患状态获取模块:
具体的,根据去噪之后的面部图像并利用神经网络模型得到每个病患状态的参考指标,具体如下:
获取大量病患的去噪之后的面部图像,将所有去噪之后的面部图像构成的集合,作为神经网络模型的数据集;本实施例中神经网络模型具体为ResNet50。
人为的对数据集中每个去噪之后的面部图像进行标注,将去噪之后的面部图像划分为状态好和状态差两个类别,其中状态好的类别中去噪之后的面部图像标注为1,状态差的类别中去噪之后的面部图像标注为0,具体状态好或差有人工进行设定,本实施例不再赘述。
将数据集中每个去噪之后的面部图像输入到神经网络模型中,神经网络模型的损失函数为交叉熵损失函数,输出得到每个去噪之后的面部图像为状态好的概率和状态差的概率;当损失函数收敛时,得到训练完成的神经网络模型。
将任意一个病患的去噪之后的面部图像,记为第一面部图像;将第一面部图像输入到训练完成的神经网络模型中,输出得到第一面部图像为状态好的概率和状态差的概率,将第一面部图像为状态好的概率和状态差的概率,作为病患状态的参考指标。
需要说明的是,对神经网络模型进行训练进而得到训练完成的神经网络模型,具体为现有方法,本实施例不再赘述。
至此,通过对病患的面部图像进行高斯滤波并通过神经网络模型得到每个病患状态的参考指标,完成基于视觉技术的危急重症病患状态监测。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (3)
1.基于视觉技术的危急重症病患状态监测***,其特征在于,该***包括以下模块:
面部图像获取模块,用于获取危急重症病患的面部图像;
噪声度计算模块,用于预设面部图像中每个像素点的局部窗口;根据局部窗口中像素点的灰度值和灰度值在面部图像中出现的概率,得到面部图像中每个像素点的噪声度;
关联性计算模块,用于根据局部窗口中像素点之间的距离和局部窗口中像素点的灰度值,得到面部图像的每个像素点的局部窗口的中心像素点与非中心像素点的关联性;
高斯滤波核获取模块,用于根据噪声度和关联性,得到面部图像的每个像素点的局部窗口中每个像素点的高斯权值修正参数;根据高斯权值修正参数得到面部图像中每个像素点的高斯滤波核;
面部图像去噪模块,用于根据面部图像中每个像素点的高斯滤波核对面部图像进行高斯滤波,得到去噪之后的面部图像;
病患状态获取模块,用于根据去噪之后的面部图像并利用神经网络模型得到每个病患状态的参考指标;
所述预设面部图像中每个像素点的局部窗口,包括的具体步骤如下:
将面部图像中任意一个像素点,记为目标像素点,以目标像素点为中心,构建一个的窗口,记为目标像素点的局部窗口,为预设的一个第一数值;
所述根据局部窗口中像素点的灰度值和灰度值在面部图像中出现的概率,得到面部图像中每个像素点的噪声度,包括的具体步骤如下:
;
式中,为概率参数;为目标像素点的灰度值在面部图像中出现的概率, 为目标像素点的二维熵;为目标像素点的噪声度;
所述概率参数的具体获取方法如下:
将目标像素点的局部窗口中除目标像素点外第一个像素点的灰度值,记为第一灰度值;获取面部图像的所有像素点的局部窗口中存在第一灰度值和目标像素点的灰度值的局部窗口的数量,记为;将面部图像中所有像素点的局部窗口的数量,记为;将作为第一灰度值对应的条件概率;获取目标像素点的局部窗口中除目标像素点外每个像素点的灰度值对应的条件概率,将目标像素点的局部窗口中除目标像素点外所有像素点的灰度值对应的条件概率的最大值,记为概率参数;
所述目标像素点的二维熵的具体获取方法如下:
将目标像素点的局部窗口中像素点的平均灰度值,记为第一平均灰度值,将目标像素点的灰度值和第一平均灰度值在面部图像中对应的二维熵,记为目标像素点的二维熵;
所述根据局部窗口中像素点之间的距离和局部窗口中像素点的灰度值,得到面部图像的每个像素点的局部窗口的中心像素点与非中心像素点的关联性,包括的具体步骤如下:
;
式中,为目标像素点的局部窗口中第个像素点与目标像素点之间的欧式距离,所述第个像素点和目标像素点不会是同一个像素点,为目标像素点的灰度值,为目标像素点的局部窗口中第个像素点的灰度值,为取绝对值,的具体获取方法如下:获取面部图像的所有像素点的局部窗口中存在和的局部窗口的数量,记为;将面部图像中所有像素点的局部窗口的数量,记为;将与的比值,记为;为目标像素点与目标像素点的局部窗口中第个像素点的关联性;
所述根据噪声度和关联性,得到面部图像的每个像素点的局部窗口中每个像素点的高斯权值修正参数,包括的具体步骤如下:
获取面部图像的每个像素点的局部窗口的中心像素点与非中心像素点的关联性,将面部图像的所有像素点的局部窗口的中心像素点与非中心像素点的关联性进行线性归一化处理,得到的结果,作为面部图像的每个像素点的局部窗口的中心像素点与非中心像素点的归一化关联性;
;
式中,为目标像素点与目标像素点的局部窗口中第个像素点的归一化关联性,为以自然常数为底的指数函数,为目标像素点的局部窗口中第个像素点的高斯权值修正参数,为目标像素点的噪声度;
所述根据高斯权值修正参数得到面部图像中每个像素点的高斯滤波核,包括的具体步骤如下:
根据高斯滤波算法获取的滤波窗口,将的滤波窗口记为高斯滤波窗口,为预设的一个第一数值;
;
式中,为高斯滤波窗口中第个元素值,为高斯滤波窗口中第个元素值的修正参数;
将高斯滤波窗口的中心元素值,作为高斯滤波窗口的中心元素值的修正参数,获取高斯滤波窗口中每个元素值的修正参数,将高斯滤波窗口中所有元素值的修正参数进行线性归一化处理,得到的结果作为高斯滤波窗口中每个元素值的修正元素值;
将高斯滤波窗口中每个元素值替换为对应的修正元素值,得到的结果作为目标像素点的高斯滤波核。
2.根据权利要求1所述基于视觉技术的危急重症病患状态监测***,其特征在于,所述根据去噪之后的面部图像并利用神经网络模型得到每个病患状态的参考指标,包括的具体步骤如下:
获取若干病患的去噪之后的面部图像,将所有去噪之后的面部图像构成的集合,作为神经网络模型的数据集;
对数据集中每个去噪之后的面部图像进行标注,将去噪之后的面部图像划分为状态好和状态差两个类别,其中状态好的类别中去噪之后的面部图像标注为1,状态差的类别中去噪之后的面部图像标注为0;
将数据集中每个去噪之后的面部图像输入到神经网络模型中,神经网络模型的网络结构为ResNet50,神经网络模型的损失函数为交叉熵损失函数,输出得到每个去噪之后的面部图像为状态好的概率和状态差的概率;当损失函数收敛时,得到训练完成的神经网络模型;
将任意一个病患的去噪之后的面部图像,记为第一面部图像;将第一面部图像输入到训练完成的神经网络模型中,输出得到第一面部图像为状态好的概率和状态差的概率,将第一面部图像为状态好的概率和状态差的概率,作为病患状态的参考指标。
3.根据权利要求1所述基于视觉技术的危急重症病患状态监测***,其特征在于,所述获取危急重症病患的面部图像的具体方法如下:
通过相机获取危急重症病患的面部RGB图像,将面部RGB图像进行灰度化处理,得到的灰度图像,记为危急重症病患的面部图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410458228.9A CN118097160B (zh) | 2024-04-17 | 2024-04-17 | 基于视觉技术的危急重症病患状态监测*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410458228.9A CN118097160B (zh) | 2024-04-17 | 2024-04-17 | 基于视觉技术的危急重症病患状态监测*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN118097160A CN118097160A (zh) | 2024-05-28 |
CN118097160B true CN118097160B (zh) | 2024-07-09 |
Family
ID=91147971
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410458228.9A Active CN118097160B (zh) | 2024-04-17 | 2024-04-17 | 基于视觉技术的危急重症病患状态监测*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN118097160B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118297839A (zh) * | 2024-06-04 | 2024-07-05 | 山东华尚电气有限公司 | 一种基于视觉的变压器绕组状态检测方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116098596A (zh) * | 2023-02-15 | 2023-05-12 | 北京工业大学 | 一种基于深度学习的生命体征监测方法与装置 |
CN117593308A (zh) * | 2024-01-19 | 2024-02-23 | 科普云医疗软件(深圳)有限公司 | 一种用于呼吸重症患者的呼吸监测预警方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2767281C1 (ru) * | 2021-03-15 | 2022-03-17 | Вячеслав Викторович Катин | Способ интеллектуальной обработки массива неоднородных изображений |
US20230419724A1 (en) * | 2022-06-22 | 2023-12-28 | Koninklijke Philips N.V. | Automated camera-based non-invasive monitoring for spontaneous breathing and awakening trials in intensive care |
-
2024
- 2024-04-17 CN CN202410458228.9A patent/CN118097160B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116098596A (zh) * | 2023-02-15 | 2023-05-12 | 北京工业大学 | 一种基于深度学习的生命体征监测方法与装置 |
CN117593308A (zh) * | 2024-01-19 | 2024-02-23 | 科普云医疗软件(深圳)有限公司 | 一种用于呼吸重症患者的呼吸监测预警方法 |
Also Published As
Publication number | Publication date |
---|---|
CN118097160A (zh) | 2024-05-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11645748B2 (en) | Three-dimensional automatic location system for epileptogenic focus based on deep learning | |
CN118097160B (zh) | 基于视觉技术的危急重症病患状态监测*** | |
CN111407245B (zh) | 一种基于摄像头的非接触式心率、体温测量方法 | |
CN115841434B (zh) | 一种用于气体浓度分析的红外图像增强方法 | |
CN115661669B (zh) | 一种基于视频监控的耕地违法占用监测方法及*** | |
CN117764864B (zh) | 基于图像去噪的核磁共振肿瘤视觉检测方法 | |
CN114092450B (zh) | 一种基于胃镜检查视频的实时图像分割方法、***、装置 | |
CN112465905A (zh) | 基于深度学习的磁共振成像数据的特征脑区定位方法 | |
CN117522719B (zh) | 基于机器学习的支气管镜图像辅助优化*** | |
CN114898261A (zh) | 一种基于视频和生理数据融合的睡眠质量评估方法及*** | |
CN112465852A (zh) | 一种用于电力设备红外图像分割的改进区域生长方法 | |
CN111863232A (zh) | 基于区块链和医学影像的远程疾病智能诊断*** | |
CN115661459A (zh) | 一种使用差异信息的2D mean teacher模型 | |
CN113781488A (zh) | 舌象图像的分割方法、装置及介质 | |
CN115272647A (zh) | 一种肺部图像的识别处理方法及*** | |
CN114820652A (zh) | 乳腺x线图像局部质量异常区域的分割方法、装置及介质 | |
CN114511898A (zh) | 疼痛识别方法、装置、存储介质及电子设备 | |
CN117274278B (zh) | 基于模拟感受野的视网膜图像病灶部位分割方法及*** | |
Wang et al. | Infrared and visible image fusion based on Laplacian pyramid and generative adversarial network. | |
CN112507818A (zh) | 一种基于近红外图像的光照估计方法及*** | |
Vani et al. | Multi focus and multi modal image fusion using wavelet transform | |
CN112700409A (zh) | 视网膜微动脉瘤自动检测方法及成像方法 | |
CN113633304B (zh) | 一种颞骨ct影像中颈静脉球窝骨壁缺失检测方法 | |
CN115410032A (zh) | 基于自监督学习的octa图像分类结构训练方法 | |
Soni et al. | Automatic Pulmonary Cancer Detection using Prewitt & Morphological Dilation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |