CN107610087B - 一种基于深度学习的舌苔自动分割方法 - Google Patents
一种基于深度学习的舌苔自动分割方法 Download PDFInfo
- Publication number
- CN107610087B CN107610087B CN201710338958.5A CN201710338958A CN107610087B CN 107610087 B CN107610087 B CN 107610087B CN 201710338958 A CN201710338958 A CN 201710338958A CN 107610087 B CN107610087 B CN 107610087B
- Authority
- CN
- China
- Prior art keywords
- tongue
- tongue coating
- image
- deep learning
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种基于深度学习的舌苔自动分割方法,包括如下步骤:S1、采集并输入包含舌苔的图像;S2、对包含舌苔的图像,采用Faster R‑CNN深度学习方法实现舌苔检测,自动获得初步的舌苔区域图像;S3、对初步的舌苔区域图像,采用VGG深度学习方法进行校准,获得更准确的舌苔区域图像;S4、根据校准后的舌苔区域图像,自动分割出舌苔图像。本发明基于大数据的深度学习方法来实现更准确的舌苔分割,解决了现有方法对舌苔分割准确率低的问题。
Description
技术领域
本发明涉及计算机视觉、图像处理和人工智能在中医健康领域的应用,尤其涉及一种基于深度学习的舌苔自动分割方法。
背景技术
舌苔蕴含着大量的人体体质信息,这就意味着通过观察舌苔能够较客观地判断人体体质类型,但是这需要中医专家丰富的专业经验,对一般的医生及普通人就更加困难,因此采用人工智能技术实现舌苔的自动分析非常重要,但自动化的前提是实现将舌苔从含有舌苔的面部图像中自动分割出来,目前的分割准确率低。
舌苔分割是舌体区域的检测以及舌体的分割,是舌象特征提取与分析的重要前提。通常采用常用的图像分割算法实现,包括阈值分割、空间聚类、区域增长、边缘检测、轮廓跟踪等算法。早期研究主要基于图像底层信息,如赵忠旭等人提出了基于数学形态学和HIS模型的舌图像分割算法,刘关松等人提出基于亮度信息和形态特征的舌图像自动分割方法等。近期主要是使用Snake模型以及Snake模型的变形,如覃武星提出基于双层极坐标边缘检测的算法以获取舌体的粗略边缘,再使用Snake模型根据局部细节对舌体粗略边缘进行修正得到准确的舌体边缘,孙晓琳使用改进的Snake模型提取舌体区域。此外,张志顺提出改进的小波变换方法对舌体边缘检测,随后他提出改进的非参数化主动轮廓模型提取舌体。但是目前还没有采用一些效果很好的深度学习方法来实现舌苔检测和分割,因而效果比较差。本发明采用深度学习方法特别是Faster R-CNN(Ren S,He K,Girshick R,etal.Faster R-CNN:Towards Real-Time Object Detection with Region ProposalNetworks.IEEE Transactions on Pattern Analysis and Machine Intelligence,2015)和VGG(Simonyan K,Zisserman A.Very Deep Convolutional Networks for Large-ScaleImage Recognition.Computer Science,2014)方法来实现舌苔的自动检测与分割。
发明内容
为了克服现有技术存在的缺点与不足,本发明提供一种基于深度学习的舌苔自动分割方法,基于大数据的深度学习方法来实现更准确的舌苔分割,解决了现有方法对舌苔分割准确率低的问题。
为解决上述技术问题,本发明提供如下技术方案:一种基于深度学习的舌苔自动分割方法,包括如下步骤:
S1、采集并输入包含舌苔的图像;
S2、对包含舌苔的图像,采用Faster R-CNN深度学习方法实现舌苔检测,自动获得初步的舌苔区域图像;
S3、对初步的舌苔区域图像,采用VGG深度学习方法进行校准,获得更准确的舌苔区域图像;
S4、根据校准后的舌苔区域图像,自动分割出舌苔图像。
进一步地,所述步骤S1中采集包含舌苔的图像,通过智能移动设备或者摄像机或者计算机采集。
进一步地,所述步骤S2中Faster R-CNN深度学习方法,其需构建一个Faster R-CNN模型结构,所述Faster R-CNN模型结构包括卷积神经网络、RPN、RoI池化以及CNET。
进一步地,所述步骤S3,具体为:
S31、调整初步的舌苔区域图像的大小,并进行去均值处理后,传入校准网络,得到偏差类别;
S32、通过偏差类别得到对应xn偏差、yn偏差以及放缩比例sn;
S33、根据xn偏差、yn偏差以及放缩比例sn,使用逆运算调整舌苔区域,该区域为最终的舌苔检测区域,逆运算公式为:
式中,(x,y,w,h)是真实舌苔区域的左上x坐标、左上y坐标、宽和高;其中:
sn∈{0.83,0.91,1.0,1.10,1.21}
xn∈{-0.17,0,0.17}
yn∈{-0.17,0,0.17}。
进一步地,所述步骤S4,具体为:对校准后的舌苔区域图像,计算舌苔区域图像四个顶点的坐标,连接四个顶点,分割四个顶点内区域,即为最终的舌苔图像。
采用上述技术方案后,本发明至少具有如下有益效果:
1、本发明对舌苔的分割,准确率高;
2、本发明采用大数据的深度学习方法,对输入图像的质量要求不高,可采用智能手机等拍照,使用范围大。
附图说明
图1是本发明一种基于深度学习的舌苔自动分割方法的步骤流程图;
图2是本发明一种基于深度学习的舌苔自动分割方法中Faster R-CNN深度学习方法的Faster R-CNN模型结构示意图;
图3是本发明一种基于深度学习的舌苔自动分割方法中Faster R-CNN深度学习方法的VGG-16模型前13层结构示意图;
图4是本发明一种基于深度学习的舌苔自动分割方法中Faster R-CNN深度学习方法的RPN结构示意图;
图5是本发明一种基于深度学习的舌苔自动分割方法中VGG深度学习方法的校准网络结构示意图。
具体实施方式
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互结合,下面结合附图和具体实施例对本申请作进一步详细说明。
如图1所示,本发明提供一种基于深度学习的舌苔自动分割方法,包括五大步骤:
步骤(一)通过摄像机等采集舌苔图像,作为输入舌苔图像;
步骤(二)采用深度学习方法Faster R-CNN实现舌苔检测,自动获得初步的舌苔区域图像;
步骤(三)采用深度学习方法VGG-16实现舌苔区域图像的自动校准,获得更准确的舌苔区域图像;
步骤(四)根据校准后的舌苔区域图像,自动分割出舌苔区域图像。
下面对每一步骤进行详细描述。
步骤(一)、通过摄像机等采集舌苔图像,作为输入舌苔图像:可采用智能手机、平板电脑、摄像机等采集舌苔图像,不需要做任何预处理,直接作为输入图像输入到步骤(二)处理。
步骤(二)、舌苔检测:舌苔检测使用深度学习方法Faster R-CNN实现。
2.1、Faster R-CNN模型结构:
Faster R-CNN模型结构如图2所示,主要由卷积神经网络(CNN)、RPN(RegionProposal Network)、RoI(Region of Interest)池化、CNET四个部分组成。
2.1.1、卷积神经网络:
卷积神经网络是图像识别领域里最常用的深度神经网络,主要用于图像特征的提取。本实施案例采用其中的一种模型:VGG-16模型的前13层(即去除全连接层部分),其结构如图3所示,主要涉及卷积、ReLU以及池化(Max pooling)等操作。
2.1.2、RPN:
RPN在共享卷积神经网络的基础上实现候选区域的生成,即是实现注意力的学习。其目的是用来替换目标检测中的常用候选区域算法,提升算法速度。RPN的结构由图4所示。RPN是在一个通过卷积神经网络提取的卷积特征映射(conv feature map)上用一个滑动窗口(sliding window)生成一个长度为256维的全连接特征层(intermediate Layer),然后在该全连接特征后产生两个全连接层的分支,分别是clslayer(分类层)和reglayer(回归层)。clslayer实现二分类任务,用来判断当前区域是前景还是背景。reglayer是一个回归任务,用来预测当前区域的中心锚点(Anchors)对应候选区域的坐标(x,y)以及宽高(w,h)。在RPN结构里面需要重点理解锚点(Anchors)的概念、损失函数(lossfunction)的计算。
锚点(Anchors),是指位于滑动窗口的中心位置。一个锚点可以通过不同的放缩比例(Scale)、不同的宽高比(Aspectratio)生成k个不同的候选区域,这样对于同一个滑动窗口可以预测k个候选区域。在本实施案例的具体实现里,设置了4种放缩比例,3种宽高比,如表1所示,这样共有k=12个候选区域。对于一个W×H大小的卷积映射,通过3×3的滑动窗口(步长为1)可以得到W×H×k个锚点。
RPN中的损失函数包括两个部分,分别是分类任务的损失函数和回归任务的损失函数,对应clslayer和reglayer。分类任务的损失函数本实施案例采用交叉熵损失,用于分类候选区域是前景还是背景,其公式见(1)。回归任务的损失函数使用的是SmoothL1损失,用于预测目标区域的坐标以及宽高,其公式见(2)。RPN部分的损失函数是分类任务的损失函数和回归任务的损失函数按照一定权重的组合,见公式(3)。其中{pi}和{ti}分别是clslayer和reglayer的输出,输入样本为前景输入样本为背景 为正确的目标区域,λ设置为10。
表1锚点放缩比例、宽高比具体设置
Lcls(x,class)=--X[class]+ln(∑jex[j]) (1)
其中x是大小为n的一维向量,包含了对n个类别的评分值,class为目标类别。
其中x为神经网络输出值,y为目标值。
2.1.3、RoI池化:
RoI池化是SPP(Spatial pyramid pooling)的简化版本,能够采样不同大小的输入,使得得到的输出大小相同。SPP能够先确定最终得到的特征向量大小,反过来确定池化核的大小、步长。卷积特征映射为W×H×D大小,SPP设定4×4、2×2、1×1的尺度。例如4×4的尺度可以确定ceil(W/4)×ceil(H/4)大小的池化核,步长为floor(W/4)、floor(H/4)的池化操作可以得到。RoIpooling是一层的SPP,只使用一个尺度,设定为6×6的输出。
2.1.4、CNET:
CNET部分主要由Box regression和Classifier组成。Box regression是由全连接层、批归一化层以及Dropout层组成,用来预测目标区域位置。Classifier是由全连接层、批归一化层、Dropout层以及Softmax层组成的神经网络分类器,用来识别目标类别。Boxregression为回归任务,使用SmoothL1损失函数;Classifier是分类任务,使用交叉熵损失函数。整个CNET的损失函数是Box regression的损失函数和Classifier的损失函数的加权组合。
2.2、Faster R-CNN的训练过程:
深度神经网络的训练主要分为正向传播和反向传播两个过程。神经网络的训练是通过神经网络的正向传播得到输出,然后再通过损失函数计算输出与标签的误差,反向传递误差不断更新神经网络参数。Faster R-CNN是一个复杂的深度神经网络,Faster R-CNN论文指出直接训练整个网络取得的效果并不够好,需要将Faster R-CNN拆成小部分,逐步训练。本实施案例通过训练舌苔分类器的方法预训练Faster R-CNN的卷积神经网络部分。然后固定经过预训练的卷积神经网络部分的参数,训练RPN。最后,通过Box regression和Classifier的损失函数微调整个Faster R-CNN的参数。
2.2.1、卷积神经网络的预训练:
FasterR-CNN中的卷积神经网络部分的结构使用了VGG-16模型的前十三层结构,主要的目的是提取舌苔图像特征。这里使用VGG-16模型结构训练一个二分类器,实现舌苔与非舌苔的分类。VGG-16模型参数配置见表2,因为ReLU不需要额外配置参数,在该表忽略了ReLU层。Faster R-CNN中的卷积神经网络部分使用该训练好的VGG-16模型前十三层的参数,从而使Faster R-CNN更好的提取舌苔图像特征。即使用大量的舌苔图像和非舌苔图像对Faster R-CNN的卷积神经网络部分进行预训练。
表2 VGG-16模型参数配置表
本实施案例使用的舌苔检测数据库,共5683张图像,并标注有真实舌苔区域信息。本实施案例对Faster R-CNN的卷积神经网络部分进行预训练的目的是提高卷积神经网络部分提取舌苔图像特征的能力,需要大量的舌苔图像和非舌苔图像。本实施案例从每一张标注有舌苔区域信息的舌苔图像中随机提取5个舌苔图像正例和5个舌苔图像负例(即是非舌苔图像),共56830张图像,作为预训练的数据集。舌苔图像的正例与负例的选取是依据与标注区域的IoU(Intersection over Union)值决定的。IoU值是两个区域的重叠面积与其总面积的比值。在本实施案例中,在舌苔图像中随机生成区域,其中IoU值大于0.6的区域为正例,IoU值小于0.2且其面积不小于正确区域面积的一半的区域为负例。因为VGG-16模型要求输入图像的大小为224×224,所以需要将所有正例图像与负例图像调整大小到224×224。预训练数据集共56830张,其中80%为训练集,20%为测试集。计算训练集的均值和方差,为神经网络的输入层做去均值处理,将输入数据各个维度都中心化到0,加速神经网络的收敛。此外,为了增加训练样本数量,训练样本以50%的概率作水平翻转。本实施案例使用Torch深度学习框架实现,其训练参数见表3所示。
表3预训练相关参数表
2.2.2、RPN的训练:
RPN目的是实现候选区域的生成。在前文介绍了RPN的网络结构,通过卷积神经网络提取的卷积特征映射上用一个滑动窗口生成一个长度为256维的全连接特征。在具体实现中,由于程序实现的因素,RPN结构跟前文介绍的RPN结构略有不同,但其整体功能与思路一致。在本实施案例中,需要将图像最小一边固定在480像素,并设定了四种锚点区域大小分别482、962、1922、3842。对应每一个锚点区域大小,分别设计了一个RPN,每一个RPN按照三种宽高比(1∶1,2∶1,1∶2)每个锚点推荐3个区域,从而实现前文RPN中每个锚点推荐12个区域的功能。考虑到锚点区域大小的不同,4个RPN使用的滑动窗口大小也不尽相同,分别使用3×3、3×3、5×5、7×7。由于卷积神经网络的特性,越深层次提取的特征,所代表的信息更为抽象,可能会损失一些细节信息,而锚点区域越小,它需要的细节信息越多,所以在本次实验中,锚点区域大小为482对应的RPN使用卷积神经网络第10层的特征映射,其余使用最后一层的特征映射。
RPN训练的目标是分类每个锚点对应的全连接特征,以及进一步回归每个锚点对应的目标坐标。训练的目标是锚点区域,需要的标注信息是区域类别(该区域特征属于前景还是背景)以及目标坐标。本次实验将舌苔图像最小边固定为480像素,并按照四种锚点区域大小以及三种宽高比例生成锚点区域作为本次实验的训练样本,若该区域与正确区域的IoU值大于0.6那么将该区域标记为前景区域,若IoU小于0.2则标记为背景区域。选取前景区域数量与背景区域数量比例为1∶1。
表4 RPN训练相关参数
本实施案例卷积神经网络部分使用经过预训练得到的模型参数,并固定其参数不变,只调整RPN部分的参数。其实验环境与预训练实验一致,训练参数见表4所示。舌苔图像经过卷积神经网络得到特征映射,RPN使用滑动窗口扫描该特征映射,获取每个锚点区域对应的全连接特征,然后选择训练样本里的锚点区域对应的特征,将这些特征传入cls layer和reglayer中,对于前景区域特征,令clslayer分类为1,并进一步回归目标区域,修正推荐区域的位置,对于背景区域特征,令clslayer分类为0,不进行回归任务的学习。
2.2.3、Faster R-CNN的训练微调:
经过预训练以及RPN的训练,可以得到卷积神经网络部分以及RPN部分的参数,接下来加入Classifier和Box regression,重新微调整个Faster R-CNN的参数。Faster R-CNN的训练过程主要经过以下几个步骤:
(1)数据预处理以及锚点区域的生成。Faster R-CNN训练数据集是舌苔检测数据库。计算训练集的均值与方差,用来做去均值处理。调整舌苔图像大小,令其最小边大小为480。以0.25概率做水平翻转,用于增加训练样本。按照四种锚点区域大小以及三种宽高比例生成锚点区域,根据与标记的目标区域的IoU值,选取1∶1的前景区域和背景区域。
(2)卷积神经网络提取舌苔图像特征。将经过预处理的舌苔图像传入卷积神经网络,提取其图像特征,生成对应的特征映射。
(3)RPN生成候选区域。使用RPN的滑动窗口扫描(2)步骤产生的特征映射,生成锚点区域特征,选取(1)步骤中的前景区域与背景区域的特征,传给clslayer和reglayer,并计算clslayer的softmaxloss(记为Lpcls)和reglayer的L1 loss(记为Lpreg)。对于前景区域,使用reglayer生成候选区域;对于背景区域,使用锚点区域为候选区域。
(4)RoIpooling生成固定大小的全连接特征。在(2)步骤产生的特征映射上选取(3)产生的候选区域对应的特征映射,通过RoIpooling生成固定大小的全连接特征。避免了因为图片大小不一致,而产生的特征大小不一致问题。
(5)舌苔的识别以及舌苔区域坐标的预测。将全连接特征传给Box regression和Classifier部分,并计算Box regression的L1 loss(记为Lcreg)和Classifier的negativelog-likelihood loss(记为Lccls)。
(6)反向传播,更新参数。以10Lcreg+Lccls作为CNET部分的总loss,记为Lcnet,更新CNET部分的参数。以10Lpreg+Lpcls作为RPN部分的总loss,记为Lrpn,更新RPN部分的参数。最后以Lcnet+Lrpn作为卷积神经网络部分的loss,更新其参数。
(7)重复上述(1)至(6)步骤,直至收敛或者达到最大迭代次数。
表5 FasterR-CNN训练微调参数
本实施案例采用Torch深度学习框架实现,其训练参数见表5。
2.3、Faster R-CNN的检测过程:
Faster R-CNN在检测阶段与训练阶段的计算略有不同,主要经过以下几个步骤:
(1)数据预处理。跟训练阶段进行相同的预处理,同样使用训练集的均值和方差做去均值处理。
(2)卷积神经网络提取舌苔图像特征。经过预处理的舌苔图像传入卷积神经网络中,生成特征映射。
(3)RPN生成候选区域。使用RPN的滑动窗口扫描(2)步骤产生的特征映射,生成锚点区域特征,对于clslayer判断为前景区域且置信度在0.95以上的锚点特征,使用reglayer预测对应的舌苔区域,将其列为候选区域。
(4)筛选候选区域。使用非极大值抑制(Non-maximum suppression)方法消除多余的候选区域,找到最佳的候选区域。非极大值抑制,即是把非极大值过滤掉,总是选取前景置信度最大的候选区域,然后过滤掉与该候选区域IoU大于0.25的其它候选区域,在剩下的其它候选区域重复上述动作,筛选出所有置信度高的候选区域。
(5)RoIpooling生成固定大小的全连接特征。在(2)步骤产生的特征映射上选取筛选后的候选区域对应的特征映射,通过RoIpooling生成固定大小的全连接特征。
(6)全连接特征传给Classifier和Box regression,识别舌苔并预测舌苔区域。
(7)使用非极大值抑制方法筛选预测的舌苔区域。
步骤(三)、舌苔校准:
利用Faster R-CNN模型实现了初步的舌苔检测功能,这一步设计一个深度神经网络实现舌苔位置的进一步校准,称此网络为校准网络,进一步提高舌苔检测的准确率。
3.1、校准网络的结构:
利用深度神经网络与深度学习解决实际问题,首要的是明确神经网络的学习任务目标以及确定神经网络的模型结构。对于深度神经网络与深度学习,它的学习任务主要有两种,分别是分类任务和回归任务。本部分要解决的问题是舌苔位置的校准问题,假定能够知道预测的舌苔位置与真实舌苔位置的偏差,就能够对预测舌苔位置进行调整。也就是将舌苔位置校准问题看成是分类问题,将与真实舌苔位置的偏差分成几个类别,检查预测的舌苔位置属于哪种偏差类别,然后再按偏差类别调整舌苔位置,从而实现舌苔位置的校准。
既然是分类问题,必须要明确分类的类别。在本实施案例中,将与真实舌苔位置的xn偏移、yn偏移以及放缩比例sn,对检测到的舌苔位置分成45个类别,具体见公式(5-1)所示。
采用VGG-16的模型结构来实现校准网络,其模型结构如图5所示。
3.2、舌苔校准数据库:
舌苔校准数据库是在舌苔检测数据库基础上为了舌苔位置校准而构建的。在舌苔检测数据库可以得到舌苔区域,而舌苔校准数据库则是将这一舌苔区域按照偏差类别产生新的区域,截取新区域图像,标注该图像的类别为偏差类别。构建舌苔校准数据库的目的是让深度神经网络学习舌苔校准数据库中的舌苔偏差图像,判断舌苔区域的偏差类别,并通过这个偏差类别调整舌苔区域,从而到达舌苔校准的目的。舌苔校准方法是受人脸区域校准的论文启发。其中偏差类别由放缩比例、x方向偏差、y方向偏差组成,具体设置见公式(1),这样可以组成45个偏差类别。偏差类别区域生成方式见公式(2),其中(x,y,w,h)是真实舌苔区域的左上x坐标、左上y坐标、宽、高。使用公式(2)的逆运算,就可以通过偏差类型调整舌苔区域,达到舌苔校准的目的。舌苔检测数据库的每一张图片根据(1)和(2)都可以产生45个区域,截取并保存下这些区域,这样舌苔检测数据库中的每张舌苔图像都生成45张新的舌苔图像,其标注类别为偏差类别,这些新图像构成舌苔校准数据库。
3.3、校准网络的训练:
本实施案例需要训练一个舌苔偏差类别的分类器,其训练过程如下:
(1)数据预处理。在数据预处理阶段主要进行了去均值操作以及以0.5概率水平翻转的数据增量操作。
(2)前向传播。将经过预处理的训练集图像传入校准网络中,经过卷积、ReLU、池化以及全连接等操作后,最后计算45个类别的softmaxloss。
(3)反向传播。反向传播softmaxloss,并更新网络参数。
(4)重复迭代。重复(1)至(3)操作,直至收敛或者达到最大迭代次数。
(5)每隔几次迭代,使用测试集检验网络模型的效果,查看在测试集上的错误率。
本实施案例的训练参数如表6所示,仍旧使用了迁移学习,使用了经过ImageNet图像训练过的VGG-16模型初始化校准网络的非全连接部分。
表6校准网络训练参数
3.4、校准网络的校准检测:
校准网络的检测过程包括步骤:
(1)将步骤(二)初步检测初的舌苔区域图像调整大小至224×224。
(2)经过去均值处理后,传入校准网络,得到偏差类别。
(3)通过偏差类别得到对应xn偏差,yn偏差以及放缩比例sn。
(4)使用公式(5-1)的逆运算调整舌苔区域,该区域为最终的舌苔检测区域。
步骤(四)、根据舌苔校准后的坐标,分割出舌苔区域图像:
这步骤非常简单,直接根据舌苔校准后的坐标,计算初舌苔区域的四个顶点坐标,然后分割出来即可。
本实施案例的效果:
Faster R-CNN训练数据集是舌苔检测数据库,共5683张,并以4∶1的比例分成训练集和测试集。在训练集上经过50000次迭代训练后的舌苔检测模型,需要在测试集上评估其检测效果。测试集共1138张舌苔图像,每一张图像只包含一个舌苔。为了更进一步的分析检测效果,将测试集上的检测结果分成以下几个类别:Correct是指分类准确,且预测框与真实值的IoU大于0.5;Localization是指分类准确,IoU在0.1与0.5之间;Background是指分类准确,但IoU小于0.1;Others是指分类错误。
测试集上的初步检测结果为Correct与Localization占了结果的绝大部分,表明模型基本能够检测到舌苔的位置,其中Correct的检测准确率为78%,而Localization类别仍占19%,可以进一步通过舌苔校准提高。
然后采用校准网络实现的舌苔偏差类别分类器对步骤(二)检测出的舌苔区域进行自动校准。测试集上的舌苔检测校准后的实验结果表明:Correct结果由原来78%提升至91%,Localization结果由原来的19%降为7%,表明校准网络有效地提升了舌苔检测的效果,验证了本发明方法的有效性。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解的是,在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种等效的变化、修改、替换和变型,本发明的范围由所附权利要求及其等同范围限定。
Claims (4)
1.一种基于深度学习的舌苔自动分割方法,其特征在于,包括如下步骤:
S1、采集并输入包含舌苔的图像;
S2、对包含舌苔的图像,采用Faster R-CNN深度学习方法实现舌苔检测,自动获得初步的舌苔区域图像;
S3、对初步的舌苔区域图像,采用VGG深度学习方法进行校准,获得更准确的舌苔区域图像;
S4、根据校准后的舌苔区域图像,自动分割出舌苔图像;
所述步骤S3,具体为:
S31、调整初步的舌苔区域图像的大小,并进行去均值处理后,传入校准网络,得到偏差类别;
S32、通过偏差类别得到对应xn偏差、yn偏差以及放缩比例sn;
S33、根据xn偏差、yn偏差以及放缩比例sn,使用逆运算调整舌苔区域,该区域为最终的舌苔检测区域,逆运算公式为:
式中,(x,y,w,h)是真实舌苔区域的左上x坐标、左上y坐标、宽和高;其中:
sn∈{0.83,0.91,1.0,1.10,1.21}
xn∈{-0.17,0,0.17}
yn∈{-0.17,0,0.17}。
2.根据权利要求1所述的一种基于深度学习的舌苔自动分割方法,其特征在于,所述步骤S1中采集包含舌苔的图像,通过智能移动设备或者摄像机或者计算机采集。
3.根据权利要求1所述的一种基于深度学习的舌苔自动分割方法,其特征在于,所述步骤S2中Faster R-CNN深度学习方法,其需构建一个Faster R-CNN模型结构,所述Faster R-CNN模型结构包括卷积神经网络、RPN、RoI池化以及CNET。
4.根据权利要求1所述的一种基于深度学习的舌苔自动分割方法,其特征在于,所述步骤S4,具体为:对校准后的舌苔区域图像,计算舌苔区域图像四个顶点的坐标,连接四个顶点,分割四个顶点内区域,即为最终的舌苔图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710338958.5A CN107610087B (zh) | 2017-05-15 | 2017-05-15 | 一种基于深度学习的舌苔自动分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710338958.5A CN107610087B (zh) | 2017-05-15 | 2017-05-15 | 一种基于深度学习的舌苔自动分割方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107610087A CN107610087A (zh) | 2018-01-19 |
CN107610087B true CN107610087B (zh) | 2020-04-28 |
Family
ID=61059668
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710338958.5A Active CN107610087B (zh) | 2017-05-15 | 2017-05-15 | 一种基于深度学习的舌苔自动分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107610087B (zh) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108564113A (zh) * | 2018-03-27 | 2018-09-21 | 华南理工大学 | 一种基于深度神经网络和复杂度感知的舌苔体质识别方法 |
CN108596087B (zh) * | 2018-04-23 | 2020-09-15 | 合肥湛达智能科技有限公司 | 一种基于双网络结果的驾驶疲劳程度检测回归模型 |
CN108734108B (zh) * | 2018-04-24 | 2021-08-03 | 浙江工业大学 | 一种基于ssd网络的裂纹舌识别方法 |
CN108665471A (zh) * | 2018-05-30 | 2018-10-16 | 高鹏 | 一种基于摄像头的人体背部曲线获取方法及*** |
CN108960285B (zh) * | 2018-05-31 | 2021-05-07 | 东软集团股份有限公司 | 一种分类模型生成方法、舌体图像分类方法及装置 |
CN109199334B (zh) * | 2018-09-28 | 2021-06-22 | 小伍健康科技(上海)有限责任公司 | 一种基于深度神经网络的舌象体质辨别方法及设备 |
CN109815802A (zh) * | 2018-12-18 | 2019-05-28 | 中国海洋大学 | 一种基于卷积神经网络的监控视频车辆检测与识别方法 |
CN109700433A (zh) * | 2018-12-28 | 2019-05-03 | 深圳铁盒子文化科技发展有限公司 | 一种舌象诊断***和舌诊移动终端 |
CN109977952B (zh) * | 2019-03-27 | 2021-10-22 | 深动科技(北京)有限公司 | 基于局部最大值的候选目标检测方法 |
CN110176944A (zh) * | 2019-04-25 | 2019-08-27 | 中国科学院上海微***与信息技术研究所 | 一种基于深度学习的智能抗干扰装置及方法 |
CN110163855B (zh) * | 2019-05-17 | 2021-01-01 | 武汉大学 | 一种基于多路深度卷积神经网络的彩色图像质量评价方法 |
CN110503088B (zh) * | 2019-07-03 | 2024-05-07 | 平安科技(深圳)有限公司 | 基于深度学习的目标检测方法及电子装置 |
CN110796186A (zh) * | 2019-10-22 | 2020-02-14 | 华中科技大学无锡研究院 | 基于改进的YOLOv3网络的干湿垃圾识别分类方法 |
CN111079822A (zh) * | 2019-12-12 | 2020-04-28 | 哈尔滨市科佳通用机电股份有限公司 | 轴箱橡胶垫中间橡胶与上、下层板错位故障图像识别方法 |
CN112686340B (zh) * | 2021-03-12 | 2021-07-13 | 成都点泽智能科技有限公司 | 一种基于深度神经网络的密集小目标检测方法 |
CN113419868B (zh) * | 2021-08-23 | 2021-11-16 | 南方科技大学 | 基于众包的温度预测方法、装置、设备和存储介质 |
CN115994947B (zh) * | 2023-03-22 | 2023-06-02 | 万联易达物流科技有限公司 | 基于定位的智能打卡的估算方法 |
CN116777930B (zh) * | 2023-05-24 | 2024-01-09 | 深圳汇医必达医疗科技有限公司 | 应用于舌象提取的图像分割方法、装置、设备及介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2188779B1 (en) * | 2007-09-21 | 2014-04-23 | Korea Institute of Oriental Medicine | Extraction method of tongue region using graph-based approach and geometric properties |
WO2014183246A1 (zh) * | 2013-05-13 | 2014-11-20 | Huang Bo | 一种医学影像处理方法与*** |
CN105160346A (zh) * | 2015-07-06 | 2015-12-16 | 上海大学 | 一种基于纹理和分布特征的舌苔腐腻识别方法 |
CN106250812A (zh) * | 2016-07-15 | 2016-12-21 | 汤平 | 一种基于快速r‑cnn深度神经网络的车型识别方法 |
CN106295139A (zh) * | 2016-07-29 | 2017-01-04 | 姹ゅ钩 | 一种基于深度卷积神经网络的舌体自诊健康云服务*** |
CN106651887A (zh) * | 2017-01-13 | 2017-05-10 | 深圳市唯特视科技有限公司 | 一种基于卷积神经网络的图像像素分类方法 |
-
2017
- 2017-05-15 CN CN201710338958.5A patent/CN107610087B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2188779B1 (en) * | 2007-09-21 | 2014-04-23 | Korea Institute of Oriental Medicine | Extraction method of tongue region using graph-based approach and geometric properties |
WO2014183246A1 (zh) * | 2013-05-13 | 2014-11-20 | Huang Bo | 一种医学影像处理方法与*** |
CN105160346A (zh) * | 2015-07-06 | 2015-12-16 | 上海大学 | 一种基于纹理和分布特征的舌苔腐腻识别方法 |
CN106250812A (zh) * | 2016-07-15 | 2016-12-21 | 汤平 | 一种基于快速r‑cnn深度神经网络的车型识别方法 |
CN106295139A (zh) * | 2016-07-29 | 2017-01-04 | 姹ゅ钩 | 一种基于深度卷积神经网络的舌体自诊健康云服务*** |
CN106651887A (zh) * | 2017-01-13 | 2017-05-10 | 深圳市唯特视科技有限公司 | 一种基于卷积神经网络的图像像素分类方法 |
Non-Patent Citations (1)
Title |
---|
Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks;Shaoqing Ren etc;《arXiv:1506.01497v3》;20160106;正文附图2 * |
Also Published As
Publication number | Publication date |
---|---|
CN107610087A (zh) | 2018-01-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107610087B (zh) | 一种基于深度学习的舌苔自动分割方法 | |
CN110599448B (zh) | 基于MaskScoring R-CNN网络的迁移学习肺部病变组织检测*** | |
CN110348319B (zh) | 一种基于人脸深度信息和边缘图像融合的人脸防伪方法 | |
WO2020253629A1 (zh) | 检测模型训练方法、装置、计算机设备和存储介质 | |
CN107506761B (zh) | 基于显著性学习卷积神经网络的脑部图像分割方法及*** | |
CN108648191B (zh) | 基于贝叶斯宽度残差神经网络的害虫图像识别方法 | |
CN109345527B (zh) | 一种基于MaskRcnn的***检测方法 | |
CN113592845A (zh) | 一种电池涂布的缺陷检测方法及装置、存储介质 | |
CN107862694A (zh) | 一种基于深度学习的手足口病检测*** | |
Kudva et al. | Automation of detection of cervical cancer using convolutional neural networks | |
CN110930416A (zh) | 一种基于u型网络的mri图像***分割方法 | |
CN114241548A (zh) | 一种基于改进YOLOv5的小目标检测算法 | |
CN109033978B (zh) | 一种基于纠错策略的cnn-svm混合模型手势识别方法 | |
WO2021136368A1 (zh) | 钼靶图像中胸大肌区域自动检测方法及装置 | |
CN109902584A (zh) | 一种口罩缺陷的识别方法、装置、设备及存储介质 | |
CN110543906B (zh) | 基于Mask R-CNN模型的肤质自动识别方法 | |
CN111652317A (zh) | 基于贝叶斯深度学习的超参数图像分割方法 | |
Jin et al. | Construction of retinal vessel segmentation models based on convolutional neural network | |
Zhang et al. | High-quality face image generation based on generative adversarial networks | |
Lan et al. | Run: Residual u-net for computer-aided detection of pulmonary nodules without candidate selection | |
Li et al. | Natural tongue physique identification using hybrid deep learning methods | |
WO2024032010A1 (zh) | 一种基于迁移学习策略的少样本目标实时检测方法 | |
CN111127400A (zh) | 一种乳腺病变检测方法和装置 | |
CN113066054B (zh) | 一种用于计算机辅助诊断的宫颈oct图像特征可视化方法 | |
CN113989256A (zh) | 遥感图像建筑物的检测模型优化方法及检测方法、装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |