CN113706481A - ***质量检测方法、装置、计算机设备和存储介质 - Google Patents
***质量检测方法、装置、计算机设备和存储介质 Download PDFInfo
- Publication number
- CN113706481A CN113706481A CN202110929246.7A CN202110929246A CN113706481A CN 113706481 A CN113706481 A CN 113706481A CN 202110929246 A CN202110929246 A CN 202110929246A CN 113706481 A CN113706481 A CN 113706481A
- Authority
- CN
- China
- Prior art keywords
- sperm
- image
- detected
- images
- detection result
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20132—Image cropping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30024—Cell structures in vitro; Tissue sections in vitro
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30242—Counting objects in image
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
Abstract
本申请涉及一种***质量检测方法、装置、计算机设备和存储介质。所述方法包括:获取多张待检测***图像;对待检测***图像进行检测,得到待检测***图像中***的***形态检测结果;对每张待检测***图像进行检测,得到每张待检测***图像对应的***个数检测结果和***位置检测结果;根据多张待检测***图像的***个数检测结果,确定***浓度;根据多张待检测***图像的***位置检测结果,生成***活力检测结果。采用本方法能够快速得到***形态检测结果和***常规检测结果,从而极大地简化了***质量检测的工作流程、提升了***质量检测效率。
Description
技术领域
本申请涉及计算机技术领域,特别是涉及一种***质量检测方法、装置、计算机设备和存储介质。
背景技术
***分析是判断男性生育力的一个重要检查,其中最常用的两项分析为***常规分析和***形态学分析。***常规分析包含***浓度与活动力的检测,***形态学分析是检测***畸形率的重要方法。正常的***活力、浓度以及形态学指标,是自然受孕或试管婴儿成功的重要条件。
传统技术中,***常规分析可以采用手工计数、计算机辅助***分析(ComputerAssisted Sperm Analysis,CASA)、全自动***分析仪等技术手段实现。***形态学分析可以采用人工镜检、全自动***形态分析仪等技术手段实现。但是,由于传统技术中通常需要对***常规分析和***形态学分析单独进行检测,存在检测效率较低的问题。
发明内容
基于此,有必要针对上述技术问题,提供一种能够简化***质量检测流程、提高***质量检测效率和准确率的***质量检测方法、装置、计算机设备和存储介质。
第一方面,本申请实施例提供一种***质量检测方法,所述方法包括:
获取多张待检测***图像;
对所述待检测***图像进行检测,得到所述待检测***图像中***的***形态检测结果;
对每张所述待检测***图像进行检测,得到每张所述待检测***图像对应的***个数检测结果和***位置检测结果;
根据多张所述待检测***图像的***个数检测结果,确定***浓度;
根据多张所述待检测***图像的***位置检测结果,生成***活力检测结果。
在其中一个实施例中,所述对所述待检测***图像进行检测,得到所述待检测***图像中***的***形态检测结果,包括:
通过图像分割模型对所述待检测***图像进行检测,当检测所述待检测***图像中存在所述***时,获取所述***的***分割图像;
通过***形态识别模型对所述***分割图像进行分类识别,得到所述***形态识别结果。
在其中一个实施例中,所述图像分割模型的生成方式,包括:
获取***图像样本,以及与所述***图像样本对应的***分割图像标签;
按照预设的图像裁剪方式对所述***图像样本进行裁剪,得到多张训练图像样本;
按照所述图像裁剪方式对所述***分割图像标签进行裁剪,得到与每张所述训练图像样本对应的训练标签;
使用所述训练图像样本以及所述训练标签对初始图像分割模型进行训练,得到所述图像分割模型。
在其中一个实施例中,所述***形态识别模型包括依次连接的多个卷积部分,每个所述卷积部分包括卷积嵌入块和多个卷积变换块;
所述通过***形态识别模型对所述***分割图像进行分类识别,得到所述***形态识别结果,包括:
依次通过每个卷积部分中的卷积嵌入块对***输入特征进行特征提取,对于第一个卷积部分,所述***输入特征为所述***分割图像,对于除所述第一个卷积部分外的每个其他卷积部分,所述***输入特征为上一个卷积部分输出的***输出特征;
通过每个卷积部分中的卷积变换块对特征提取后的所述***输入特征进行全局信息学习和局部信息学习,得到***输出特征;
根据最后一个卷积部分输出的所述***输出特征,生成所述***形态识别结果。
在其中一个实施例中,所述卷积变换块,包括卷积映射层、多头注意力层、多层感知机层、残差连接层、归一化层;
所述通过每个卷积部分中的卷积变换块对特征提取后的所述***输入特征进行全局信息学习和局部信息学习,得到***输出特征,包括:
通过所述卷积映射层、所述多头注意力层、所述多层感知机层、所述残差连接层、所述归一化层对特征提取后的所述***输入特征进行全局信息学习和局部信息学习,得到***输出特征。
在其中一个实施例中,所述对每张所述待检测***图像进行检测,得到每张所述待检测***图像对应的***个数检测结果和***位置检测结果,包括:
对每张所述待检测***图像进行目标检测,当获取所述待检测***图像中存在***头部时,则
获取所述***头部的头部数量,将所述头部数量作为所述***个数检测结果;
获取所述***头部的头部位置信息,将所述头部位置信息作为所述***位置检测结果。
在其中一个实施例中,每张所述待检测***图像为从对应的原始***图像中裁剪得到的图像,不同的所述原始***图像的采集视野不同;
所述根据多张所述待检测***图像的***个数检测结果,确定***浓度,包括:
获取多张所述待检测***图像的头部数量之和,作为多个所述采集视野下的***总数;
根据所述***总数确定所述***浓度。
在其中一个实施例中,多张所述待检测***图像为从待检测***视频中获取的连续多帧图像;
所述根据多张所述待检测***图像的***位置检测结果,生成***活力检测结果,包括:
当每帧图像中存在多个所述***头部时,获取当前帧图像中各个所述***头部的第一头部位置信息,以及所述当前帧图像的下一帧图像中各个所述***头部的第二头部位置信息;
生成所述当前帧图像中各个所述***头部的第一头部位置信息与各个所述第二头部位置信息之间的距离;
根据所述距离,从多个所述第二头部位置信息中确定出目标头部位置信息,作为所述当前帧图像中的各个所述***头部在所述下一帧图像中的头部位置信息;
根据各个所述***头部在每帧图像中的头部位置信息,生成所述***活力检测结果。
第二方面,本申请实施例提供一种***质量检测装置,所述装置包括:
图像获取模块,用于获取多张待检测***图像;
形态检测模块,用于对所述待检测***图像进行检测,得到所述待检测***图像中***的***形态检测结果;
目标检测模块,用于对每张所述待检测***图像进行检测,得到每张所述待检测***图像对应的***个数检测结果和***位置检测结果;
浓度确定模块,用于根据多张所述待检测***图像的***个数检测结果,确定***浓度;
活力检测模块,用于根据多张所述待检测***图像的***位置检测结果,生成***活力检测结果。
第三方面,本申请实施例提供一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现上述第一方面任一项实施例所述的***质量检测方法。
第四方面,本申请实施例提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述第一方面任一项实施例所述的***质量检测方法。
上述***质量检测方法、装置、计算机设备和存储介质,基于深度学习理论对所获取的多张待检测***图像进行检测,得到***的***形态检测结果、***个数检测结果和***位置检测结果。然后,根据多张待检测***图像的***个数检测结果,确定***浓度;根据多张待检测***图像的***位置检测结果,生成***活力检测结果。基于深度学习理论,在采集多张待检测***图像的基础上便可快速得到***形态检测结果和***常规检测结果(包括***浓度、***活力),从而极大地简化了***质量检测的工作流程、提升了***质量检测效率,实现了***质量检测的全自动分析。另外,采用已具备足够检测能力的深度学习模型对待检测***图像进行检测,还能够提升***质量检测的准确性。
附图说明
为了更清楚地说明本说明书实施方式或现有技术中的技术方案,下面将对实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本说明书中记载的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为一个实施例中***质量检测方法的流程示意图;
图2为一个实施例中获取***形态识别结果步骤的流程示意图;
图3为一个实施例中图像分割模型的训练过程的流程示意图;
图4为一个实施例中***形态识别模型的结构示意图;
图5为一个实施例中对***分割图像进行特征提取的流程示意图;
图6为一个实施例中***形态识别模型中卷积嵌入块的结构示意图;
图7为一个实施例中***形态识别模型中卷积变换块的结构示意图;
图8为一个实施例中生成***活力检测结果的流程示意图;
图9为另一个实施例中***质量检测方法的流程示意图;
图10为一个实施例中***质量检测装置的结构框图;
图11为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请提供的***质量检测方法,可以应用于终端、服务器等计算机设备中,或者包括终端和服务器的***中。以下内容将以应用于终端为例进行说明。终端中预先部署有已训练的至少一种深度学习模型。深度学习模型可以使用终端外的其他计算机设备预训练完成。具体地,终端获取多张待检测***图像。基于深度学习理论对待检测***图像进行检测,得到待检测***图像中***的***形态检测结果。基于深度学习理论对每张待检测***图像进行检测,得到每张待检测***图像对应的***个数检测结果和***位置检测结果。终端还部署有***浓度确定逻辑和***活力确定逻辑。通过***浓度确定逻辑根据多张待检测***图像的***个数检测结果生成***浓度。通过***活力确定逻辑根据多张待检测***图像的***位置检测结果,生成***活力检测结果。
其中,终端可以但不限于是各种个人计算机、笔记本电脑、智能手机、平板电脑、便携式可穿戴设备,服务器可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
在一个实施例中,如图1所示,提供了一种***质量检测方法,以该方法应用于终端为例进行说明,包括以下步骤:
步骤S110,获取多张待检测***图像。
其中,待检测***图像可以是对原始***图像进行一系列预处理后得到的图像。原始***图像是指对新鲜***样本进行采集得到的图像。新鲜***样本可以是未经染色的样本。将一定量(例如5μl)的***滴入一定厚度(例如10μm)的计数板中,使用图像采集装置(例如光学显微镜)对计数板采集得到。多张待检测***图像可以是从多个采集视野采集到的图像,例如,设置需对n个不同的采集视野下的***图像进行检测,多张待检测***图像则为从n个不同的采集视野下采集到的n张图像。多张待检测***图像还可以是从待检测***视频中获取的多帧图像。
具体地,多张待检测***图像可以是实时采集的图像,则终端可以从图像采集装置处实时获取所采集得到的图像。多张待检测***图像还可以是预先采集并存储在本地数据库或者服务器数据库中的,那么终端可以从本地数据库或者服务器数据库中获取待检测***图像。
步骤S120,对待检测***图像进行检测,得到待检测***图像中***的***形态检测结果。
具体地,终端通过已训练的第一深度学习模型对任一张待检测***图像进行检测。第一深度学习模型是至少具备目标检测和分类识别能力的模型,可以通过一种端到端模型,或者通过多种独立模型组合实现。终端将任一张待检测***图像输入至第一深度学习模型,当通过第一深度学习模型确定待检测***图像中存在***时,继续对单个的***进行分类识别,输出***的***形态检测结果。
步骤S130,对每张待检测***图像进行检测,得到每张待检测***图像对应的***个数检测结果和***位置检测结果。
其中,***个数检测结果用于反映每张待检测***图像中***的总数。***位置检测结果用于反映每张待检测***图像中的每个***的位置信息。每个***的位置信息可以通过***所在矩形框的位置坐标等表征。
具体地,终端通过已训练的第二深度学习模型对每张待检测***图像进行检测。第二深度学习模型是至少具备目标检测能力的模型,可以通过一种端到端模型,或者通过多种独立模型组合实现。当通过第二深度学习模型确定某张待检测***图像中存在***时,则输出各个***的***位置检测结果。然后,对***的数量进行统计,得到该张待检测***图像的***个数检测结果。
进一步地,每张待检测***图像可以通过唯一性图像标识表征。在获取每张待检测***图像的***个数检测结果和***位置检测结果后,终端可以建立图像标识与***个数检测结果、***位置检测结果之间的映射关系,以便于后续使用。
步骤S140,根据多张待检测***图像的***个数检测结果,确定***浓度。
具体地,终端在对多张待检测***图像检测完毕后,通过***浓度检测逻辑,基于多张待检测***图像的***个数检测结果确定***浓度。例如,多张待检测***图像为对计数板随机采集的图像,那么可以获取多张待检测***图像的***个数平均值,根据***个数平均值以及***体积计算得到***浓度。
步骤S150,根据多张待检测***图像的***位置检测结果,生成***活力检测结果。
其中,***活力检测结果可以通过曲线运动速度、直线运动速度、线性度、摆动度、直线度等中的任一种或者多种表征。
具体地,终端在对多张待检测***图像检测完毕后,根据每张待检测***图像中单个***的位置信息,对单个***的运动轨迹进行监测。根据单个***的运动轨迹以及运动时间等参数,通过***活力确定逻辑生成***活力检测结果。其中,***活动确定逻辑可以通过预设的活力计算函数等实现。单个***的运动时间可以通过待检测图像的采集时间确定。
上述***质量检测方法中,基于深度学习理论对所获取的多张待检测***图像进行检测,得到***的***形态检测结果、***个数检测结果和***位置检测结果。然后,根据多张待检测***图像的***个数检测结果,确定***浓度;根据多张待检测***图像的***位置检测结果,生成***活力检测结果。基于深度学习理论,在采集多张待检测***图像的基础上便可快速得到***形态检测结果和***常规检测结果,从而极大地简化了***质量检测的工作流程、提升了***质量检测效率,实现了***质量检测的全自动分析。另外,采用已具备足够检测能力的深度学习模型对待检测***图像进行检测,还能够提升***质量检测的准确性。
在一个实施例中,如图2所示,步骤S120,所述对待检测***图像进行检测,得到待检测***图像中***的***形态检测结果,可以通过以下步骤实现:
步骤S210,通过图像分割模型对待检测***图像进行检测,当检测待检测***图像中存在***时,获取***的***分割图像。
其中,图像分割模型可以是任一种能够进行图像实例分割的模型,例如Mask R-CNN(Mask Region Convolutional Neural Networks,一种图像实例分割模型)、BlendMask(一种实例分割模型)、SOLO-V2(Segmenting Objects by Locations,一种实例分割模型)等;或者是基于现有模型进行改进的模型等。
具体地,终端将任一张待检测***图像输入至已训练的图像分割模型。当通过图像分割模型检测待检测***图像中存在***时,获取各个***的边界,根据各个***的边界从待检测***图像中提取出对应的***图像。终端将每个***图像放置于第一预设尺寸(例如224*224像素尺寸),像素值全部为0的背景图像中,生成对应的***分割图像。
步骤S220,通过***形态识别模型对***分割图像进行分类识别,得到***形态识别结果。
其中,***形态识别模型可以通过任一种能够进行分类识别的模型,例如,AlexNet(一种卷积神经网络)、ResNet(Residual Network,深度残差网络);或者是基于现有模型进行改进的模型;或者自行设计的模型等。
具体地,终端将所得到每张***分割图像输入至已训练的***形态识别模型。通过***形态识别模型对每张***分割图像进行分类识别,得到每个形态类别的概率值,根据概率值确定出***的***形态检测结果。示例性地,***形态识别模型包括三个类别:类别A、类别B和类别C。通过***形态识别模型得到***分割图像的检测结果为类别A概率值0.8、类别B概率值0.1、类别C概率值0.1。类别A的概率值最大,那么可以将类别A作为***分割图像中***的***形态检测结果。
本实施例中,通过采用图像分割模型得到单个***的***分割图像,可以精确地根据分割获得的边界提取出每个***,排除了其他杂质的干扰,且避免了在***相互交叉的情况下存在其他干扰***的问题,从而提升了***形态检测的准确性。
在一个实施例中,如图3所示,对图像分割模型的一种训练方式进行说明,可以通过以下步骤实现:
步骤S310,获取***图像样本,以及与***图像样本对应的***分割图像标签。
其中,***图像样本可以是使用图像采集装置在不同条件(例如不同采集视野、不同光照)下采集到的图像样本。每张***图像样本中包括需要图像分割模型进行分割的***。***分割图像标签是在***图像样本的基础上,对其中的***边界进行标注得到的数据标签。
具体地,可以使用图像采集装置采集不同条件下的多张***图像样本。将多张***图像样本以及***分割图像标签存储在本地数据库,或者固化于服务器中。在需要对初始图像分割模型进行训练时,从本地数据库或者服务器中获取多张***图像样本。对每张***图像样本中的***边界进行标注,得到对应的***分割图像标签。
步骤S320,按照预设的图像裁剪方式对***图像样本进行裁剪,得到多张训练图像样本。
其中。预设的图像裁剪方式依实际训练需求而定,例如,可以对***图像样本进行均分裁剪;从***图像中裁剪出预设尺寸等。在本实施例中,可以从每张***图像样本的四个角,各裁剪得到预设尺寸的图像。
具体地,终端在获取多张***图像样本后,按照预设的图像裁剪方式对每张***图像样本进行裁剪,从每张***图像样本的四个角位置(即左上、右上、左下、右下)各裁剪得到第二预设尺寸的图像,作为训练图像样本。
步骤S330,按照图像裁剪方式对***分割图像标签进行裁剪,得到与每张训练图像样本对应的训练标签。
具体地,针对与每张***图像样本对应的***分割图像标签,同样按照预设的图像裁剪方式对***分割图像标签进行裁剪,从***分割图像标签的四个角位置各裁剪得到第二预设尺寸的图像标签,作为训练标签。建立属于相同角位置的训练图像样本和图像标签之间的对应关系。
步骤S340,使用训练图像样本以及训练标签对初始图像分割模型进行训练,得到图像分割模型。
其中,初始图像分割模型是指还未经训练的图像分割模型。
具体地,终端将训练图像样本输入至初始图像分割模型,通过初始图像分割模型输出预测分割结果。采用损失函数计算预测分割结果和训练标签之间的损失值。根据计算得到的损失值对初始图像分割模型的模型参数进行调整,直至达到预设停止条件。预设停止条件可以是指达到预设的迭代次数,或者获取的损失值满足预设阈值。最后,可以根据训练过程中损失值最小或者鲁棒性最好的初始图像分割模型的模型参数,生成最终使用的图像分割模型。
本实施例中,通过按照预设的图像裁剪方式对***图像样本进行裁剪得到多张训练图像,一方面可以获得适合于模型输入尺寸的图像,另一方面还可以实现数据增强,有助于缓解图像分割模型在训练过程中的过拟合问题。
在一个实施例中,***形态识别模型包括依次连接的多个卷积部分,以及与最后一个卷积部分连接的全连接层。每个卷积部分包括卷积嵌入块和多个卷积变换块。图4示例性示出了***形态识别模型的结构示意图。如图5所示,步骤S220,通过***形态识别模型对***分割图像进行分类识别,得到***形态识别结果,可以通过以下步骤实现:
步骤S510,依次通过每个卷积部分中的卷积嵌入块对***输入特征进行特征提取。
步骤S520,通过每个卷积部分中的卷积变换块对特征提取后的***输入特征进行全局信息学习和局部信息学习,得到***输出特征。
其中,对于第一个卷积部分,***输入特征为***分割图像,对于除第一个卷积部分外的每个其他卷积部分,***输入特征为上一个卷积部分输出的***输出特征。
卷积嵌入块中卷积层的步幅大于1,使经过卷积嵌入块后的***输入特征的尺寸变小,通道数增加,从而能够大幅减少输入至卷积变换块的参数量。图6示例性示出了卷积嵌入块的一种结构示意图。如图6所示,卷积嵌入块包括依次连接的卷积层、形状变换层和归一化层。
卷积变换块可以用于学习输入特征的全局信息,例如整体***轮廓的全局信息;以及输入特征的局部信息,例如,***顶体面积的局部信息。图7示例性示出了卷积变换块的一种结构示意图。如图7所示,卷积变换块包括依次连接的卷积映射层、多头注意力层、归一化层、多层感知机层,以及残差连接层。
具体地,终端将***分割图像输入至***形态识别模型。第一个卷积部分中卷积嵌入块中的卷积层对***分割图像进行特征提取后输入至形状变换层。形状变换层将卷积层输出的特征向量的形状改变为适合卷积变换块输入的形状。然后经过归一化层后输入至与卷积嵌入块连接的卷积变换块。通过多个卷积变换块中的卷积映射层、多头注意力层、归一化层、多层感知机层、残差连接层对特征提取后的***输入特征进行全局信息学习和局部信息学习,得到***输出特征。第一卷积部分将***输出特征输入至第二卷积部分,循环上述过程,直至最后一个卷积部分处理完毕。
步骤S530,根据最后一个卷积部分输出的***输出特征,生成***形态识别结果。
具体地,最后一个卷积部分将输出的***输出特征输入至全连接层。通过全连接层对***输出特征进行处理,输出预设长度的向量。进而根据预设长度的向量得到***分割图像中***的***形态识别结果(即类别)。
本实施例中,通过采用上述***形态识别模型进行***形态检测,使***形态识别模型能够学习到更多的信息,从而有助于提升***形态检测的准确性。
步骤S130,对每张待检测***图像进行检测,得到每张待检测***图像对应的***个数检测结果和***位置检测结果,包括:对每张待检测***图像进行目标检测,当获取待检测***图像中存在***头部时,则获取***头部的头部数量,将头部数量作为***个数检测结果;获取***头部的头部位置信息,将头部位置信息作为***位置检测结果。
具体地,终端在获取多张待检测***图像后,在对任一张待检测***图像进行图像分割和分类识别时,还可以同步对每张待检测***图像进行目标检测。对于每张待检测***图像执行以下处理:
终端将待检测***图像输入至已训练的目标检测模型。当目标检测模型获取待检测***图像中存在***头部时,对存在于待检测***图像中的***头部的总数进行统计,得到***头部的头部数量,将头部数量作为***个数检测结果。获取每个***头部的头部位置信息,将头部位置信息作为***位置检测结果。相应地,当目标检测模型获取待检测***图像中不存在***头部时,则将***头部的头部数量设置为0。其中,目标检测模型可以采用任一种能够进行目标检测的模型,例如,RefineDet(一种基于单阶段的检测器)、Faster R-CNN(一种目标检测网络)、SSD(Single Shot Multibox Detector,一种目标检测模型)、YOLO(You Only Look Once,一种目标检测模型)等。
本实施例中,基于目标检测模型对每张待检测***图像中的***头部进行检测,将***头部的头部数量和位置信息作为***的个数和位置信息,相对于对整个***进行检测的方法而言,可以减少***交叉的概率,从而有助于提升***质量检测的准确性。
在一个实施例中,***浓度的计算方式可以参照CASA的***浓度计算方式。CASA将1mm(毫米)*1mm范围内的图像平均分成100个正方形小格,每个正方形小格的边长为100μm(微米)。根据10个小格内的***数量计算得到***浓度。在这种情况下,计算***浓度所需的多张待检测***图像可以是从多个不同的采集视野采集的图像。其中,采集视野的数量优选为10,通过各个采集视野采集到的***图像之间无重叠。
具体地,终端获取图像采集装置从每个采集视野采集到的原始***图像。原始***图像可以是指采集后还未经任何修改的图像。计算机设备对每个采集视野对应的原始***图像进行裁剪,得到第三预设尺寸(100μm*100μm)的待检测***图像。裁剪的方式可以是随机裁剪、指定位置裁剪中的任一种。然后,终端通过目标检测模型对每张待检测***图像进行检测,目标检测模型的具体实现方式可以参照上述实施例,在此不做具体描述。根据目标检测模型的输出结果得到每张待检测***图像中的***头部数量。终端获取多张待检测***图像的头部数量之和,作为多个采集视野下的***总数。采用第一计算公式根据***总数计算得到***浓度。其中,第一计算公式可以为:
***浓度=N×106/ml
其中,N代表多个采集视野下的***总数。
本实施例中,基于多个采集视野的图像计算得到***浓度,可以确保所得到的***浓度的准确性。基于目标检测模型对每张待检测***图像中的***头部进行检测,相对于对整个***进行检测的方法而言,可以减少***交叉的概率,从而有助于提升***浓度的准确性。
在一个实施例中,对***活力的一种检测方式进行说明。针对***活力检测,多张待检测***图像为从待检测***视频中获取的连续多帧图像。终端通过目标检测模型对每帧图像进行检测,当检测每帧图像中存在多个***头部时,得到每帧图像中每个***头部的头部位置信息,目标检测模型的具体实现方式可以参照上述实施例,在此不做具体描述。终端从第一帧图像开始,依次对每帧图像执行以下处理:如图8所示,步骤S150,根据多张待检测***图像的***位置检测结果,生成***活力检测结果,可以通过以下步骤实现。
步骤S810,当每帧图像中存在多个***头部时,获取当前帧图像中各个***头部的第一头部位置信息,以及当前帧图像的下一帧图像中各个***头部的第二头部位置信息。
步骤S820,生成当前帧图像中各个***头部的第一头部位置信息与各个第二头部位置信息之间的距离。
其中,当前帧图像是指终端当前正分析处理的图像。头部位置信息可以但不限于包括***头部所在目标检测框的位置坐标和中心点坐标。
具体地,终端根据目标检测模型的输出结果获取当前帧图像中各个***头部的第一头部位置信息,以及当前帧图像的下一帧图像中各个***头部的第二头部位置信息。针对当前帧图像中的各个***头部,终端通过第二计算公式计算第一头部位置信息与下一帧图像中的各个第二头部位置信息之间的距离。其中,第二计算公式可以为:
D=Dist-10*IoU
其中,D代表距离;Dist代表当前帧中各个***头部的目标检测框的中心点与下一帧中的每个***头部目标检测框的中心点之间的距离;IoU代表当前帧中每个***头部目标检测框与下一帧中的每个***头部目标检测框的IOU(Intersection over Union,交并比)值。
步骤S830,根据距离,从多个第二头部位置信息中确定出目标头部位置信息,作为当前帧图像中的各个***头部在下一帧图像中的头部位置信息。
步骤S840,根据各个***头部在每帧图像中的头部位置信息,生成***活力检测结果。
具体地,终端从多个距离中获取值最小的距离。将值最小的距离对应的第二头部位置信息确定为当前帧图像中的各个***头部在下一帧图像中的头部位置信息。终端按照步骤S810~步骤S830所述的内容为确定各个***在每帧图像中所处的位置,进而生成各个***对应的运动轨迹。终端根据每个***的运动轨迹以及运动时间等参数,通过***活力确定逻辑生成***活力检测结果。
本实施例中,基于多张连续帧图像对***活力进行检测,可以确保所得到的***活力的准确性。基于目标检测模型对每张待检测***图像中的***头部进行检测,相对于对整个***进行检测的方法而言,可以减少***交叉的概率,从而有助于提升***活力检测的准确性。
在一个实施例中,如图9所示,提供一种具体的***质量检测方法,包括以下步骤:
步骤S902,获取多张原始***图像。其中,原始***图像的图像尺寸(像素尺寸)为1024*1536。多张原始***图像可以通过配备数码相机的光学显微镜在40倍物镜下对计数板进行成像拍照得到。多张原始***图像包括从多个采集视野采集到的多张图像,以及从待检测***视频中获取的连续多帧图像。其中,每个采集视野的视野范围为240μm×160μm。
步骤S904,对任一张原始***图像的图像尺寸进行第一预处理,得到待检测***图像。其中,第一预处理包括尺寸标准化处理和像素值归一化处理。即,根据原始***图像得到尺寸为768*1152图像;将所得到的图像的每个像素值除以255并进行归一化。
步骤S906,通过图像分割模型对所获取待检测***图像进行检测,当检测待检测***图像存在***时,获取单个的***图像。将***图像放置于尺寸为224*224、像素值全部为0的背景图像中,获得对应的***分割图像。
以下对图像分割模型的一种训练方式进行说明:
图像分割模型可以采用BlendMask模型。首先,获取若干***图像样本,以及与***图像样本对应的***分割图像标签。***图像样本的图像尺寸为1024*1536。从每张***图像样本的四个角(左上、右上、左下、右下)各裁剪得到一个768*1152大小的图像,并对裁剪获得的图像进行像素值归一化处理,得到训练图像样本。按照上述图像裁剪方式对***分割图像标签进行裁剪,得到与每张训练图像样本对应的训练标签。将训练图像样本输入至初始BlendMask模型。通过初始BlendMask模型输出预测分割结果。采用Dice(戴斯)损失函数计算预测分割结果和训练标签之间的损失值。使用Adam(自适应矩估计)优化器对初始BlendMask模型的模型参数进行调整。重复上述过程,直至损失值达到预设阈值或者迭代次数达到预设次数,生成最终使用的BlendMask模型。通过使用BlendMask模型,可以融合高层次全局信息(如***头部轮廓)和低层次的细粒度信息(如***头部空泡)来提取更准确的***实例分割特征,从而更精确地分割出每个***。
步骤S908,通过***形态识别模型对***分割图像进行识别,得到每个***分割图像中***的***形态检测结果。
以下对***形态识别模型的一种训练方式进行说明:
***形态识别模型的结构示意图可以参照上述实施例。首先,获取若干单个***图像样本,以及与每张单个***图像样本对应的分类标签。对每张单个***图像样本进行像素值归一化处理。接着,将预处理后的单个***图像样本输入至初始***形态识别模型,获得预测分类结果。采用交叉熵损失函数计算预测分类结果和分类标签之间的损失值。使用Adam优化器对初始***形态识别模型的模型参数进行调整。重复上述过程,直至损失值达到预设阈值或者迭代次数达到预设次数,生成最终使用的***形态识别模型。
步骤S910,从每个采集视野采集到的原始***图像的左上角裁剪得到100μm*100μm(像素尺寸为640*640)的图像。对裁剪后的图像进行像素值归一化处理,得到与每个采集视野对应的待检测***图像。
步骤S912,通过目标检测模型对每张待检测***图像进行目标检测,当获取待检测***图像中存在***头部时,则获取***头部的头部数量,将头部数量作为***个数检测结果。
以下对目标检测模型的一种训练方式进行说明:
目标检测模型采用第5版本的YOLO模型。首先,获取若干***头部图像样本,以及与每张***头部图像样本对应的数据标签。***头部图像样本的图像尺寸为1024*1536。从每张***头部图像样本的宽度方向的左边和右边各裁剪得到1024*1024大小的图像。对裁剪获得的图像进行像素值归一化处理,并将处理后的图像缩放至640*640大小,得到训练图像样本。对数据标签进行相同的裁剪处理和缩放处理,得到与每张训练图像样本对应的训练标签。将训练图像样本输入至初始YOLO模型。通过初始YOLO模型输出预测头部结果。采用回归损失函数计算预测头部结果和训练标签之间的损失值。使用Adam优化器对初始YOLO模型的模型参数进行调整。重复上述过程,直至损失函数达到预设阈值或者迭代次数达到预设次数,生成最终使用的YOLO模型。
步骤S914,获取多张待检测***图像的头部数量之和,作为多个采集视野下的***总数,并根据***总数确定***浓度。***浓度的具体确定方式可以参照上述实施例,在此不做具体描述。
步骤S916,通过目标检测模型对从待检测视频中获取的每帧图像进行目标检测,当获取每帧图像中存在***头部时,则获取***头部的头部位置信息,将头部位置信息作为***位置检测结果。
步骤S918,根据每帧图像中各个***头部的头部位置信息,生成***活力检测结果。***活力的具体检测方式可以参照上述实施例,在此不做具体阐述。
应该理解的是,虽然上述流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图上述流程图中的至少一部分步骤可以包括多个步骤或者多个阶段,这些步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤中的步骤或者阶段的至少一部分轮流或者交替地执行。
基于上述所述的***质量检测方法实施例的描述,本公开还提供***质量检测装置。所述装置可以包括使用了本说明书实施例所述方法的***(包括分布式***)、软件(应用)、模块、组件、服务器、客户端等并结合必要的实施硬件的装置。基于同一创新构思,本公开实施例提供的一个或多个实施例中的装置如下面的实施例所述。由于装置解决问题的实现方案与方法相似,因此本说明书实施例具体的装置的实施可以参见前述方法的实施,重复之处不再赘述。以下所使用的,术语“单元”或者“模块”可以实现预定功能的软件和/或硬件的组合。尽管以下实施例所描述的装置较佳地以软件来实现,但是硬件,或者软件和硬件的组合的实现也是可能并被构想的。
在一个实施例中,如图10所示,提供了一种***质量检测装置1000,包括:图像获取模块1002、形态检测模块1004、目标检测模块1006、浓度确定模块1008、活力检测模块1010,其中:
图像获取模块1002,用于获取多张待检测***图像;形态检测模块1004,用于对待检测***图像进行检测,得到待检测***图像中***的***形态检测结果;目标检测模块1006,用于对每张待检测***图像进行检测,得到每张待检测***图像对应的***个数检测结果和***位置检测结果;浓度确定模块1008,用于根据多张待检测***图像的***个数检测结果确定***浓度;活力检测模块1010,用于根据多张待检测***图像的***位置检测结果生成***活力检测结果。
在一个实施例中,形态检测模块1004,包括:
图像分割单元,用于通过图像分割模型对待检测***图像进行检测,当检测待检测***图像中存在***时,获取***的***分割图像;分类识别单元,用于通过***形态识别模型对***分割图像进行分类识别,得到***形态识别结果。
在一个实施例中,装置1000还包括:
样本获取模块,用于获取***图像样本,以及与***图像样本对应的***分割图像标签;第一裁剪模块,用于按照预设的图像裁剪方式对***图像样本进行裁剪,得到多张训练图像样本;第二裁剪模块,用于按照预设的图像裁剪方式对***分割图像标签进行裁剪,得到与每张训练图像样本对应的训练标签;模型训练模块,用于使用训练图像样本以及训练标签对初始图像分割模型进行训练,得到图像分割模型。
在一个实施例中,***形态识别模型包括依次连接的多个卷积部分,每个卷积部分包括卷积嵌入块和多个卷积变换块;
分类识别单元,包括:特征提取子单元,用于依次通过每个卷积部分中的卷积嵌入块对***输入特征进行特征提取,对于第一个卷积部分,***输入特征为***分割图像,对于除第一个卷积部分外的每个其他卷积部分,***输入特征为上一个卷积部分输出的***输出特征;信息学习子单元,用于通过每个卷积部分中的卷积变换块对特征提取后的***输入特征进行全局信息学习和局部信息学习,得到***输出特征;结果生成子单元,用于根据最后一个卷积部分输出的***输出特征,生成***形态识别结果。
在一个实施例中,卷积变换块,包括卷积映射层、多头注意力层、多层感知机层、残差连接层、归一化层;信息学习子单元,用于通过卷积映射层、多头注意力层、多层感知机层、残差连接层、归一化层对特征提取后的***输入特征进行全局信息学习和局部信息学习,得到***输出特征。
在一个实施例中,目标检测模块1006,包括:目标检测单元,用于对每张待检测***图像进行目标检测。数量获取单元,用于当获取待检测***图像中存在***头部时,获取***头部的头部数量,将头部数量作为***个数检测结果;位置信息获取单元,用于当获取待检测***图像中存在***头部时,获取***头部的头部位置信息,将头部位置信息作为***位置检测结果。
在一个实施例中,每张待检测***图像为从对应的原始***图像中裁剪得到的图像,不同的原始***图像的采集视野不同;
浓度确定模块1008,用于***总数获取单元,用于获取多张待检测***图像的头部数量之和,作为多个采集视野下的***总数;浓度生成单元,用于根据***总数确定***浓度。
在一个实施例中,多张待检测***图像为从待检测***视频中获取的连续多帧图像;
活力检测模块1010,包括:位置信息获取单元,用于当每帧图像中存在多个***头部时,获取当前帧图像中各个***头部的第一头部位置信息,以及当前帧图像的下一帧图像中各个***头部的第二头部位置信息;距离生成单元,用于生成当前帧图像中各个***头部的第一头部位置信息与各个第二头部位置信息之间的距离;目标位置确定单元,用于根据距离从多个第二头部位置信息中确定出目标头部位置信息,作为当前帧图像中的各个***头部在下一帧图像中的头部位置信息;活力结果生成单元,用于根据各个***头部在每帧图像中的头部位置信息,生成***活力检测结果。
关于***质量检测装置的具体限定可以参见上文中对于***质量检测方法的限定,在此不再赘述。上述***质量检测装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是终端,其内部结构图可以如图11所示。该计算机设备包括通过***总线连接的处理器、存储器、通信接口、显示屏和输入装置。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作***和计算机程序。该内存储器为非易失性存储介质中的操作***和计算机程序的运行提供环境。该计算机设备的通信接口用于与外部的终端进行有线或无线方式的通信,无线方式可通过WIFI、运营商网络、NFC(近场通信)或其他技术实现。该计算机程序被处理器执行时以实现一种***质量检测方法。该计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,该计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
本领域技术人员可以理解,图11中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现上述任一实施例所述的***质量检测方法。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述任一实施例所述的***质量检测方法。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和易失性存储器中的至少一种。非易失性存储器可包括只读存储器(Read-Only Memory,ROM)、磁带、软盘、闪存或光存储器等。易失性存储器可包括随机存取存储器(Random Access Memory,RAM)或外部高速缓冲存储器。作为说明而非局限,RAM可以是多种形式,比如静态随机存取存储器(Static Random Access Memory,SRAM)或动态随机存取存储器(Dynamic Random Access Memory,DRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (11)
1.一种***质量检测方法,其特征在于,所述方法包括:
获取多张待检测***图像;
对所述待检测***图像进行检测,得到所述待检测***图像中***的***形态检测结果;
对每张所述待检测***图像进行检测,得到每张所述待检测***图像对应的***个数检测结果和***位置检测结果;
根据多张所述待检测***图像的***个数检测结果,确定***浓度;
根据多张所述待检测***图像的***位置检测结果,生成***活力检测结果。
2.根据权利要求1所述的方法,其特征在于,所述对所述待检测***图像进行检测,得到所述待检测***图像中***的***形态检测结果,包括:
通过图像分割模型对所述待检测***图像进行检测,当检测所述待检测***图像中存在所述***时,获取所述***的***分割图像;
通过***形态识别模型对所述***分割图像进行分类识别,得到所述***形态识别结果。
3.根据权利要求2所述方法,其特征在于,所述图像分割模型的生成方式,包括:
获取***图像样本,以及与所述***图像样本对应的***分割图像标签;
按照预设的图像裁剪方式对所述***图像样本进行裁剪,得到多张训练图像样本;
按照所述图像裁剪方式对所述***分割图像标签进行裁剪,得到与每张所述训练图像样本对应的训练标签;
使用所述训练图像样本以及所述训练标签对初始图像分割模型进行训练,得到所述图像分割模型。
4.根据权利要求2所述方法,其特征在于,所述***形态识别模型包括依次连接的多个卷积部分,每个所述卷积部分包括卷积嵌入块和多个卷积变换块;
所述通过***形态识别模型对所述***分割图像进行分类识别,得到所述***形态识别结果,包括:
依次通过每个卷积部分中的卷积嵌入块对***输入特征进行特征提取,对于第一个卷积部分,所述***输入特征为所述***分割图像,对于除所述第一个卷积部分外的每个其他卷积部分,所述***输入特征为上一个卷积部分输出的***输出特征;
通过每个卷积部分中的卷积变换块对特征提取后的所述***输入特征进行全局信息学习和局部信息学习,得到***输出特征;
根据最后一个卷积部分输出的所述***输出特征,生成所述***形态识别结果。
5.根据权利要求4所述方法,其特征在于,所述卷积变换块,包括卷积映射层、多头注意力层、多层感知机层、残差连接层、归一化层;
所述通过每个卷积部分中的卷积变换块对特征提取后的所述***输入特征进行全局信息学习和局部信息学习,得到***输出特征,包括:
通过所述卷积映射层、所述多头注意力层、所述多层感知机层、所述残差连接层、所述归一化层对特征提取后的所述***输入特征进行全局信息学习和局部信息学习,得到***输出特征。
6.根据权利要求1所述的方法,其特征在于,所述对每张所述待检测***图像进行检测,得到每张所述待检测***图像对应的***个数检测结果和***位置检测结果,包括:
对每张所述待检测***图像进行目标检测,当获取所述待检测***图像中存在***头部时,则
获取所述***头部的头部数量,将所述头部数量作为所述***个数检测结果;
获取所述***头部的头部位置信息,将所述头部位置信息作为所述***位置检测结果。
7.根据权利要求6所述的方法,其特征在于,每张所述待检测***图像为从对应的原始***图像中裁剪得到的图像,不同的所述原始***图像的采集视野不同;
所述根据多张所述待检测***图像的***个数检测结果,确定***浓度,包括:
获取多张所述待检测***图像的头部数量之和,作为多个所述采集视野下的***总数;
根据所述***总数确定所述***浓度。
8.根据权利要求6所述的方法,其特征在于,多张所述待检测***图像为从待检测***视频中获取的连续多帧图像;
所述根据多张所述待检测***图像的***位置检测结果,生成***活力检测结果,包括:
当每帧图像中存在多个所述***头部时,获取当前帧图像中各个所述***头部的第一头部位置信息,以及所述当前帧图像的下一帧图像中各个所述***头部的第二头部位置信息;
生成所述当前帧图像中各个所述***头部的第一头部位置信息与各个所述第二头部位置信息之间的距离;
根据所述距离,从多个所述第二头部位置信息中确定出目标头部位置信息,作为所述当前帧图像中的各个所述***头部在所述下一帧图像中的头部位置信息;
根据各个所述***头部在每帧图像中的头部位置信息,生成所述***活力检测结果。
9.一种***质量检测装置,其特征在于,所述装置包括:
图像获取模块,用于获取多张待检测***图像;
形态检测模块,用于对所述待检测***图像进行检测,得到所述待检测***图像中***的***形态检测结果;
目标检测模块,用于对每张所述待检测***图像进行检测,得到每张所述待检测***图像对应的***个数检测结果和***位置检测结果;
浓度确定模块,用于根据多张所述待检测***图像的***个数检测结果,确定***浓度;
活力检测模块,用于根据多张所述待检测***图像的***位置检测结果,生成***活力检测结果。
10.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至8中任一项所述的方法的步骤。
11.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至8中任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110929246.7A CN113706481A (zh) | 2021-08-13 | 2021-08-13 | ***质量检测方法、装置、计算机设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110929246.7A CN113706481A (zh) | 2021-08-13 | 2021-08-13 | ***质量检测方法、装置、计算机设备和存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113706481A true CN113706481A (zh) | 2021-11-26 |
Family
ID=78652570
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110929246.7A Pending CN113706481A (zh) | 2021-08-13 | 2021-08-13 | ***质量检测方法、装置、计算机设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113706481A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116121179A (zh) * | 2023-03-14 | 2023-05-16 | 苏州贝康医疗器械有限公司 | ***优选和检测方法、装置、电子设备及存储介质 |
CN116863388A (zh) * | 2023-09-05 | 2023-10-10 | 青岛农业大学 | 一种基于神经网络的***活力确定方法及*** |
CN117114749A (zh) * | 2023-10-16 | 2023-11-24 | 吉林省农业科学院(中国农业科技东北创新中心) | 一种智能化猪冷冻***管理方法及*** |
WO2024113443A1 (zh) * | 2022-11-28 | 2024-06-06 | 苏州博致医疗科技有限公司 | 一种准确测量活***形态的方法 |
-
2021
- 2021-08-13 CN CN202110929246.7A patent/CN113706481A/zh active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024113443A1 (zh) * | 2022-11-28 | 2024-06-06 | 苏州博致医疗科技有限公司 | 一种准确测量活***形态的方法 |
CN116121179A (zh) * | 2023-03-14 | 2023-05-16 | 苏州贝康医疗器械有限公司 | ***优选和检测方法、装置、电子设备及存储介质 |
CN116121179B (zh) * | 2023-03-14 | 2023-09-29 | 苏州贝康医疗器械有限公司 | ***优选和检测方法、装置、电子设备及存储介质 |
CN116863388A (zh) * | 2023-09-05 | 2023-10-10 | 青岛农业大学 | 一种基于神经网络的***活力确定方法及*** |
CN117114749A (zh) * | 2023-10-16 | 2023-11-24 | 吉林省农业科学院(中国农业科技东北创新中心) | 一种智能化猪冷冻***管理方法及*** |
CN117114749B (zh) * | 2023-10-16 | 2024-01-12 | 吉林省农业科学院(中国农业科技东北创新中心) | 一种智能化猪冷冻***管理方法及*** |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2020253629A1 (zh) | 检测模型训练方法、装置、计算机设备和存储介质 | |
US11062123B2 (en) | Method, terminal, and storage medium for tracking facial critical area | |
CN112418117B (zh) | 一种基于无人机图像的小目标检测方法 | |
Basalamah et al. | Scale driven convolutional neural network model for people counting and localization in crowd scenes | |
Zhang et al. | Surface defect detection of steel strips based on classification priority YOLOv3-dense network | |
WO2020228446A1 (zh) | 模型训练方法、装置、终端及存储介质 | |
CN113706481A (zh) | ***质量检测方法、装置、计算机设备和存储介质 | |
CN111695392B (zh) | 基于级联的深层卷积神经网络的人脸识别方法及*** | |
CN113780145A (zh) | ***形态检测方法、装置、计算机设备和存储介质 | |
CN110930434B (zh) | 目标对象跟随方法、装置、存储介质和计算机设备 | |
CN111160275B (zh) | 行人重识别模型训练方法、装置、计算机设备和存储介质 | |
CN112989962B (zh) | 轨迹生成方法、装置、电子设备及存储介质 | |
KR102261880B1 (ko) | 딥러닝 기반 비대면 안면 인식 서비스 제공 방법, 장치 및 시스템 | |
CN110942456B (zh) | 篡改图像检测方法、装置、设备及存储介质 | |
WO2021169642A1 (zh) | 基于视频的眼球转向确定方法与*** | |
CN113435432B (zh) | 视频异常检测模型训练方法、视频异常检测方法和装置 | |
CN111738164B (zh) | 一种基于深度学习的行人检测方法 | |
CN114359787A (zh) | 目标属性识别方法、装置、计算机设备及存储介质 | |
CN112232236B (zh) | 行人流量的监测方法、***、计算机设备和存储介质 | |
Zhu et al. | Scene text relocation with guidance | |
CN109784291B (zh) | 基于多尺度的卷积特征的行人检测方法 | |
CN110490170A (zh) | 一种人脸候选框提取方法 | |
Yan et al. | Pig face detection method based on improved CenterNet algorithm | |
CN111353349B (zh) | 人体关键点检测方法、装置、电子设备及存储介质 | |
CN113192108A (zh) | 一种针对视觉跟踪模型的人在回路训练方法及相关装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |