CN112330660B - 一种基于神经网络的***尾部检测方法及其*** - Google Patents
一种基于神经网络的***尾部检测方法及其*** Download PDFInfo
- Publication number
- CN112330660B CN112330660B CN202011329591.9A CN202011329591A CN112330660B CN 112330660 B CN112330660 B CN 112330660B CN 202011329591 A CN202011329591 A CN 202011329591A CN 112330660 B CN112330660 B CN 112330660B
- Authority
- CN
- China
- Prior art keywords
- sperm
- tail
- head
- image
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 56
- 238000001514 detection method Methods 0.000 title claims abstract description 56
- 230000011218 segmentation Effects 0.000 claims abstract description 49
- 238000012549 training Methods 0.000 claims description 40
- 210000000988 bone and bone Anatomy 0.000 claims description 34
- 238000000605 extraction Methods 0.000 claims description 25
- 238000012360 testing method Methods 0.000 claims description 20
- 238000000034 method Methods 0.000 claims description 10
- 238000012545 processing Methods 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000002372 labelling Methods 0.000 claims 3
- 238000010586 diagram Methods 0.000 description 6
- 230000006978 adaptation Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 101100295091 Arabidopsis thaliana NUDT14 gene Proteins 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000004043 dyeing Methods 0.000 description 1
- 239000012535 impurity Substances 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30024—Cell structures in vitro; Tissue sections in vitro
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于神经网络的***尾部检测方法及其***,包括采集***图像;通过第一神经网络单元分割***图像生成分割图像;通过第二神经网络单元提取***图像的***头部坐标和头部方向数据;基于***头部坐标和头部方向数据提取分割图像的***尾部坐标集合;基于***尾部坐标集合和分割图像生成包含***尾部长度信息的检测结果。本发明通过神经网络算法准确的提取***图像的头部区域图像和尾部区域图像以提升分割精度,通过遍历尾部区域图像对应的骨骼图中的骨骼点生成***尾部坐标集合,从而基于***尾部坐标集合和分割图像生成准确的***尾部长度信息,提升了***尾部分割精确度,解决了传统的***尾部检测方法存在检测精度较低的问题。
Description
技术领域
本发明涉及***检测技术领域,具体涉及一种基于神经网络的***尾部检测方法及其***。
背景技术
传统的***检测方法主要是通过染色剂对***进行染色后将***玻片放在显微镜100倍镜下拍照,然后将拍照所得图片通过传统分割算法(如纹理)进行***分割检测,然后通过分割的结果来对***进行判断,判断***是否正常。但是传统分割算法需要人为设计特征,而***形态图像的多样性会导致特征的鲁棒性较低,造成***分割的准确较低。
因此,现有的***尾部检测方法存在检测精度较低的问题。
发明内容
有鉴于此,本发明提供一种基于神经网络的***尾部检测方法及其***,通过改进图像检测方法,解决了现有的***尾部检测方法存在检测精度较低的问题。
为解决以上问题,本发明的技术方案为采用一种基于神经网络的***尾部检测方法,包括:S1:采集***图像;S2:通过第一神经网络单元分割所述***图像生成分割图像;S3:通过第二神经网络单元提取所述***图像的***头部坐标和头部方向数据;S4:基于所述***头部坐标和头部方向数据提取所述分割图像的***尾部坐标集合;S5:基于所述***尾部坐标集合和所述分割图像生成包含***尾部长度信息的检测结果。
优选地,通过第一神经网络单元分割所述***图像生成分割图像包括:获取由多张***照片构成的数据集并对每张所述***照片的***尾部进行标注,生成由多张包含尾部标记的***照片构成的第一训练样本集和第一测试集;基于所述第一训练样本集和所述第一测试集,使用Deeplabv3+网络模型在tensorflow框架下进行训练并验证,生成用于分割***尾部的语义分割模型;将所述***图像输入所述第一神经网络单元,基于所述语义分割模型获取所述分割图像。
优选地,通过第二神经网络单元提取所述***图像的***头部坐标和头部方向数据包括:获取由多张***照片构成的数据集并对每张所述***照片的***头部进行标注,生成由多张包含头部标记的***照片构成的第二训练样本集和第二训练集,其中,标注的中心点为***头部和尾部相交点;基于所述第二训练样本集和所述第二测试集,使用Faster-rcnn网络模型在tensorflow框架下进行训练并验证,生成用于***头部提取的***头部检测模型;将所述***图像输入所述第二神经网络单元,基于所述***头部检测模型获取***头部区域提取框并提取***头部区域图像;基于所述***头部区域图像提取所述***头部坐标和所述头部方向数据。
优选地,基于所述***头部区域图像提取所述***头部坐标和所述头部方向数据,包括:基于所述***头部区域图像生成灰度图;基于所述灰度图计算像素均值m和像素值标准差sd,并定义阈值区间为(m-sd,m+sd);遍历所述灰度图中的全部像素点,将原像素值属于阈值区间内的像素点的像素值更新为0,将原像素值不属于阈值区间内的像素点的像素值更新为255,生成二值化黑白图像;提取所述二值化黑白图像中包含的全部像素值为0的像素点并进行椭圆拟合计算,生成的椭圆区域图像的中心点为所述***头部坐标,所述椭圆区域图像的两个焦点的连线方向为所述头部方向数据。
优选地,基于所述***头部坐标和头部方向数据提取所述分割图像的***尾部坐标包括:计算所述分割图像中的连通域,剔除所述分割图像中面积小于第一阈值的连通域;对所述分割图像中剩余的连通域进行骨骼提取生成由间断的多个骨骼点构成的骨骼图;基于所述***头部坐标和头部方向数据提取所述骨骼图中包含的***尾部起始点坐标;基于所述***尾部起始点坐标和所述头部方向数据生成所述***尾部坐标。
优选地,基于所述***头部坐标和头部方向数据提取所述骨骼图中包含的***尾部起始点坐标,包括:基于所述***头部区域提取框的坐标提取所述骨骼图中对应区域内包含的至少一个与所述目标框相交的所述骨骼点及其与所述目标框的交点;基于所述头部方向数据,提取所述骨骼点与所述目标框的交点中与所述头部方向夹角最小的交点作为所述***尾部起始点。
优选地,基于所述***尾部起始点坐标和所述头部方向数据生成所述***尾部坐标集合,包括:提取以所述***尾部起始点为中心点的预设像素面积范围内存在的所述骨骼点并生成骨骼点集合,其中,所述骨骼点集合包括外部点集合和内部点集合;分别计算所述外部点集合中各个所述骨骼点与所述***尾部起始点的连线方向作为所述骨骼点的方向,提取所述外部点集合中与所述头部方向夹角最小的所述骨骼点作为第一外尾部点,并提取以所述第一外尾部点为中心点的预设像素面积范围内存在的所述骨骼点进行夹角计算,提取第二外尾部点,直至生成全部的外尾部点;基于所述内部点集合,重复上述步骤直至生成全部的内尾部点;基于所述全部的外尾部点和内尾部点生成所述***尾部坐标集合。
相应地,本发明提供,一种基于神经网络的***尾部检测***,包括:图像采集单元,用于采集***图像;第一神经网络单元,用于分割所述***图像并生成分割图像;第二神经网络单元,用于提取所述***图像的***头部坐标和头部方向数据;数据处理单元,基于所述***头部坐标和头部方向数据提取所述分割图像的***尾部坐标集合,并基于所述***尾部坐标集合和所述分割图像生成包含***尾部长度信息的检测结果。
优选地,所述第一神经网络单元通过获取由多张***照片构成的数据集并对每张所述***照片的***尾部进行标注,生成由多张包含尾部标记的***照片构成的第一训练样本集和第一测试集;基于所述第一训练样本集和所述第一测试集,使用Deeplabv3+网络模型在tensorflow框架下进行训练并验证,生成用于分割***尾部的语义分割模型;将所述***图像输入所述第一神经网络单元,基于所述语义分割模型获取所述分割图像。
优选地,所述第二神经网络单元通过获取由多张***照片构成的数据集并对每张所述***照片的***头部进行标注,生成由多张包含头部标记的***照片构成的第二训练样本集和第二训练集,其中,标注的中心点为***头部和尾部相交点;基于所述第二训练样本集和所述第二测试集,使用Faster-rcnn网络模型在tensorflow框架下进行训练并验证,生成用于***头部提取的***头部检测模型;将所述***图像输入所述第二神经网络单元,基于所述***头部检测模型获取***头部区域提取框并提取***头部区域图像;基于所述***头部区域图像提取所述***头部坐标和所述头部方向数据。
本发明的首要改进之处为提供的基于神经网络的***尾部检测方法,通过使用神经网络算法准确的提取***图像的头部区域图像和尾部区域图像以提升分割精度后,通过遍历尾部区域图像对应的骨骼图中的骨骼点生成***尾部坐标集合,从而基于***尾部坐标集合和分割图像生成准确的***尾部长度信息,极大的提升了***尾部分割精确度,解决了传统的***尾部检测方法存在检测精度较低的问题。
附图说明
图1是本发明的基于神经网络的***尾部检测方法的简化流程图;
图2是本发明的基于神经网络的***尾部检测***的简化模块连接图;
图3是本发明的灰度图的示例图;
图4是本发明的椭圆区域图像的示例图;
图5是本发明的提取外尾部点的示例图;
图6是本发明的提取内尾部点的示例图。
具体实施方式
为了使本领域的技术人员更好地理解本发明的技术方案,下面结合附图和具体实施例对本发明作进一步的详细说明。
如图1所示,一种基于神经网络的***尾部检测方法,其特征在于,包括:S1:采集***图像;S2:通过第一神经网络单元分割所述***图像生成分割图像;S3:通过第二神经网络单元提取所述***图像的***头部坐标和头部方向数据;S4:基于所述***头部坐标和头部方向数据提取所述分割图像的***尾部坐标集合;S5:基于所述***尾部坐标集合和所述分割图像生成包含***尾部长度信息的检测结果。
本发明通过使用神经网络算法准确的提取***图像的头部区域图像和尾部区域图像以提升分割精度后,通过遍历尾部区域图像对应的骨骼图中的骨骼点生成***尾部坐标集合,从而基于***尾部坐标集合和分割图像生成准确的***尾部长度信息,极大的提升了***尾部分割精确度,解决了传统的***尾部检测方法存在检测精度较低的问题。
本发明为准确提取***尾部的分割图像,通过第一神经网络单元分割所述***图像生成分割图像,具体的,获取由多张***照片构成的数据集并对每张所述***照片的***尾部进行标注,生成由多张包含尾部标记的***照片构成的第一训练样本集和第一测试集;基于所述第一训练样本集和所述第一测试集,使用Deeplabv3+网络模型在tensorflow框架下进行训练并验证,生成用于分割***尾部的语义分割模型;将所述***图像输入所述第一神经网络单元,基于所述语义分割模型获取所述分割图像。其中,数据集中包含的***照片数量可以是1000多张,包含7000多个***尾部标记。
具体的,Deeplabv3+网络模型下的所述语义分割模型的工作原理为:将图片输入到改进后的深度卷积网络中进行特征提取,将会得到不同尺度的语义特征C和语义特征G;将语义特征C传入到空洞金字塔池化模块ASPP中,并分别和四个空洞卷积层进行卷积和一个池化层进行进行池化,从而会得到五个特征图,并将其合并成5层结构D。D再和一个1×1的卷积层进行卷积后得到结构E;E再通过上采样得到结构F;通过在深度卷积网络层中得到的一个与结构F在分辨率上相同的语义特征图G,经过1×1卷积后降低通道数使得和结构F所占通道数一样,再与F进行合并;基于上一步合并生成的语义特征图H,然后通过一个3×3卷积进行细化操作;再通过双线性上采样将图像变为原来的4倍,最终得到语义分割的结果。
本发明为准确获取包含***头部和尾部相交点的***头部区域图像,通过第二神经网络单元提取所述***图像的***头部坐标和头部方向数据,具体的,获取由多张***照片构成的数据集并对每张所述***照片的***头部进行标注,生成由多张包含头部标记的***照片构成的第二训练样本集和第二训练集,其中,标注的中心点为***头部和尾部相交点;基于所述第二训练样本集和所述第二测试集,使用Faster-rcnn网络模型在tensorflow框架下进行训练并验证,生成用于***头部提取的***头部检测模型;将所述***图像输入所述第二神经网络单元,基于所述***头部检测模型获取***头部区域提取框并提取***头部区域图像;基于所述***头部区域图像提取所述***头部坐标和所述头部方向数据。其中,数据集中包含的***照片数量可以是1000多张,包含8000多个***头部标记。
进一步的,基于所述***头部区域图像提取所述***头部坐标和所述头部方向数据,包括:如图3所示,基于所述***头部区域图像生成灰度图;基于所述灰度图计算像素均值m和像素值标准差sd,并定义阈值区间为(m-sd,m+sd);遍历所述灰度图中的全部像素点,将原像素值属于阈值区间内的像素点的像素值更新为0,将原像素值不属于阈值区间内的像素点的像素值更新为255,生成二值化黑白图像;如图4所示,提取所述二值化黑白图像中包含的全部像素值为0的像素点并进行椭圆拟合计算,生成的椭圆区域图像的中心点为所述***头部坐标,所述椭圆区域图像的两个焦点的连线方向为所述头部方向数据,本发明通过上述图像处理及椭圆拟合,极大的提升了生成的所述***头部坐标和所述头部方向数据的准确度。
进一步的,由于进行语义分割后的***尾部线条较粗,而求取***尾部线条时需要对尾部进行描绘,因此,本发明通过杂质区域去除并通过骨骼提取对分割图中的线条进行细化,得到准确的较细线条,进一步提升了***尾部检测的精度,具体的,基于所述***头部坐标和头部方向数据提取所述分割图像的***尾部坐标包括:计算所述分割图像中的连通域,剔除所述分割图像中面积小于第一阈值的连通域;对所述分割图像中剩余的连通域进行骨骼提取生成由间断的多个骨骼点构成的骨骼图;基于所述***头部坐标和头部方向数据提取所述骨骼图中包含的***尾部起始点坐标;基于所述***尾部起始点坐标和所述头部方向数据生成所述***尾部坐标。其中,第一阈值可以是100个像素点。
更进一步的,基于所述***头部坐标和头部方向数据提取所述骨骼图中包含的***尾部起始点坐标,包括:基于所述***头部区域提取框的坐标提取所述骨骼图中对应区域内包含的至少一个与所述目标框相交的所述骨骼点及其与所述目标框的交点;基于所述头部方向数据,提取所述骨骼点与所述目标框的交点中与所述头部方向夹角最小的交点作为所述***尾部起始点。其中,由于Faster-rcnn网络模型生成的所述***头部区域提取框的宽度为3像素,而骨骼点间隔在1到2像素之间,因此保证了所述骨骼图中对应区域内包含至少一个与所述目标框相交的所述骨骼点。
更进一步的,基于所述***尾部起始点坐标和所述头部方向数据生成所述***尾部坐标集合,包括:提取以所述***尾部起始点为中心点的预设像素面积范围内存在的所述骨骼点并生成骨骼点集合,其中,所述骨骼点集合包括外部点集合和内部点集合;如图5所示,分别计算所述外部点集合中各个所述骨骼点与所述***尾部起始点的连线方向作为所述骨骼点的方向,提取所述外部点集合中与所述头部方向夹角最小的所述骨骼点作为第一外尾部点,并提取以所述第一外尾部点为中心点的预设像素面积范围内存在的所述骨骼点进行夹角计算,提取第二外尾部点,直至生成全部的外尾部点;如图6所示,基于所述内部点集合,重复上述步骤直至生成全部的内尾部点;基于所述全部的外尾部点和内尾部点生成所述***尾部坐标集合。其中,预设像素面积范围可以是7*7像素范围,外部点集合被定义为位于所述***头部区域提取框的坐标对应的所述骨骼图的区域外的全部所述骨骼点,内部点集合被定义为位于所述***头部区域提取框的坐标对应的所述骨骼图的区域内的全部所述骨骼点。
相应的,如图2所示,本发明提供,一种基于神经网络的***尾部检测***,包括:图像采集单元,用于采集***图像;第一神经网络单元,用于分割所述***图像并生成分割图像;第二神经网络单元,用于提取所述***图像的***头部坐标和头部方向数据;数据处理单元,基于所述***头部坐标和头部方向数据提取所述分割图像的***尾部坐标集合,并基于所述***尾部坐标集合和所述分割图像生成包含***尾部长度信息的检测结果。
进一步的,所述第一神经网络单元通过获取由多张***照片构成的数据集并对每张所述***照片的***尾部进行标注,生成由多张包含尾部标记的***照片构成的第一训练样本集和第一测试集;基于所述第一训练样本集和所述第一测试集,使用Deeplabv3+网络模型在tensorflow框架下进行训练并验证,生成用于分割***尾部的语义分割模型;将所述***图像输入所述第一神经网络单元,基于所述语义分割模型获取所述分割图像。
进一步的,所述第二神经网络单元通过获取由多张***照片构成的数据集并对每张所述***照片的***头部进行标注,生成由多张包含头部标记的***照片构成的第二训练样本集和第二训练集,其中,标注的中心点为***头部和尾部相交点;基于所述第二训练样本集和所述第二测试集,使用Faster-rcnn网络模型在tensorflow框架下进行训练并验证,生成用于***头部提取的***头部检测模型;将所述***图像输入所述第二神经网络单元,基于所述***头部检测模型获取***头部区域提取框并提取***头部区域图像;基于所述***头部区域图像提取所述***头部坐标和所述头部方向数据。
以上仅是本发明的优选实施方式,应当指出的是,上述优选实施方式不应视为对本发明的限制,本发明的保护范围应当以权利要求所限定的范围为准。对于本技术领域的普通技术人员来说,在不脱离本发明的精神和范围内,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (10)
1.一种基于神经网络的***尾部检测方法,其特征在于,包括:
S1:采集***图像;
S2:通过第一神经网络单元分割所述***图像生成分割图像;
S3:通过第二神经网络单元提取所述***图像的***头部坐标和头部方向数据;
S4:基于所述***头部坐标和头部方向数据提取所述分割图像的***尾部坐标集合;
S5:基于所述***尾部坐标集合和所述分割图像生成包含***尾部长度信息的检测结果。
2.根据权利要求1所述的***尾部检测方法,其特征在于,通过第一神经网络单元分割所述***图像生成分割图像包括:
获取由多张***照片构成的数据集并对每张所述***照片的***尾部进行标注,生成由多张包含尾部标记的***照片构成的第一训练样本集和第一测试集;
基于所述第一训练样本集和所述第一测试集,使用Deeplabv3+网络模型在tensorflow框架下进行训练并验证,生成用于分割***尾部的语义分割模型;
将所述***图像输入所述第一神经网络单元,基于所述语义分割模型获取所述分割图像。
3.根据权利要求2所述的***尾部检测方法,其特征在于,通过第二神经网络单元提取所述***图像的***头部坐标和头部方向数据包括:
获取由多张***照片构成的数据集并对每张所述***照片的***头部进行标注,生成由多张包含头部标记的***照片构成的第二训练样本集和第二测试集,其中,标注的中心点为***头部和尾部相交点;
基于所述第二训练样本集和所述第二测试集,使用Faster-rcnn网络模型在tensorflow框架下进行训练并验证,生成用于***头部提取的***头部检测模型;
将所述***图像输入所述第二神经网络单元,基于所述***头部检测模型获取***头部区域提取框并提取***头部区域图像;
基于所述***头部区域图像提取所述***头部坐标和所述头部方向数据。
4.根据权利要求3所述的***尾部检测方法,其特征在于,基于所述***头部区域图像提取所述***头部坐标和所述头部方向数据,包括:
基于所述***头部区域图像生成灰度图;
基于所述灰度图计算像素均值m和像素值标准差sd,并定义阈值区间为(m-sd,m+sd);
遍历所述灰度图中的全部像素点,将原像素值属于阈值区间内的像素点的像素值更新为0,将原像素值不属于阈值区间内的像素点的像素值更新为255,生成二值化黑白图像;
提取所述二值化黑白图像中包含的全部像素值为0的像素点并进行椭圆拟合计算,生成的椭圆区域图像的中心点为所述***头部坐标,所述椭圆区域图像的两个焦点的连线方向为所述头部方向数据。
5.根据权利要求4所述的***尾部检测方法,其特征在于,基于所述***头部坐标和头部方向数据提取所述分割图像的***尾部坐标包括:
计算所述分割图像中的连通域,剔除所述分割图像中面积小于第一阈值的连通域;
对所述分割图像中剩余的连通域进行骨骼提取生成由间断的多个骨骼点构成的骨骼图;
基于所述***头部坐标和头部方向数据提取所述骨骼图中包含的***尾部起始点坐标;
基于所述***尾部起始点坐标和所述头部方向数据生成所述***尾部坐标。
6.根据权利要求5所述的***尾部检测方法,其特征在于,基于所述***头部坐标和头部方向数据提取所述骨骼图中包含的***尾部起始点坐标,包括:
基于所述***头部区域提取框的坐标,提取所述骨骼图中对应区域内包含的至少一个与该提取框相交的骨骼点;
基于所述头部方向数据,提取与所述头部区域提取框相交的骨骼点中,与所述头部方向夹角最小的交点作为所述***尾部起始点。
7.根据权利要求6所述的***尾部检测方法,其特征在于,基于所述***尾部起始点坐标和所述头部方向数据生成所述***尾部坐标集合,包括:
提取以所述***尾部起始点为中心点的预设像素面积范围内存在的所述骨骼点并生成骨骼点集合,其中,所述骨骼点集合包括外部点集合和内部点集合;
分别计算所述外部点集合中各个所述骨骼点与所述***尾部起始点的连线方向作为所述骨骼点的方向,提取所述外部点集合中与所述头部方向夹角最小的所述骨骼点作为第一外尾部点,并提取以所述第一外尾部点为中心点的预设像素面积范围内存在的所述骨骼点进行夹角计算,提取第二外尾部点,直至生成全部的外尾部点;
基于所述内部点集合,重复上述步骤直至生成全部的内尾部点;
基于所述全部的外尾部点和内尾部点生成所述***尾部坐标集合。
8.一种基于神经网络的***尾部检测***,其特征在于,包括:
图像采集单元,用于采集***图像;
第一神经网络单元,用于分割所述***图像并生成分割图像;
第二神经网络单元,用于提取所述***图像的***头部坐标和头部方向数据;
数据处理单元,基于所述***头部坐标和头部方向数据提取所述分割图像的***尾部坐标集合,并基于所述***尾部坐标集合和所述分割图像生成包含***尾部长度信息的检测结果。
9.根据权利要求8所述的***尾部检测***,其特征在于,所述第一神经网络单元通过获取由多张***照片构成的数据集并对每张所述***照片的***尾部进行标注,生成由多张包含尾部标记的***照片构成的第一训练样本集和第一测试集;基于所述第一训练样本集和所述第一测试集,使用Deeplabv3+网络模型在tensorflow框架下进行训练并验证,生成用于分割***尾部的语义分割模型;将所述***图像输入所述第一神经网络单元,基于所述语义分割模型获取所述分割图像。
10.根据权利要求9所述的***尾部检测***,其特征在于,所述第二神经网络单元通过获取由多张***照片构成的数据集并对每张所述***照片的***头部进行标注,生成由多张包含头部标记的***照片构成的第二训练样本集和第二测试集,其中,标注的中心点为***头部和尾部相交点;基于所述第二训练样本集和所述第二测试集,使用Faster-rcnn网络模型在tensorflow框架下进行训练并验证,生成用于***头部提取的***头部检测模型;将所述***图像输入所述第二神经网络单元,基于所述***头部检测模型获取***头部区域提取框并提取***头部区域图像;基于所述***头部区域图像提取所述***头部坐标和所述头部方向数据。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011329591.9A CN112330660B (zh) | 2020-11-24 | 2020-11-24 | 一种基于神经网络的***尾部检测方法及其*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011329591.9A CN112330660B (zh) | 2020-11-24 | 2020-11-24 | 一种基于神经网络的***尾部检测方法及其*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112330660A CN112330660A (zh) | 2021-02-05 |
CN112330660B true CN112330660B (zh) | 2024-02-02 |
Family
ID=74322320
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011329591.9A Active CN112330660B (zh) | 2020-11-24 | 2020-11-24 | 一种基于神经网络的***尾部检测方法及其*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112330660B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022221911A1 (en) * | 2021-04-19 | 2022-10-27 | Newsouth Innovations Pty Limited | "quality assessment of reproductive material" |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2005080944A1 (en) * | 2004-02-18 | 2005-09-01 | The University Court Of The University Of Glasgow | Analysis of cell morphology and motility |
KR20110049606A (ko) * | 2009-11-05 | 2011-05-12 | 주식회사 메디칼써프라이 | 히스토그램을 이용한 정자의 형태 및 운동성 분석 방법 |
GB201711561D0 (en) * | 2017-07-18 | 2017-08-30 | Spermcomet Ltd | Method and apparatus |
CN107615066A (zh) * | 2015-05-07 | 2018-01-19 | 技术创新动力基金(以色列)有限合伙公司 | 用于包括***的生物细胞和生物有机体的干涉***和方法 |
CN110363056A (zh) * | 2018-12-29 | 2019-10-22 | 上海北昂医药科技股份有限公司 | 动力学视频图像中的***识别方法 |
CN110930345A (zh) * | 2018-08-31 | 2020-03-27 | 赛司医疗科技(北京)有限公司 | 一种***的尾部识别方法 |
WO2020068380A1 (en) * | 2018-09-28 | 2020-04-02 | The Brigham And Women's Hospital, Inc. | Automated evaluation of sperm morphology |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012082776A2 (en) * | 2010-12-14 | 2012-06-21 | The Regents Of The University Of California | Method and device for holographic opto-fluidic microscopy |
-
2020
- 2020-11-24 CN CN202011329591.9A patent/CN112330660B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2005080944A1 (en) * | 2004-02-18 | 2005-09-01 | The University Court Of The University Of Glasgow | Analysis of cell morphology and motility |
KR20110049606A (ko) * | 2009-11-05 | 2011-05-12 | 주식회사 메디칼써프라이 | 히스토그램을 이용한 정자의 형태 및 운동성 분석 방법 |
CN107615066A (zh) * | 2015-05-07 | 2018-01-19 | 技术创新动力基金(以色列)有限合伙公司 | 用于包括***的生物细胞和生物有机体的干涉***和方法 |
GB201711561D0 (en) * | 2017-07-18 | 2017-08-30 | Spermcomet Ltd | Method and apparatus |
CN110930345A (zh) * | 2018-08-31 | 2020-03-27 | 赛司医疗科技(北京)有限公司 | 一种***的尾部识别方法 |
WO2020068380A1 (en) * | 2018-09-28 | 2020-04-02 | The Brigham And Women's Hospital, Inc. | Automated evaluation of sperm morphology |
CN110363056A (zh) * | 2018-12-29 | 2019-10-22 | 上海北昂医药科技股份有限公司 | 动力学视频图像中的***识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112330660A (zh) | 2021-02-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109978839B (zh) | 晶圆低纹理缺陷的检测方法 | |
CN110807775A (zh) | 基于人工智能的中医舌像分割装置、方法及存储介质 | |
CN110570435B (zh) | 用于对车辆损伤图像进行损伤分割的方法及装置 | |
CN109886978B (zh) | 一种基于深度学习的端到端告警信息识别方法 | |
CN113221869B (zh) | 医疗***结构化信息提取方法、装置设备及存储介质 | |
CN111640116B (zh) | 基于深层卷积残差网络的航拍图建筑物分割方法及装置 | |
CN111046843A (zh) | 一种智能驾驶环境下的单目测距方法 | |
CN108765349A (zh) | 一种带有水印的图像修复方法及*** | |
CN112818821B (zh) | 基于可见光和红外光的人脸采集源检测方法和装置 | |
CN111553422A (zh) | 手术器械自动识别回收方法及*** | |
CN114549603B (zh) | 细胞病理图像的标注坐标转换方法、***、设备及介质 | |
CN114266881A (zh) | 一种基于改进型语义分割网络的指针式仪表自动读数方法 | |
CN114241469A (zh) | 一种面向电表轮换过程的信息识别方法和装置 | |
CN112330660B (zh) | 一种基于神经网络的***尾部检测方法及其*** | |
CN113706562A (zh) | 图像分割方法、装置、***及细胞分割方法 | |
CN111832616A (zh) | 利用多类深度表示图的遥感图像飞机型号识别方法及*** | |
CN111583322A (zh) | 一种基于深度学习的2d图像场景深度预测及语义分割方法和*** | |
CN116612357B (zh) | 一种无监督rgbd多模态数据集的构建方法、***和存储介质 | |
CN113012127A (zh) | 基于胸部医学影像的心胸比测量方法 | |
CN114241150A (zh) | 一种倾斜摄影建模中的水域数据预处理方法 | |
CN111931689B (zh) | 一种在线提取视频卫星数据鉴别特征的方法 | |
CN115546476A (zh) | 基于多尺度特征的多对象检测方法与数据平台 | |
CN112819823A (zh) | 一种面向家具板材的圆孔检测方法、***及装置 | |
CN112766332A (zh) | 医学影像检测模型训练方法、医学影像检测方法及装置 | |
CN111968136A (zh) | 一种煤岩显微图像分析方法及分析*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |