CN114550069A - 一种基于深度学习的仔猪***计数方法 - Google Patents
一种基于深度学习的仔猪***计数方法 Download PDFInfo
- Publication number
- CN114550069A CN114550069A CN202210199936.6A CN202210199936A CN114550069A CN 114550069 A CN114550069 A CN 114550069A CN 202210199936 A CN202210199936 A CN 202210199936A CN 114550069 A CN114550069 A CN 114550069A
- Authority
- CN
- China
- Prior art keywords
- image
- counting
- frame
- piglet
- prediction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于深度学习的仔猪***计数方法,所述的方法包括步骤如下:S1:对仔猪腹部进行视频获取;S2:对获取的视频进行逐帧筛选,过滤模糊图像,保留清晰图像;S3:使用目标分割网络对猪体进行目标分割提取;S4:将分割后目标提取图像输入计数网络进行仔猪***计数;S5:依据多帧图像多数计数结果实现仔猪***最终计数。本发明具有高效、准确自动计数仔猪***的优点,不需要采用人力计数,有效的降低劳动力和提高计数效率。
Description
技术领域
本发明涉及计算机视觉技术领域,更具体的,涉及一种基于深度学习的仔猪***计数方法。
背景技术
我国是猪肉消耗大国,养猪在畜牧养殖业中占有重要地位。PSY(每头母猪每年所能提供的断奶仔猪头数)是衡量母猪繁殖成效和猪场效益的重要指标之一,而母猪***数是评价PSY指标之一。研究表明,猪***数与其每窝产仔数基本呈正相关,且仔猪***数与与其双亲均值非常接近。因此,根据***数记录对种猪筛选十分必要。
在传统***计数都是采用人工点数对仔猪***进行计数。人工计数方法将会导致劳动力工作量大、劳动强度高、效率低、不便于记录、容易产生误差等问题。
现有技术提出规模养殖环境下,视频自动计算方式来实现对仔猪的***点数。仔猪在进行出生记录时,由工人抱起将腹部对准摄像头即完成***点数。这其中仔猪被抱起时会扭动,导致摄像机拍摄照片容易出现模糊,且拍摄环境复杂常常会有混淆目标进入图像,还有光线弱的问题,这些都将损失目标细节,影响准确检测目标,产生计数误差。
发明内容
本发明为了解决以上现有技术存在的不足与缺陷的问题,提供了一种基于深度学习的仔猪***计数方法,其具有高效、准确自动计数仔猪***的优点。
为实现上述本发明目的,采用的技术方案如下:
一种基于深度学习的仔猪***计数方法,所述的方法包括步骤如下:
S1:对仔猪腹部进行视频获取;
S2:对获取的视频进行逐帧筛选,过滤模糊图像,保留清晰图像;
S3:使用目标分割网络对猪体进行目标分割提取;
S4:将分割后目标提取图像输入计数网络进行仔猪***计数;
S5:依据多帧图像多数计数结果实现仔猪***最终计数。
优选地,步骤S2,包括以下步骤:
S201:定义两个算子A和B;
S202:分别使用A、B算子对获取的视频提取的每帧图像Ii做卷积运算,获得图像在X轴和Y轴方向上的梯度Gx和Gy:
S203:对梯度Gx和Gy进行加权求和,得到G;
S204:对G计算其全部元素的平均值作为该帧图像的平均梯度;
S205:自适应调节清晰度阈值,若该帧图像的平均梯度大于当前清晰度阈值,则执行步骤S3,否则去除该帧图像。
进一步地,所述的平均梯度的计算如下:
设G大小为M×N,则图像的平均梯度为:
式中,G(i,j)表示G第i行第j列的值。
再进一步地,自适应调节清晰度阈值,包括以下步骤:
设定一个K秒的时间窗口,计算当前在时间窗口内各帧图像的平均梯度,获得长度为L的序列P;
将序列P进行排序得到序列Q,选定一个固定比率R,设定清晰度阈值T为序列Q的第R×L个的值。
优选地,所述的目标图像分割网络包括MaskRCNN网络模型;
所述的MaskRCNN网络模型为一个两阶段的框架,其中,
第一阶段扫描图像,并生成提议;
第二阶段分类提议,并生成猪体边界框和分割掩码。
进一步地,第一阶段的实现,由一个标准的卷积神经网络作为特征提取器;对输入的图像进行卷积操作,提取图像特征,并使用特征提取器生成不同尺度的特征图,并进行特征融合;
第二阶段的实现,为区域建议网络,用来做边界框识别提取候选框;所述的区域建议网络用于有效地检测图像中的目标,同时还以像素到像素的方式为每个实例预测高质量的猪体分割掩码来进行实例分割。
在进一步地,所述的实例分割具体做法为:原图与得到的分割掩膜进行与运算后得到结果图;当前像素在分割掩码中对应的值非0,则将该像素拷贝到目标图像,当mask为0,则不进行拷贝,目标图像保持不变;
在分割网络实现分割处理后,图像数据集已去除图像中无关背景干扰,只保留猪体图像。
优选地,所述的计数网络包括yolov5网络模型;
其中构建yolov5网络模型,按照推进顺序,包括Input模块、Backbone模块、Neck模块和Prediction模块四个部分;
图像进入计数网络后,依次通过Input模块、Backbone模块、Neck模块和Prediction模块,最终获得多预测框;
之后根据设定的conf-thres和Iou-thres对预测框进行筛选,把最后保留下来的预测框作为识别结果,并且暂时保留计数结果;
其中,Conf-thres表示置信度阈值,低于置信度阈值的预测结果将会被舍去;
Iou-thres表示预测框交并比阈值,高于预测框交并比阈值的两个预测框会被认为是同一个;
按照需求确定conf-thres和Iou-thres的值。
进一步地,更新各预测框的置信度,删除置信度为0的预测框,具体如下:
将各预测框按置信度降序排列,按照顺序计算置信度最高的预测框M和每个置信度比它低的预测框Bi的交并比IoU:
更新各预测框置信度,置信度更新公式为:
其中,ε为自定义阈值,RDIoU由以下公式表示:
其中,ρ表示两个预测框中心点之间的距离,c表示最小包含两个预测框的框的对角线长度。
优选地,同一仔猪的视频流中对应多帧图像,每张图像经过步骤S1-S4之后都会获得一个计数结果;对于同一只仔猪的多帧图像计数结果,取其众数作为该仔猪最后的***计数结果。
本发明的有益效果如下:
本发明先对仔猪腹部进行视频获取,通过利用目标分割网络、计数网络进行自动计算,解决了传统采用人工对仔猪***进行计数,存在劳动力工作量大、劳动强度高、效率低、不便于记录、容易产生误差等问题。同时,针对在对仔猪腹部进行视频获取的过程中,可能存在拍摄照片模糊,影响准确检测目标,产生计数误差的问题,提出了对获取的视频进行逐帧筛选,先过滤模糊图像,保留清晰图像进行目标分割网络、计数网络,从而有效的提高计数准确度。
附图说明
图1是实施例所述的仔猪***计数方法的步骤流程图。
图2是实施例所述的MaskRCNN网络结构图。
图3是实施例所述的yolov5网络结构图。
图4是实施例所述的原始采集的仔猪图像。
图5是对图4进行梯度计算后的图像。
图6是对图4进行仔猪分割后的图像。
图7是对图4进行***计数的结果图像。
具体实施方式
下面结合附图和具体实施方式对本发明做详细描述。
实施例1
如图1所示,一种基于深度学习的仔猪***计数方法,所述的方法包括步骤如下:
S1:高分辨率摄影机对仔猪腹部进行视频获取;
S2:对获取的视频进行逐帧筛选,过滤模糊图像,保留清晰图像;
S3:使用目标分割网络对猪体进行目标分割提取;所述的目标分割网络采用包括RCNN系列、Mask-RCNN、R-FCN、YOLO、SSD、FPN几种中的一种。
S4:将分割后目标提取图像输入计数网络进行仔猪***计数;
S5:依据多帧图像多数计数结果实现仔猪***最终计数。
在一个具体的实施例中,同一仔猪的视频流中对应多帧图像,每张图像经过步骤S1-S4之后都会获得一个计数结果;对于同一只仔猪的多帧图像计数结果,取其众数作为该仔猪最后的***计数结果。
在一个具体的实施例中,步骤S2,包括以下步骤:
S201:定义两个算子A和B;
其中,a、b均为正数。
S202:分别使用A、B算子对获取的视频提取的每帧图像Ii做卷积运算,获得图像在X轴和Y轴方向上的梯度Gx和Gy:
Gx=A×Ii
Gy=B×Ii
其中,Gx表示图像在X轴方向上的梯度;Gy表示图像在X轴方向上的梯度。
S203:对梯度Gx和Gy进行加权求和,得到G,具体计算公式表示如下:
G=rGx+(1-r)Gy(0≤r≤1)
其中,r表示权重。
S204:对G计算其全部元素的平均值作为该帧图像的平均梯度;
所述的平均梯度的计算如下:
设G大小为M×N,则图像的平均梯度为:
式中,G(i,j)表示G第i行第j列的值。
S205:自适应调节清晰度阈值,若该帧图像的平均梯度大于当前清晰度阈值,则执行步骤S3,否则去除该帧图像。由于图像平均梯度反映着图像的清晰度,在同一环境下,可以选定某一清晰度阈值来划分图像,保留清晰度高的图像,去除清晰度低的图像。但是在实际环境中存在光线等因素的变化,摄像质量可能存在波动,这将导致图像的平均梯度之间可能会有较大差异,因此需要自适应调节清晰度阈值。
在一个具体的实施例中,所述的自适应调节清晰度阈值,包括以下步骤:
设定一个K秒的时间窗口,计算当前在时间窗口内各帧图像的平均梯度,获得长度为L的序列P;
将序列P进行排序得到序列Q,选定一个固定比率R,设定清晰度阈值T为序列Q的第R×L个的值。
更新序列P、序列Q和清晰度阈值T,伪代码描述如下
使用该图像继续执行后续计数步骤;
实施例2
基于实施例1所述的一种基于深度学习的仔猪***计数方法,本实施例针对目标分割网络给出了一个具体实施例中,本实施例以所述的目标图像分割网络为MaskRCNN网络模型为例进行详细描述,如下:
所述的MaskRCNN网络模型为一个两阶段的框架,其中,
第一阶段扫描图像,并生成提议(有可能包含一个目标的区域);
第二阶段分类提议,并生成猪体边界框和分割掩码。
在一个具体的实施例中,第一阶段的实现,由一个标准的卷积神经网络(如Resnet50+FPN主干网络(Backbone))作为特征提取器;主干网络对输入的图像进行卷积操作,提取图像特征,使用特征提取器生成不同尺度的特征图,并进行特征融合;
第二阶段的实现,为区域建议网络,用来做边界框识别(分类和回归)提取候选框;所述的区域建议网络用于有效地检测图像中的目标,同时还以像素到像素的方式为每个实例预测高质量的猪体分割掩码来进行实例分割。
在一个具体的实施例中,所述的实例分割具体做法为:原图与得到的分割掩膜进行与运算后得到结果图;当前像素在分割掩码中对应的值非0,则将该像素拷贝到目标图像,当mask为0,则不进行拷贝,目标图像保持不变;
在分割网络实现分割处理后,图像数据集已去除图像中无关背景干扰,只保留猪体图像。
实施例2
基于实施例1所述的一种基于深度学习的仔猪***计数方法,本实施例针对计数网络给出了一个具体实施例中,本实施例以计数网络为yolov5网络模型为例进行详细描述,如下:
所述的yolov5网络模型按照推进顺序包括Input模块、Backbone模块、Neck模块和Prediction模块四个部分;
所述的Input模块:该模块对待计算图像做预处理,包括:Mosaic数据增强、自适应锚框计算和自适应图像缩放。
其中,所述的Mosaic数据增强会将4张图像以随机缩放、随机裁剪和随机排放的方式拼接在一起;
所述的自适应锚框计算,会根据数据集的真实框,通过k-means聚类算法自动的更新锚框,进一步由锚框获得最终的预测框;
所述的自适应图像缩放,会将输入网络的图像缩放到一个统一大小,使其与网络结构契合。
所述的Backbone模块:该模块包括Focus结构和CSP(Cross Stage ParitialNetwork)结构。
其中,所述的Focus结构采用切片操作,将通过输入端的图像变成长宽减半,通道加倍的特征图,再通过一次卷积操作获得最终特征图;
所述的CSP结构用于从输入图像中提取丰富的特征信息生成特征图,所述的Backbone模块中包括多个CSP结构,每个CSP结构都会有一个卷积核为3,步长为2的卷积操作,这将会减少模型参数量,提高计算速度。
所述的Neck模块:该模块包括FPN结构和PAN结构。所述的FPN结构和PAN结构分别从不同方向对特征图进行特征融合,并生成特征金字塔。特征金字塔会增强模型对于不同缩放尺度对象的检测,从而能够识别不同大小和尺度的同一个物体。
所述的Prediction模块:该模块完成多尺度预测,生成三种尺度,多个预测框,每个预测框包括长、宽、坐标、类别概率和置信度Si等信息更新各预测框的置信度,置信度为0的预测框将会被删除。最后使用DIoU_NMS对生成的预测结果进行筛选并形成最后的预测结果。
图像进入计数网络后,依次通过Input模块、Backbone模块、Neck模块和Prediction模块,最终获得多预测框;
之后根据设定的conf-thres和Iou-thres对预测框进行筛选,把最后保留下来的预测框作为识别结果,并且暂时保留计数结果;
其中,Conf-thres表示置信度阈值,低于置信度阈值的预测结果将会被舍去;
Iou-thres表示预测框交并比阈值,高于预测框交并比阈值的两个预测框会被认为是同一个;
按照需求确定conf-thres和Iou-thres的值。
在一个具体的实施例中,更新各预测框置信度后,删除置信度为0的预测框,具体如下:
将各预测框按置信度降序排列,按照顺序计算置信度最高的预测框M和每个置信度比它低的预测框Bi的交并比IoU:
更新各预测框的置信度Si,置信度更新公式为:
其中,ε为自定义阈值,RDIoU由以下公式表示:
其中,ρ表示两个预测框中心点之间的距离,c表示最小包含两个预测框的框的对角线长度。
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。
Claims (10)
1.一种基于深度学习的仔猪***计数方法,其特征在于:所述的方法包括步骤如下:
S1:对仔猪腹部进行视频获取;
S2:对获取的视频进行逐帧筛选,过滤模糊图像,保留清晰图像;
S3:使用目标分割网络对猪体进行目标分割提取;
S4:将分割后目标提取图像输入计数网络进行仔猪***计数;
S5:依据多帧图像多数计数结果实现仔猪***最终计数。
2.根据权利要求1所述的基于深度学习的仔猪***计数方法,其特征在于:步骤S2,包括以下步骤:
S201:定义两个算子A和B;
S202:分别使用A、B算子对获取的视频提取的每帧图像Ii做卷积运算,获得图像在X轴和Y轴方向上的梯度Gx和Gy:
S203:对梯度Gx和Gy进行加权求和,得到G;
S204:对G计算其全部元素的平均值作为该帧图像的平均梯度;
S205:自适应调节清晰度阈值,若该帧图像的平均梯度大于当前清晰度阈值,则执行步骤S3,否则去除该帧图像。
4.根据权利要求2所述的基于深度学习的仔猪***计数方法,其特征在于:自适应调节清晰度阈值,包括以下步骤:
设定一个K秒的时间窗口,计算当前在时间窗口内各帧图像的平均梯度,获得长度为L的序列P;
将序列P进行排序得到序列Q,选定一个固定比率R,设定清晰度阈值T为序列Q的第R×L个的值。
5.根据权利要求1所述的基于深度学习的仔猪***计数方法,其特征在于:所述的目标图像分割网络包括MaskRCNN网络模型;
所述的MaskRCNN网络模型为一个两阶段的框架,其中,
第一阶段扫描图像,并生成提议;
第二阶段分类提议,并生成猪体边界框和分割掩码。
6.根据权利要求5所述的基于深度学习的仔猪***计数方法,其特征在于:
第一阶段的实现,由一个标准的卷积神经网络作为特征提取器;对输入的图像进行卷积操作,提取图像特征,并使用特征提取器生成不同尺度的特征图,并进行特征融合;
第二阶段的实现,为区域建议网络,用来做边界框识别提取候选框;所述的区域建议网络用于有效地检测图像中的目标,同时还以像素到像素的方式为每个实例预测高质量的猪体分割掩码来进行实例分割。
7.根据权利要求6所述的基于深度学习的仔猪***计数方法,其特征在于:所述的实例分割具体做法为:原图与得到的分割掩膜进行与运算后得到结果图;当前像素在分割掩码中对应的值非0,则将该像素拷贝到目标图像,当mask为0,则不进行拷贝,目标图像保持不变;
在分割网络实现分割处理后,图像数据集已去除图像中无关背景干扰,只保留猪体图像。
8.根据权利要求1所述的基于深度学习的仔猪***计数方法,其特征在于:所述的计数网络包括yolov5网络模型;
其中构建yolov5网络模型,按照推进顺序,包括Input模块、Backbone模块、Neck模块和Prediction模块四个部分;
图像进入计数网络后,依次通过Input模块、Backbone模块、Neck模块和Prediction模块,最终获得多预测框;
之后根据设定的conf-thres和Iou-thres对预测框进行筛选,把最后保留下来的预测框作为识别结果,并且暂时保留计数结果;
其中,Conf-thres表示置信度阈值,低于置信度阈值的预测结果将会被舍去;
Iou-thres表示预测框交并比阈值,高于预测框交并比阈值的两个预测框会被认为是同一个;
按照需求确定conf-thres和Iou-thres的值。
10.根据权利要求1所述的基于深度学习的仔猪***计数方法,其特征在于:同一仔猪的视频流中对应多帧图像,每张图像经过步骤S1-S4之后都会获得一个计数结果;对于同一只仔猪的多帧图像计数结果,取其众数作为该仔猪最后的***计数结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210199936.6A CN114550069B (zh) | 2022-03-01 | 2022-03-01 | 一种基于深度学习的仔猪***计数方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210199936.6A CN114550069B (zh) | 2022-03-01 | 2022-03-01 | 一种基于深度学习的仔猪***计数方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114550069A true CN114550069A (zh) | 2022-05-27 |
CN114550069B CN114550069B (zh) | 2022-10-21 |
Family
ID=81661255
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210199936.6A Active CN114550069B (zh) | 2022-03-01 | 2022-03-01 | 一种基于深度学习的仔猪***计数方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114550069B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117011804A (zh) * | 2023-09-28 | 2023-11-07 | 厦门农芯数字科技有限公司 | 高精度猪场栋舍盘估方法、***、设备及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110390263A (zh) * | 2019-06-17 | 2019-10-29 | 宁波江丰智能科技有限公司 | 一种视频图像处理方法及*** |
CN111260642A (zh) * | 2020-02-12 | 2020-06-09 | 上海联影医疗科技有限公司 | 一种图像定位方法、装置、设备和存储介质 |
CN111709287A (zh) * | 2020-05-15 | 2020-09-25 | 南京农业大学 | 基于深度学习的断奶仔猪目标跟踪方法 |
CN112819804A (zh) * | 2021-02-23 | 2021-05-18 | 西北工业大学 | 一种基于改进YOLOv5卷积神经网络的绝缘子缺陷检测方法 |
CN113344849A (zh) * | 2021-04-25 | 2021-09-03 | 山东师范大学 | 一种基于YOLOv5的微***检测*** |
CN113379699A (zh) * | 2021-06-08 | 2021-09-10 | 上海电机学院 | 基于深度学习的输电线路绝缘子缺陷检测方法 |
-
2022
- 2022-03-01 CN CN202210199936.6A patent/CN114550069B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110390263A (zh) * | 2019-06-17 | 2019-10-29 | 宁波江丰智能科技有限公司 | 一种视频图像处理方法及*** |
CN111260642A (zh) * | 2020-02-12 | 2020-06-09 | 上海联影医疗科技有限公司 | 一种图像定位方法、装置、设备和存储介质 |
CN111709287A (zh) * | 2020-05-15 | 2020-09-25 | 南京农业大学 | 基于深度学习的断奶仔猪目标跟踪方法 |
CN112819804A (zh) * | 2021-02-23 | 2021-05-18 | 西北工业大学 | 一种基于改进YOLOv5卷积神经网络的绝缘子缺陷检测方法 |
CN113344849A (zh) * | 2021-04-25 | 2021-09-03 | 山东师范大学 | 一种基于YOLOv5的微***检测*** |
CN113379699A (zh) * | 2021-06-08 | 2021-09-10 | 上海电机学院 | 基于深度学习的输电线路绝缘子缺陷检测方法 |
Non-Patent Citations (2)
Title |
---|
CHIA-YUN LI ET.AL: "Method for Detecting Boar Abdominal Characteristics based on Deep Learning", 《2021 IEEE INTERNATIONAL CONFERENCE ON CONSUMER ELECTRONICS-TAIWAN (ICCE-TW)》 * |
李世超: "面向移动拍摄平台的视频稳像方法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117011804A (zh) * | 2023-09-28 | 2023-11-07 | 厦门农芯数字科技有限公司 | 高精度猪场栋舍盘估方法、***、设备及存储介质 |
CN117011804B (zh) * | 2023-09-28 | 2023-12-26 | 厦门农芯数字科技有限公司 | 高精度猪场栋舍盘估方法、***、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN114550069B (zh) | 2022-10-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111178197B (zh) | 基于Mask R-CNN和Soft-NMS融合的群养粘连猪实例分割方法 | |
CN106960195B (zh) | 一种基于深度学习的人群计数方法及装置 | |
CN113920453A (zh) | 一种基于深度学习的猪只体尺体重估测方法 | |
CN109886978B (zh) | 一种基于深度学习的端到端告警信息识别方法 | |
CN113298023B (zh) | 一种基于深度学习及图像技术的昆虫动态行为识别方法 | |
CN110807775A (zh) | 基于人工智能的中医舌像分割装置、方法及存储介质 | |
CN112967255A (zh) | 一种基于深度学习的盾构管片缺陷类型识别及定位***及其方法 | |
CN112862849A (zh) | 一种基于图像分割和全卷积神经网络的田间稻穗计数方法 | |
CN113435407B (zh) | 一种输电***的小目标识别方法及装置 | |
CN112819796A (zh) | 烟丝异物识别方法及设备 | |
CN114550069B (zh) | 一种基于深度学习的仔猪***计数方法 | |
CN114581709A (zh) | 识别医学图像中的目标的模型训练、方法、设备及介质 | |
CN114040116B (zh) | 塑胶模材良品监测反馈*** | |
CN111985269A (zh) | 检测模型构建方法、检测方法、装置、服务器及介质 | |
CN113793385A (zh) | 鱼头鱼尾定位方法及装置 | |
CN113420636A (zh) | 一种基于深度学习与阈值分割的线虫识别方法 | |
CN108967246B (zh) | 虾苗定位方法 | |
CN113191229B (zh) | 一种害虫智能视觉检测方法 | |
CN115588150A (zh) | 基于改进YOLOv5-L的宠物犬视频目标检测方法及*** | |
CN114565538A (zh) | 一种内镜图像处理方法、***、存储介质及设备 | |
CN114757963A (zh) | 一种夜间复杂光照变化下的运动目标提取方法 | |
CN114120318A (zh) | 一种基于集成决策树的暗场图像目标点精确提取方法 | |
CN113989253A (zh) | 农田目标对象信息的获取方法及装置 | |
CN115713501B (zh) | 适用于摄像头模糊画面的检测处理方法及*** | |
CN117911409B (zh) | 一种基于机器视觉的手机屏坏线缺陷诊断方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |