CN113011415A - 基于Grid R-CNN模型改进的目标检测方法及*** - Google Patents

基于Grid R-CNN模型改进的目标检测方法及*** Download PDF

Info

Publication number
CN113011415A
CN113011415A CN202011343605.2A CN202011343605A CN113011415A CN 113011415 A CN113011415 A CN 113011415A CN 202011343605 A CN202011343605 A CN 202011343605A CN 113011415 A CN113011415 A CN 113011415A
Authority
CN
China
Prior art keywords
anchor frame
grid
anchor
image
cnn model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011343605.2A
Other languages
English (en)
Inventor
刘嵩
周梓涵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qilu University of Technology
Original Assignee
Qilu University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qilu University of Technology filed Critical Qilu University of Technology
Priority to CN202011343605.2A priority Critical patent/CN113011415A/zh
Publication of CN113011415A publication Critical patent/CN113011415A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/245Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于Grid R‑CNN模型改进的目标检测方法及***,包括:获取待检测的目标图像,对所述图像进行图像复杂度处理,然后分配到不同的特征提取网络进行特征图的提取;对于提取的特征图,利用网格引导定位来确定锚框的位置;基于锚框位置,结合形状预测来动态确定锚框的形状,位置和形状确定有锚分支的锚框;将所述有锚分支的锚框与FSAF分支并行处理,得到更加准确的锚框;基于得到的锚框,利用级联检测器进行目标的分类和定位。本发明有益效果:本发明对图像进行复杂度处理,根据特征图复杂度所属的阈值范围特征提取网络的层数,能够提高特征提取的准确度。位置预测与形状预测相结合,通过不断提高检测器的阈值,提高了锚框的准确度。

Description

基于Grid R-CNN模型改进的目标检测方法及***
技术领域
本发明涉及目标检测技术领域,尤其涉及一种基于Grid R-CNN(网格区域卷积神经网络)模型改进的目标检测方法及***。
背景技术
本部分的陈述仅仅是提供了与本发明相关的背景技术信息,不必然构成在先技术。
随着计算机运算速度的提升,人工智能技术在多个领域不断取得新的成果。深度学习作为最重要的人工智能技术之一是机器学习和人工智能研究的最新趋势之一。
目标检测是计算机视觉领域要解决的基础任务之一,目标检测的目的是为了确定图像或视频中目标物体所在的位置以及目标的种类。随着对机器学习理论技术的研究,近十几年来对特定类目标的检测取得了很好的成果。但是现实的环境是复杂多样的,在检测目标的时候会遇到很多难题。随着深度学习概念的提出,对目标检测的研究也不再局限于对某类目标的检测,而是延伸到对多类目标的检测。
随着深度神经网络的提出,目标检测有了进一步的发展,总体划分为两种方法,基于锚框的目标检测方法和无锚的目标检测方法。基于锚框的方法是在图像上预设大量用于预测的锚点,并对这些锚点进行进一步的细化,最后得到准确的检测结果。无锚的方法是使用对象的中心点或中心区域来确定目标的位置。
随着图片复杂度的提升以及图片中包含信息的增加,目标检测也越来越困难,将目标准确的定位与分类更是目标检测的重中之重。
现有的目标检测方法虽然做到了端到端的训练,提高了目标检测的性能。但是普遍会产生大量的锚框,由于其锚框的尺寸是固定的,但是检测的目标物体的大小是不固定的,就会造成无法准确的检测极端大小的物体的问题。
Grid R-CNN是目前比较优秀的目标检测算法。虽然Grid R-CNN在锚框形状的确定方面做了一定的改进,但是该方法产生的锚框还是无法准确的标定出目标物体。并且在检测器方面Grid R-CNN使用了单一的IOU阈值的检测器进行检测,这样可能存在无法更加准确的定位锚框的问题。
发明内容
为了解决上述问题,本发明提出了一种基于Grid R-CNN模型改进的目标检测方法及***。在该方法中,使用GA-RPN中的形状预测方法来代替Grid R-CNN的锚框预测,从而可以得到更加准确的锚框形状。同时,为解决重叠锚框选择问题,采用FSAF分支,与Grid R-CNN有锚分支并行做极大值抑制,从而选择出合适的锚框。
在本方法的实施方式中,采用如下技术方案:
一种基于Grid R-CNN模型改进的目标检测方法,包括:
获取待检测的目标图像,对所述图像进行图像复杂度处理,然后分配到不同的特征提取网络进行特征图的提取;
对于提取的特征图,利用网格引导定位来确定锚框的位置;
基于锚框位置,结合形状预测来动态确定锚框的形状,位置和形状确定有锚分支的锚框;
将所述有锚分支的锚框与FSAF分支并行处理,得到更加准确的锚框;
基于得到的锚框,利用级联检测器进行目标的分类和定位。
在另一些实施方式中,采用如下技术方案:
一种基于Grid R-CNN模型改进的目标检测***,包括:
用于获取待检测的目标图像,对所述图像进行图像复杂度处理,然后分配到不同的特征提取网络进行特征图的提取的模块;
用于对于提取的特征图,利用网格引导定位来确定锚框的位置的模块;
用于基于锚框位置,结合形状预测来动态确定有锚分支的锚框的模块;
用于将所述有锚分支的锚框与FSAF分支并行处理,得到更加准确的锚框的模块;
用于基于得到的锚框,利用级联检测器进行目标的分类和定位的模块。
在另一些实施方式中,采用如下技术方案:
一种终端设备,其包括处理器和计算机可读存储介质,处理器用于实现各指令;计算机可读存储介质用于存储多条指令,所述指令适于由处理器加载并执行上述的基于GridR-CNN模型改进的目标检测方法。
在另一些实施方式中,采用如下技术方案:
一种计算机可读存储介质,其中存储有多条指令,所述指令适于由终端设备的处理器加载并执行上述的基于Grid R-CNN模型改进的目标检测方法。
与现有技术相比,本发明的有益效果是:
(1)本发明对图像进行复杂度处理,根据特征图复杂度所属的阈值范围特征提取网络的层数,能够提高特征提取的准确度。
(2)本发明用GA-RPN的形状预测方法来代替Grid R-CNN的锚框预测,GA-RPN的锚框形状预测方法不改变锚框的位置,可以最大程度的保证锚框位置的准确性;具有动态尺寸的锚框可以更好的对极高或极宽的对象进行预测,从而可以得到更加准确的锚框形状。
(3)本发明使用FSAF分支的无锚方式对实例进行编码,利用输出预测和有锚分支进行并行处理,两个分支协同工作,以达到自动选择最佳feature的目的。
(4)本发明使用了Cascade R-CNN的级联检测方法,将上一阶段的输出作为下一阶段的输入,通过不断提高的阈值来得到更好的检测结果。
本发明的其他特征和附加方面的优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本方面的实践了解到。
附图说明
图1为本发明实施例中基于Grid R-CNN模型改进的目标检测方法流程图。
图2为本发明实施例中级联检测器方法图。
具体实施方式
应该指出,以下详细说明都是例示性的,旨在对本申请提供进一步的说明。除非另有指明,本发明使用的所有技术和科学术语具有与本申请所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本申请的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
实施例一
在一个或多个实施方式中,公开了一种基于Grid R-CNN模型改进的目标检测方法,如图1所示,包括以下步骤:
(1)获取待检测的目标图像,对所述图像进行图像复杂度处理,然后分配到不同的特征提取网络进行特征图的提取;
具体地,首先计算需检测图片的图像复杂度,特征图复杂度计算方法如下:
Figure BDA0002799257850000051
其中,C表示图像纹理复杂度,z表示灰度,p(zi)表示z的直方图,L表示不同灰度级的数量,m表示z的均值,是i表示占有的所有个体数量。
特征提取是在输入的图片上,提取到图像中可能存在目标物体的所有可能的的信息。由于图像复杂度各不相同,不同复杂度的图像需要不同尺度的特征提取网络。
本实施例中,根据图像复杂度所属的阈值范围确定进行特征提取的网络层数。复杂度较高的图片进入网络层数较多的处理网络,复杂度较低的图片进入网络层数较少的处理网络。
(2)根据提取的特征图利用网格引导定位来确定锚框的位置。
本实施例中,需要在提取的众多候选区域中,标出尽可能准确的锚框。锚框是以每个像素为中心生成多个长宽比和大小都不相同的边界框,它是由一个像素点的坐标结合长度和宽度来确定的。
首先,我们使用Grid R-CNN中提出的网格引导定位,来确定锚框的位置;具体为:
Figure BDA0002799257850000052
Figure BDA0002799257850000061
其中,(Hx,Hy)是由网格预测分支输出的热图上的像素坐标,(Ix,Iy)是原始图像上的坐标,(Px,Py)是输入图像左上角的坐标,wp和hp是候选区域的长和款,w0和h0是热图中输出的长和宽。
(3)基于锚框位置,结合形状预测来动态确定锚框的形状,位置和形状确定有锚分支的锚框;
利用GA-RPN的形状预测方法来动态确定锚框形状;形状预测不是预定义固定尺寸的锚框,而是动态可变的,在确定的位置上有一个动态的锚框。具有动态尺寸的锚框可以更好的进行预测。使用GA-RPN中的形状预测方法来确定每个位置上的形状。
GA-RPN的锚框形状预测方法不改变锚框的位置,可以最大程度的保证锚框位置的准确性。
本实施例用GA-RPN的形状预测方法来代替Grid R-CNN的锚框预测,从而可以得到更加准确的锚框形状。
由于Grid R-CNN的锚框确定方法不足以精确的定位目标物体的边界,所以本实施例提出利用GA-RPN的形状预测来确定锚框的形状。形状预测不是预定义固定尺寸的锚框,而是动态可变的,在确定的位置上有一个动态的锚框。具有动态尺寸的锚框可以更好的对极高或极宽的对象进行预测。
GA-RPN的锚框形状预测方法不改变锚框的位置,可以最大程度的保证锚框位置的准确性,这是与传统的边界盒回归的不同。形状预测具体是要预测锚框的长度h和宽度w,由于h和w的数值范围比较大,直接预测这两个数值是很困难的,所以本实施例将h和w进行转换。计算公式如下:
w=σ·s·edw,h=σ·s·edh
其中,s是步长,σ是经验比例因子,dw和dh是(w,h)的映射。通过上述公式将取值[0,1000]转换为[-1,1],缩小了取值空间,使得学习的目标更加容易。
在具体设计中使用一个子网络Ns来进行形状预测,这是一个包含dw和dh值的双通道1×1卷积层。
由于尺寸的动态的任意的,形状预测有更高的召回率,可以更好地对极宽或极高的对象进行预测。
(4)根据确定的有锚分支的锚框,与FSAF分支并行处理,选择更加准确的锚框;
将FSAF无锚分支与锚框引导定位的有锚分支进行并行处理,使用FSAF分支在基于锚框的分支的基础上,额外添加了两个无锚的卷积层(conv),使得有锚分支和无锚分支联合工作,选择最佳的锚框。
(5)根据确定的更加准确的锚框,利用级联检测器进行目标的分类和定位。
利用Cascade R-CNN的级联方法,通过级联多个检测器模块,训练每个检测器模型,设置三个阶段不断提高的IOU阈值,由上一个阶段检测器输出的锚框作为下一阶段池化的输入,通过不断提高的阈值得到更好的检测效果。
如图2所示,第一阶段是骨干网络处理,然后使用提取头网络(N0)产生初步的预测。第二阶段是候选区域提取网络子网络(N1)对提取头网络(N0)产生的预测结果(Bbox0)进行处理。第三阶段和第四阶段在重复第二阶段的基础上,将感兴趣区域子网络替换为N2和N3。公式(1)为级联检测器的损失公式。级联的主要目的是通过调整边界框,给下阶段找到一个IOU更高的正样本来训练。通过不断提高的IOU阈值来提高检测器的性能。
L(xt,g)=Lcls(ht(xt),yt)+λ[yt≥1]Lloc(ft(xt,bt),g) (1)
其中,bt=ft-1(xt-1,bt-1),g是xt的基本真值对象,λ权衡系数,[·]指示函数,yt是xt的标签。
实施例二
在一个或多个实施方式中,公开了一种基于Grid R-CNN模型改进的目标检测***,包括:
用于获取待检测的目标图像,对所述图像进行图像复杂度处理,然后分配到不同的特征提取网络进行特征图的提取的模块;
用于对于提取的特征图,利用网格引导定位来确定锚框的位置的模块;
用于基于锚框位置,结合形状预测来动态确定有锚分支的锚框的模块;
用于将所述有锚分支的锚框与FSAF分支并行处理,得到更加准确的锚框的模块;
用于基于得到的锚框,利用级联检测器进行目标的分类和定位的模块。
需要说明的是,上述模块的具体工作过程与实施例一中公开的方法相同,不再赘述。
实施例三
在一个或多个实施方式中,公开了一种终端设备,包括服务器,所述服务器包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现实施例一中的基于Grid R-CNN模型改进的目标检测方法。为了简洁,在此不再赘述。
应理解,本实施例中,处理器可以是中央处理单元CPU,处理器还可以是其他通用处理器、数字信号处理器DSP、专用集成电路ASIC,现成可编程门阵列FPGA或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
存储器可以包括只读存储器和随机存取存储器,并向处理器提供指令和数据、存储器的一部分还可以包括非易失性随机存储器。例如,存储器还可以存储设备类型的信息。
在实现过程中,上述方法的各步骤可以通过处理器中的硬件的集成逻辑电路或者软件形式的指令完成。
实施例一中的基于Grid R-CNN模型改进的目标检测方法可以直接体现为硬件处理器执行完成,或者用处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器、闪存、只读存储器、可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器,处理器读取存储器中的信息,结合其硬件完成上述方法的步骤。为避免重复,这里不再详细描述。
本领域普通技术人员可以意识到,结合本实施例描述的各示例的单元即算法步骤,能够以电子硬件或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
实施例四
在一个或多个实施方式中,公开了一种计算机可读存储介质,其中存储有多条指令,所述指令适于由终端设备的处理器加载并实施例一中所述的基于Grid R-CNN模型改进的目标检测方法。
上述虽然结合附图对本发明的具体实施方式进行了描述,但并非对本发明保护范围的限制,所属领域技术人员应该明白,在本发明的技术方案的基础上,本领域技术人员不需要付出创造性劳动即可做出的各种修改或变形仍在本发明的保护范围以内。

Claims (9)

1.一种基于Grid R-CNN模型改进的目标检测方法,其特征在于,包括:
获取待检测的目标图像,对所述图像进行图像复杂度处理,然后分配到不同的特征提取网络进行特征图的提取;
对于提取的特征图,利用网格引导定位来确定锚框的位置;
基于锚框位置,结合形状预测来动态确定锚框的形状,位置和形状确定有锚分支的锚框;
将所述有锚分支的锚框与FSAF分支并行处理,得到更加准确的锚框;
基于得到的锚框,利用级联检测器进行目标的分类和定位。
2.如权利要求1所述的一种基于Grid R-CNN模型改进的目标检测方法,其特征在于,对所述图像进行图像复杂度处理,具体过程包括:
计算需检测图片的复杂度,根据图像的复杂度所属的阈值范围确定特征提取的网络层数,将不同复杂度的图片输入不同层数的特征提取网络。
3.如权利要求1所述的一种基于Grid R-CNN模型改进的目标检测方法,其特征在于,利用网格引导定位来确定锚框的位置,具体过程为:
利用全卷积网络来预测预定义网格点的位置,在生成的网格点中选取概率值最大的一个点,作为预测锚框的位置定位。
4.如权利要求1所述的一种基于Grid R-CNN模型改进的目标检测方法,其特征在于,基于锚框位置,结合形状预测来动态确定有锚分支的锚框,具体包括:
利用GA-RPN的形状预测方法来动态确定锚框形状;所述锚框的尺寸动态可变。
5.如权利要求1所述的一种基于Grid R-CNN模型改进的目标检测方法,其特征在于,将所述有锚分支的锚框与FSAF分支并行处理,具体包括:
在所述有锚分支的基础上,额外添加两个无锚的卷积层,分别用于负责分支的分类和回归的预测。
6.如权利要求1所述的一种基于Grid R-CNN模型改进的目标检测方法,其特征在于,基于得到的锚框,利用级联检测器进行目标的分类和定位,具体过程为:
利用Cascade R-CNN的级联方法,通过级联多个检测器模块,训练每个检测器模型,设置三个阶段不断提高的IOU阈值,由上一个阶段检测器输出的锚框作为下一阶段池化的输入,通过不断提高的阈值得到更好的检测效果。
7.一种基于Grid R-CNN模型改进的目标检测***,其特征在于,包括:
用于获取待检测的目标图像,对所述图像进行图像复杂度处理,然后分配到不同的特征提取网络进行特征图的提取的模块;
用于对于提取的特征图,利用网格引导定位来确定锚框的位置的模块;
用于基于锚框位置,结合形状预测来动态确定有锚分支的锚框的模块;
用于将所述有锚分支的锚框与FSAF分支并行处理,得到更加准确的锚框的模块;
用于基于得到的锚框,利用级联检测器进行目标的分类和定位的模块。
8.一种终端设备,其包括处理器和计算机可读存储介质,处理器用于实现各指令;计算机可读存储介质用于存储多条指令,其特征在于,所述指令适于由处理器加载并执行权利要求1-6任一项所述的基于Grid R-CNN模型改进的目标检测方法。
9.一种计算机可读存储介质,其中存储有多条指令,其特征在于,所述指令适于由终端设备的处理器加载并执行权利要求1-6任一项所述的基于Grid R-CNN模型改进的目标检测方法。
CN202011343605.2A 2020-11-25 2020-11-25 基于Grid R-CNN模型改进的目标检测方法及*** Pending CN113011415A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011343605.2A CN113011415A (zh) 2020-11-25 2020-11-25 基于Grid R-CNN模型改进的目标检测方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011343605.2A CN113011415A (zh) 2020-11-25 2020-11-25 基于Grid R-CNN模型改进的目标检测方法及***

Publications (1)

Publication Number Publication Date
CN113011415A true CN113011415A (zh) 2021-06-22

Family

ID=76383213

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011343605.2A Pending CN113011415A (zh) 2020-11-25 2020-11-25 基于Grid R-CNN模型改进的目标检测方法及***

Country Status (1)

Country Link
CN (1) CN113011415A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113435302A (zh) * 2021-06-23 2021-09-24 中国农业大学 一种基于GridR-CNN的水培生菜幼苗状态检测方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200151564A1 (en) * 2018-11-12 2020-05-14 Honda Motor Co., Ltd. System and method for multi-agent reinforcement learning with periodic parameter sharing
CN111178196A (zh) * 2019-12-19 2020-05-19 东软集团股份有限公司 一种细胞分类的方法、装置及设备
CN111950612A (zh) * 2020-07-30 2020-11-17 中国科学院大学 基于fpn的融合因子的弱小目标检测方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200151564A1 (en) * 2018-11-12 2020-05-14 Honda Motor Co., Ltd. System and method for multi-agent reinforcement learning with periodic parameter sharing
CN111178196A (zh) * 2019-12-19 2020-05-19 东软集团股份有限公司 一种细胞分类的方法、装置及设备
CN111950612A (zh) * 2020-07-30 2020-11-17 中国科学院大学 基于fpn的融合因子的弱小目标检测方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
CHENCHEN ZHU ET AL.: "Feature Selective Anchor-Free Module for Single-Shot Object Detection", 《ARXIV:1903.00621V1 [CS.CV]》 *
JIAQI WANG ET AL.: "Region Proposal by Guided Anchoring", 《ARXIV:1901.03278V1 [CS.CV]》 *
XIN LU ET AL.: "Grid R-CNN", 《ARXIV:1811.12030V1 [CS.CV]》 *
ZHAOWEI CAI ET AL.: "Cascade R-CNN: Delving into High Quality Object Detection", 《ARXIV:1712.00726V1 [CS.CV]》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113435302A (zh) * 2021-06-23 2021-09-24 中国农业大学 一种基于GridR-CNN的水培生菜幼苗状态检测方法
CN113435302B (zh) * 2021-06-23 2023-10-17 中国农业大学 一种基于GridR-CNN的水培生菜幼苗状态检测方法

Similar Documents

Publication Publication Date Title
CN110400332B (zh) 一种目标检测跟踪方法、装置及计算机设备
CN110991311B (zh) 一种基于密集连接深度网络的目标检测方法
CN110796048B (zh) 一种基于深度神经网络的船舰目标实时检测方法
CN110781756A (zh) 基于遥感图像的城市道路提取方法及装置
CN111753682B (zh) 一种基于目标检测算法的吊装区域动态监控方法
CN111627050B (zh) 一种目标跟踪模型的训练方法和装置
CN113095418B (zh) 一种目标检测方法及***
CN114897779A (zh) 基于融合注意力的宫颈细胞学图像异常区域定位方法及装置
CN112419202B (zh) 基于大数据及深度学习的野生动物图像自动识别***
CN113487610B (zh) 疱疹图像识别方法、装置、计算机设备和存储介质
CN113807361B (zh) 神经网络、目标检测方法、神经网络训练方法及相关产品
CN113592060A (zh) 一种神经网络优化方法以及装置
CN112183649A (zh) 一种用于对金字塔特征图进行预测的算法
CN111461145A (zh) 一种基于卷积神经网络进行目标检测的方法
CN115187530A (zh) 超声自动乳腺全容积图像的识别方法、装置、终端及介质
CN112348116A (zh) 利用空间上下文的目标检测方法、装置和计算机设备
CN116486288A (zh) 基于轻量级密度估计网络的航拍目标计数与检测方法
CN111523463A (zh) 基于匹配-回归网络的目标跟踪方法及训练方法
CN115578616A (zh) 多尺度物体实例分割模型的训练方法、分割方法和装置
CN115187786A (zh) 一种基于旋转的CenterNet2目标检测方法
CN113554656B (zh) 基于图神经网络的光学遥感图像实例分割方法及装置
CN113763412A (zh) 图像处理方法、装置及电子设备、计算机可读存储介质
CN113011415A (zh) 基于Grid R-CNN模型改进的目标检测方法及***
CN113256683A (zh) 目标跟踪方法及相关设备
CN111914809A (zh) 目标对象定位方法、图像处理方法、装置和计算机设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination