CN111783772A - 一种基于RP-ResNet网络的抓取检测方法 - Google Patents

一种基于RP-ResNet网络的抓取检测方法 Download PDF

Info

Publication number
CN111783772A
CN111783772A CN202010535619.8A CN202010535619A CN111783772A CN 111783772 A CN111783772 A CN 111783772A CN 202010535619 A CN202010535619 A CN 202010535619A CN 111783772 A CN111783772 A CN 111783772A
Authority
CN
China
Prior art keywords
network
resnet
grabbing
detection
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010535619.8A
Other languages
English (en)
Inventor
赵景波
邱腾飞
朱敬旭辉
刘信潮
张晓寒
张文彬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qingdao University of Technology
Original Assignee
Qingdao University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qingdao University of Technology filed Critical Qingdao University of Technology
Priority to CN202010535619.8A priority Critical patent/CN111783772A/zh
Publication of CN111783772A publication Critical patent/CN111783772A/zh
Priority to PCT/CN2021/097882 priority patent/WO2021249255A1/zh
Priority to US17/762,275 priority patent/US20230186056A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/043Architecture, e.g. interconnection topology based on fuzzy logic, fuzzy membership or fuzzy inference, e.g. adaptive neuro-fuzzy inference systems [ANFIS]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Computational Mathematics (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明属于计算机视觉领域,具体涉及机械臂抓取点的识别定位。基于PR‑ResNet网络的抓取检测方法,包括:目标物图像输入,数据预处理,RP‑ResNet网络模型进行数据处理,最终生成抓取目标的抓取框图。以模型ResNet‑50为基础,在网络的第30层使用区域建议网络,模糊定位抓取点位置,充分融合高低层的特征信息加强对底层次信息的利用,网络第40层加入SENet结构,进一步增加了抓取点检测的准确性。本发明的基于ResNet‑50的抓取检测框架,将残差网络、区域建议思想、SENet相结合,确保在实现目标快速检测的同时,进一步升目标检测的准确率。

Description

一种基于RP-ResNet网络的抓取检测方法
技术领域
本发明属于计算机视觉领域,具体涉及目标物抓取点的识别定位。
背景技术
机器人抓取包括感知、计划和控制。作为起点,准确而多样地检测机器人对目标的抓取候选对象,将有助于更好地规划抓取路径,提高基于抓取的操作任务的整体性能。
随着深度学习理论的发展,出现很多深层神经网络模型,每一种网络可通过设计不同的权重层数建立不同深度的网络模型。虽然更深的网络可能带来更高的精度,但会导致网络训练及检测的速度降低。由于残差结构并不增加模型参数,可有效地缓解深层网络训练的梯度消失和训练退化的问题,从而提升网络收敛性能。
发明内容
本发明的目的在于提供一种高精度目标检测识别框架,本发明的有益效果是具有充分融合深度神经网络高底层信息的特点,另外,它还在数据处理速度和检测精度上有明显的提高。
本发明所采用的技术方案是分阶段处理、融合ResNet-50网络数据。
第一阶,区域建议网络(RPN)的输入为一个卷积特征图,卷积响应图像按RPN的结果分割出感兴趣区域,对部分通道(每类的每个相对空间位置通道中)的感兴趣区域分成k×k个网格,每个网格平均池化,然后所有通道再平均池化。对1个大小为w×h的ROI,每个区域的大小为W/h×W/h,,最后1个卷积层为每类产生k2个分数图,ROI第(i,j)个子区域(0≤i,j≤k-1):
Figure BDA0002536950770000011
其中,rc(i,j)为第c类第(i,j)个bin的池化响应;zi,j,c为k2(C+1)个分数图中的输出;(x0,y0)为ROI的左上角坐标;n为bin里的像素总数;Θ为网络参数。
第二阶段,SENet模块增强抓取检测任务中关键通道的注意力,以提升检测准确度:
Figure BDA0002536950770000021
s=Fex(z,W)=σ(W2δ(W1,z)) (3)
Figure BDA0002536950770000022
其中,Fsq表示对特征图技能压缩,W×H表示二维特征图的大小,Fex表示对特征图济宁特征提取操作,z为输入的二维特征图转化的压缩特征向量,W1,W2为全连接层的权重,σ为sigmoid激活函数,
Figure BDA0002536950770000023
为最终输出,并作为下一阶段的输入。
附图说明
图1是根据本发明实施例的RP-ResNet基本原理图。
图2是根据本发明实施例的区域建议网络原理图。
图3是根据本发明实施例的SENet增强模块原理图。
具体实施方式
下面结合附图和实施例对本发明的基于RP-ResNet网络抓取检测方法的原理步做出详细的阐述和介绍,以便本领域技术人员更好的理解本发明的技术思路和内涵,本领域的技术方案并不限于实施例所诉的具体内容。
本实施例的基于RP-ResNet网络的抓取检测方法,基本原理图如图1所示,具体包括:
1.首先使用Kinect深度相机获取目标物的深度信息和彩色图像信息。
2.将采集的目标物图像的像素大小调整为277*277,作为网络模型的输入,将处理后的图片输入到PR-ResNet网络中,提取图像特征。
在ResNet第30输入至区域建议网络(RPN)中,使用Ren S Q等人提出的为每个生成的框分配一个二进制标签,并使用该标签确定该框是否为目标。其中,在以下两种情况之一中具有正标记:1)具有特定框架或实际框架的最高交集和并集比率的框架。2)与实际框架的相交并集超过0.7个目标框架。联合比率小于0.3的真实框架标记是负面标签。多任务损失函数用于最小化目标函数。目标函数的组织如下:
Figure BDA0002536950770000031
其中i表示一个小批量样本索引,pi表示小批量样本的索引i的目标概率;真是标签
Figure BDA0002536950770000032
为0时表示负标签;ti表示预测边界的参数变化量;
Figure BDA0002536950770000033
表示正标签小批量样本的索引i对应的真实框的坐标向量;Lcls和Lreg分别表示损失和回归损失,Ncls和Nreg表示归一化参数;λ表示平衡权重。
本专利使用一个k×k滑动窗口(RP-ResNet中使用3×3)扫描整个特征图,如图2所示,然后使用大小为1×1的卷积核对其进行卷积运算,得到一个2k(类别)通道的分数图和一个4k(边界框)通道的分数图。试验中小窗口对包含目标的窗口位置进行预测,使区域提议更准确。
根据RPN的结果将卷积响应图像划分出关注区域,对某些通道(在每个类别的相对空间位置的每个通道中)的关注区域分成k×k个网格,并且对每一个网格采取平均池化操作,然后所有通道再平均池化。对1个大小为w×h的ROI,每个区域的大小为W/h×W/h,,最后1个卷积层为每类产生k2个分数图,ROI第(i,j)个子区域(0≤i,j≤k-1),对于第C个类别的池化响应如式1所示。
Figure BDA0002536950770000034
其中,rc(i,j)为第c类第(i,j)个bin的池化响应;zi,j,c为k2(C+1)个分数图中的输出;(x0,y0)为ROI的左上角坐标;n为bin里的像素总数;Θ为网络参数。
我们将ROI中所有的抓取方案堆叠起来,然后将其递送到全连接层,送入下一级的残差网络中。
SENet网络如图3所示,ResNet网络第40层加入SENet网络采用挤压(Squeeze)、激励(Excitation)以及特征重标定(Scale)三个操作完成特征通道自适应校准。首先使用全局平均池化压缩每一个特征图,将C类特征图转换成1×1×C的实数数列,使每一个实数具有全局感受。然后通过两个卷积层完成降维与升维的操作,第一个卷积层将特征维度降低到原来的C/r后通过Relu激活函数增加非线性;第二个卷积层恢复原来的特征维度,经过Sigmoid函数得到归一化的权重,最后通过乘法逐通道加权到原来的特征通道上,对原始特征进行重标定。挤压、激励以及特征重标定如式2-4所示。
Figure BDA0002536950770000041
s=Fex(z,W)=σ(W2δ(W1,z)) (3)
Figure BDA0002536950770000043
其中,Fsq表示对特征图技能压缩,W×H表示二维特征图的大小,Fex表示对特征图济宁特征提取操作,z为输入的二维特征图转化的压缩特征向量,W1,W2为全连接层的权重,σ为sigmoid激活函数,
Figure BDA0002536950770000042
为最终输出,并作为下一阶段的输入。
最终RP-ResNet网络输出目标物的抓取点信息。
利用深度神经网络低层特征语义信息弱,语义信息弱,目标位置清晰,而高层语义信息强,目标位置模糊的特点;在ResNet第30输入至区域建议网络(RPN)中,网络模型如图2所示,使用一个k×k滑动窗口(RP-ResNet中使用3×3)扫描整个特征图,然后使用大小为1×1的卷积核对其进行卷积运算,得到一个2k(类别)通道的分数图和一个4k(边界框)通道的分数图。试验中小窗口对包含目标的窗口位置进行预测,使区域提议更准确。
另一方面,通过通道注意力SENet结构,通过挤压(Squeeze)、激励(Excitation)以及特征重标定(Scale)三个操作完成特征通道自适应校准,建立特征通道之间的相互依赖关系,提升对抓取检测任务起积极作用的特征并抑制用处不大的特征,从而进一步提高检测准确率。

Claims (2)

1.基于RP-ResNet网络的抓取检测方法,其特征在于,包括:
分阶段处理、融合ResNet-50网络数据,使用区域建议网络(RPN)充分利用神经网络低层特征语义信息弱,目标位置清晰,而高层语义信息强,目标位置模糊的特点,使抓取建议更加准确;并通过通道注意力结构SENet结构,进一步提升建立特征通道之间的相互依赖关系,提升对抓取检测任务起积极作用的特征并抑制用处不大的特征,从而提高检测准确率进一步。
2.根据权利要求1所述的基于RP-ResNet网络的抓取检测方法,其特征在于:
第一阶,区域建议网络(RPN)的输入为一个卷积特征图,卷积响应图像按RPN的结果分割出感兴趣区域,对部分通道(每类的每个相对空间位置通道中)的感兴趣区域分成k×k个网格,每个网格平均池化,然后所有通道再平均池化;对1个大小为w×h的ROI,每个区域的大小为W/h×W/h,,最后1个卷积层为每类产生k2个分数图,ROI第(i,j)个子区域(0≤i,j≤k-1):
Figure FDA0002536950760000011
其中,rc(i,j)为第c类第(i,j)个bin的池化响应;zi,j,c为k2(C+1)个分数图中的输出;(x0,y0)为ROI的左上角坐标;n为bin里的像素总数;Θ为网络参数;
第二阶段,SENet模块增强抓取检测任务中关键通道的注意力,以提升检测准确度:
Figure FDA0002536950760000012
s=Fex(z,W)=σ(W2δ(W1,z)) (3)
Figure FDA0002536950760000013
其中,Fsq表示对特征图技能压缩,W×H表示二维特征图的大小,Fex表示对特征图济宁特征提取操作,z为输入的二维特征图转化的压缩特征向量,W1,W2为全连接层的权重,σ为sigmoid激活函数,
Figure FDA0002536950760000014
为最终输出,并作为下一阶段的输入。
CN202010535619.8A 2020-06-12 2020-06-12 一种基于RP-ResNet网络的抓取检测方法 Pending CN111783772A (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202010535619.8A CN111783772A (zh) 2020-06-12 2020-06-12 一种基于RP-ResNet网络的抓取检测方法
PCT/CN2021/097882 WO2021249255A1 (zh) 2020-06-12 2021-06-02 一种基于RP-ResNet网络的抓取检测方法
US17/762,275 US20230186056A1 (en) 2020-06-12 2021-06-02 Grabbing detection method based on rp-resnet

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010535619.8A CN111783772A (zh) 2020-06-12 2020-06-12 一种基于RP-ResNet网络的抓取检测方法

Publications (1)

Publication Number Publication Date
CN111783772A true CN111783772A (zh) 2020-10-16

Family

ID=72756212

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010535619.8A Pending CN111783772A (zh) 2020-06-12 2020-06-12 一种基于RP-ResNet网络的抓取检测方法

Country Status (3)

Country Link
US (1) US20230186056A1 (zh)
CN (1) CN111783772A (zh)
WO (1) WO2021249255A1 (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112686097A (zh) * 2020-12-10 2021-04-20 天津中科智能识别产业技术研究院有限公司 一种人体图像关键点姿态估计方法
WO2021249255A1 (zh) * 2020-06-12 2021-12-16 青岛理工大学 一种基于RP-ResNet网络的抓取检测方法
CN116168312A (zh) * 2023-02-23 2023-05-26 兰州交通大学 复杂场景下端到端的ar辅助装配三维注册方法及***
CN117934820A (zh) * 2024-03-22 2024-04-26 中国人民解放军海军航空大学 基于困难样本增强损失的红外目标识别方法
CN118071865A (zh) * 2024-04-17 2024-05-24 英瑞云医疗科技(烟台)有限公司 一种脑梗ct到t1的医学图像跨模态合成方法及装置

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114529713A (zh) * 2022-01-14 2022-05-24 电子科技大学 一种基于深度学习的水下图像增强方法
CN114743045B (zh) * 2022-03-31 2023-09-26 电子科技大学 一种基于双分支区域建议网络的小样本目标检测方法
CN114726692B (zh) * 2022-04-27 2023-06-30 西安电子科技大学 一种基于SEResNet-LSTM的辐射源调制方式识别方法
CN115100148B (zh) * 2022-06-23 2023-05-30 安徽省农业科学院农业经济与信息研究所 一种基于轻量型卷积神经网络的农作物害虫检测方法
CN115471482B (zh) * 2022-09-20 2023-05-30 重庆理工大学 基于计算机视觉的小口径容器内壁缺陷检测方法
CN115993365B (zh) * 2023-03-23 2023-06-13 山东省科学院激光研究所 一种基于深度学习的皮带缺陷检测方法及***
CN116563615B (zh) * 2023-04-21 2023-11-07 南京讯思雅信息科技有限公司 基于改进多尺度注意力机制的不良图片分类方法
CN116673962B (zh) * 2023-07-12 2024-03-19 安徽大学 一种基于Faster R-CNN和GRCNN的机械臂智能抓取方法及***
CN117067208A (zh) * 2023-09-08 2023-11-17 无锡学院 一种柔性手抓取力的控制方法及控制***
CN117523181B (zh) * 2023-12-29 2024-05-28 佛山科学技术学院 基于非结构化场景的多尺度物体抓取点检测方法及***

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108509839A (zh) * 2018-02-02 2018-09-07 东华大学 一种基于区域卷积神经网络高效的手势检测识别方法
CN109614985A (zh) * 2018-11-06 2019-04-12 华南理工大学 一种基于密集连接特征金字塔网络的目标检测方法
CN110717532A (zh) * 2019-09-27 2020-01-21 广东工业大学 基于SE-RetinaGrasp模型的机器人目标抓取区域实时检测方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108764063B (zh) * 2018-05-07 2020-05-19 华中科技大学 一种基于特征金字塔的遥感影像时敏目标识别***及方法
CN110009614A (zh) * 2019-03-29 2019-07-12 北京百度网讯科技有限公司 用于输出信息的方法和装置
CN111160249A (zh) * 2019-12-30 2020-05-15 西北工业大学深圳研究院 基于跨尺度特征融合的光学遥感图像多类目标检测方法
CN111783772A (zh) * 2020-06-12 2020-10-16 青岛理工大学 一种基于RP-ResNet网络的抓取检测方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108509839A (zh) * 2018-02-02 2018-09-07 东华大学 一种基于区域卷积神经网络高效的手势检测识别方法
CN109614985A (zh) * 2018-11-06 2019-04-12 华南理工大学 一种基于密集连接特征金字塔网络的目标检测方法
CN110717532A (zh) * 2019-09-27 2020-01-21 广东工业大学 基于SE-RetinaGrasp模型的机器人目标抓取区域实时检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
刘博翰: ""基于脑电信号的导联筛选及可解释情绪分类模型研究"", 《中国优秀硕士学位论文全文数据库 医药卫生科技辑》 *
徐逸之 等: ""基于全卷积网络的高分辨遥感影像目标检测"", 《测绘通报》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021249255A1 (zh) * 2020-06-12 2021-12-16 青岛理工大学 一种基于RP-ResNet网络的抓取检测方法
CN112686097A (zh) * 2020-12-10 2021-04-20 天津中科智能识别产业技术研究院有限公司 一种人体图像关键点姿态估计方法
CN116168312A (zh) * 2023-02-23 2023-05-26 兰州交通大学 复杂场景下端到端的ar辅助装配三维注册方法及***
CN116168312B (zh) * 2023-02-23 2023-09-08 兰州交通大学 复杂场景下端到端的ar辅助装配三维注册方法及***
CN117934820A (zh) * 2024-03-22 2024-04-26 中国人民解放军海军航空大学 基于困难样本增强损失的红外目标识别方法
CN118071865A (zh) * 2024-04-17 2024-05-24 英瑞云医疗科技(烟台)有限公司 一种脑梗ct到t1的医学图像跨模态合成方法及装置

Also Published As

Publication number Publication date
WO2021249255A1 (zh) 2021-12-16
US20230186056A1 (en) 2023-06-15

Similar Documents

Publication Publication Date Title
CN111783772A (zh) 一种基于RP-ResNet网络的抓取检测方法
WO2021244079A1 (zh) 智能家居环境中图像目标检测方法
CN109584248B (zh) 基于特征融合和稠密连接网络的红外面目标实例分割方法
CN108564097B (zh) 一种基于深度卷积神经网络的多尺度目标检测方法
CN111462120B (zh) 一种基于语义分割模型缺陷检测方法、装置、介质及设备
CN110930454A (zh) 一种基于边界框外关键点定位的六自由度位姿估计算法
CN112541532B (zh) 基于密集连接结构的目标检测方法
CN109284779A (zh) 基于深度全卷积网络的物体检测方法
CN112364931A (zh) 基于元特征和权重调整的少样本目标检测方法及网络模型
CN113420643B (zh) 基于深度可分离空洞卷积的轻量级水下目标检测方法
CN111368637B (zh) 一种基于多掩模卷积神经网络的搬运机器人识别目标方法
CN112784869B (zh) 一种基于注意力感知与对抗学习的细粒度图像识别方法
CN113971764B (zh) 一种基于改进YOLOv3的遥感图像小目标检测方法
CN111753682A (zh) 一种基于目标检测算法的吊装区域动态监控方法
CN115439458A (zh) 基于深度图注意力的工业图像缺陷目标检测算法
CN114565048A (zh) 基于自适应特征融合金字塔网络的三阶段害虫图像识别方法
CN117252904B (zh) 基于长程空间感知与通道增强的目标跟踪方法与***
CN115984662B (zh) 一种多模态数据预训练及识别方法、装置、设备及介质
CN111242026A (zh) 一种基于空间层次感知模块和度量学习的遥感图像目标检测方法
CN113496480A (zh) 一种焊缝图像缺陷的检测方法
CN112364974A (zh) 一种基于激活函数改进的YOLOv3算法
CN114120045B (zh) 一种基于多门控混合专家模型的目标检测方法和装置
CN116912796A (zh) 一种基于新型动态级联YOLOv8的自动驾驶目标识别方法及装置
CN115393631A (zh) 基于贝叶斯层图卷积神经网络的高光谱图像分类方法
WO2024078112A1 (zh) 一种舾装件智能识别方法、计算机设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination