CN111783772A - 一种基于RP-ResNet网络的抓取检测方法 - Google Patents
一种基于RP-ResNet网络的抓取检测方法 Download PDFInfo
- Publication number
- CN111783772A CN111783772A CN202010535619.8A CN202010535619A CN111783772A CN 111783772 A CN111783772 A CN 111783772A CN 202010535619 A CN202010535619 A CN 202010535619A CN 111783772 A CN111783772 A CN 111783772A
- Authority
- CN
- China
- Prior art keywords
- network
- resnet
- grabbing
- detection
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 21
- 230000004044 response Effects 0.000 claims description 7
- 238000011176 pooling Methods 0.000 claims description 6
- 230000004913 activation Effects 0.000 claims description 4
- 238000013528 artificial neural network Methods 0.000 claims description 3
- 230000006835 compression Effects 0.000 claims description 3
- 238000007906 compression Methods 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 abstract description 5
- 238000012545 processing Methods 0.000 abstract description 2
- 238000007781 pre-processing Methods 0.000 abstract 1
- 230000006870 function Effects 0.000 description 7
- 230000005284 excitation Effects 0.000 description 5
- 238000012549 training Methods 0.000 description 3
- 238000000034 method Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 238000001125 extrusion Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/043—Architecture, e.g. interconnection topology based on fuzzy logic, fuzzy membership or fuzzy inference, e.g. adaptive neuro-fuzzy inference systems [ANFIS]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/647—Three-dimensional objects by matching two-dimensional images to three-dimensional objects
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Molecular Biology (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Multimedia (AREA)
- Automation & Control Theory (AREA)
- Computational Mathematics (AREA)
- Fuzzy Systems (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Biodiversity & Conservation Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明属于计算机视觉领域,具体涉及机械臂抓取点的识别定位。基于PR‑ResNet网络的抓取检测方法,包括:目标物图像输入,数据预处理,RP‑ResNet网络模型进行数据处理,最终生成抓取目标的抓取框图。以模型ResNet‑50为基础,在网络的第30层使用区域建议网络,模糊定位抓取点位置,充分融合高低层的特征信息加强对底层次信息的利用,网络第40层加入SENet结构,进一步增加了抓取点检测的准确性。本发明的基于ResNet‑50的抓取检测框架,将残差网络、区域建议思想、SENet相结合,确保在实现目标快速检测的同时,进一步升目标检测的准确率。
Description
技术领域
本发明属于计算机视觉领域,具体涉及目标物抓取点的识别定位。
背景技术
机器人抓取包括感知、计划和控制。作为起点,准确而多样地检测机器人对目标的抓取候选对象,将有助于更好地规划抓取路径,提高基于抓取的操作任务的整体性能。
随着深度学习理论的发展,出现很多深层神经网络模型,每一种网络可通过设计不同的权重层数建立不同深度的网络模型。虽然更深的网络可能带来更高的精度,但会导致网络训练及检测的速度降低。由于残差结构并不增加模型参数,可有效地缓解深层网络训练的梯度消失和训练退化的问题,从而提升网络收敛性能。
发明内容
本发明的目的在于提供一种高精度目标检测识别框架,本发明的有益效果是具有充分融合深度神经网络高底层信息的特点,另外,它还在数据处理速度和检测精度上有明显的提高。
本发明所采用的技术方案是分阶段处理、融合ResNet-50网络数据。
第一阶,区域建议网络(RPN)的输入为一个卷积特征图,卷积响应图像按RPN的结果分割出感兴趣区域,对部分通道(每类的每个相对空间位置通道中)的感兴趣区域分成k×k个网格,每个网格平均池化,然后所有通道再平均池化。对1个大小为w×h的ROI,每个区域的大小为W/h×W/h,,最后1个卷积层为每类产生k2个分数图,ROI第(i,j)个子区域(0≤i,j≤k-1):
其中,rc(i,j)为第c类第(i,j)个bin的池化响应;zi,j,c为k2(C+1)个分数图中的输出;(x0,y0)为ROI的左上角坐标;n为bin里的像素总数;Θ为网络参数。
第二阶段,SENet模块增强抓取检测任务中关键通道的注意力,以提升检测准确度:
s=Fex(z,W)=σ(W2δ(W1,z)) (3)
其中,Fsq表示对特征图技能压缩,W×H表示二维特征图的大小,Fex表示对特征图济宁特征提取操作,z为输入的二维特征图转化的压缩特征向量,W1,W2为全连接层的权重,σ为sigmoid激活函数,为最终输出,并作为下一阶段的输入。
附图说明
图1是根据本发明实施例的RP-ResNet基本原理图。
图2是根据本发明实施例的区域建议网络原理图。
图3是根据本发明实施例的SENet增强模块原理图。
具体实施方式
下面结合附图和实施例对本发明的基于RP-ResNet网络抓取检测方法的原理步做出详细的阐述和介绍,以便本领域技术人员更好的理解本发明的技术思路和内涵,本领域的技术方案并不限于实施例所诉的具体内容。
本实施例的基于RP-ResNet网络的抓取检测方法,基本原理图如图1所示,具体包括:
1.首先使用Kinect深度相机获取目标物的深度信息和彩色图像信息。
2.将采集的目标物图像的像素大小调整为277*277,作为网络模型的输入,将处理后的图片输入到PR-ResNet网络中,提取图像特征。
在ResNet第30输入至区域建议网络(RPN)中,使用Ren S Q等人提出的为每个生成的框分配一个二进制标签,并使用该标签确定该框是否为目标。其中,在以下两种情况之一中具有正标记:1)具有特定框架或实际框架的最高交集和并集比率的框架。2)与实际框架的相交并集超过0.7个目标框架。联合比率小于0.3的真实框架标记是负面标签。多任务损失函数用于最小化目标函数。目标函数的组织如下:其中i表示一个小批量样本索引,pi表示小批量样本的索引i的目标概率;真是标签为0时表示负标签;ti表示预测边界的参数变化量;表示正标签小批量样本的索引i对应的真实框的坐标向量;Lcls和Lreg分别表示损失和回归损失,Ncls和Nreg表示归一化参数;λ表示平衡权重。
本专利使用一个k×k滑动窗口(RP-ResNet中使用3×3)扫描整个特征图,如图2所示,然后使用大小为1×1的卷积核对其进行卷积运算,得到一个2k(类别)通道的分数图和一个4k(边界框)通道的分数图。试验中小窗口对包含目标的窗口位置进行预测,使区域提议更准确。
根据RPN的结果将卷积响应图像划分出关注区域,对某些通道(在每个类别的相对空间位置的每个通道中)的关注区域分成k×k个网格,并且对每一个网格采取平均池化操作,然后所有通道再平均池化。对1个大小为w×h的ROI,每个区域的大小为W/h×W/h,,最后1个卷积层为每类产生k2个分数图,ROI第(i,j)个子区域(0≤i,j≤k-1),对于第C个类别的池化响应如式1所示。
其中,rc(i,j)为第c类第(i,j)个bin的池化响应;zi,j,c为k2(C+1)个分数图中的输出;(x0,y0)为ROI的左上角坐标;n为bin里的像素总数;Θ为网络参数。
我们将ROI中所有的抓取方案堆叠起来,然后将其递送到全连接层,送入下一级的残差网络中。
SENet网络如图3所示,ResNet网络第40层加入SENet网络采用挤压(Squeeze)、激励(Excitation)以及特征重标定(Scale)三个操作完成特征通道自适应校准。首先使用全局平均池化压缩每一个特征图,将C类特征图转换成1×1×C的实数数列,使每一个实数具有全局感受。然后通过两个卷积层完成降维与升维的操作,第一个卷积层将特征维度降低到原来的C/r后通过Relu激活函数增加非线性;第二个卷积层恢复原来的特征维度,经过Sigmoid函数得到归一化的权重,最后通过乘法逐通道加权到原来的特征通道上,对原始特征进行重标定。挤压、激励以及特征重标定如式2-4所示。
s=Fex(z,W)=σ(W2δ(W1,z)) (3)
其中,Fsq表示对特征图技能压缩,W×H表示二维特征图的大小,Fex表示对特征图济宁特征提取操作,z为输入的二维特征图转化的压缩特征向量,W1,W2为全连接层的权重,σ为sigmoid激活函数,为最终输出,并作为下一阶段的输入。
最终RP-ResNet网络输出目标物的抓取点信息。
利用深度神经网络低层特征语义信息弱,语义信息弱,目标位置清晰,而高层语义信息强,目标位置模糊的特点;在ResNet第30输入至区域建议网络(RPN)中,网络模型如图2所示,使用一个k×k滑动窗口(RP-ResNet中使用3×3)扫描整个特征图,然后使用大小为1×1的卷积核对其进行卷积运算,得到一个2k(类别)通道的分数图和一个4k(边界框)通道的分数图。试验中小窗口对包含目标的窗口位置进行预测,使区域提议更准确。
另一方面,通过通道注意力SENet结构,通过挤压(Squeeze)、激励(Excitation)以及特征重标定(Scale)三个操作完成特征通道自适应校准,建立特征通道之间的相互依赖关系,提升对抓取检测任务起积极作用的特征并抑制用处不大的特征,从而进一步提高检测准确率。
Claims (2)
1.基于RP-ResNet网络的抓取检测方法,其特征在于,包括:
分阶段处理、融合ResNet-50网络数据,使用区域建议网络(RPN)充分利用神经网络低层特征语义信息弱,目标位置清晰,而高层语义信息强,目标位置模糊的特点,使抓取建议更加准确;并通过通道注意力结构SENet结构,进一步提升建立特征通道之间的相互依赖关系,提升对抓取检测任务起积极作用的特征并抑制用处不大的特征,从而提高检测准确率进一步。
2.根据权利要求1所述的基于RP-ResNet网络的抓取检测方法,其特征在于:
第一阶,区域建议网络(RPN)的输入为一个卷积特征图,卷积响应图像按RPN的结果分割出感兴趣区域,对部分通道(每类的每个相对空间位置通道中)的感兴趣区域分成k×k个网格,每个网格平均池化,然后所有通道再平均池化;对1个大小为w×h的ROI,每个区域的大小为W/h×W/h,,最后1个卷积层为每类产生k2个分数图,ROI第(i,j)个子区域(0≤i,j≤k-1):
其中,rc(i,j)为第c类第(i,j)个bin的池化响应;zi,j,c为k2(C+1)个分数图中的输出;(x0,y0)为ROI的左上角坐标;n为bin里的像素总数;Θ为网络参数;
第二阶段,SENet模块增强抓取检测任务中关键通道的注意力,以提升检测准确度:
s=Fex(z,W)=σ(W2δ(W1,z)) (3)
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010535619.8A CN111783772A (zh) | 2020-06-12 | 2020-06-12 | 一种基于RP-ResNet网络的抓取检测方法 |
PCT/CN2021/097882 WO2021249255A1 (zh) | 2020-06-12 | 2021-06-02 | 一种基于RP-ResNet网络的抓取检测方法 |
US17/762,275 US20230186056A1 (en) | 2020-06-12 | 2021-06-02 | Grabbing detection method based on rp-resnet |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010535619.8A CN111783772A (zh) | 2020-06-12 | 2020-06-12 | 一种基于RP-ResNet网络的抓取检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111783772A true CN111783772A (zh) | 2020-10-16 |
Family
ID=72756212
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010535619.8A Pending CN111783772A (zh) | 2020-06-12 | 2020-06-12 | 一种基于RP-ResNet网络的抓取检测方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20230186056A1 (zh) |
CN (1) | CN111783772A (zh) |
WO (1) | WO2021249255A1 (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112686097A (zh) * | 2020-12-10 | 2021-04-20 | 天津中科智能识别产业技术研究院有限公司 | 一种人体图像关键点姿态估计方法 |
WO2021249255A1 (zh) * | 2020-06-12 | 2021-12-16 | 青岛理工大学 | 一种基于RP-ResNet网络的抓取检测方法 |
CN116168312A (zh) * | 2023-02-23 | 2023-05-26 | 兰州交通大学 | 复杂场景下端到端的ar辅助装配三维注册方法及*** |
CN117934820A (zh) * | 2024-03-22 | 2024-04-26 | 中国人民解放军海军航空大学 | 基于困难样本增强损失的红外目标识别方法 |
CN118071865A (zh) * | 2024-04-17 | 2024-05-24 | 英瑞云医疗科技(烟台)有限公司 | 一种脑梗ct到t1的医学图像跨模态合成方法及装置 |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114529713A (zh) * | 2022-01-14 | 2022-05-24 | 电子科技大学 | 一种基于深度学习的水下图像增强方法 |
CN114743045B (zh) * | 2022-03-31 | 2023-09-26 | 电子科技大学 | 一种基于双分支区域建议网络的小样本目标检测方法 |
CN114726692B (zh) * | 2022-04-27 | 2023-06-30 | 西安电子科技大学 | 一种基于SEResNet-LSTM的辐射源调制方式识别方法 |
CN115100148B (zh) * | 2022-06-23 | 2023-05-30 | 安徽省农业科学院农业经济与信息研究所 | 一种基于轻量型卷积神经网络的农作物害虫检测方法 |
CN115471482B (zh) * | 2022-09-20 | 2023-05-30 | 重庆理工大学 | 基于计算机视觉的小口径容器内壁缺陷检测方法 |
CN115993365B (zh) * | 2023-03-23 | 2023-06-13 | 山东省科学院激光研究所 | 一种基于深度学习的皮带缺陷检测方法及*** |
CN116563615B (zh) * | 2023-04-21 | 2023-11-07 | 南京讯思雅信息科技有限公司 | 基于改进多尺度注意力机制的不良图片分类方法 |
CN116673962B (zh) * | 2023-07-12 | 2024-03-19 | 安徽大学 | 一种基于Faster R-CNN和GRCNN的机械臂智能抓取方法及*** |
CN117067208A (zh) * | 2023-09-08 | 2023-11-17 | 无锡学院 | 一种柔性手抓取力的控制方法及控制*** |
CN117523181B (zh) * | 2023-12-29 | 2024-05-28 | 佛山科学技术学院 | 基于非结构化场景的多尺度物体抓取点检测方法及*** |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108509839A (zh) * | 2018-02-02 | 2018-09-07 | 东华大学 | 一种基于区域卷积神经网络高效的手势检测识别方法 |
CN109614985A (zh) * | 2018-11-06 | 2019-04-12 | 华南理工大学 | 一种基于密集连接特征金字塔网络的目标检测方法 |
CN110717532A (zh) * | 2019-09-27 | 2020-01-21 | 广东工业大学 | 基于SE-RetinaGrasp模型的机器人目标抓取区域实时检测方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108764063B (zh) * | 2018-05-07 | 2020-05-19 | 华中科技大学 | 一种基于特征金字塔的遥感影像时敏目标识别***及方法 |
CN110009614A (zh) * | 2019-03-29 | 2019-07-12 | 北京百度网讯科技有限公司 | 用于输出信息的方法和装置 |
CN111160249A (zh) * | 2019-12-30 | 2020-05-15 | 西北工业大学深圳研究院 | 基于跨尺度特征融合的光学遥感图像多类目标检测方法 |
CN111783772A (zh) * | 2020-06-12 | 2020-10-16 | 青岛理工大学 | 一种基于RP-ResNet网络的抓取检测方法 |
-
2020
- 2020-06-12 CN CN202010535619.8A patent/CN111783772A/zh active Pending
-
2021
- 2021-06-02 WO PCT/CN2021/097882 patent/WO2021249255A1/zh active Application Filing
- 2021-06-02 US US17/762,275 patent/US20230186056A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108509839A (zh) * | 2018-02-02 | 2018-09-07 | 东华大学 | 一种基于区域卷积神经网络高效的手势检测识别方法 |
CN109614985A (zh) * | 2018-11-06 | 2019-04-12 | 华南理工大学 | 一种基于密集连接特征金字塔网络的目标检测方法 |
CN110717532A (zh) * | 2019-09-27 | 2020-01-21 | 广东工业大学 | 基于SE-RetinaGrasp模型的机器人目标抓取区域实时检测方法 |
Non-Patent Citations (2)
Title |
---|
刘博翰: ""基于脑电信号的导联筛选及可解释情绪分类模型研究"", 《中国优秀硕士学位论文全文数据库 医药卫生科技辑》 * |
徐逸之 等: ""基于全卷积网络的高分辨遥感影像目标检测"", 《测绘通报》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021249255A1 (zh) * | 2020-06-12 | 2021-12-16 | 青岛理工大学 | 一种基于RP-ResNet网络的抓取检测方法 |
CN112686097A (zh) * | 2020-12-10 | 2021-04-20 | 天津中科智能识别产业技术研究院有限公司 | 一种人体图像关键点姿态估计方法 |
CN116168312A (zh) * | 2023-02-23 | 2023-05-26 | 兰州交通大学 | 复杂场景下端到端的ar辅助装配三维注册方法及*** |
CN116168312B (zh) * | 2023-02-23 | 2023-09-08 | 兰州交通大学 | 复杂场景下端到端的ar辅助装配三维注册方法及*** |
CN117934820A (zh) * | 2024-03-22 | 2024-04-26 | 中国人民解放军海军航空大学 | 基于困难样本增强损失的红外目标识别方法 |
CN118071865A (zh) * | 2024-04-17 | 2024-05-24 | 英瑞云医疗科技(烟台)有限公司 | 一种脑梗ct到t1的医学图像跨模态合成方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
WO2021249255A1 (zh) | 2021-12-16 |
US20230186056A1 (en) | 2023-06-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111783772A (zh) | 一种基于RP-ResNet网络的抓取检测方法 | |
WO2021244079A1 (zh) | 智能家居环境中图像目标检测方法 | |
CN109584248B (zh) | 基于特征融合和稠密连接网络的红外面目标实例分割方法 | |
CN108564097B (zh) | 一种基于深度卷积神经网络的多尺度目标检测方法 | |
CN111462120B (zh) | 一种基于语义分割模型缺陷检测方法、装置、介质及设备 | |
CN110930454A (zh) | 一种基于边界框外关键点定位的六自由度位姿估计算法 | |
CN112541532B (zh) | 基于密集连接结构的目标检测方法 | |
CN109284779A (zh) | 基于深度全卷积网络的物体检测方法 | |
CN112364931A (zh) | 基于元特征和权重调整的少样本目标检测方法及网络模型 | |
CN113420643B (zh) | 基于深度可分离空洞卷积的轻量级水下目标检测方法 | |
CN111368637B (zh) | 一种基于多掩模卷积神经网络的搬运机器人识别目标方法 | |
CN112784869B (zh) | 一种基于注意力感知与对抗学习的细粒度图像识别方法 | |
CN113971764B (zh) | 一种基于改进YOLOv3的遥感图像小目标检测方法 | |
CN111753682A (zh) | 一种基于目标检测算法的吊装区域动态监控方法 | |
CN115439458A (zh) | 基于深度图注意力的工业图像缺陷目标检测算法 | |
CN114565048A (zh) | 基于自适应特征融合金字塔网络的三阶段害虫图像识别方法 | |
CN117252904B (zh) | 基于长程空间感知与通道增强的目标跟踪方法与*** | |
CN115984662B (zh) | 一种多模态数据预训练及识别方法、装置、设备及介质 | |
CN111242026A (zh) | 一种基于空间层次感知模块和度量学习的遥感图像目标检测方法 | |
CN113496480A (zh) | 一种焊缝图像缺陷的检测方法 | |
CN112364974A (zh) | 一种基于激活函数改进的YOLOv3算法 | |
CN114120045B (zh) | 一种基于多门控混合专家模型的目标检测方法和装置 | |
CN116912796A (zh) | 一种基于新型动态级联YOLOv8的自动驾驶目标识别方法及装置 | |
CN115393631A (zh) | 基于贝叶斯层图卷积神经网络的高光谱图像分类方法 | |
WO2024078112A1 (zh) | 一种舾装件智能识别方法、计算机设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |