CN113592871B - 一种基于分割监督的机器人物体抓取检测方法 - Google Patents
一种基于分割监督的机器人物体抓取检测方法 Download PDFInfo
- Publication number
- CN113592871B CN113592871B CN202110775767.1A CN202110775767A CN113592871B CN 113592871 B CN113592871 B CN 113592871B CN 202110775767 A CN202110775767 A CN 202110775767A CN 113592871 B CN113592871 B CN 113592871B
- Authority
- CN
- China
- Prior art keywords
- grabbing
- network
- grabbed
- segmentation
- loss function
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 42
- 230000011218 segmentation Effects 0.000 title claims abstract description 36
- 238000000034 method Methods 0.000 claims abstract description 20
- 230000006870 function Effects 0.000 claims description 42
- 238000012549 training Methods 0.000 claims description 23
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000010276 construction Methods 0.000 claims description 3
- 238000011478 gradient descent method Methods 0.000 claims description 3
- 238000005457 optimization Methods 0.000 claims description 3
- 238000005303 weighing Methods 0.000 claims description 3
- 238000004458 analytical method Methods 0.000 abstract description 4
- 238000004904 shortening Methods 0.000 abstract description 2
- 241000282414 Homo sapiens Species 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000013100 final test Methods 0.000 description 1
- 238000003875 gradient-accelerated spectroscopy Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20104—Interactive definition of region of interest [ROI]
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于分割监督的机器人物体抓取检测方法,该方法首先构建检测网络,包括主干网络、分割分支和抓取分支;将图像输入主干网络,输出图像特征;再将图像特征分别输入分割分支和抓取分支,由分割分支得到待抓取物体的中心点和最小内接矩形;由抓取分支获得多个抓取框,再结合待抓取物体的中心点和最小内接矩形,得到最优的抓取框。本发明方法可以缩小抓取检测范围,相比于一些通过提取ROI来缩小抓握检测的范围的方法,本发明方法更加精细,更加接近于物体轮廓,达到增强抓取位置的细节分析,提高抓取精度。对于各种机器人抓取任务具有十分重要的意义。
Description
技术领域
本发明属于计算机视觉技术领域,具体涉及一种机器人物体抓取检测方法。
背景技术
伴随着信息技术与控制技术的发展,机器人在工业制造、医疗协助以及社会服务等场景中扮演了十分重要的角色。而抓取物体是应用最为广泛的机器人作业任务,也是机器人操作中最具挑战性的技术之一。通过在机械臂末端安装各式操作夹具,机器人可实现对日常物体的抓取操作,能够应用于流水线分拣、家庭服务等领域。
抓取操作是否成功的关键在于是否得到一个准确的抓取位置。早期的抓取检测研究是基于分析法,即通过分析的几何以及物理特性,手工设计特征来实现最佳抓取点选择,虽然对特定的物体提高了抓取的准确度,但是手工设计特征既麻烦又耗时,而且泛化能力差、通用性不强。近年来,深度学习在各个领域展现了很强的特征提取能力。越来越多的研究者应用深度学习于抓取检测任务。同时采用五维矩形框的策略用于物体抓取,其中包括以下参数:抓取矩形框的中心点坐标,夹具的原始宽度和张开距离,以及旋转角度。进而将抓取检测的描述方式转化为类似于目标检测的预测框表示。有所不同的是,目标检测方法通常只输出一个独有的预测框来表达物体的检测位置和类别。但是对于被抓取的物体来说这是不适用的,因为一个物体通常不会只有一个可抓取的位置。而现有的方法通常给出多个离散的抓取矩形区域作为正确输出,但此表示方法会导致过多假阳性抓取,造成实际抓取失败。以人类经验而言,人类在拾取一个常规物体时,往往会选择物体的中心(质心)附近部位抓取,这是符合逻辑的,因为抓取物体的中心部位比两端会更稳重。而现有的方法均没有考虑到此类问题,这也是造成实际抓取失败的原因之一。
发明内容
为了克服现有技术的不足,本发明提供了一种基于分割监督的机器人物体抓取检测方法,该方法首先构建检测网络,包括主干网络、分割分支和抓取分支;将图像输入主干网络,输出图像特征;再将图像特征分别输入分割分支和抓取分支,由分割分支得到待抓取物体的中心点和最小内接矩形;由抓取分支获得多个抓取框,再结合待抓取物体的中心点和最小内接矩形,得到最优的抓取框。本发明方法可以缩小抓取检测范围,相比于一些通过提取ROI来缩小抓握检测的范围的方法,本发明方法更加精细,更加接近于物体轮廓,达到增强抓取位置的细节分析,提高抓取精度。对于各种机器人抓取任务具有十分重要的意义。
本发明解决其技术问题所采用的技术方案包括如下步骤:
步骤1:检测网络构建;
所述检测网络包括主干网络、分割分支和抓取分支;
步骤1-1:所述主干网络为U-Net结构,输入为待抓取物体图像,输出为待抓取物体图像的特征;
步骤1-2:所述分割分支为polar mask分割网络的Head部分,将主干网络输出的图像特征输入分割分支,分割分支的输出为待抓取物体的中心点;以待抓取物体的中心点均匀发射n条射线,相邻射线之间的夹角相等,均为Δθ,将射线与待抓取物体轮廓的交点顺序连接,得到待抓取物体的分割mask,对分割mask进行拟合,得到待抓取物体的最小内接矩形;
步骤1-3:所述抓取分支为AlexNet,将主干网络输出的图像特征输入抓取分支,抓取分支的输出为多个针对待抓取物体的抓取框,每个抓取框中心点位置作为该抓取框的参数;将每个抓取框与待抓取物体的最小内接矩形采用标准Jaccard衡量指标计算重合度,若重合度小于设定的重合度阈值,则舍弃该抓取框;若重合度大于等于设定的重合度阈值,则保留该抓取框;
计算保留的每个抓取框中心点到待抓取物体中心点的欧式距离,得到置信度得分yscores:
式中i表示物体的第i个抓取框,k表示抓取框的总个数,si表示第i个抓取框中心点到待抓取物体中心点的欧氏距离;
若有多个置信度大于1的抓取框出现,则均视为合格抓取框,随机挑选一个进行抓取;
步骤2:定义网络损失函数;
步骤2-1:分割支路总的损失函数为Lseg:
其中x,y表示图像像素点坐标,Lcls为focal loss,表示正样本数,px,y表示预测类别的概率,/>表示坐标x,y位置的类别标签;Lmask_loss表示polar mask分割网络的损失,该损失函数表示对特征图上所有位置计算求和;λ为分割mask loss任务的平衡权重;为指标函数,如果/>该指标函数为1,否则为0;
步骤2-2:对于抓取网络选择L2范数作为损失函数,损失函数设置如下:
其中,表示抓取位置损失函数,/>表示抓取尺寸损失函数,/>表示抓取角度损失函数,/>表示预测得分损失函数;i表示特征映射上的第i个特征序号,/>和/>分别表示抓取位置、抓取的尺寸、抓取角度、预测得分的预测值和真实值;
总的抓取网络损失函数为:
其中,N表示特征图中的特征数量,α,β,ω,γ∈[0,1]表示各个损失函数的重要性权重;
步骤2-3:对于整个检测网络,总的损失函数为:
Lall=ρLgrasp+σLseg (8)其中,ρ,σ∈[0,1]表示各个损失函数的重要性权重;
步骤3:网络训练;
采用公开抓取数据集为训练样本,对检测网络整体进行训练,使检测网络总的损失函数最小,训练完成得到最终的检测网络;
步骤4:将待抓取物体图像输入最终的检测网络,输出结果为最优抓取框。
优选地,所述n=8,Δθ=45。
优选地,所述检测网络进行训练时初始学习速率设置为0.001,参数优化采用动量为0.9的随机梯度下降法,权重衰减为0.001;训练过程共进行5万次迭代,迭代第2万次和第4万次分别将学习速率缩小10倍。
本发明的有益效果如下:
1、本发明能够通过分割支路网络缩小抓取检测范围,相比于一些通过提取ROI来缩小抓握检测的范围的方法,本发明方法更加精细,更加接近于物体轮廓,达到增强抓取位置的细节分析,提高抓取精度。
2、本发明能够模拟人类的抓取习惯,选择接近物体中心(质心)附近的抓取框,提高实际抓取操作的成功率。
附图说明
图1为本发明检测网络框架图。
图2为本发明提出的分割支路多得到的结果;
图3为本发明抓取支路处理示意图;
图4为本发明抓取支路的模拟人类抓取习性的示意图;
具体实施方式
下面结合附图和实施例对本发明进一步说明。
本发明的目的在于弥补现有抓取表示方式在实际测试上可靠性和准确率上的不足,提供一种基于分割监督的机器人物体抓取检测方法,并在此方法上进行各类实际机器人抓取任务。
一种基于分割监督的机器人物体抓取检测方法,包括如下步骤:
步骤1:检测网络构建;
如图1所示,所述检测网络包括主干网络、分割分支和抓取分支;
步骤1-1:所述主干网络为U-Net结构,输入为待抓取物体图像,输出为待抓取物体图像的特征;
步骤1-2:所述分割分支为polar mask分割网络的Head部分,将主干网络输出的图像特征输入分割分支,分割分支的输出为待抓取物体的中心点;以待抓取物体的中心点均匀发射n条射线,相邻射线之间的夹角相等,均为Δθ,将射线与待抓取物体轮廓的交点顺序连接,得到待抓取物体的分割mask,对分割mask进行拟合,得到待抓取物体的最小内接矩形;
通过该矩形可获得抓取所需要的位置和角度。同时,将物体的抓取点尽可能落入物体内部,以防止假阳性抓取框的出现。利用分割监督网络将很大程度的提高抓取精度,并且可以实现端到端的多物体的抓取。通过实验验证了在射线数n=8将会获得最好的抓取结果。
步骤1-3:所述抓取分支为AlexNet,将主干网络输出的图像特征输入抓取分支,抓取分支的输出为多个针对待抓取物体的抓取框,每个抓取框中心点位置作为该抓取框的参数;将每个抓取框与待抓取物体的最小内接矩形采用标准Jaccard衡量指标计算重合度,若重合度小于设定的重合度阈值,则舍弃该抓取框;若重合度大于等于设定的重合度阈值,则保留该抓取框;
虽然对于普遍的物体都可以直接通过分割网络的分支来后期预处理获得抓取参数,但是在抓取中一个物体可能有多个抓取位置,在很多算法中会出现模糊位置,这会给网络的训练带来难度;如附图3所示,两个框重叠,在训练时会寻找最近的抓取位置作为回归标准,以虚线所示,因此最后按照附图3的方式来获取抓取参数,每一个框中的回归参数将统一为该框中心点位置的抓取参数,因为四个框没有重叠位置,则不会出现模糊位置。
在抓取任务中有另一个问题是很值得关注,虽然每个物体都提供了多个标准的抓取框,但是在实际抓取中,一般物体的几何中心(或中心附近)才是最理想的抓取位置,而其他位置(例如头部和尾部)往往可能会抓不牢而导致抓取失败。为了解决该问题,本发明抓取网络输出增加了置信度参数,在最终的测试中将选取置信度最高的位置作为最佳的抓取位置。训练中置信度参数的设置方式附图4所示。
计算保留的每个抓取框中心点到待抓取物体中心点的欧式距离,得到置信度得分yscores:
式中i表示物体的第i个抓取框,k表示抓取框的总个数,si表示第i个抓取框中心点到待抓取物体中心点的欧氏距离;
若有多个置信度大于1的抓取框出现,则均视为合格抓取框,随机挑选一个进行抓取;
步骤2:定义网络损失函数;
步骤2-1:分割支路总的损失函数为Lseg:
其中x,y表示图像像素点坐标,Lcls为focal loss,表示正样本数,px,y表示预测类别的概率,/>表示坐标x,y位置的类别标签;Lmask_loss表示polar mask分割网络的损失,该损失函数表示对特征图上所有位置计算求和;λ为分割mask loss任务的平衡权重;/>为指标函数,如果/>该指标函数为1,否则为0;
步骤2-2:对于抓取网络选择L2范数作为损失函数,损失函数设置如下:
其中,表示抓取位置损失函数,/>表示抓取尺寸损失函数,/>表示抓取角度损失函数,/>表示预测得分损失函数;i表示特征映射上的第i个特征序号,/>和/>分别表示抓取位置、抓取的尺寸、抓取角度、预测得分的预测值和真实值;
总的抓取网络损失函数为:
其中,N表示特征图中的特征数量,α,β,ω,γ∈[0,1]表示各个损失函数的重要性权重;
步骤2-3:对于整个检测网络,总的损失函数为:
Lall=ρLgrasp+σLseg (8)
其中,ρ,σ∈[0,1]表示各个损失函数的重要性权重;
步骤3:网络训练;
采用公开抓取数据集为训练样本,对检测网络整体进行训练,使检测网络总的损失函数最小,训练完成得到最终的检测网络;
采用Comell Grasp Dataset公开抓取数据集为训练样本,该数据集包含886张带有抓取框标注的样本图片。模型训练和测试均在Nvidia GeForce RTX 2080Ti上进行并进行整体训练。在训练过程中,每一批次处理16幅图像,初始学习速率设置为0.001,参数优化采用动量为0.9的随机梯度下降法,权重衰减为0.001。训练过程共进行5万次迭代,迭代第2万次和第4万次分别将学习速率缩小10倍。通过改变饱和度、曝光度和色调,对训练图像进行数据扩充,考虑旋转角度与分类结果直接相关,数据扩充时并不改变其旋转角度。
步骤4:将待抓取物体图像输入最终的检测网络,输出结果为最优抓取框。
Claims (3)
1.一种基于分割监督的机器人物体抓取检测方法,其特征在于,包括以下步骤:
步骤1:检测网络构建;
所述检测网络包括主干网络、分割分支和抓取分支;
步骤1-1:所述主干网络为U-Net结构,输入为待抓取物体图像,输出为待抓取物体图像的特征;
步骤1-2:所述分割分支为polar mask分割网络的Head部分,将主干网络输出的图像特征输入分割分支,分割分支的输出为待抓取物体的中心点;以待抓取物体的中心点均匀发射n条射线,相邻射线之间的夹角相等,均为Δθ,将射线与待抓取物体轮廓的交点顺序连接,得到待抓取物体的分割mask,对分割mask进行拟合,得到待抓取物体的最小内接矩形;
步骤1-3:所述抓取分支为AlexNet,将主干网络输出的图像特征输入抓取分支,抓取分支的输出为多个针对待抓取物体的抓取框,每个抓取框中心点位置作为该抓取框的参数;将每个抓取框与待抓取物体的最小内接矩形采用标准Jaccard衡量指标计算重合度,若重合度小于设定的重合度阈值,则舍弃该抓取框;若重合度大于等于设定的重合度阈值,则保留该抓取框;
计算保留的每个抓取框中心点到待抓取物体中心点的欧式距离,得到置信度得分yscores:
式中i表示物体的第i个抓取框,k表示抓取框的总个数,si表示第i个抓取框中心点到待抓取物体中心点的欧氏距离;
若有多个置信度大于1的抓取框出现,则均视为合格抓取框,随机挑选一个进行抓取;
步骤2:定义网络损失函数;
步骤2-1:分割支路总的损失函数为Lseg:
其中x,y表示图像像素点坐标,Lcls为focalloss,表示正样本数,px,y表示预测类别的概率,/>表示坐标x,y位置的类别标签;Lmask_loss表示polar mask分割网络的损失,该损失函数表示对特征图上所有位置计算求和;λ为分割mask loss任务的平衡权重;/>为指标函数,如果/>该指标函数为1,否则为0;
步骤2-2:对于抓取网络选择L2范数作为损失函数,损失函数设置如下:
其中,表示抓取位置损失函数,/>表示抓取尺寸损失函数,/>表示抓取角度损失函数,/>表示预测得分损失函数;i表示特征映射上的第i个特征序号,和/>分别表示抓取位置、抓取的尺寸、抓取角度、预测得分的预测值和真实值;
总的抓取网络损失函数为:
其中,N表示特征图中的特征数量,α,β,ω,γ∈[0,1]表示各个损失函数的重要性权重;
步骤2-3:对于整个检测网络,总的损失函数为:
Lall=ρLgrasp+σLseg (8)
其中,ρ,σ∈[0,1]表示各个损失函数的重要性权重;
步骤3:网络训练;
采用公开抓取数据集为训练样本,对检测网络整体进行训练,使检测网络总的损失函数最小,训练完成得到最终的检测网络;
步骤4:将待抓取物体图像输入最终的检测网络,输出结果为最优抓取框。
2.根据权利要求1所述的一种基于分割监督的机器人物体抓取检测方法,其特征在于,所述n=8,Δθ=45。
3.根据权利要求1所述的一种基于分割监督的机器人物体抓取检测方法,其特征在于,所述检测网络进行训练时初始学习速率设置为0.001,参数优化采用动量为0.9的随机梯度下降法,权重衰减为0.001;训练过程共进行5万次迭代,迭代第2万次和第4万次分别将学习速率缩小10倍。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110775767.1A CN113592871B (zh) | 2021-07-09 | 2021-07-09 | 一种基于分割监督的机器人物体抓取检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110775767.1A CN113592871B (zh) | 2021-07-09 | 2021-07-09 | 一种基于分割监督的机器人物体抓取检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113592871A CN113592871A (zh) | 2021-11-02 |
CN113592871B true CN113592871B (zh) | 2024-05-28 |
Family
ID=78246680
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110775767.1A Active CN113592871B (zh) | 2021-07-09 | 2021-07-09 | 一种基于分割监督的机器人物体抓取检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113592871B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116197885B (zh) * | 2021-11-28 | 2023-11-24 | 梅卡曼德(北京)机器人科技有限公司 | 基于压叠检测的图像数据过滤方法、装置、设备和介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110106724A (ko) * | 2010-03-23 | 2011-09-29 | 고려대학교 산학협력단 | 로보틱 그래스퍼 장치 및 제어 방법 |
CN110442728A (zh) * | 2019-06-28 | 2019-11-12 | 天津大学 | 基于word2vec汽车产品领域的情感词典构建方法 |
CN111695562A (zh) * | 2020-05-26 | 2020-09-22 | 浙江工业大学 | 一种基于卷积神经网络的机器人自主抓取方法 |
WO2021056705A1 (zh) * | 2019-09-23 | 2021-04-01 | 平安科技(深圳)有限公司 | 基于语义分割网络的人体外表损伤检测方法及相关设备 |
-
2021
- 2021-07-09 CN CN202110775767.1A patent/CN113592871B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110106724A (ko) * | 2010-03-23 | 2011-09-29 | 고려대학교 산학협력단 | 로보틱 그래스퍼 장치 및 제어 방법 |
CN110442728A (zh) * | 2019-06-28 | 2019-11-12 | 天津大学 | 基于word2vec汽车产品领域的情感词典构建方法 |
WO2021056705A1 (zh) * | 2019-09-23 | 2021-04-01 | 平安科技(深圳)有限公司 | 基于语义分割网络的人体外表损伤检测方法及相关设备 |
CN111695562A (zh) * | 2020-05-26 | 2020-09-22 | 浙江工业大学 | 一种基于卷积神经网络的机器人自主抓取方法 |
Non-Patent Citations (2)
Title |
---|
基于非结构基本组成分析的自主抓取方法;刘汉伟;曹雏清;王永娟;机器人;20191231;第41卷(第005期);全文 * |
局部自主遥操作中的抓取构型识别研究;韩冬;黄攀峰;齐志刚;载人航天;20191231;第25卷(第005期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN113592871A (zh) | 2021-11-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111259930B (zh) | 自适应注意力指导机制的一般性目标检测方法 | |
CN109447078A (zh) | 一种自然场景图像敏感文字的检测识别方法 | |
CN109815801A (zh) | 基于深度学习的人脸识别方法及装置 | |
CN106503742B (zh) | 一种可见光图像绝缘子识别方法 | |
CN111898406B (zh) | 基于焦点损失和多任务级联的人脸检测方法 | |
CN111950453A (zh) | 一种基于选择性注意力机制的任意形状文本识别方法 | |
CN108564049A (zh) | 一种基于深度学习的快速人脸检测识别方法 | |
US12039733B2 (en) | Method for identifying individuals of oplegnathus punctatus based on convolutional neural network | |
CN114821014B (zh) | 基于多模态与对抗学习的多任务目标检测识别方法及装置 | |
CN110879982A (zh) | 一种人群计数***及方法 | |
TWI672637B (zh) | 自體免疫抗體免疫螢光影像型態識別方法 | |
CN107066964B (zh) | 一种快速协同表示人脸分类方法 | |
CN112633257A (zh) | 基于改良卷积神经网络的马铃薯病害识别方法 | |
CN113887410A (zh) | 一种基于深度学习的多类别食材识别***及方法 | |
CN114565048A (zh) | 基于自适应特征融合金字塔网络的三阶段害虫图像识别方法 | |
WO2023108873A1 (zh) | 一种脑网络和脑成瘾连接计算方法及装置 | |
CN109903339A (zh) | 一种基于多维融合特征的视频群体人物定位检测方法 | |
CN113592871B (zh) | 一种基于分割监督的机器人物体抓取检测方法 | |
US11804029B2 (en) | Hierarchical constraint (HC)-based method and system for classifying fine-grained graptolite images | |
WO2024032010A1 (zh) | 一种基于迁移学习策略的少样本目标实时检测方法 | |
CN110210380A (zh) | 基于表情识别与心理学测试生成性格的分析方法 | |
CN110837818A (zh) | 一种基于卷积神经网路的中华白海豚背鳍识别方法 | |
CN110727817A (zh) | 基于t-CNN的三维模型检索方法、终端设备及存储介质 | |
CN111860601B (zh) | 预测大型真菌种类的方法及装置 | |
CN112991281A (zh) | 视觉检测方法、***、电子设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |