CN113420839B - 用于堆叠平面目标物体的半自动标注方法及分割定位*** - Google Patents

用于堆叠平面目标物体的半自动标注方法及分割定位*** Download PDF

Info

Publication number
CN113420839B
CN113420839B CN202110964636.8A CN202110964636A CN113420839B CN 113420839 B CN113420839 B CN 113420839B CN 202110964636 A CN202110964636 A CN 202110964636A CN 113420839 B CN113420839 B CN 113420839B
Authority
CN
China
Prior art keywords
image
segmentation
deep learning
planar target
positioning system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110964636.8A
Other languages
English (en)
Other versions
CN113420839A (zh
Inventor
邬君
巩卫
邱建忠
赵炳彦
衣明东
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qilu University of Technology
Original Assignee
Qilu University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qilu University of Technology filed Critical Qilu University of Technology
Priority to CN202110964636.8A priority Critical patent/CN113420839B/zh
Publication of CN113420839A publication Critical patent/CN113420839A/zh
Application granted granted Critical
Publication of CN113420839B publication Critical patent/CN113420839B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

发明为解决现有计算机视觉技术不适用于堆叠目标场景以及深度学***面目标物体的半自动标注方法及分割定位***,属于人工智能技术领域。该方法包括图像采集、人工录入平面目标物体类别、训练深度学***面目标物体中最上层可抓取平面目标物体的分割定位以及深度学习数据标注的工作量。同时,该发明使普通员工也可进行深度学习模型的训练,大大增加了深度学习工业部署的灵活性,降低了深度学习部署的成本。

Description

用于堆叠平面目标物体的半自动标注方法及分割定位***
技术领域
本发明涉及人工智能技术领域,尤其涉及一种用于堆叠平面目标物体的半自动标注方法及分割定位***。
背景技术
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。其中,计算机视觉技术(CV,Computer Vision)是一门研究如何使机器“看”的科学,通常包括图像处理、图像识别、图像语义理解、图像检索、光学字符识别文字识别(OCR,Optical Character Recognition)等技术。而随着人工智能技术逐渐成熟,图像识别技术越来越广泛地应用到日常生活中,比如物品分选。
然而,现有的基于计算机视觉技术的物品分选操作,存在以下缺陷:
1.现在研究的堆叠目标分拣大多针对三维目标,采用3d相机。工业上对平面目标物体分拣目前仍停留在目标无堆叠的场景,因此对于堆叠的平面目标物体分拣,堆叠状态下的平面目标物体难以分割出上层平面目标物体仍是一个问题。
2.现阶段在工业上,深度学习的应用较为困难,深度学习需要大量的图像标注,需要很大的成本,而且需要专业的AI工程师才能进行模型训练迭代,比如增加一种新的目标。
发明内容
本发明为解决现有计算机视觉技术不适用于堆叠目标场景以及深度学***面目标物体的半自动标注方法及分割定位***,通过半自动标注与训练,有效解决了堆叠状态下的平面目标物体中最上层可抓取平面目标物体的分割定位以及深度学习数据标注的工作量。同时,该发明使普通员工也可进行深度学习模型的训练,大大增加了深度学习工业部署的灵活性,降低了深度学习部署的成本。
本发明采用的技术方案是:
用于堆叠平面目标物体的半自动标注方法,所述方法包括:
步骤S1,分割定位***采集第一图像和第二图像;第一图像对应一个平面目标物体,第二图像对应多个堆叠状态下的平面目标物体;
步骤S2,所述分割定位***接收人工录入的第一信息;第一信息与第一图像对应,其用于标记第一图像中的平面目标物体的类别;
步骤S3,所述分割定位***通过第一信息和第二图像训练多个深度学***面目标物体的类别信息和位姿信息;所述分割定位***保留得分最高的深度学习模型;
步骤S4,所述分割定位***采集实时的第三图像;第三图像对应实时的多个堆叠状态下的平面目标物体;
步骤S5,所述分割定位***通过得分最高的深度学习模型对第三图像进行实例分割和识别;
步骤S6,所述分割定位***输出第三图像中最上层平面目标物体的类别信息和位姿信息。
进一步地,所述步骤S3中,所述分割定位***训练深度学习模型时包含以下步骤:
步骤S31,所述分割定位***对第一图像进行图像分割处理,提取出平面目标物体前景并得到平面目标物体前景的像素坐标信息;
步骤S32,所述分割定位***将第二图像作为新背景,将平面目标物体前景作为掩膜图像与新背景进行随机融合,生成多个标注有类别和位姿的图像,完成数据集创建;
步骤S33,所述分割定位***将数据集按比例分为训练集和测试集;
步骤S34,所述分割定位***以训练集作为原始数据训练深度学习模型,以测试集验证深度学习模型,并保留得分最高的深度学习模型。
进一步地,所述步骤S33中,训练集和测试集的数据量比为9:1。
进一步地,所述步骤S34中,若分割定位***判定得分超过设定的检测准确率的阈值,停止训练深度学习模型。
进一步地,所述阈值为95%。
进一步地,所述步骤S5中,分割定位***通过得分最高的深度学习模型对第三图像进行识别时包含以下步骤:
步骤S51,所述分割定位***利用得分最高的深度学习模型对第三图像进行实例分割;
步骤S52,所述分割定位***提取感兴趣区域;
步骤S53,所述分割定位***对感兴趣区域进行识别。
进一步地,所述步骤S53中,分割定位***对感兴趣区域进行识别时依据像素面积大小去除遮挡平面目标物体。
用于堆叠平面目标物体的半自动标注的分割定位***,所述***包括:
图像采集模块,所述图像采集模块用于采集第一图像、第二图像和第三图像;第一图像对应一个平面目标物体,第二图像对应多个堆叠状态下的平面目标物体,第三图像对应实时的多个堆叠状态下的平面目标物体;
交互模块,所述交互模块用于人工录入的第一信息、确定深度学***面目标物体中最上层平面目标物体的类别信息和位姿信息;第一信息与第一图像对应,其用于标记第一图像中的平面目标物体的类别;深度学***面目标物体的类别信息和位姿信息;
数据标注和模型训练模块,所述数据标注和模型训练模块通过第一信息和第二图像训练多个深度学习模型,并保留得分最高的深度学习模型;
图像分割和处理模块,所述图像分割和处理模块通过得分最高的深度学习模型对第三图像进行实例分割和识别。
进一步地,所述图像采集模块为摄像头或工业相机;所述交互模块包括工控机、显示屏和软件接口。
进一步地,所述数据标注和模型训练模块以及所述图像分割和处理模块采用MaskRcnn卷积神经网络以及Pytorch模型训练框架。
本发明的有益效果是:
本发明为解决现有计算机视觉技术不适用于堆叠目标场景以及深度学***面目标物体的半自动标注方法及分割定位***。针对堆叠的平面目标物体,有效解决了多个堆叠状态下的平面目标物体中最上层可抓取目标的分割定位问题。该发明通过半自动标注与训练,有效减少了深度学习数据标注的工作量,同时,该发明使普通员工也可进行深度学习模型的训练,大大增加了深度学习工业部署的灵活性,降低了深度学习部署的成本。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或有现技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为实施例中,标注方法的流程图。
图2为实施例中,堆叠零件的图像。
图3为实施例中,单个零件的图像。
图4为实施例中,分割定位***分割出的单个零件图像。
图5为实施例中,掩膜图像与堆叠图像叠加示意。
图6为实施例中,分割定位***形成的标注文件样式。
图7为实施例中,深度学习模型验证结果图。
图8为实施例中,分割定位***的逻辑连接示意图。
附图标记为:
100-图像采集模块,200-交互模块,300-数据标注和模型训练模块,400-图像分割和处理模块。
具体实施方式
在下文中,仅简单地描述了某些示例性实施例。正如本领域技术人员可认识到的那样,在不脱离本发明的精神或范围的情况下,可通过各种不同方式修改所描述的实施例。因此,附图和描述被认为本质上是示例性的而非限制性的。
在本发明的描述中,需要理解的是,术语“中心”、“纵向”、“横向”、“长度”、“宽度”、“厚度”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”、“内”、“外”、“顺时针”、“逆时针”、“轴向”、“径向”、“周向”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
下文的公开提供了许多不同的实施方式或例子用来实现本发明的不同结构。为了简化本发明的公开,下文中对特定例子的部件和设置进行描述。当然,它们仅仅为示例,并且目的不在于限制本发明。
下面结合附图对发明的实施例进行详细说明。
用于堆叠平面目标物体的半自动标注方法,基于图像处理技术,其工作流程如图1所示。该方法包括离线过程和在线过程。
离线过程:
步骤S1,分割定位***采集第一图像和第二图像,第一图像对应一个平面目标物体,即一张图像中只有一个平面目标物体。第二图像对应多个堆叠状态下的平面目标物体,即一张图像中有两个及两个以上呈堆叠状态的平面目标物体。
步骤S2,分割定位***接收人工录入的第一信息;第一信息与第一图像对应,其用于标记第一图像中的平面目标物体的类别。比如人工录入榨菜A正面,榨菜A反面。
步骤S3,分割定位***通过第一信息和第二图像训练多个深度学***面目标物体的类别信息和位姿信息;分割定位***保留得分最高的深度学习模型。
具体的步骤S3中,分割定位***训练深度学习模型时包含以下步骤:
步骤S31,分割定位***对第一图像进行图像分割处理,提取出平面目标物体前景并得到平面目标物体前景的像素坐标信息。
步骤S32,分割定位***将第二图像作为新背景,将平面目标物体前景作为掩膜图像与新背景进行随机融合,生成多个标注有类别和位姿的图像,完成数据集创建。其中,位姿即中心点坐标。
步骤S33,分割定位***将数据集按数据量比为9:1分为训练集和测试集。
步骤S34,分割定位***以训练集作为原始数据训练深度学习模型,以测试集验证深度学习模型,保留得分最高的深度学习模型,比如以检测准确率进行得分评价。若分割定位***判定得分超过限定的检测准确率的阈值,比如检测准确率达到95%,停止训练深度学习模型。
以平面零件识别为例,数据集的构建过程如下:
对于堆叠的零件图像标注,可通过人工采集20张大小相同的零件图像,其中,10张随机摆放的堆叠零件,如图2所示。10张随机摆放的单个零件,如图3所示。然后通过图像处理算法分割出单个零件,如图4所示,提取其像素坐标,并人工输入该零件类别,比如A零件;再将分割出的零件作为掩膜图像与堆叠图像进行叠加 ,如图5所示。因为分割出的零件可以随机平移,此时可随机创造出多张堆叠图像,比如随机平移生成10张。输出标注文件,如图6所示。那么通过排列组合,10张单个零件和10张堆叠图像可实现1000张堆叠零件的标注,便可快速完成堆叠图像的标注工作,创建数据集。将该数据集分为训练集和测试集,以训练集训练深度学习模型,以测试集验证深度学习模型,验证的效果如图7所示。
在线过程:
步骤S4,分割定位***采集实时的第三图像;第三图像对应实时的多个堆叠状态下的平面目标物体。
步骤S5,分割定位***通过得分最高的深度学习模型对第三图像进行实例分割和识别。
具体的,步骤S5中,分割定位***通过得分最高的深度学习模型对第三图像进行识别时包含以下步骤:
步骤S51,分割定位***利用深度学习模型对第三图像进行实例分割;
步骤S52,分割定位***提取感兴趣区域;
步骤S53,分割定位***对感兴趣区域进行识别。分割定位***对感兴趣区域进行识别时依据像素面积大小去除遮挡平面目标物体。因为当平面目标物体堆叠时,深度学***面目标物体,需要去除。
步骤S6,分割定位***输出第三图像中最上层平面目标物体的类别信息和位姿信息。
本实施例中提供一种用于堆叠平面目标物体的半自动标注方法,具有以下效果:
1.通过半自动标注实现普通工人也可以完成深度学习数据集的建立与模型训练,这样加入新的产品,工人可以通过简单的操作便可实现新产品的分割定位,而无需专业的AI工程师参与,使深度学习模型具有迁移学习能力。
2.通过深度学***面目标物体进行实例分割,得到最上层平面目标物体的类别与位姿信息。该方法适用于对较薄的平面目标物体如食品包装、板类零件进行半自动标注训练与实例分割。对平面目标物体进行自动标注,主要目的是自动标注图像数据,从而建立图像数据集;对平面目标物体进行实例分割,主要目的是获取图像中的平面目标物体的类别信息与位姿信息,并将正确的抓取信息通过外部接口传递给执行机构。
本实施例中还提供一种用于堆叠平面目标物体的半主动标准分割定位***,具有工人可操作且具有迁移学习能力的特点。该***包括图像采集模块100、交互模块200、数据标注和模型训练模块300以及图像分割和处理模块400,如图8所示。
图像采集模块100,其为摄像头或工业相机,用于采集第一图像、第二图像和第三图像。第一图像对应一个平面目标物体,第二图像对应多个堆叠状态下平面目标物体,第三图像对应实时的多个堆叠状态下的平面目标物体。即,图像采集模块100完成以下目的:1.通过目标任务,人工控制相机采集训练数据集中的待标注图像。2.在平面目标物体分拣过程中根据传感器信号实时采集图像,将图像传送至图像分割和处理模块400。
交互模块200,安装在分拣平台上方,其包括工控机、显示屏和软件接口,用于人工录入的第一信息、确定深度学***面目标物体中最上层平面目标物体的类别信息和位姿信息。第一信息与第一图像对应,其用于标记第一图像中的平面目标物体的类别;深度学***面目标物体的类别信息和位姿信息。即,交互模块200完成以下目的:1.人工输入平面目标物体的类别信息,进行数据标注。2.选择数据集进行训练并选择得分最高的深度学***面目标物体的分割和识别。3.显示平面目标物体实例分割定位结果。
数据标注和模型训练模块300,采用Mask Rcnn卷积神经网络以及Pytorch模型训练框架,其通过第一信息和第二图像训练多个深度学***面目标物体的类别信息和经图像处理获得的平面目标物体的像素坐标信息实现图像半自动标注,从而快速完成图像数据集的创建。2.使用创建完成的数据集进行训练,从而快速实现深度学习模型的训练与更新迭代。
图像分割和处理模块400,采用Mask Rcnn卷积神经网络以及Pytorch模型训练框架,其通过深度学***面目标物体进行实例分割,得到分割后目标的像素面积与位姿信息,并根据像素面积大小去除掉遮挡平面目标物体,从而准确得到上层可抓取平面目标物体的类别与位姿信息。
本实施例中,采用图像处理技术进行数据标注,图像处理中使用图像分割与图像融合算法。通过图像分割算法对采集的目标图像进行处理,提取感兴趣区域,实现掩膜图像与平面目标物体坐标信息的获取,通过图像融合算法将提取的掩膜图像与采集的其它图像进行融合,结合输入的平面目标物体类别信息,实现平面目标物体的快速标注,实现数据集的快速建立与模型的训练。本实施例基于深度学***面目标物体进行分割定位,从而在平面目标物体堆叠情况下,准确得到最上层可抓取平面目标物体的类别与位姿信息,并将正确的抓取信息通过外部接口传递给执行机构。

Claims (9)

1.用于堆叠平面目标物体的半自动标注方法,其特征在于,所述方法包括:
步骤S1,分割定位***采集第一图像和第二图像;第一图像对应一个平面目标物体,第二图像对应多个堆叠状态下的平面目标物体;
步骤S2,所述分割定位***接收人工录入的第一信息;第一信息与第一图像对应,其用于标记第一图像中的平面目标物体的类别;
步骤S3,所述分割定位***通过第一信息和第二图像训练多个深度学***面目标物体的类别信息和位姿信息;所述分割定位***保留得分最高的深度学习模型;
步骤S4,所述分割定位***采集实时的第三图像;第三图像对应实时的多个堆叠状态下的平面目标物体;
步骤S5,所述分割定位***通过得分最高的深度学习模型对第三图像进行实例分割和识别;
步骤S6,所述分割定位***输出第三图像中最上层平面目标物体的类别信息和位姿信息;
其中,所述步骤S3中,所述分割定位***训练深度学习模型时包含以下步骤:
步骤S31,所述分割定位***对第一图像进行图像分割处理,提取出平面目标物体前景并得到平面目标物体前景的像素坐标信息;
步骤S32,所述分割定位***将第二图像作为新背景,将平面目标物体前景作为掩膜图像与新背景进行随机融合,生成多个标注有类别和位姿的图像,完成数据集创建;
步骤S33,所述分割定位***将数据集按比例分为训练集和测试集;
步骤S34,所述分割定位***以训练集作为原始数据训练深度学习模型,以测试集验证深度学习模型,并保留得分最高的深度学习模型。
2.根据权利要求1所述的用于堆叠平面目标物体的半自动标注方法,其特征在于,所述步骤S33中,训练集和测试集的数据量比为9:1。
3.根据权利要求1所述的用于堆叠平面目标物体的半自动标注方法,其特征在于,所述步骤S34中,若分割定位***判定得分超过设定的检测准确率的阈值,停止训练深度学习模型。
4.根据权利要求3所述的用于堆叠平面目标物体的半自动标注方法,其特征在于,所述阈值为95%。
5.根据权利要求1所述的用于堆叠平面目标物体的半自动标注方法,其特征在于,所述步骤S5中,分割定位***通过得分最高的深度学习模型对第三图像进行识别时包含以下步骤:
步骤S51,所述分割定位***利用得分最高的深度学习模型对第三图像进行实例分割;
步骤S52,所述分割定位***提取感兴趣区域;
步骤S53,所述分割定位***对感兴趣区域进行识别。
6.根据权利要求5所述的用于堆叠平面目标物体的半自动标注方法,其特征在于,所述步骤S53中,分割定位***对感兴趣区域进行识别时依据像素面积大小去除遮挡平面目标物体。
7.用于权利要求1~6中任意一项所述的用于堆叠平面目标物体的半自动标注方法的分割定位***,其特征在于,所述***包括:
图像采集模块,所述图像采集模块用于采集第一图像、第二图像和第三图像;第一图像对应一个平面目标物体,第二图像对应多个堆叠状态下的平面目标物体,第三图像对应实时的多个堆叠状态下的平面目标物体;
交互模块,所述交互模块用于人工录入的第一信息、确定深度学***面目标物体中最上层平面目标物体的类别信息和位姿信息;第一信息与第一图像对应,其用于标记第一图像中的平面目标物体的类别;深度学***面目标物体的类别信息和位姿信息;
数据标注和模型训练模块,所述数据标注和模型训练模块通过第一信息和第二图像训练多个深度学习模型,并保留得分最高的深度学习模型;
图像分割和处理模块,所述图像分割和处理模块通过得分最高的深度学习模型对第三图像进行实例分割和识别。
8.根据权利要求7所述的用于堆叠平面目标物体的半自动标注的分割定位***,其特征在于,所述图像采集模块为摄像头或工业相机;所述交互模块包括工控机、显示屏和软件接口。
9.根据权利要求7所述的用于堆叠平面目标物体的半自动标注的分割定位***,其特征在于,所述数据标注和模型训练模块以及所述图像分割和处理模块采用Mask Rcnn卷积神经网络以及Pytorch模型训练框架。
CN202110964636.8A 2021-08-23 2021-08-23 用于堆叠平面目标物体的半自动标注方法及分割定位*** Active CN113420839B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110964636.8A CN113420839B (zh) 2021-08-23 2021-08-23 用于堆叠平面目标物体的半自动标注方法及分割定位***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110964636.8A CN113420839B (zh) 2021-08-23 2021-08-23 用于堆叠平面目标物体的半自动标注方法及分割定位***

Publications (2)

Publication Number Publication Date
CN113420839A CN113420839A (zh) 2021-09-21
CN113420839B true CN113420839B (zh) 2021-11-02

Family

ID=77719103

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110964636.8A Active CN113420839B (zh) 2021-08-23 2021-08-23 用于堆叠平面目标物体的半自动标注方法及分割定位***

Country Status (1)

Country Link
CN (1) CN113420839B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114092485A (zh) * 2021-09-28 2022-02-25 华侨大学 一种基于mask rcnn的堆叠粗骨料图像分割方法及***

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108171748A (zh) * 2018-01-23 2018-06-15 哈工大机器人(合肥)国际创新研究院 一种面向机器人智能抓取应用的视觉识别与定位方法
CN110675415A (zh) * 2019-12-05 2020-01-10 北京同方软件有限公司 一种基于深度学习增强实例分割的道路积水区域检测方法
CN111275063A (zh) * 2018-12-04 2020-06-12 广州中国科学院先进技术研究所 一种基于3d视觉的机器人智能抓取控制方法及***

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10679351B2 (en) * 2017-08-18 2020-06-09 Samsung Electronics Co., Ltd. System and method for semantic segmentation of images
CN111489373B (zh) * 2020-04-07 2023-05-05 北京工业大学 一种基于深度学习的遮挡物体分割方法
CN112233078A (zh) * 2020-10-12 2021-01-15 广州计量检测技术研究院 一种堆叠千克组砝码识别与关键部位分割方法
CN112580647A (zh) * 2020-12-11 2021-03-30 湖北工业大学 一种面向堆叠物体的识别方法及***
CN112802105A (zh) * 2021-02-05 2021-05-14 梅卡曼德(北京)机器人科技有限公司 对象抓取方法及装置
CN113284179B (zh) * 2021-05-26 2022-09-13 吉林大学 一种基于深度学习的机器人多物体分拣方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108171748A (zh) * 2018-01-23 2018-06-15 哈工大机器人(合肥)国际创新研究院 一种面向机器人智能抓取应用的视觉识别与定位方法
CN111275063A (zh) * 2018-12-04 2020-06-12 广州中国科学院先进技术研究所 一种基于3d视觉的机器人智能抓取控制方法及***
CN110675415A (zh) * 2019-12-05 2020-01-10 北京同方软件有限公司 一种基于深度学习增强实例分割的道路积水区域检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于多算法融合Mask R-CNN堆叠千克组砝码识别与关键部位分割方法;赵迪 等;《激光杂志》;20210531;第42卷(第5期);第27-31页 *

Also Published As

Publication number Publication date
CN113420839A (zh) 2021-09-21

Similar Documents

Publication Publication Date Title
WO2021022970A1 (zh) 一种基于多层随机森林的零部件识别方法及***
EP4009231A1 (en) Video frame information labeling method, device and apparatus, and storage medium
CN111652085B (zh) 基于2d与3d特征结合的物体识别方法
Zhang et al. Keypoint-graph-driven learning framework for object pose estimation
CN107977639B (zh) 一种人脸清晰度判断方法
Lin et al. E2EK: End-to-end regression network based on keypoint for 6D pose estimation
CN111667005B (zh) 一种采用rgbd视觉传感的人体交互***
CN110796018A (zh) 一种基于深度图像和彩色图像的手部运动识别方法
CN111906782B (zh) 一种基于三维视觉的智能机器人抓取方法
CN109829458B (zh) 实时自动生成记录***操作行为的日志文件的方法
CN109522963A (zh) 一种单机运行的特征建筑目标检测方法和***
CN110827312A (zh) 一种基于协同视觉注意力神经网络的学习方法
CN116052222A (zh) 自然采集牛脸图像的牛脸识别方法
CN113420839B (zh) 用于堆叠平面目标物体的半自动标注方法及分割定位***
Hao et al. [Retracted] Fast Recognition Method for Multiple Apple Targets in Complex Occlusion Environment Based on Improved YOLOv5
KR20210122429A (ko) 영상 딥러닝을 이용한 ai 기반 화장품 용기 인쇄 제조 공정에서의 자동 결함 탐지 방법 및 시스템
CN114494773A (zh) 一种基于深度学习的零件分拣识别***和方法
CN117114420B (zh) 一种基于图像识别的工贸安全事故风险管控***和方法
CN114170686A (zh) 一种基于人体关键点的屈肘行为检测方法
CN111435429A (zh) 一种基于双目立体数据动态认知的手势识别方法及***
CN113487538A (zh) 一种多目标分割缺陷检测方法、装置及其计算机存储介质
CN111738264A (zh) 一种机房设备显示面板数据的智能采集方法
CN112084103B (zh) 界面测试方法、装置、设备和介质
CN112528903A (zh) 人脸图像获取方法、装置、电子设备及介质
CN111651038A (zh) 基于ToF的手势识别控制方法及其控制***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant