CN111240195A - 基于机器视觉的自动控制模型训练、目标物回收方法及装置 - Google Patents
基于机器视觉的自动控制模型训练、目标物回收方法及装置 Download PDFInfo
- Publication number
- CN111240195A CN111240195A CN202010017699.8A CN202010017699A CN111240195A CN 111240195 A CN111240195 A CN 111240195A CN 202010017699 A CN202010017699 A CN 202010017699A CN 111240195 A CN111240195 A CN 111240195A
- Authority
- CN
- China
- Prior art keywords
- automatic control
- control model
- mechanical arm
- target object
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 79
- 238000012549 training Methods 0.000 title claims abstract description 64
- 238000004064 recycling Methods 0.000 title claims description 27
- 238000011084 recovery Methods 0.000 claims abstract description 33
- 230000006870 function Effects 0.000 claims description 30
- 238000012545 processing Methods 0.000 claims description 17
- 238000004422 calculation algorithm Methods 0.000 claims description 16
- 238000001514 detection method Methods 0.000 claims description 15
- 238000003860 storage Methods 0.000 claims description 15
- 239000013598 vector Substances 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 8
- 230000004807 localization Effects 0.000 claims 1
- 210000000078 claw Anatomy 0.000 abstract description 12
- 238000010586 diagram Methods 0.000 description 23
- 238000004364 calculation method Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 5
- 238000005457 optimization Methods 0.000 description 5
- 230000009286 beneficial effect Effects 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 4
- 101100045541 Homo sapiens TBCD gene Proteins 0.000 description 3
- 101150093640 SSD1 gene Proteins 0.000 description 3
- 101100111629 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) KAR2 gene Proteins 0.000 description 3
- 102100030290 Tubulin-specific chaperone D Human genes 0.000 description 3
- 238000009825 accumulation Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 3
- 238000012937 correction Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 238000005299 abrasion Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000004806 packaging method and process Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 235000003166 Opuntia robusta Nutrition 0.000 description 1
- 244000218514 Opuntia robusta Species 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 235000013361 beverage Nutrition 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000007621 cluster analysis Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000002537 cosmetic Substances 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 235000012054 meals Nutrition 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 235000021485 packed food Nutrition 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B13/00—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
- G05B13/02—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
- G05B13/04—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators
- G05B13/042—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators in which a parameter or coefficient is automatically adjusted to optimise the performance
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Manipulator (AREA)
Abstract
本发明提供了一种基于机器视觉的自动控制模型训练、目标物回收方法及装置,涉及机器视觉技术领域,包括:获取目标点定位信息和机械臂运动参数,所述机械臂运动参数包括所述机械臂沿多个轴向的夹角;根据所述目标点定位信息和所述机械臂运动参数确定所述自动控制模型的损失函数的值;根据所述损失函数的值调整所述自动控制模型的参数至满足收敛条件,完成对所述自动控制模型的训练。本发明通过获取抓取物目标点的定位信息和机械臂的运动参数作为数据集,对模型进行训练,使得训练好的自动控制模型具有较高的定位解算精度。且使得训练好的模型不依赖于爪子的具体尺寸,可避免被固定规格的爪子影响精度,具有更高的灵活性。
Description
技术领域
本发明涉及机器视觉技术领域,具体而言,涉及一种基于机器视觉的自动控制模型训练、目标物回收方法及装置。
背景技术
随着科技不断发展和人民生活水平不断提高,各种自动化装置大量涌现,以其高效快捷的特点为人们的生产生活提供各种便利。例如现在越来越多的大型公共餐厅会配备餐具回收装置,用于自动化的回收餐具,减轻工作人员回收餐具的工作量。
现有的餐具回收装置多会配备机械臂,用于抓取待回收的餐具至指定地点进行后续处理。但传统的低价机械臂产品由于各部件磨损、整***移等不可抗因素,坐标计算精度下降较快。且产品必须由高档物流服务配送保证运输过程安全,安装调试中也必须由开发厂商的专业人士进行精准校正。在完成约500次抓取工作后机械部件难免出现抓取不精确、工作质量下降的问题,严重影响餐具回收装置的应用和推广。
发明内容
本发明旨在至少在一定程度上解决相关技术中的技术问题,为达上述目的,本发明第一方面的实施例提供了一种基于机器视觉的自动控制模型训练方法,其包括:
获取目标点定位信息和机械臂运动参数,所述机械臂运动参数包括所述机械臂沿多个轴向的夹角;
根据所述目标点定位信息和所述机械臂运动参数确定所述自动控制模型的损失函数的值;
根据所述损失函数的值调整所述自动控制模型的参数至满足收敛条件,完成对所述自动控制模型的训练。
进一步地,所述目标点定位信息由摄像头获取。
进一步地,所述目标点定位信息表示所述目标点在所述摄像头中的位置信息。
进一步地,所述目标点定位信息采用具有唯一身份的二维码表示。
进一步地,所述目标点定位信息包括深度信息。
进一步地,所述根据所述目标点定位信息和所述机械臂运动参数确定所述自动控制模型的损失函数的值包括:
将所述目标点定位信息和所述机械臂运动参数输入所述自动控制模型得到多个预测夹角;
根据多个所述预测夹角和所述机械臂运动参数确定所述损失函数的值。
进一步地,所述损失函数为L2损失函数。
为达上述目的,本发明第二方面的实施例还提供了一种基于机器视觉的自动控制模型训练装置,其包括:
获取模块,用于获取目标点定位信息和机械臂运动参数,所述机械臂运动参数包括所述机械臂沿多个轴向的夹角;
处理模块,用于根据所述目标点定位信息和所述机械臂运动参数确定所述自动控制模型的损失函数的值;
训练模块,用于根据所述损失函数的值调整所述自动控制模型的参数至满足收敛条件,完成对所述自动控制模型的训练。
使用本发明的基于机器视觉的自动控制模型训练方法或装置,通过获取抓取物目标点的定位信息和机械臂的运动参数作为数据集,对模型进行训练,使得训练好的自动控制模型具有较高的定位解算精度。且使得训练好的模型不依赖于爪子的具体尺寸,可避免被固定规格的爪子影响精度,具有更高的灵活性。
为达上述目的,本发明第三方面的实施例提供了一种基于机器视觉的目标物回收方法,其包括:
获取待回收目标物的定位信息和目标物分类信息;
将所述定位信息输入机械臂自动控制模型,确定机械臂的旋转角度,所述机械臂用于回收所述待回收目标物,所述机械臂自动控制模型采用如上所述的基于机器视觉的自动控制模型训练方法进行训练得到;
根据所述目标物分类信息和所述旋转角度控制所述机械臂对所述待回收目标物进行回收。
进一步地,所述定位信息包括位置信息和深度信息,所述位置信息根据预训练的目标检测模型确定,所述深度信息根据深度相机确定。
进一步地,所述获取待回收目标物的目标物分类信息包括:
判断所述待回收目标物是否属于有标签的样本;
若属于所述有标签的样本,则确定所述待回收目标物的所述目标物分类信息为所述标签;
若不属于所述有标签的样本,则根据弱监督学习算法确定所述目标物分类信息。
进一步地,所述根据弱监督学习算法确定所述目标物分类信息包括:
提取多个所述有标签的样本的特征向量为对应的多个中心;
确定所述待回收目标物的特征向量分别到多个所述中心的距离;
选择所述距离最近的中心对应的标签作为所述待回收目标物的所述目标物分类信息。
进一步地,所述根据所述目标物分类信息和所述旋转角度控制所述机械臂回收所述待回收目标物之后,还包括:
判断是否成功控制所述机械臂回收所述待回收目标物并记录回收失败次数;
当所述回收失败次数超过预设阈值时,对所述机械臂自动控制模型进行自动校准。
为达上述目的,本发明第四方面的实施例提供了一种基于机器视觉的目标物回收装置,其包括:
获取模块,用于获取待回收目标物的定位信息和目标物分类信息;
处理模块,用于将所述定位信息输入机械臂自动控制模型,确定机械臂的旋转角度,所述机械臂用于回收所述待回收目标物,所述机械臂自动控制模型采用如上所述的基于机器视觉的自动控制模型训练方法进行训练得到;
回收模块,用于根据所述目标物分类信息和所述旋转角度控制所述机械臂对所述待回收目标物进行回收。
使用本发明的基于机器视觉的目标物回收方法或装置,通过训练好的自动控制模型根据待回收目标物的定位信息确定机械臂需要转动的角度,可实现对设备独立进行数据采集,灵活定义结构形态,使得对机械臂的控制不依赖于具体爪子的尺寸,具有更高的灵活性。且本发明根据目标物分类信息可更准确的完成抓取动作,提高目标物回收的效率。本发明无需由专业人员频繁进行调试,真正实现了全自动运行。
为达上述目的,本发明第五方面的实施例提供了一种非临时性计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时,实现根据本发明第一方面所述的基于机器视觉的自动控制模型训练方法或实现根据本发明第三方面所述的基于机器视觉的目标物回收方法。
为达上述目的,本发明第六方面的实施例提供了一种计算设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时,实现根据本发明第一方面所述的基于机器视觉的自动控制模型训练方法或实现根据本发明第三方面所述的基于机器视觉的目标物回收方法。
根据本发明的非临时性计算机可读存储介质和计算设备,具有与根据本发明第一方面的基于机器视觉的自动控制模型训练方法或与根据本发明第三方面的基于机器视觉的目标物回收方法具有类似的有益效果,在此不再赘述。
附图说明
图1为根据本发明实施例的基于机器视觉的自动控制模型训练方法的原理示意图;
图2为根据本发明实施例的确定损失函数的值的原理示意图;
图3为根据本发明实施例的优化步骤的流程示意图;
图4为根据本发明实施例的基于机器视觉的自动控制模型训练装置的结构示意图;
图5为根据本发明实施例的基于机器视觉的目标物回收方法的原理示意图;
图6为根据本发明实施例的目标检测模型的结构示意图;
图7为根据本发明实施例的获取目标物分类信息的原理示意图;
图8为根据本发明实施例的弱监督学习算法的原理示意图;
图9为根据本发明实施例的基于机器视觉的目标物回收方法的流程示意图;
图10为根据本发明实施例的误差累积评价算法的原理示意图;
图11a和图11b为根据本发明实施例的基于机器视觉的目标物回收方法的实际应用示意图;
图12为根据本发明实施例的基于机器视觉的目标物回收装置的结构示意图;
图13为根据本发明实施例的计算设备的结构示意图。
具体实施方式
下面将参照附图详细描述根据本发明的实施例,描述涉及附图时,除非另有表示,不同附图中的相同附图标记表示相同或相似的要素。要说明的是,以下示例性实施例中所描述的实施方式并不代表本发明的所有实施方式。它们仅是与如权利要求书中所详述的、本发明公开的一些方面相一致的装置和方法的例子,本发明的范围并不局限于此。在不矛盾的前提下,本发明各个实施例中的特征可以相互组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
随着科技的不断发展,越来越多的工业或商业场景需要配备目标物回收装置,实现目标物的自动回收,提高整体的工作效率,但目前主要靠人工来进行目标物的回收,效率低下且容易由于人的疏忽造成一定回收分类误差。例如,以餐具回收为例,自动化餐具回收面临以下几个问题:
1、峰值流量大:经常出现在用餐结束的时间,在餐具回收处会涌入大量餐盘,如不及时处理,会造成桌面堆积,且导致人员拥挤。这要求餐具回收装置具有较高的运转效率。
2、摆放不规则:由于没有特别规定摆放方式,用户可能随意放置餐具,造成餐具各种角度倾斜、堆叠及遮蔽等情况。因此需要用于回收餐具的机械臂自由度高,解空间覆盖各种位置。对识别的要求不仅要满足三维旋转不变性,还要推理补全抓取圈。确定合理的抓取路径,避免出现“坍塌”。
3、物品子类多:餐具一般只分为五大类(盘、碗、筷子、叉子、勺子),但例如对于碗来说,又有很多外观近似的子类,要求提高分类细粒度。不能将不同的类别放在一起,这样会加重后续归还餐具到各个窗口的工作量。
在一实施例中,可以基于坐标解算算法确定机械臂的位置,进而后续对机械臂的位置进行控制以抓取目标物。然而坐标解算算法需根据机械臂的臂长和角度等精确值通过数学计算确定坐标。但该种坐标计算易受部件磨损、位移等因素的影响,使得该基于坐标解算算法的精度无法得到保障。
本发明基于机器视觉和机器学习提出一种自动控制模型训练、目标物回收方法及装置,根据目标抓取物的定位信息和机械臂自身的运动参数进行自我感知学习,确定对于不同的抓取物目标点机械臂需要转动的角度,不依赖于爪子的具体尺寸,具有较高的灵活性和准确度。且本发明具备自我修正能力,具有识别精度高、鲁棒性强的优良特性。
图1所示为根据本发明实施例的基于机器视觉的自动控制模型训练方法的原理示意图,包括步骤S11~S13。
在步骤S11中,获取目标点定位信息和机械臂运动参数,所述机械臂运动参数包括所述机械臂沿多个轴向的夹角。在本发明实施例中,所述自动控制模型基于机器视觉通过调整机械臂沿不同轴向进行旋转,进而控制机械臂顶端的爪子对目标点的待抓取物体进行抓取,实现对机械臂的自动控制,以抓取目标点位置的物体。
在本发明实施例中,所述目标点定位信息由摄像头获取,所述目标点定位信息采用具有唯一身份的二维码表示。例如导入Opencv-contrib-acruo数据库,确定唯一身份并设置token(身份认证临时令牌)和图形尺寸,经过一系列图像处理算法,可生成自主可控的二维码。在本发明实施例中,所述目标点定位信息表示所述目标点在所述摄像头中的位置信息。将二维码硬固定在放置抓取物的位置,这样就可以在摄像头中获取目标点的定位信息。在本发明其他实施例中,也可以设置单独可折叠支架,便于二维码的读取和替换。可以理解的是,如果二维码并未设置在被抓取点的位置,则对应的目标点定位信息会增加一个相应的偏移量进行校正调整。
在本发明实施例中,所述目标点定位信息包括深度信息,用于结合二维码的定位信息形成三维信息,便于后续与机械臂坐标系结合进行解算控制等处理。
在本发明实施例中,让机械臂旋转运动,注意记录运动控制参数。然后根据解析几何知识和计算机图形学算法,计算出机械臂自身坐标系。由此能够得到机械臂原点和爪子的位置信息。例如以摄像头中平面定位信息的水平方向和竖直方向分别为X轴和Y轴,以深度方向为Z轴,以机械臂的底部固定部件为原点建立坐标系,则根据机械臂沿三个轴向的夹角(例如分别为α、β和θ)和机械臂的臂长、爪子大小等具体尺寸信息,可获得最终爪子的位置信息。根据爪子的位置信息进行调整,进而控制实现对目标点位置物体的抓取。
在本发明实施例中,根据目标点的定位信息和机械臂运动参数,通过多项式回归建立机械臂的控制模型,以下给出一个具体示例:
其中,x、y、z分别表示目标点的定位信息,wx1~wz3、w′x1~w′z3、w″x1~w″z3表示所述自动控制模型待训练的参数,bx、by、bz分别表示偏移量。可以理解的是,采用多次幂可更逼近真值,具体的形式不以上述公式为限制。
在步骤S12中,根据所述目标点定位信息和所述机械臂运动参数确定所述自动控制模型的损失函数的值。在本发明实施例中,假设误差是高斯噪声,基于切比雪夫逼近理论,采用L2损失函数(即均方误差)进行优化。在模型训练时,参数能够依概率收敛到次优解,此时得到的f(x)是样本y的均值,而高斯噪声的期望为u,这样得到了概率最大的解。由于机械臂的运动学公式阶数较低,进行多项式分解能够达到足够精度,保证模型的训练效果。
图2所示为根据本发明实施例的确定损失函数的值的原理示意图,包括步骤S21~S22。
在步骤S21中,将所述目标点定位信息和所述机械臂运动参数输入所述自动控制模型得到多个预测夹角。在本发明实施例中,构建损失函数为:
在步骤S22中,根据多个所述预测夹角和所述机械臂运动参数确定所述损失函数的值。在本发明实施例中,根据得到的预测夹角和对应的机械臂沿该轴向的夹角,可确定其均方误差(即L2 Loss),进而确定所述损失函数的值。
在步骤S13中,根据所述损失函数的值调整所述自动控制模型的参数至满足收敛条件,完成对所述自动控制模型的训练。在本发明实施例中,迭代优化上述控制模型中的参数wx1~wz3、w′x1~w′z3、w″x1~w″z3,当使得上述损失函数的值最小时,即为满足收敛条件,完成对所述自动控制模型的训练。
可以理解的是,在本发明实施例中,还可包括优化步骤,图3所示为根据本发明实施例的优化步骤的流程示意图,其中,在完成上述对模型参数的优化更新后,使用预先留出的部分数据作为测试集对训练好的自动控制模型进行测试,验证其准确率。如果其准确率超过预设阈值,则认为模型训练成功,否则可重新进行训练以保证模型训练的准确度。
采用本发明实施例的基于机器视觉的自动控制模型训练方法,通过获取抓取物目标点的定位信息和机械臂的运动参数作为数据集,对模型进行训练,使得训练好的自动控制模型具有较高的定位解算精度。且使得训练好的模型不依赖于爪子的具体尺寸,可避免被固定规格的爪子影响精度,具有更高的灵活性。
本发明第二方面的实施例还提供了一种基于机器视觉的自动控制模型训练装置。图4所示为根据本发明实施例的基于机器视觉的自动控制模型训练装置400的结构示意图,包括获取模块401、处理模块402以及训练模块403。
获取模块401用于获取目标点定位信息和机械臂运动参数,所述机械臂运动参数包括所述机械臂沿多个轴向的夹角。在本发明实施例中,所述目标点定位信息由摄像头获取,所述目标点定位信息表示所述目标点在所述摄像头中的位置信息。其中,所述目标点定位信息采用具有唯一身份的二维码表示,所述目标点定位信息包括深度信息。
处理模块402用于根据所述目标点定位信息和所述机械臂运动参数确定所述自动控制模型的损失函数的值。其中,所述处理模块402包括预测模块4021和计算模型4022(图4中均未示出),所述预测模块4021用于将所述目标点定位信息和所述机械臂运动参数输入所述自动控制模型得到多个预测夹角,所述计算模型4022用于根据多个所述预测夹角和所述机械臂运动参数确定所述损失函数的值。
训练模块403用于根据所述损失函数的值调整所述自动控制模型的参数至满足收敛条件,完成对所述自动控制模型的训练。
所述基于机器视觉的自动控制模型训练装置400的各个模块的更具体实现方式可以参见对于本发明的基于机器视觉的自动控制模型训练方法的描述,且具有与之相似的有益效果,在此不再赘述。
本发明第三方面的实施例提出了一种基于机器视觉的目标物回收方法。图5所示为根据本发明实施例的基于机器视觉的目标物回收方法的原理示意图,包括步骤S51~S53。
在步骤S51中,获取待回收目标物的定位信息和目标物分类信息。在一实施例中,待回收目标物包括餐具(例如碗、筷、餐盘、餐叉、餐刀等)、物品包装盒(例如饮料瓶、化妆品包装盒等)、带包装的食品等可被机械臂抓取的物体,本发明实施例对此不作限定。在本发明实施例中,所述定位信息包括位置信息和深度信息,所述位置信息根据预训练的目标检测模型确定,所述深度信息根据深度相机确定。
在本发明实施例中,所述预训练的目标检测模型可采用例如以MobileNet为backbone(基础骨干网络)的SSD(Single Shot Detection,单摄检测)模型。MobileNet是一种轻量级的、可以在嵌入式计算设备进行运算的深度神经网络,其速度和准确度均较高。由于其为轻量级网络,使用MobileNet作为特征提取层可以满足目标物回收的应用场景的实际需求。图6所示为根据本发明实施例的目标检测模型的结构示意图,将SSD目标检测框架中的基础网络VGG16替换成MobileNet网络,在最后卷积层的后面添加5个卷积层(SSD1~SSD5),并抽取该5层做检测,如图6所示,在网络中抽取,5层为SSD1~SSD5。SSD1特征的尺寸为19×19、SSD2特征的尺寸为10×10、SSD3特征的尺寸为5×5、SSD4特征的尼寸为3×3、SSD5特征的尺寸为1×1。在本发明实施例中,采用上述目标检测模型的卷积核有不同缩放比例,并且中间就会输出特征图,保障了尺度不敏感。
在本发明实施例中,使用所述预训练的目标检测模型检测获取搭配待回收目标物的二维位置信息,再通过深度相机获取待回收目标物的点云图,将在二维空间中获取的坐标信息,对齐到点云图上,从而实现三维空间坐标转换。运用点云图实现了坐标数据可视化,摆脱了对于角度、长度精确值测量的依赖,提高对待回收目标物的定位准确度。
图7所示为根据本发明实施例的获取目标物分类信息的原理示意图,包括步骤S71~S73。
在步骤S71中,判断所述待回收目标物是否属于有标签的样本。在本发明实施例中,可使用带有标注信息的训练集对目标检测模型进行预训练,或对当前使用场景中可能出现的部分样本进行特征提取,以增加分类数据集的数量。可以理解的是,在实际应用中,对于部分待回收目标物属于有标签的样本,但是由于目标物的形状各异,仍可能存在没有标签的样本。
在步骤S72中,若属于所述有标签的样本,则确定所述待回收目标物的所述目标物分类信息为所述标签。在本发明实施例中,根据目标检测模型对待回收目标物进行特征提取,若其分类为现存的有标签样本,则直接将所述标签作为其分类。
在步骤S73中,若不属于所述有标签的样本,则根据弱监督学习算法确定所述目标物分类信息。图8所示为根据本发明实施例的弱监督学习算法的原理示意图,包括步骤S81~S83。
在步骤S81中,提取多个所述有标签的样本的特征向量为对应的多个中心。在本发明实施例中,提取多个样本的特征向量分别作为多个中心,可以理解的是,也可提取多个特征向量为中心簇。
在步骤S82中,确定所述待回收目标物的特征向量分别到多个所述中心的距离。在本发明实施例中,可使用待回收目标物的特征向量与上述多个中心的欧式距离进行判断。可以理解的是,也可计算待回收目标物的特征向量到各中心簇的平均距离进行判断。
在步骤S83中,选择所述距离最近的中心对应的标签作为所述待回收目标物的所述目标物分类信息。在本发明实施例中,根据聚类分析的思想,不需要用户任何辅助,即可实现对特定种类的任意目标物的分类,无需预先学习大量的样本,节省了***资源和成本。
图9所示为根据本发明实施例的基于机器视觉的目标物回收方法的流程示意图,结合图5以更好的解释本发明实施例。
在步骤S52中,将所述定位信息输入机械臂自动控制模型,确定机械臂的旋转角度,所述机械臂用于回收所述待回收目标物,所述机械臂自动控制模型采用如上所述的基于机器视觉的自动控制模型训练方法进行训练得到。在本发明实施例中,将目标检测模型获取的待回收目标物的定位信息输入上述训练好的自动控制模型中,即可输出模型预测的机械臂需要转动的各个角度,进而进行后续的抓取动作。
在步骤S53中,根据所述目标物分类信息和所述旋转角度控制所述机械臂对所述待回收目标物进行回收。在本发明实施例中,根据上述目标物分类信息和旋转角度即可控制机械臂进行相应的转动,并根据抓取、摆放执行业务逻辑确定合理的抓取路径,控制抓取部件(例如爪子)对待回收目标物进行回收。
如图9所示,在本发明实施例中,还可包括自我修正步骤,即在根据所述目标物分类信息和所述旋转角度控制所述机械臂对所述待回收目标物进行回收之后,使用误差累积评价算法进行评估。图10所示为根据本发明实施例的误差累积评价算法的原理示意图,包括步骤S101~S102。
在步骤S101中,判断是否成功控制所述机械臂回收所述待回收目标物并记录回收失败次数。在本发明实施例中,执行完一次抓取归位业务后,记录本次任务有没有成功抓取,可以理解的是,反馈可来源于两方面:一是摄像头再次回顾该位置,判断目标抓取物(即待回收目标物)是不是移动了;二是机械臂上有没有出现目标。如果目标物没有移动或者机械臂没有抓取到待回收目标物,则认为本次抓取归位业务失败。
在步骤S102中,当所述回收失败次数超过预设阈值时,则对所述机械臂自动控制模型进行自动校准。在本发明实施例中,所述自动校准可包括重新执行上述二维码定位训练过程,或其他反馈调节程序,例如校准补丁程序等。
在本发明实施例中,可使用VPU图像处理单元,使上述基于机器视觉的目标物回收方法能够脱离云端运行,具有更好的实时性。
本发明实施例的基于机器视觉的目标物回收方法,通过训练好的控制模型根据待回收目标物的定位信息确定机械臂需要转动的角度,可实现对设备独立进行数据采集,灵活定义结构形态,使得对机械臂的控制不依赖于具体爪子的尺寸,具有更高的灵活性。且本发明根据目标物分类信息可更准确的完成抓取动作,提高目标物回收的效率。本发明无需由专业人员频繁进行调试,真正实现了全自动运行。且具备自动校准能力,具有识别精度高、鲁棒性强的优良特性。图11a和图11b所示为根据本发明实施例的基于机器视觉的目标物回收方法的实际应用示意图。如图11a所示,本发明实施例的基于机器视觉的目标物回收方法可对各种尺寸形状的目标物进行弱监督学习并分类,且抓取精确度在121个样本的情况下,达到了惊人的98.74%。虽然目前已公开的德国人工智能研究所论文中称其准确率达到了99%,但是本发明实施例收集数据的速度更快,如图11b所示,只需要机械臂运行3.6min即可实现对各种不同形状和尺寸目标物的准确抓取,且不需要人工干预,完全实现自动化运行,具有较强的实用性。
本发明第四方面的实施例提出了一种基于机器视觉的目标物回收装置。图12所示为根据本发明实施例的基于机器视觉的目标物回收装置1200的结构示意图,包括获取模块1201、处理模块1202以及回收模块1203。
获取模块1201用于获取待回收目标物的定位信息和目标物分类信息。所述获取模块1201包括目标检测模块,用于获取所述待回收目标物的所述定位信息。所述获取模块1201还包括目标物分类模块12011(图中未示出),用于判断所述待回收目标物是否属于有标签的样本,若属于所述有标签的样本,则确定所述待回收目标物的所述目标物分类信息为所述标签,若不属于所述有标签的样本,则根据弱监督学习算法确定所述目标物分类信息。可以理解的是,所述目标物分类模块12011包括弱监督学习模块120111(图中未示出),用于提取多个所述有标签的样本的特征向量为对应的多个中心,确定所述待回收目标物的特征向量分别到多个所述中心的距离,选择所述距离最近的中心对应的标签作为所述待回收目标物的所述目标物分类信息。在本发明实施例中,所述定位信息包括位置信息和深度信息,所述位置信息根据预训练的目标检测模型确定,所述深度信息根据深度相机确定。
处理模块1202用于将所述定位信息输入机械臂自动控制模型,确定机械臂的旋转角度,所述机械臂用于回收所述待回收目标物,所述机械臂自动控制模型采用如上所述的基于机器视觉的自动控制模型训练方法进行训练得到。
回收模块1203用于根据所述目标物分类信息和所述旋转角度控制所述机械臂对所述待回收目标物进行回收。
所述基于机器视觉的目标物回收装置1200的各个模块的更具体实现方式可以参见对于本发明的基于机器视觉的目标物回收方法的描述,且具有与之相似的有益效果,在此不再赘述。
可选地,图12所示装置1200还可以包括训练模块1204(图中未示出),用于执行如图1所示的模型训练方法。
可选地,图12所示装置1200还可以包括自动校准模块1205(图中未示出),用于判断是否成功控制所述机械臂回收所述待回收目标物并记录回收失败次数,当所述回收失败次数超过预设阈值时,则所述机械臂自动控制模型进行自动校准。
本发明第五方面的实施例提出了一种非临时性计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时,实现根据本发明第一方面所述的基于机器视觉的自动控制模型训练方法或实现根据本发明第三方面所述的基于机器视觉的目标物回收方法。
一般来说,用于实现本发明方法的计算机指令的可以采用一个或多个计算机可读的存储介质的任意组合来承载。非临时性计算机可读存储介质可以包括任何计算机可读介质,除了临时性地传播中的信号本身。
计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言,特别是可以使用适于神经网络计算的Python语言和基于TensorFlow、PyTorch等平台框架。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
本发明第六方面的实施例提供了一种计算设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时,实现根据本发明第一方面所述的基于机器视觉的自动控制模型训练方法或实现根据本发明第三方面所述的基于机器视觉的目标物回收方法。
根据本发明第五、六方面的非临时性计算机可读存储介质和计算设备,可以参照根据本发明第一方面实施例或第三方面实施例具体描述的内容实现,并具有与根据本发明第一方面实施例的基于机器视觉的自动控制模型训练方法或第三方面实施例的基于机器视觉的目标物回收方法具有类似的有益效果,在此不再赘述。
图13示出了适于用来实现本公开的实施方式的示例性计算设备的框图。图13显示的计算设备12仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图13所示,计算设备12可以通用计算设备的形式实现。计算设备12的组件可以包括但不限于:一个或者多个处理器或者处理单元16,***存储器28,连接不同***组件(包括***存储器28和处理单元16)的总线18。
总线18表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,***总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(Industry StandardArchitecture;以下简称:ISA)总线,微通道体系结构(Micro Channel Architecture;以下简称:MAC)总线,增强型ISA总线、视频电子标准协会(Video Electronics StandardsAssociation;以下简称:VESA)局域总线以及***组件互连(Peripheral ComponentInterconnection;以下简称:PCI)总线。
计算设备12典型地包括多种计算机***可读介质。这些介质可以是任何能够被计算设备12访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
存储器28可以包括易失性存储器形式的计算机***可读介质,例如随机存取存储器(Random Access Memory;以下简称:RAM)30和/或高速缓存存储器32。计算设备12可以进一步包括其它可移动/不可移动的、易失性/非易失性的计算机可读存储介质。仅作为举例,存储***34可以用于读写不可移动的、非易失性磁介质(图中未显示,通常称为“硬盘驱动器”)。尽管图13中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如:光盘只读存储器(Compact Disc Read OnlyMemory;以下简称:CD-ROM)、数字多功能只读光盘(Digital Video Disc Read OnlyMemory;以下简称:DVD-ROM)或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线18相连。存储器28可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本公开各实施例的功能。
具有一组(至少一个)程序模块42的程序/实用工具40,可以存储在例如存储器28中,这样的程序模块42包括但不限于操作***、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块42通常执行本公开所描述的实施例中的功能和/或方法。
计算设备12也可以与一个或多个外部设备14(例如键盘、指向设备、显示器24等)通信,还可与一个或者多个使得用户能与该计算机***/服务器12交互的设备通信,和/或与使得该计算机***/服务器12能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口22进行。并且,计算设备12还可以通过网络适配器20与一个或者多个网络(例如局域网(Local Area Network;以下简称:LAN),广域网(Wide Area Network;以下简称:WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器20通过总线18与计算设备12的其它模块通信。要说明的是,尽管图中未示出,可以结合计算设备12使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID***、磁带驱动器以及数据备份存储***等。
处理单元16通过运行存储在***存储器28中的程序,从而执行各种功能应用以及数据处理,例如实现前述实施例中提及的基于机器视觉的目标物回收方法和基于机器视觉的自动控制模型训练方法。
本发明的计算设备可以是服务器,也可以是有限算力的终端设备。
尽管上面已经示出和描述了本发明的实施例,应当理解的是,上述实施例是示例性的,不能解释为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (16)
1.一种基于机器视觉的自动控制模型训练方法,其特征在于,包括:
获取目标点定位信息和机械臂运动参数,所述机械臂运动参数包括所述机械臂沿多个轴向的夹角;
根据所述目标点定位信息和所述机械臂运动参数确定所述自动控制模型的损失函数的值;
根据所述损失函数的值调整所述自动控制模型的参数至满足收敛条件,完成对所述自动控制模型的训练。
2.根据权利要求1所述的基于机器视觉的自动控制模型训练方法,其特征在于,所述目标点定位信息由摄像头获取。
3.根据权利要求2所述的基于机器视觉的自动控制模型训练方法,其特征在于,所述目标点定位信息表示所述目标点在所述摄像头中的位置信息。
4.根据权利要求1所述的基于机器视觉的自动控制模型训练方法,其特征在于,所述目标点定位信息采用具有唯一身份的二维码表示。
5.根据权利要求1-4中任一项所述的基于机器视觉的自动控制模型训练方法,其特征在于,所述目标点定位信息包括深度信息。
6.根据权利要求5所述的基于机器视觉的自动控制模型训练方法,其特征在于,所述根据所述目标点定位信息和所述机械臂运动参数确定所述自动控制模型的损失函数的值包括:
将所述目标点定位信息和所述机械臂运动参数输入所述自动控制模型得到多个预测夹角;
根据多个所述预测夹角和所述机械臂运动参数确定所述损失函数的值。
7.根据权利要求1所述的基于机器视觉的自动控制模型训练方法,其特征在于,所述损失函数为L2损失函数。
8.一种基于机器视觉的自动控制模型训练装置,其特征在于,包括:
获取模块,用于获取目标点定位信息和机械臂运动参数,所述机械臂运动参数包括所述机械臂沿多个轴向的夹角;
处理模块,用于根据所述目标点定位信息和所述机械臂运动参数确定所述自动控制模型的损失函数的值;
训练模块,用于根据所述损失函数的值调整所述自动控制模型的参数至满足收敛条件,完成对所述自动控制模型的训练。
9.一种基于机器视觉的目标物回收方法,其特征在于,包括:
获取待回收目标物的定位信息和目标物分类信息;
将所述定位信息输入机械臂自动控制模型,确定机械臂的旋转角度,所述机械臂用于回收所述待回收目标物,所述机械臂自动控制模型采用如权利要求1-7中任一项所述的基于机器视觉的自动控制模型训练方法进行训练得到;
根据所述目标物分类信息和所述旋转角度控制所述机械臂对所述待回收目标物进行回收。
10.根据权利要求9所述的基于机器视觉的目标物回收方法,其特征在于,所述定位信息包括位置信息和深度信息,所述位置信息根据预训练的目标检测模型确定,所述深度信息根据深度相机确定。
11.根据权利要求9所述的基于机器视觉的目标物回收方法,其特征在于,所述获取待回收目标物的目标物分类信息包括:
判断所述待回收目标物是否属于有标签的样本;
当所述待回收目标物属于所述有标签的样本时,确定所述待回收目标物的所述目标物分类信息为所述标签;
当所述待回收目标物不属于所述有标签的样本时,根据弱监督学习算法确定所述目标物分类信息。
12.根据权利要求11所述的基于机器视觉的目标物回收方法,其特征在于,所述根据弱监督学习算法确定所述目标物分类信息包括:
提取多个所述有标签的样本的特征向量为对应的多个中心;
确定所述待回收目标物的特征向量分别到多个所述中心的距离;
选择所述距离最近的中心对应的标签作为所述待回收目标物的所述目标物分类信息。
13.根据权利要求9所述的基于机器视觉的目标物回收方法,其特征在于,所述根据所述目标物分类信息和所述旋转角度控制所述机械臂对所述待回收目标物进行回收之后,还包括:
判断是否成功控制所述机械臂回收所述待回收目标物,并记录回收失败次数;
当所述回收失败次数超过预设阈值时,对所述机械臂自动控制模型进行自动校准。
14.一种基于机器视觉的目标物回收装置,其特征在于,包括:
获取模块,用于获取待回收目标物的定位信息和目标物分类信息;
处理模块,用于将所述定位信息输入机械臂自动控制模型,确定机械臂的旋转角度,所述机械臂用于回收所述待回收目标物,所述机械臂自动控制模型采用如权利要求1-7中任一项所述的基于机器视觉的自动控制模型训练方法进行训练得到;
回收模块,用于根据所述目标物分类信息和所述旋转角度控制所述机械臂对所述待回收目标物进行回收。
15.一种非临时性计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时,实现根据权利要求1-7中任一项所述的基于机器视觉的自动控制模型训练方法,或实现根据权利要求9-13中任一项所述的基于机器视觉的目标物回收方法。
16.一种计算设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时,实现根据权利要求1-7中任一项所述的基于机器视觉的自动控制模型训练方法,或实现根据权利要求9-13中任一项所述的基于机器视觉的目标物回收方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010017699.8A CN111240195A (zh) | 2020-01-08 | 2020-01-08 | 基于机器视觉的自动控制模型训练、目标物回收方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010017699.8A CN111240195A (zh) | 2020-01-08 | 2020-01-08 | 基于机器视觉的自动控制模型训练、目标物回收方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111240195A true CN111240195A (zh) | 2020-06-05 |
Family
ID=70869048
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010017699.8A Pending CN111240195A (zh) | 2020-01-08 | 2020-01-08 | 基于机器视觉的自动控制模型训练、目标物回收方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111240195A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113159410A (zh) * | 2021-04-14 | 2021-07-23 | 北京百度网讯科技有限公司 | 自动控制模型的训练方法和流体供给***控制方法 |
CN116512254A (zh) * | 2023-04-11 | 2023-08-01 | 中国人民解放军军事科学院国防科技创新研究院 | 基于方向的机械臂智能控制方法及***、设备、存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105607635A (zh) * | 2016-01-05 | 2016-05-25 | 东莞市松迪智能机器人科技有限公司 | 自动导引车全景光学视觉导航控制***及全向自动导引车 |
CN109655069A (zh) * | 2019-02-03 | 2019-04-19 | 上海允登信息科技有限公司 | 一种数据中心机房机器人导航定位*** |
CN109702741A (zh) * | 2018-12-26 | 2019-05-03 | 中国科学院电子学研究所 | 基于自监督学习神经网络的机械臂视觉抓取***及方法 |
CN110171001A (zh) * | 2019-06-05 | 2019-08-27 | 闽南师范大学 | 一种基于CornerNet的智能分拣机械臂***和抓取控制方法 |
CN110293552A (zh) * | 2018-03-21 | 2019-10-01 | 北京猎户星空科技有限公司 | 机械臂控制方法、装置、控制设备及存储介质 |
CN110466924A (zh) * | 2019-08-27 | 2019-11-19 | 湖南海森格诺信息技术有限公司 | 垃圾自动抓取***及其方法 |
-
2020
- 2020-01-08 CN CN202010017699.8A patent/CN111240195A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105607635A (zh) * | 2016-01-05 | 2016-05-25 | 东莞市松迪智能机器人科技有限公司 | 自动导引车全景光学视觉导航控制***及全向自动导引车 |
CN110293552A (zh) * | 2018-03-21 | 2019-10-01 | 北京猎户星空科技有限公司 | 机械臂控制方法、装置、控制设备及存储介质 |
CN109702741A (zh) * | 2018-12-26 | 2019-05-03 | 中国科学院电子学研究所 | 基于自监督学习神经网络的机械臂视觉抓取***及方法 |
CN109655069A (zh) * | 2019-02-03 | 2019-04-19 | 上海允登信息科技有限公司 | 一种数据中心机房机器人导航定位*** |
CN110171001A (zh) * | 2019-06-05 | 2019-08-27 | 闽南师范大学 | 一种基于CornerNet的智能分拣机械臂***和抓取控制方法 |
CN110466924A (zh) * | 2019-08-27 | 2019-11-19 | 湖南海森格诺信息技术有限公司 | 垃圾自动抓取***及其方法 |
Non-Patent Citations (1)
Title |
---|
陈新泉: "《数据与数据流的聚类、半监督聚类及加权聚类》", 成都:电子科技大学出版社, pages: 52 - 54 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113159410A (zh) * | 2021-04-14 | 2021-07-23 | 北京百度网讯科技有限公司 | 自动控制模型的训练方法和流体供给***控制方法 |
CN113159410B (zh) * | 2021-04-14 | 2024-02-27 | 北京百度网讯科技有限公司 | 自动控制模型的训练方法和流体供给***控制方法 |
CN116512254A (zh) * | 2023-04-11 | 2023-08-01 | 中国人民解放军军事科学院国防科技创新研究院 | 基于方向的机械臂智能控制方法及***、设备、存储介质 |
CN116512254B (zh) * | 2023-04-11 | 2024-01-23 | 中国人民解放军军事科学院国防科技创新研究院 | 基于方向的机械臂智能控制方法及***、设备、存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11878433B2 (en) | Method for detecting grasping position of robot in grasping object | |
Sui et al. | Sum: Sequential scene understanding and manipulation | |
CN112837371A (zh) | 基于3d匹配的物体抓取方法、装置及计算设备 | |
CN109159113B (zh) | 一种基于视觉推理的机器人作业方法 | |
CN113450408A (zh) | 一种基于深度相机的非规则物***姿估计方法及装置 | |
CN111428731A (zh) | 基于机器视觉的多类目标识别定位方法、装置和设备 | |
CN109740613B (zh) | 一种基于Feature-Shift和预测的视觉伺服控制方法 | |
CN112085789A (zh) | 位姿估计方法、装置、设备及介质 | |
CN111240195A (zh) | 基于机器视觉的自动控制模型训练、目标物回收方法及装置 | |
CN115781673A (zh) | 一种零件抓取方法、装置、设备及介质 | |
CN116061187B (zh) | 一种复合机器人对货架商品识别、定位和抓取方法 | |
WO2023124734A1 (zh) | 物体抓取点估计、模型训练及数据生成方法、装置及*** | |
CN113927601B (zh) | 一种基于视觉识别实现机械臂精准挑拣的方法及*** | |
Rogelio et al. | Object detection and segmentation using Deeplabv3 deep neural network for a portable X-ray source model | |
Wang et al. | GraspFusionNet: a two-stage multi-parameter grasp detection network based on RGB–XYZ fusion in dense clutter | |
NL2029461B1 (en) | Automated bin-picking based on deep learning | |
CN116051607A (zh) | 一种用于烟丝高架库的人员轨迹跟踪方法 | |
Shao et al. | Combining rgb and points to predict grasping region for robotic bin-picking | |
CN115730236A (zh) | 一种基于人机交互药物识别获取方法、设备及存储介质 | |
CN115100416A (zh) | 一种不规则钢板位姿识别方法及相关设备 | |
Yang et al. | Integrating Deep Learning Models and Depth Cameras to Achieve Digital Transformation: A Case Study in Shoe Company | |
CN113408429B (zh) | 一种具有旋转适应性的目标检测方法及*** | |
Bağcı et al. | Building height prediction with instance segmentation | |
US11491650B2 (en) | Distributed inference multi-models for industrial applications | |
Liang et al. | A Stable Grasping Method for Robotic Manipulator Based on Visual Detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200605 |