CN110322510B - 一种利用轮廓信息的6d位姿估计方法 - Google Patents
一种利用轮廓信息的6d位姿估计方法 Download PDFInfo
- Publication number
- CN110322510B CN110322510B CN201910569209.2A CN201910569209A CN110322510B CN 110322510 B CN110322510 B CN 110322510B CN 201910569209 A CN201910569209 A CN 201910569209A CN 110322510 B CN110322510 B CN 110322510B
- Authority
- CN
- China
- Prior art keywords
- target object
- prediction
- loss function
- network
- pose estimation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种利用轮廓信息的6D位姿估计方法,包括:基于卷积神经网络设计目标物体6D位姿估计网络;采集和标注不同背景、角度和姿态的目标物体训练样本图片构建数据集,并对训练样本进行数据增强;对目标物体6D位姿估计网络进行训练,得到网络参数模型;调用目标物体6D位姿估计网络参数模型对目标物体图片进行预测,得到目标物体关键点二维投影坐标;由目标物体关键点二维投影坐标,利用EPnP计算出目标物体6D位姿。本发明方法在不需要位姿修正后处理的情况下,通过所设计的6D位姿估计网络,利用目标物体的轮廓信息快速准确地检测出目标物体的6D位姿。
Description
技术领域
本发明涉及物体定位和姿态估计领域,具体涉及一种利用轮廓信息的6D位姿估计方法。
背景技术
近年来深度学习在目标检测领域取得的巨大突破,机器人等领域对目标检测提出了更高的要求,即检测物体的6D位姿(三维位置和三维旋转角),以更高效地进行社会生产活动。工业机器人是面向工业领域的多关节机械手和多自由度的机器装置,它是靠自身动力***和控制能力来实现工业生产任务的一种机器人。它可以按照预先设定的程序运行,现代工业机器人可以根据人工智能算法制定的决策规则工作。服务机器人是一种半自主或全自主工作的机器人,现已进入半商业化应用。
在机器人等实际应用中,其对周围环境的目标物体检测是非常重要的。在机器人日常的抓取操作任务中,高效精准地检测物体的6D位姿,机器人才可以利用物体的位姿信息规划运动路径并调整机械臂姿态来移动目标物体,可靠地保证机器人操作的高效性和安全性。
随着VGG、Faster R-CNN、YOLO深度学***衡算法在物***姿检测精确度和检测速度,从而限制了机器人的自动化程度。
发明内容
本发明所要解决的技术问题是提供一种利用轮廓信息的6D位姿估计方法,实时地对目标物体进行6D位姿处理,检测精度高且检测速度快。
为解决上述技术问题,本发明采用的技术方案是:
一种利用轮廓信息的6D位姿估计方法,包括以下步骤:
S1:基于卷积神经网络设计目标物体6D位姿估计网络,包含网络共享层、轮廓预测分支和边界框预测分支;
网络共享层由卷积层和池化层组成,用于提取图片中目标物体特征,得到特征图;
轮廓预测分支由上采样层和卷积层组成,每次上采样之后得到的特征图和网络共享层中相同尺度的特征图拼接得到新的特征图,并作为下一个卷积层的输入;
边界框预测分支由一系列全卷积网络以及一个直连层组成,此分支将输入图片划分为S×S个网格,每个网格对应图片中32×32的区域,每个网格输出包含代表3D边界框的9个关键点投影坐标、类别概率,预测框的置信度;边界框预测分支输出维度大小为S×S×D的张量,其中D=(9×2+N+1),N代表目标物体的类别个数,9个关键点为3D边界框的顶点和边界框的中心;
S2:采用不同背景、角度和姿态的目标物体图片作为训练样本以构建训练集,对训练样本进行数据增强,以及轮廓信息标注、分类信息标注和位姿信息标注;
S3:使用步骤S2构建的训练集对目标物体6D位姿估计网络进行训练,通过最小化设计的损失函数优化网络参数,当训练次数达到预设次数时,停止训练并得到6D位姿估计网络模型;
S4:调用S3得到的6D位姿估计网络模型对目标物体图片进行预测,得到目标物体关键点的二维投影坐标;
S5:利用S4中目标物体预测关键点的投影坐标和目标物体的CAD模型关键点三维坐标,通过EPnP算法计算目标物体相对于相机的位姿。
进一步的,目标物体6D位姿估计网络中轮廓预测分支最后一层采用Sigmoid函数,其余非线性激活函均使用Relu函数,每个卷积层均合并了批归一化层。
进一步的,在步骤2中,轮廓信息以二维张量标注,以区分目标物体和背景,轮廓信息张量的维度与网络输入图片相同;分类信息以数字标注,不同类别的物体以不同大小的整数标注;位姿信息以目标物体的3D边界框的8个顶点和1个中心点标注。
进一步的,步骤S3中所设计的损失函数包括几何约束损失函数、轮廓预测损失函数、关键点坐标误差函数、置信度损失函数和类别预测损失函数,具体是:
几何约束损失函数公式:
轮廓预测损失函数:
关键点坐标误差函数:
置信度损失函数:
类别预测损失函数:
整体损失函数:L=Ledge+Lmask+Lpc+Lconf+Lid。
与现有技术相比,本发明的有益效果是:设计了能利用物体轮廓信息提升位姿检测精度的网络,在模型训练阶段,利用目标物体轮廓信息加强网络特征对目标物体边缘的学习,使获得的目标物体特征信息更鲁棒;同时,所设计的训练损失函数包含的几何约束损失函数约束了预测框投影后的形状,防止了预测框的形变;在不需要位姿修正后处理的情况下,本方法对目标物***姿估计快速且精确,可以实时地对目标物体进行6D位姿处理。
附图说明
图1是本发明方法的流程示意图;
图2是本发明中目标物体6D位姿估计网络结构示意图。
具体实施方式
下面结合附图和具体实施方式对本发明作进一步详细的说明。如图1所示,本发明一种利用轮廓信息的6D位姿估计方法,包括以下步骤:
S1:基于卷积神经网络设计目标物体6D位姿估计网络,包括在网络中增加语义分割分支,利用轮廓特权信息约束网络底层特征的学习;
如图2所示,目标物体6D位姿估计网络是基于卷积神经网络进行设计的,其结构一共包括三个部分:网络共享层、轮廓预测分支、边界框预测分支。含目标物体的图片在经过网络共享层后得到特征图,再进入轮廓预测分支和边界框预测分支。其中网络共享层由一系列卷积层和池化层组成,卷积层中使用大小为3×3卷积核,池化层采用最大池化方式压缩特征图。
轮廓预测分支由上采样层和卷积层组成,每次经上采样之后得到的特征图将和共享层中相同尺度的特征图在通道维度上拼接得到新的特征图,前三次拼接的特征图依次通过卷积核为3×3和1×1的卷积层,最后一次的拼接的特征图通过卷积核为3×3的卷积层,再经过Sigmoid层输出目标物体预测轮廓,轮廓预测分支通过和真实轮廓计算交叉熵损失来加强网络底层特征对物体轮廓信息的学习能力。
边界框预测分支由一系列全卷积网络以及一个直连层组成,此分支将输入图片划分为S×S个网格,每个网格对应图片中32×32的区域,每个网格输出包含代表3D边界框的9个关键点投影坐标、类别概率,预测框的置信度。边界框预测分支输出维度大小为S×S×D的张量,其中D=(9×2+N+1),N代表目标物体的类别个数,9个关键点为3D边界框的顶点和边界框的中心。边界预测分支用于计算目标物体分类与位姿信息。
S2:采用不同背景、角度和姿态的目标物体图片作为训练样本,对训练样本进行数据增强,以及轮廓信息标注、分类信息标注和位姿信息标注以构建训练集;
对训练集不同背景、角度和姿态的目标物体图片进行数据增强,可以减少网络过拟合现象,得到泛化能力更强的网络,更好的适应应用场景,具体可对训练样本作如下变换:
1)随机改变训练图片的饱和度和曝光度为原图的1至1.5倍,以及将色调改变为原图的1至1.1倍;
2)随机裁剪训练图片,裁剪尺寸不超过图片大小的10%;
3)以50%的概率将图片水平翻转;
4)随机将训练图片的背景替换成从VOC2012数据集中随机选取出的图片。
训练样本的轮廓信息以二维张量标注,以区分目标物体和背景,轮廓信息张量的维度与网络输入图片相同。目标物体的轮廓张量由其CAD模型计算得出。轮廓张量对应于输入图片背景的区域标注为0,对应于图片中目标物体的区域标注为1。分类信息以不同大小的整数标注,不同类别的物体以不同数字标注。位姿信息以目标物体的3D边界框的8个顶点和1个中心点标注。
S3:使用步骤S2构建的训练集对所述的目标物体6D位姿估计网络进行训练,通过最小化所设计的损失函数优化网络参数,当训练次数达到预设次数时,停止训练并得到6D位姿估计网络模型;
训练过程中模型损失函数包括几何约束损失函数、轮廓预测损失函数、关键点坐标误差函数、置信度损失函数、类别预测损失函数,即:
几何约束损失函数公式:
轮廓预测损失函数:
关键点坐标误差函数:
置信度损失函数:
类别预测损失函数:
整体损失函数:L=Ledge+Lmask+Lpc+Lconf+Lid。
训练过程中采用多尺度输入训练策略,在训练过程中每100个周期之后增大输入网络图片的尺寸。初始学习率0.001,并且在第250个周期后降低为10-4,在第500个周期后降低为10-5,训练800个周期后结束,batch size为16,采用自适应矩估计优化器优化变量。
S4:调用S3得到的6D位姿估计网络模型对目标物体图片进行预测,得到目标物体关键点的二维投影坐标;
通过所述已经训练完成的6D位姿估计的网络,对目标物体图片进行检测;由网络中边界框预测分支的输出得到目标物体9个关键点投影坐标。由于网络中参数已经在训练阶段学习到目标轮廓预测信息,在检测过程中,剪去网络中轮廓预测分支,提升了网络对目标物体的检测速度。
S5:利用S4中目标物体预测关键点的投影坐标和目标物体的CAD模型关键点三维坐标,通过EPnP算法计算目标物体相对于相机的位姿;
在EPnP算法中,世界坐标系中参考点的3D坐标被表示为一组控制点的加权和,首先由3D参考点计算出控制点,再通过高斯-牛顿优化算法确定控制点在相机坐标下的坐标,最后经位姿变换得到目标物体的位姿信息。
Claims (3)
1.一种利用轮廓信息的6D位姿估计方法,其特征在于,包括以下步骤:
S1:基于卷积神经网络设计目标物体6D位姿估计网络,包含网络共享层、轮廓预测分支和边界框预测分支;
网络共享层由卷积层和池化层组成,用于提取图片中目标物体特征,得到特征图;
轮廓预测分支由上采样层和卷积层组成,每次上采样之后得到的特征图和网络共享层中相同尺度的特征图拼接得到新的特征图,并作为下一个卷积层的输入;
边界框预测分支由一系列全卷积网络以及一个直连层组成,此分支将输入图片划分为S×S个网格,每个网格对应图片中32×32的区域,每个网格输出包含代表3D边界框的9个关键点投影坐标、类别概率,预测框的置信度;边界框预测分支输出维度大小为S×S×D的张量,其中D=(9×2+N+1),N代表目标物体的类别个数,9个关键点为3D边界框的顶点和边界框的中心;
S2:采用不同背景、角度和姿态的目标物体图片作为训练样本以构建训练集,对训练样本进行数据增强,以及轮廓信息标注、分类信息标注和位姿信息标注;
S3:使用步骤S2构建的训练集对目标物体6D位姿估计网络进行训练,通过最小化设计的损失函数优化网络参数,当训练次数达到预设次数时,停止训练并得到6D位姿估计网络模型;
S4:调用S3得到的6D位姿估计网络模型对目标物体图片进行预测,得到目标物体关键点的二维投影坐标;
S5:利用S4中目标物体预测关键点的投影坐标和目标物体的CAD模型关键点三维坐标,通过EPnP算法计算目标物体相对于相机的位姿;
步骤S3中所设计的损失函数包括几何约束损失函数、轮廓预测损失函数、关键点坐标误差函数、置信度损失函数和类别预测损失函数,具体是:
几何约束损失函数公式:
轮廓预测损失函数:
关键点坐标误差函数:
置信度损失函数:
类别预测损失函数:
整体损失函数:L=Ledge+Lmask+Lpc+Lconf+Lid。
2.如权利要求1所述的一种利用轮廓信息的6D位姿估计方法,其特征在于,目标物体6D位姿估计网络中轮廓预测分支最后一层采用Sigmoid函数,其余非线性激活函数均使用Relu函数,每个卷积层均合并了批归一化层。
3.如权利要求1所述的一种利用轮廓信息的6D位姿估计方法,其特征在于,在步骤2中,轮廓信息以二维张量标注,以区分目标物体和背景,轮廓信息张量的维度与网络输入图片相同;分类信息以数字标注,不同类别的物体以不同大小的整数标注;位姿信息以目标物体的3D边界框的8个顶点和1个中心点标注。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910569209.2A CN110322510B (zh) | 2019-06-27 | 2019-06-27 | 一种利用轮廓信息的6d位姿估计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910569209.2A CN110322510B (zh) | 2019-06-27 | 2019-06-27 | 一种利用轮廓信息的6d位姿估计方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110322510A CN110322510A (zh) | 2019-10-11 |
CN110322510B true CN110322510B (zh) | 2021-08-27 |
Family
ID=68121222
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910569209.2A Active CN110322510B (zh) | 2019-06-27 | 2019-06-27 | 一种利用轮廓信息的6d位姿估计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110322510B (zh) |
Families Citing this family (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110119148B (zh) * | 2019-05-14 | 2022-04-29 | 深圳大学 | 一种六自由度姿态估计方法、装置及计算机可读存储介质 |
CN111144401B (zh) * | 2019-11-06 | 2024-01-26 | 华能国际电力股份有限公司海门电厂 | 一种电厂集控室深度学习和视觉伺服的触屏控制操作方法 |
CN112884820B (zh) * | 2019-11-29 | 2024-06-25 | 杭州三坛医疗科技有限公司 | 一种影像初始配准及神经网络的训练方法、装置和设备 |
CN111126269B (zh) * | 2019-12-24 | 2022-09-30 | 京东科技控股股份有限公司 | 三维目标检测方法、装置以及存储介质 |
CN111175318A (zh) * | 2020-01-21 | 2020-05-19 | 上海悦易网络信息技术有限公司 | 屏幕划痕碎裂检测方法及设备 |
CN111369571B (zh) * | 2020-02-27 | 2023-06-23 | 北京百度网讯科技有限公司 | 三维物***姿准确性判断方法、装置及电子设备 |
CN111428586B (zh) * | 2020-03-09 | 2023-05-16 | 同济大学 | 基于特征融合与样本增强的三维人体姿态估计方法 |
CN111667535B (zh) * | 2020-06-04 | 2023-04-18 | 电子科技大学 | 一种针对遮挡场景下的六自由度位姿估计方法 |
CN111640167A (zh) * | 2020-06-08 | 2020-09-08 | 上海商汤智能科技有限公司 | 一种ar合影方法、装置、计算机设备及存储介质 |
CN112085789A (zh) * | 2020-08-11 | 2020-12-15 | 深圳先进技术研究院 | 位姿估计方法、装置、设备及介质 |
CN112150551B (zh) * | 2020-09-25 | 2023-07-25 | 北京百度网讯科技有限公司 | 物***姿的获取方法、装置和电子设备 |
CN112163541A (zh) * | 2020-10-09 | 2021-01-01 | 上海云绅智能科技有限公司 | 一种3d目标检测方法、装置、电子设备和存储介质 |
CN112150546B (zh) * | 2020-10-23 | 2023-11-21 | 西华大学 | 一种基于辅助点几何约束的单目视觉位姿估计方法 |
CN112435297B (zh) * | 2020-12-02 | 2023-04-18 | 达闼机器人股份有限公司 | 目标物***姿确定方法、装置、存储介质及电子设备 |
CN112634363B (zh) * | 2020-12-10 | 2023-10-03 | 上海零眸智能科技有限公司 | 一种货架姿态预估方法 |
CN112598040B (zh) * | 2020-12-16 | 2021-11-02 | 浙江方圆检测集团股份有限公司 | 一种基于深度学习的开关一致性实时检测方法 |
CN112634367A (zh) * | 2020-12-25 | 2021-04-09 | 天津大学 | 一种基于深度神经网络的抗遮挡的物***姿估计方法 |
CN113240736A (zh) * | 2021-02-23 | 2021-08-10 | 广东工业大学 | 基于yolo6d改进网络的位姿估计方法及装置 |
CN113436251B (zh) * | 2021-06-24 | 2024-01-09 | 东北大学 | 一种基于改进的yolo6d算法的位姿估计***及方法 |
CN113793472B (zh) * | 2021-09-15 | 2023-01-20 | 应急管理部沈阳消防研究所 | 基于特征深度聚合网络的图像型火灾探测器位姿估计方法 |
CN114119753A (zh) * | 2021-12-08 | 2022-03-01 | 北湾科技(武汉)有限公司 | 面向机械臂抓取的透明物体6d姿态估计方法 |
CN115019136B (zh) * | 2022-08-05 | 2022-11-25 | 山东圣点世纪科技有限公司 | 抗边界点漂移的目标关键点检测模型训练方法及检测方法 |
CN116012422B (zh) * | 2023-03-23 | 2023-06-09 | 西湖大学 | 基于单目视觉的无人机6d位姿估计跟踪方法及其应用 |
CN116664843B (zh) * | 2023-06-05 | 2024-02-20 | 北京信息科技大学 | 一种基于rgbd图像和语义分割的残差拟合抓取检测网络 |
CN116934970A (zh) * | 2023-07-24 | 2023-10-24 | 天津大学 | 一种基于先验知识引导的医学单视图三维重建装置 |
CN117237451B (zh) * | 2023-09-15 | 2024-04-02 | 南京航空航天大学 | 一种基于轮廓重建和几何引导的工业零件6d位姿估计方法 |
CN117474836A (zh) * | 2023-09-27 | 2024-01-30 | 深圳市长盈精密技术股份有限公司 | 形变缺陷的检测方法及装置 |
CN117542122B (zh) * | 2024-01-09 | 2024-03-22 | 北京渲光科技有限公司 | 人***姿估计与三维重建方法、网络训练方法及装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109064514A (zh) * | 2018-07-03 | 2018-12-21 | 北京航空航天大学 | 一种基于投影点坐标回归的六自由度位姿估计算法 |
CN109063301A (zh) * | 2018-07-24 | 2018-12-21 | 杭州师范大学 | 一种基于热力图的单幅图像室内物体姿态估计方法 |
CN109215080A (zh) * | 2018-09-25 | 2019-01-15 | 清华大学 | 基于深度学习迭代匹配的6d姿态估计网络训练方法及装置 |
CN109801337A (zh) * | 2019-01-21 | 2019-05-24 | 同济大学 | 一种基于实例分割网络和迭代优化的6d位姿估计方法 |
CN109816725A (zh) * | 2019-01-17 | 2019-05-28 | 哈工大机器人(合肥)国际创新研究院 | 一种基于深度学习的单目相机物***姿估计方法及装置 |
CN109903332A (zh) * | 2019-01-08 | 2019-06-18 | 杭州电子科技大学 | 一种基于深度学习的目标姿态估计方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108491880B (zh) * | 2018-03-23 | 2021-09-03 | 西安电子科技大学 | 基于神经网络的物体分类和位姿估计方法 |
-
2019
- 2019-06-27 CN CN201910569209.2A patent/CN110322510B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109064514A (zh) * | 2018-07-03 | 2018-12-21 | 北京航空航天大学 | 一种基于投影点坐标回归的六自由度位姿估计算法 |
CN109063301A (zh) * | 2018-07-24 | 2018-12-21 | 杭州师范大学 | 一种基于热力图的单幅图像室内物体姿态估计方法 |
CN109215080A (zh) * | 2018-09-25 | 2019-01-15 | 清华大学 | 基于深度学习迭代匹配的6d姿态估计网络训练方法及装置 |
CN109903332A (zh) * | 2019-01-08 | 2019-06-18 | 杭州电子科技大学 | 一种基于深度学习的目标姿态估计方法 |
CN109816725A (zh) * | 2019-01-17 | 2019-05-28 | 哈工大机器人(合肥)国际创新研究院 | 一种基于深度学习的单目相机物***姿估计方法及装置 |
CN109801337A (zh) * | 2019-01-21 | 2019-05-24 | 同济大学 | 一种基于实例分割网络和迭代优化的6d位姿估计方法 |
Non-Patent Citations (3)
Title |
---|
PoseCNN: A Convolutional Neural Network for 6D Object Pose Estimation in Cluttered Scenes;Yu Xiang等;《Robotics: Science and Systems (RSS)》;20181231;第949-953页 * |
Real-time seamless single shot 6D object pose prediction;Bugra Tekin等;《2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition》;20181217;第292-301页 * |
SegNet: A Deep Convolutional Encoder-Decoder Architecture for Image Segmentation;Vijay Badrinarayanan等;《IEEE Transactions on Pattern Analysis and Machine Intelligence》;20170102;第2481-2495页 * |
Also Published As
Publication number | Publication date |
---|---|
CN110322510A (zh) | 2019-10-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110322510B (zh) | 一种利用轮廓信息的6d位姿估计方法 | |
CN110135503B (zh) | 一种装配机器人零件深度学习识别方法 | |
CN111695562B (zh) | 一种基于卷积神经网络的机器人自主抓取方法 | |
CN110930454A (zh) | 一种基于边界框外关键点定位的六自由度位姿估计算法 | |
CN111783772A (zh) | 一种基于RP-ResNet网络的抓取检测方法 | |
CN111553949B (zh) | 基于单帧rgb-d图像深度学习对不规则工件的定位抓取方法 | |
CN111627050B (zh) | 一种目标跟踪模型的训练方法和装置 | |
US11475589B2 (en) | 3D pose estimation by a 2D camera | |
CN112149590A (zh) | 一种手部关键点检测方法 | |
US11554496B2 (en) | Feature detection by deep learning and vector field estimation | |
CN115147488B (zh) | 一种基于密集预测的工件位姿估计方法与抓取*** | |
CN114120045B (zh) | 一种基于多门控混合专家模型的目标检测方法和装置 | |
Yang et al. | An improved algorithm for the detection of fastening targets based on machine vision | |
Wu et al. | A cascaded CNN-based method for monocular vision robotic grasping | |
JP2021163502A (ja) | 複数の2次元カメラによる3次元の姿勢推定 | |
Ozkahraman et al. | Artificial intelligence in foreign object classification in fenceless robotic work cells using 2-D safety cameras | |
CN115100136A (zh) | 基于YOLOv4-tiny模型的工件类别与位姿估计方法 | |
CN114782360A (zh) | 基于DCT-YOLOv5模型的实时番茄姿态检测方法 | |
Zhang et al. | Object detection and grabbing based on machine vision for service robot | |
Beknazarova et al. | Machine learning algorithms are used to detect and track objects on video images | |
CN116363085B (zh) | 基于小样本学习和虚拟合成数据的工业零件目标检测方法 | |
Fan et al. | Multitarget Flexible Grasping Detection Method for Robots in Unstructured Environments. | |
He et al. | Application of Computer Vision and Neural Networks in Feature Extraction and Optimization of Industrial Product Design | |
Li et al. | Design of Intelligent Grabbing System Based on ROS | |
CN117773920A (zh) | 一种自然语言驱动的机械臂抓取方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |