CN110599544A - 一种基于机器视觉的工件定位方法及装置 - Google Patents

一种基于机器视觉的工件定位方法及装置 Download PDF

Info

Publication number
CN110599544A
CN110599544A CN201910731047.8A CN201910731047A CN110599544A CN 110599544 A CN110599544 A CN 110599544A CN 201910731047 A CN201910731047 A CN 201910731047A CN 110599544 A CN110599544 A CN 110599544A
Authority
CN
China
Prior art keywords
target workpiece
frame
workpiece
image
dimensional coordinate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910731047.8A
Other languages
English (en)
Other versions
CN110599544B (zh
Inventor
罗陆锋
黄豪杰
卢清华
陈为林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Foshan University
Original Assignee
Foshan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Foshan University filed Critical Foshan University
Priority to CN201910731047.8A priority Critical patent/CN110599544B/zh
Publication of CN110599544A publication Critical patent/CN110599544A/zh
Application granted granted Critical
Publication of CN110599544B publication Critical patent/CN110599544B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及智能机器人技术领域,具体涉及一种基于机器视觉的工件定位方法及装置,首先确定目标工件,采集Kinect相机拍摄的图像,检测所述图像中包含所述目标工件图像的预测框;进而根据所述预测框的回归坐标确定所述目标工件的轮廓,以及目标工件中心点的二维坐标;接着获取所述Kinect相机的标定参数,根据所述标定参数和所述目标工件中心点的二维坐标得出目标工件中心点的三维坐标;最后将所述目标工件的轮廓和所述目标工件中心点的三维坐标作为目标工件的定位结果,本发明可以对工件进行准确的识别与定位。

Description

一种基于机器视觉的工件定位方法及装置
技术领域
本发明涉及智能机器人技术领域,具体涉及一种基于机器视觉的工件定位方法及装置。
背景技术
当前对于工件的分拣,包装主要还是依靠人工操作,这种原始的人工分拣、包装方式效率低下,难以适应对大批量工件的分拣与包装,另一方面,人工分拣相对于机械来说亦较容易出现错误。采用机械手代替人工操作对工件进行分拣与包装能有效加快工作效率,减少人工分拣时出现的错误。而采用机械手代替人工操作的前提条件是需要对工件进行准确的识别与定位。而如何对工件进行准确的识别与定位成为值得研究的问题。
发明内容
为解决上述问题,本发明提供一种基于机器视觉的工件定位方法及装置,可以对工件进行准确的识别与定位。
为了实现上述目的,本发明提供以下技术方案:
一种基于机器视觉的工件定位方法,包括:
确定目标工件,采集Kinect相机拍摄的图像,检测所述图像中包含所述目标工件图像的预测框;
根据所述预测框的回归坐标确定所述目标工件的轮廓,以及目标工件中心点的二维坐标;
获取所述Kinect相机的标定参数,根据所述标定参数和所述目标工件中心点的二维坐标得出目标工件中心点的三维坐标;
将所述目标工件的轮廓和所述目标工件中心点的三维坐标作为目标工件的定位结果。
优选的,所述检测所述图像中包含所述目标工件图像的预测框,包括:
获取多张原始图像,所述原始图像中包含所述目标工件图像;
通过人工方式标注出每张所述原始图像中目标工件图像的区域框,将标注了区域框的原始图像作为训练图像,将多张所述训练图像作为训练图像集;
将所述训练图像集输入Faster-R-CNN神经网络进行训练,输出测试框,其中,所述测试框包括工件框和背景框,所述Faster-R-CNN神经网络的输出层包括背景标签和目标工件标签;
将所述测试框和区域框进行比对,根据所述比对结果将所述测试框划分为背景框和包含目标工件图像的工件框,直至完成对所述训练图像集的训练;
将完成训练后的Faster-R-CNN神经网络作为检测模型;
将Kinect相机拍摄的图像输入所述检测模型,检测出包含所述目标工件图像的预测框。
优选的,所述将所述测试框和区域框进行比对,根据所述比对结果将所述测试框划分为背景框和包含目标工件图像的工件框,具体为:
通过以下公式计算所述测试框和区域框的重合度:
其中,GT表示测试框,ER表示区域框,area(GT∩ER)为所述测试框和区域框的重叠区域,area(GT∪ER)为所述测试框和区域框的合并区域,IOU为所述测试框和区域框的重合度;
将所述重合度大于0.7的测试框作为工件框,将所述重合度小于0.3的测试框作为背景框。
优选的,所述根据所述预测框的回归坐标确定所述目标工件的轮廓,以及目标工件中心点的二维坐标,包括:
对所述预测框进行阈值化处理,生成二值化图像;
采用边缘检测算法检测所述二值化图像的边缘轮廓,通过最小外接矩形法获取所述边缘轮廓的最小外接矩形,将所述最小外接矩形作为目标工件的轮廓;
计算所述最小外接矩形的中心点坐标,将所述中心点坐标作为目标工件中心点的二维坐标。
进一步,所述根据所述标定参数和所述目标工件中心点的二维坐标得出目标工件中心点的三维坐标,具体为:
获取相机的标定参数,所述标定参数包括:相机在x轴上的焦距fx,相机在y轴上的焦距fy,相机在x轴上的光圈中心cx,相机在y轴上的光圈中心cy,深度图的缩放因子s,深度图的深度值d;
通过以下公式计算目标工件中心点的三维坐标:
d=z·s
其中,(u,v)为目标工件中心点的二维坐标,(x,y,z)为目标工件中心点的三维坐标。
一种基于机器视觉的工件定位装置,所述装置包括:存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序运行在以下装置的模块中:
预测框检测模块,用于确定目标工件,采集Kinect相机拍摄的图像,检测所述图像中包含所述目标工件图像的预测框;
目标工件确定模块,用于根据所述预测框的回归坐标确定所述目标工件的轮廓,以及目标工件中心点的二维坐标;
三维坐标模块,用于获取所述Kinect相机的标定参数,根据所述标定参数和所述目标工件中心点的二维坐标得出目标工件中心点的三维坐标;
定位结果模块,用于将所述目标工件的轮廓和所述目标工件中心点的三维坐标作为目标工件的定位结果。
本发明的有益效果是:本发明公开一种基于机器视觉的工件定位方法及装置,首先确定目标工件,采集Kinect相机拍摄的图像,检测所述图像中包含所述目标工件图像的预测框;进而根据所述预测框的回归坐标确定所述目标工件的轮廓,以及目标工件中心点的二维坐标;接着获取所述Kinect相机的标定参数,根据所述标定参数和所述目标工件中心点的二维坐标得出目标工件中心点的三维坐标;最后将所述目标工件的轮廓和所述目标工件中心点的三维坐标作为目标工件的定位结果。本发明可以对工件进行准确的识别与定位。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例一种基于机器视觉的工件定位方法的流程示意图;
图2是本发明实施例一种基于机器视觉的工件定位装置的结构示意图。
具体实施方式
以下将结合实施例和附图对本公开的构思、具体结构及产生的技术效果进行清楚、完整的描述,以充分地理解本公开的目的、方案和效果。需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。
如图1所示为一种基于机器视觉的工件定位方法,包括以下步骤:
步骤S100、确定目标工件,采集Kinect相机拍摄的图像,检测所述图像中包含所述目标工件图像的预测框;
步骤S200、根据所述预测框的回归坐标确定所述目标工件的轮廓,以及目标工件中心点的二维坐标;
步骤S300、获取所述Kinect相机的标定参数,根据所述标定参数和所述目标工件中心点的二维坐标得出目标工件中心点的三维坐标;
步骤S400、将所述目标工件的轮廓和所述目标工件中心点的三维坐标作为目标工件的定位结果。
本实施例首先对Kinect相机拍摄的图像进行处理,检测所述图像中包含所述目标工件图像的预测框,初步确定所述目标工件图像的区域,进而根据所述预测框的回归坐标确定所述目标工件的轮廓,从而进一步提取所述目标工件的轮廓这一有效特征,在确定好所述目标工件的轮廓之后,即可确定目标工件中心点的二维坐标;接下来需要确定目标工件中心点的三维坐标,通过数学模型可以建立目标工件中心点的二维坐标到三维坐标的转换关系,在这个转换关系的数学模型中,所述Kinect相机的标定参数为已知参数,在确定好具体的相机型号后即可获取得到,根据所述标定参数和所述目标工件中心点的二维坐标即可得出目标工件中心点的三维坐标,最后将所述目标工件的轮廓和所述目标工件中心点的三维坐标作为目标工件的定位结果,从而对工件进行准确的识别与定位。
在工件实际的加工生产环境中,分拣机器人往往需要在杂乱和非线性光照条件变化的环境下作业;另一方面,工件的零乱、堆叠摆放,尤其是五金工件材质的反光特性和非规则形状,这些复杂工况都加大了摄像机视觉识别的难度,视觉定位的精度也难以保证。
在一个优选的实施例中,所述步骤S100中,检测所述图像中包含所述目标工件图像的预测框,包括:
获取多张原始图像,所述原始图像中包含所述目标工件图像;
标注每张所述原始图像中目标工件图像的区域框,将标注了区域框的原始图像作为训练图像,将多张所述训练图像作为训练图像集。本实施例可通过人工方式对每张所述原始图像中目标工件图像的区域框进行标注。
将所述训练图像集输入Faster-R-CNN神经网络进行训练,输出测试框,其中,所述测试框包括工件框和背景框,所述Faster-R-CNN神经网络的输出层包括背景标签和目标工件标签;
将所述测试框和区域框进行比对,根据所述比对结果将所述测试框划分为背景框和包含目标工件图像的工件框,直至完成对所述训练图像集的训练;
将完成训练后的Faster-R-CNN神经网络作为检测模型;
将Kinect相机拍摄的图像输入所述检测模型,检测出包含所述目标工件图像的预测框。
本实施例可对复杂工况下的工件进行视觉识别与视觉定位,通过Kinect相机获取RGB图像,再使用改进后的Faster-R-CNN神经网络检测出目标工件的位置,把目标工件从复杂的背景中提取出来,得到目标工件在RGB图像中的位置,最后再结合Kinect相机采集到的深度信息,最终得出目标工件的三维空间坐标。从而对目标工件进行视觉识别与视觉定位,便于分拣机器人对目标工件实现快速准确的抓取。
在一个优选的实施例中,所述将所述测试框和区域框进行比对,根据所述比对结果将所述测试框划分为背景框和包含目标工件图像的工件框,具体为:
通过以下公式计算所述测试框和区域框的重合度:
其中,GT表示测试框,ER表示区域框,area(GT∩ER)为所述测试框和区域框的重叠区域,area(GT∪ER)为所述测试框和区域框的合并区域,IOU为所述测试框和区域框的重合度;
将所述重合度大于0.7的测试框作为工件框,将所述重合度小于0.3的测试框作为背景框。
本实施例中,通过计算所述测试框和区域框的重合度,将所述测试框划分为背景框和包含目标工件图像的工件框进行有效分离,提高了视觉定位的精度。
在一个优选的实施例中,所述根据所述预测框的回归坐标确定所述目标工件的轮廓,以及目标工件中心点的二维坐标,包括:
对所述预测框进行阈值化处理,生成二值化图像。
本实施例所述阈值为RGB值,通过二值化处理,降低了图像处理的复杂度。在一个具体的实施例中,所述二值化处理的阈值为100。
采用边缘检测算法检测所述二值化图像的边缘轮廓,通过最小外接矩形法获取所述边缘轮廓的最小外接矩形,将所述最小外接矩形作为目标工件的轮廓;
本实施例中,所述二值化图像的边缘轮廓是对所述目标工件初步界定的轮廓,为提高对所述目标工件定位的精确度,采用最小外接矩形法获取所述边缘轮廓的最小外接矩形,将所述最小外接矩形作为目标工件的轮廓。
计算所述最小外接矩形的中心点坐标,将所述中心点坐标作为目标工件中心点的二维坐标。
在一个优选的实施例中,所述步骤S300具体为:
获取相机的标定参数,所述标定参数包括:相机在x轴上的焦距fx,相机在y轴上的焦距fy,相机在x轴上的光圈中心cx,相机在y轴上的光圈中心cy,深度图的缩放因子s,深度图的深度值d;
通过以下公式计算目标工件中心点的三维坐标:
d=z·s
其中,(u,v)为目标工件中心点的二维坐标,(x,y,z)为目标工件中心点的三维坐标。
在一个实施例中,可将计算得出的目标工件中心点的二维坐标传回Kinect传感器,结合Kinect相机的标定参数,通过Kinect SDK的Map-Color-Frame-To-Camera-Space函数可得到目标工件中心点的三维坐标。
参考图2,本实施例还提供一种基于机器视觉的工件定位装置,所述装置包括:存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序运行在以下装置的模块中:
预测框检测模块100,用于确定目标工件,采集Kinect相机拍摄的图像,检测所述图像中包含所述目标工件图像的预测框;
目标工件确定模块200,用于根据所述预测框的回归坐标确定所述目标工件的轮廓,以及目标工件中心点的二维坐标;
三维坐标模块300,用于获取所述Kinect相机的标定参数,根据所述标定参数和所述目标工件中心点的二维坐标得出目标工件中心点的三维坐标;
定位结果模块400,用于将所述目标工件的轮廓和所述目标工件中心点的三维坐标作为目标工件的定位结果。
所述一种基于机器视觉的工件定位装置可以运行于桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备中。所述一种基于机器视觉的工件定位装置,可运行的装置可包括,但不仅限于,处理器、存储器。本领域技术人员可以理解,所述例子仅仅是一种基于机器视觉的工件定位装置的示例,并不构成对一种基于机器视觉的工件定位装置的限定,可以包括比例子更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述一种基于机器视觉的工件定位装置还可以包括输入输出设备、网络接入设备、总线等。
所称处理器可以是中央处理单元(Central-Processing-Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital-Signal-Processor,DSP)、专用集成电路(Application-Specific-Integrated-Circuit,ASIC)、现成可编程门阵列(Field-Programmable-Gate-Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等,所述处理器是所述一种基于机器视觉的工件定位装置运行装置的控制中心,利用各种接口和线路连接整个一种基于机器视觉的工件定位装置可运行装置的各个部分。
所述存储器可用于存储所述计算机程序和/或模块,所述处理器通过运行或执行存储在所述存储器内的计算机程序和/或模块,以及调用存储在存储器内的数据,实现所述一种基于机器视觉的工件定位装置的各种功能。所述存储器可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作***、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器可以包括高速随机存取存储器,还可以包括非易失性存储器,例如硬盘、内存、插接式硬盘,智能存储卡(Smart-Media-Card,SMC),安全数字(Secure-Digital,SD)卡,闪存卡(Flash-Card)、至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
尽管本公开的描述已经相当详尽且特别对几个所述实施例进行了描述,但其并非旨在局限于任何这些细节或实施例或任何特殊实施例,而是应当将其视作是通过参考所附权利要求考虑到现有技术为这些权利要求提供广义的可能性解释,从而有效地涵盖本公开的预定范围。此外,上文以发明人可预见的实施例对本公开进行描述,其目的是为了提供有用的描述,而那些目前尚未预见的对本公开的非实质性改动仍可代表本公开的等效改动。

Claims (6)

1.一种基于机器视觉的工件定位方法,其特征在于,包括:
确定目标工件,采集Kinect相机拍摄的图像,检测所述图像中包含所述目标工件图像的预测框;
根据所述预测框的回归坐标确定所述目标工件的轮廓,以及目标工件中心点的二维坐标;
获取所述Kinect相机的标定参数,根据所述标定参数和所述目标工件中心点的二维坐标得出目标工件中心点的三维坐标;
将所述目标工件的轮廓和所述目标工件中心点的三维坐标作为目标工件的定位结果。
2.根据权利要求1所述的一种基于机器视觉的工件定位方法,其特征在于,所述检测所述图像中包含所述目标工件图像的预测框,包括:
获取多张原始图像,所述原始图像中包含所述目标工件图像;
标注出每张所述原始图像中目标工件图像的区域框,将标注了区域框的原始图像作为训练图像,将多张所述训练图像作为训练图像集;
将所述训练图像集输入Faster-R-CNN神经网络进行训练,输出测试框,其中,所述测试框包括工件框和背景框,所述Faster-R-CNN神经网络的输出层包括背景标签和目标工件标签;
将所述测试框和区域框进行比对,根据所述比对结果将所述测试框划分为背景框和包含目标工件图像的工件框,直至完成对所述训练图像集的训练;
将完成训练后的Faster-R-CNN神经网络作为检测模型;
将Kinect相机拍摄的图像输入所述检测模型,检测出包含所述目标工件图像的预测框。
3.根据权利要求2所述的一种基于机器视觉的工件定位方法,其特征在于,所述将所述测试框和区域框进行比对,根据所述比对结果将所述测试框划分为背景框和包含目标工件图像的工件框,具体为:
通过以下公式计算所述测试框和区域框的重合度:
其中,GT表示测试框,ER表示区域框,area(GT∩ER)为所述测试框和区域框的重叠区域,area(GT∪ER)为所述测试框和区域框的合并区域,IOU为所述测试框和区域框的重合度;
将所述重合度大于0.7的测试框作为工件框,将所述重合度小于0.3的测试框作为背景框。
4.根据权利要求1所述的一种基于机器视觉的工件定位方法,其特征在于,所述根据所述预测框的回归坐标确定所述目标工件的轮廓,以及目标工件中心点的二维坐标,包括:
对所述预测框进行阈值化处理,生成二值化图像;
采用边缘检测算法检测所述二值化图像的边缘轮廓,通过最小外接矩形法获取所述边缘轮廓的最小外接矩形,将所述最小外接矩形作为目标工件的轮廓;
计算所述最小外接矩形的中心点坐标,将所述中心点坐标作为目标工件中心点的二维坐标。
5.根据权利要求1所述的一种基于机器视觉的工件定位方法,其特征在于,所述根据所述标定参数和所述目标工件中心点的二维坐标得出目标工件中心点的三维坐标,具体为:
获取相机的标定参数,所述标定参数包括:相机在x轴上的焦距fx,相机在y轴上的焦距fy,相机在x轴上的光圈中心cx,相机在y轴上的光圈中心cy,深度图的缩放因子s,深度图的深度值d;
通过以下公式计算目标工件中心点的三维坐标:
d=z·s
其中,(u,v)为目标工件中心点的二维坐标,(x,y,z)为目标工件中心点的三维坐标。
6.一种基于机器视觉的工件定位装置,其特征在于,所述装置包括:存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序运行在以下装置的模块中:
预测框检测模块,用于确定目标工件,采集Kinect相机拍摄的图像,检测所述图像中包含所述目标工件图像的预测框;
目标工件确定模块,用于根据所述预测框的回归坐标确定所述目标工件的轮廓,以及目标工件中心点的二维坐标;
三维坐标模块,用于获取所述Kinect相机的标定参数,根据所述标定参数和所述目标工件中心点的二维坐标得出目标工件中心点的三维坐标;
定位结果模块,用于将所述目标工件的轮廓和所述目标工件中心点的三维坐标作为目标工件的定位结果。
CN201910731047.8A 2019-08-08 2019-08-08 一种基于机器视觉的工件定位方法及装置 Active CN110599544B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910731047.8A CN110599544B (zh) 2019-08-08 2019-08-08 一种基于机器视觉的工件定位方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910731047.8A CN110599544B (zh) 2019-08-08 2019-08-08 一种基于机器视觉的工件定位方法及装置

Publications (2)

Publication Number Publication Date
CN110599544A true CN110599544A (zh) 2019-12-20
CN110599544B CN110599544B (zh) 2023-01-24

Family

ID=68853693

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910731047.8A Active CN110599544B (zh) 2019-08-08 2019-08-08 一种基于机器视觉的工件定位方法及装置

Country Status (1)

Country Link
CN (1) CN110599544B (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111069073A (zh) * 2019-12-31 2020-04-28 芜湖哈特机器人产业技术研究院有限公司 胶圈分拣设备
CN111178296A (zh) * 2019-12-31 2020-05-19 深圳市鲲鹏智能装备制造有限公司 多工件视觉定位和识别方法
CN111292374A (zh) * 2020-01-21 2020-06-16 上海悦易网络信息技术有限公司 一种自动插拔usb接口的方法及设备
CN111310637A (zh) * 2020-02-11 2020-06-19 山西大学 一种基于尺度不变网络的机器人目标抓取检测方法
CN111580902A (zh) * 2020-04-20 2020-08-25 微梦创科网络科技(中国)有限公司 一种基于图片分析的移动端元素定位方法及***
CN111844019A (zh) * 2020-06-10 2020-10-30 安徽鸿程光电有限公司 一种机器抓取位置确定方法、设备、电子设备和存储介质
CN112215893A (zh) * 2020-10-28 2021-01-12 安徽农业大学 目标二维中心坐标点确定方法、装置、设备及测距***
CN113592955A (zh) * 2021-07-27 2021-11-02 中国科学院西安光学精密机械研究所 一种基于机器视觉的圆形工件平面坐标高精度定位方法
CN113723389A (zh) * 2021-08-30 2021-11-30 广东电网有限责任公司 一种支柱式绝缘子定位方法及装置
CN113763400A (zh) * 2021-09-10 2021-12-07 深圳市高川自动化技术有限公司 一种机器人视觉导引方法、装置、设备及存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105512683A (zh) * 2015-12-08 2016-04-20 浙江宇视科技有限公司 基于卷积神经网络的目标定位方法及装置
CN106683070A (zh) * 2015-11-04 2017-05-17 杭州海康威视数字技术股份有限公司 基于深度相机的身高测量方法及装置
CN106969706A (zh) * 2017-04-02 2017-07-21 聊城大学 基于双目立体视觉的工件检测与三维测量***及检测方法
CN107194396A (zh) * 2017-05-08 2017-09-22 武汉大学 国土资源视频监控***中基于特定违章建筑识别预警方法
CN108010074A (zh) * 2017-10-19 2018-05-08 宁波蓝圣智能科技有限公司 一种基于机器视觉的工件检测方法及***
CN108596030A (zh) * 2018-03-20 2018-09-28 杭州电子科技大学 基于Faster R-CNN的声呐目标检测方法
US20190043003A1 (en) * 2017-08-07 2019-02-07 Standard Cognition, Corp Predicting inventory events using foreground/background processing
CN109598785A (zh) * 2018-11-28 2019-04-09 佛山科学技术学院 一种三维网格模型视图转换方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106683070A (zh) * 2015-11-04 2017-05-17 杭州海康威视数字技术股份有限公司 基于深度相机的身高测量方法及装置
CN105512683A (zh) * 2015-12-08 2016-04-20 浙江宇视科技有限公司 基于卷积神经网络的目标定位方法及装置
CN106969706A (zh) * 2017-04-02 2017-07-21 聊城大学 基于双目立体视觉的工件检测与三维测量***及检测方法
CN107194396A (zh) * 2017-05-08 2017-09-22 武汉大学 国土资源视频监控***中基于特定违章建筑识别预警方法
US20190043003A1 (en) * 2017-08-07 2019-02-07 Standard Cognition, Corp Predicting inventory events using foreground/background processing
CN108010074A (zh) * 2017-10-19 2018-05-08 宁波蓝圣智能科技有限公司 一种基于机器视觉的工件检测方法及***
CN108596030A (zh) * 2018-03-20 2018-09-28 杭州电子科技大学 基于Faster R-CNN的声呐目标检测方法
CN109598785A (zh) * 2018-11-28 2019-04-09 佛山科学技术学院 一种三维网格模型视图转换方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
宋西平 等: ""基于机器视觉的葡萄采摘点三维空间定位***的研究"", 《江苏农业科学》 *

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111178296A (zh) * 2019-12-31 2020-05-19 深圳市鲲鹏智能装备制造有限公司 多工件视觉定位和识别方法
CN111069073A (zh) * 2019-12-31 2020-04-28 芜湖哈特机器人产业技术研究院有限公司 胶圈分拣设备
CN111178296B (zh) * 2019-12-31 2024-03-01 深圳市鲲鹏智能装备制造有限公司 多工件视觉定位和识别方法
CN111292374A (zh) * 2020-01-21 2020-06-16 上海悦易网络信息技术有限公司 一种自动插拔usb接口的方法及设备
CN111292374B (zh) * 2020-01-21 2022-12-02 上海万物新生环保科技集团有限公司 一种自动插拔usb接口的方法及设备
CN111310637B (zh) * 2020-02-11 2022-11-11 山西大学 一种基于尺度不变网络的机器人目标抓取检测方法
CN111310637A (zh) * 2020-02-11 2020-06-19 山西大学 一种基于尺度不变网络的机器人目标抓取检测方法
CN111580902A (zh) * 2020-04-20 2020-08-25 微梦创科网络科技(中国)有限公司 一种基于图片分析的移动端元素定位方法及***
CN111580902B (zh) * 2020-04-20 2024-01-26 微梦创科网络科技(中国)有限公司 一种基于图片分析的移动端元素定位方法及***
CN111844019B (zh) * 2020-06-10 2021-11-16 安徽鸿程光电有限公司 一种机器抓取位置确定方法、设备、电子设备和存储介质
CN111844019A (zh) * 2020-06-10 2020-10-30 安徽鸿程光电有限公司 一种机器抓取位置确定方法、设备、电子设备和存储介质
CN112215893B (zh) * 2020-10-28 2022-10-28 安徽农业大学 目标二维中心坐标点确定方法、装置、设备及测距***
CN112215893A (zh) * 2020-10-28 2021-01-12 安徽农业大学 目标二维中心坐标点确定方法、装置、设备及测距***
CN113592955A (zh) * 2021-07-27 2021-11-02 中国科学院西安光学精密机械研究所 一种基于机器视觉的圆形工件平面坐标高精度定位方法
CN113592955B (zh) * 2021-07-27 2024-04-09 中国科学院西安光学精密机械研究所 一种基于机器视觉的圆形工件平面坐标高精度定位方法
CN113723389A (zh) * 2021-08-30 2021-11-30 广东电网有限责任公司 一种支柱式绝缘子定位方法及装置
CN113763400A (zh) * 2021-09-10 2021-12-07 深圳市高川自动化技术有限公司 一种机器人视觉导引方法、装置、设备及存储介质

Also Published As

Publication number Publication date
CN110599544B (zh) 2023-01-24

Similar Documents

Publication Publication Date Title
CN110599544B (zh) 一种基于机器视觉的工件定位方法及装置
CN110826416B (zh) 一种基于深度学习的卫浴陶瓷表面缺陷检测方法及装置
CN111178250B (zh) 物体识别定位方法、装置及终端设备
CN112837371B (zh) 基于3d匹配的物体抓取方法、装置及计算设备
CN108364311B (zh) 一种金属部件自动定位方法及终端设备
US9483707B2 (en) Method and device for recognizing a known object in a field of view of a three-dimensional machine vision system
TWI566204B (zh) 三維物件識別技術
JP7049983B2 (ja) 物体認識装置および物体認識方法
JP7316731B2 (ja) ビジョンシステムで画像内のパターンを検出及び分類するためのシステム及び方法
CN109955244B (zh) 一种基于视觉伺服的抓取控制方法、装置和机器人
CN107895166B (zh) 基于特征描述子的几何哈希法实现目标鲁棒识别的方法
CN117961912A (zh) 一种机械手臂控制方法、装置、电子设备及介质
CN108145712B (zh) 一种机器人分拣物品的方法、装置及机器人
CN112308836B (zh) 角点检测方法、装置、电子设备及可读存储介质
Bhuyan et al. Structure‐aware multiple salient region detection and localization for autonomous robotic manipulation
Patil et al. Sift based approach: Object recognition and localization for pick-and-place system
CN112991423B (zh) 物流包裹的分类方法、装置、设备及存储介质
CN118135179B (zh) 切割板件的级联识别方法、装置、计算机设备和存储介质
Affes et al. Detection and location of sheet metal parts for industrial robots
Chen et al. A survey of 2d and 3d image matching in industrial object alignment
Jain et al. Robust active vision industrial CAD parts recognition system
US20240238968A1 (en) Runtime assessment of suction grasp feasibility
Kozyr et al. Algorithm for Determining Target Point of Manipulator for Grasping an Object Using Combined Sensing Means
Liu et al. Research on improved diffusion algorithm based on gradient quantization in target localization algorithm
Bhuyan et al. Saliency based fast object localization and recognition for mechanical assembly

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
EE01 Entry into force of recordation of patent licensing contract
EE01 Entry into force of recordation of patent licensing contract

Application publication date: 20191220

Assignee: Foshan Xiangyuan Furniture Manufacturing Co.,Ltd.

Assignor: FOSHAN University

Contract record no.: X2023980054076

Denomination of invention: A machine vision based workpiece positioning method and device

Granted publication date: 20230124

License type: Common License

Record date: 20231227

Application publication date: 20191220

Assignee: GUANGZHOU YUANFANG COMPUTER SOFTWARE ENGINEERING Co.,Ltd.

Assignor: FOSHAN University

Contract record no.: X2023980054075

Denomination of invention: A machine vision based workpiece positioning method and device

Granted publication date: 20230124

License type: Common License

Record date: 20231227

EE01 Entry into force of recordation of patent licensing contract
EE01 Entry into force of recordation of patent licensing contract

Application publication date: 20191220

Assignee: FOSHAN WEISHANG FURNITURE MANUFACTURING Co.,Ltd.

Assignor: FOSHAN University

Contract record no.: X2023980054621

Denomination of invention: A machine vision based workpiece positioning method and device

Granted publication date: 20230124

License type: Common License

Record date: 20240102