CN112419314B - 一种基于相关性的特征点剔除方法 - Google Patents

一种基于相关性的特征点剔除方法 Download PDF

Info

Publication number
CN112419314B
CN112419314B CN202011455302.XA CN202011455302A CN112419314B CN 112419314 B CN112419314 B CN 112419314B CN 202011455302 A CN202011455302 A CN 202011455302A CN 112419314 B CN112419314 B CN 112419314B
Authority
CN
China
Prior art keywords
coordinates
error
standard
points
reprojection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011455302.XA
Other languages
English (en)
Other versions
CN112419314A (zh
Inventor
郭寅
郭磊
尹仕斌
付康龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yi Si Si Hangzhou Technology Co ltd
Original Assignee
Isvision Hangzhou Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Isvision Hangzhou Technology Co Ltd filed Critical Isvision Hangzhou Technology Co Ltd
Priority to CN202011455302.XA priority Critical patent/CN112419314B/zh
Publication of CN112419314A publication Critical patent/CN112419314A/zh
Application granted granted Critical
Publication of CN112419314B publication Critical patent/CN112419314B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于相关性的特征点剔除方法,用于视觉引导装配/抓取过程,预先获取标准坐标、理论坐标;采集测量坐标,利用第一重投影误差;判断是否需要剔除错误特征点,查找错误特征点的方法为:为多个特征点排序;按照排序,依次剔除第i个特征点:并计算其对应的标准重投影误差数组、测量重投影误差数组;计算第i个特征点所对应的标准重投影误差数组和测量重投影误差数组之间相关性系数;从多个相关性系数中找到异常点,再从异常点中找到错误特征点;本方法得出的两数组不仅相关度高且集合中各元素的幅值接近;进而保障剩余特征点的准确性,提高了装配/抓件的精确性。

Description

一种基于相关性的特征点剔除方法
技术领域
本发明涉及视觉引导领域,具体涉及一种基于相关性的特征点剔除方法。
背景技术
视觉引导通常利用视觉传感器采集工件图像,并与先前示教的标准工件图像对比,分析两次测点坐标之间的偏差,补偿抓件/装配机器人轨迹,进而实现智能化装配流程;在此过程中,因待装配/抓取工件的摆放位置不可能和标准工件放置在检测位置时完全重合,且不同工件之间也存在加工误差,此时若待装配/抓取工件落位在检测位置上的偏差较大或其本身加工过程中某一测点位置处的形变较大,在获取待装配/抓取工件特征点实测坐标时可能会出现个别特征点的实测坐标解算错误、特征点误匹配的情况,进而影响后续的偏差解算,造成机器人抓件/装配失败。
发明内容
为了解决上述问题,本发明提出一种基于相关性的特征点剔除方法,其利用标准工件在检测位置的标准坐标及其重投影误差为基准,每次剔除单个特征点,利用剩余点计算标准重投影误差数组和测量重投影误差数组,能够更好的体现引导过程中各个测点的整体性、关联性;利用相关性查找出异常点,进一步从异常点中找到错误特征点,得出的两数组不仅相关度高且集合中各元素的幅值接近;保障剩余特征点的准确性,进而获得更加准确的偏移量,提高装配/抓件的精确性。
一种基于相关性的特征点剔除方法,用于视觉引导装配/抓取过程,预先设定检测位置,将标准工件放置在所述检测位置(经示教,机器人能够正确装配/抓件),视觉传感器获取标准工件各个特征点的坐标,记为标准坐标(已对图像进行了畸变矫正);所述特征点为预先在标准工件上选取多个测点,将各个特征点在工件数模上的坐标记为理论坐标;
在视觉引导过程中,多个待装配/抓取工件分别放置在所述检测位置,每次放置工件,视觉引导传感器对应采集当前工件上的特征点坐标,记为测量坐标(已对图像进行了畸变矫正);
分别计算每个特征点测量坐标与其理论坐标之间的第一重投影误差;将各个特征点对应的第一重投影误差求取误差平方和,判断误差平方和是否小于容差阈值T:
若是,则利用所有特征点的测量坐标与理论坐标计算工件偏差,并反馈给机器人,机器人根据工件偏差调整轨迹对当前工件进行装配/抓取;
若否,则查找错误特征点,将其剔除,再利用余下的特征点的测量坐标与理论坐标计算工件偏差,并反馈给机器人,机器人根据工件偏差调整轨迹对当前工件进行装配/抓取;所述余下的特征点数量不少于4个,否则,需要重新调整工件,视觉引导传感器再次采集当前工件上的特征点的测量坐标;
所述查找错误特征点的方法为:
1)为多个特征点排序;按照排序,依次剔除第i个特征点:i=1,2……特征点总数;
利用余下特征点的标准坐标、理论坐标计算标准重投影误差;将其标记为第i个特征点所对应的标准重投影误差;
利用余下特征点的测量坐标、理论坐标计算第i个特征点所对应的测量重投影误差;
将单个特征点所对应的标准重投影误差、测量重投影误差,按照特征点排序组成单行数组,分别记为标准重投影误差数组、测量重投影误差数组;
2)计算第i个特征点所对应的标准重投影误差数组和测量重投影误差数组之间相关性系数;
遍历各个特征点,得到多个相关性系数;
将大于阈值H的相关性系数所对应的特征点标记为异常点,计算每个异常点所对应的测量重投影误差数组和标准重投影误差数组之间的差值平方和,将取得差值平方和最小的异常点标记为错误特征点。
进一步,剔除第i个特征点之后,单特征点p的标准坐标、理论坐标之间重投影误差Errorp i,计算方法如下:
Figure GDA0003959603860000031
其中,(xp,yp,zp)表示利用转换关系T、相机内参和特征点p在工件数模下的三维坐标计算得到的单特征点p在相机坐标系中的坐标;其中,转换关系T为:利用余下特征点的标准坐标与理论坐标解算出的相机坐标系与工件数模坐标系之间的转换关系;
(up,vp)表示单特征点p在图像坐标系中的标准坐标。
进一步,剔除第i个特征点之后,单特征点p的测量坐标、理论坐标之间重投影误差Error'p i,计算方法如下:
Figure GDA0003959603860000041
其中,(x’p,y’p,z’p)表示利用转换关系T'、相机内参和特征点p在工件数模下的三维坐标计算得到的单特征点p在相机坐标系中的坐标;其中,转换关系T'为:利用余下特征点的测量坐标与理论坐标解算出的相机坐标系与工件数模坐标系之间的转换关系;
(u’p,v’p)表示单特征点p在图像坐标系中的测量坐标。
可选的,测量坐标的获得方法包括:模板匹配方法、SIFT、SURF或FAST方法。
可选的,所述相关性系数包括:皮尔逊相关系数、斯皮尔曼相关系数、肯德尔相关系数或余弦相关系数。
进一步,所述相关性系数为皮尔逊相关系数:
Figure GDA0003959603860000042
Figure GDA0003959603860000043
分别表示标准重投影误差数组Errorsi的均值、测量重投影误差数组Errors'i的均值。
优选,设置容差阈值T:S<T<S+20pixel,其中,S表示各特征点标准坐标与其理论坐标之间测量重投影误差的误差平方和。
优选,利用以下方法设置阈值H的取值范围:
当所有特征点对应的第一重投影误差平方和小于容差阈值T时:
将所有特征点的第一重投影误差的集合记为数组I;
分别计算每个特征点标准坐标与其理论坐标之间的第二重投影误差;将所有特征点对应的第二重投影误差的集合记为数组II;
计算数组II与数组I之间相关性系数K;
则H取值为:0.8~0.9K。
为了查找是否存在多个错误特征点,还包括以下复核步骤;
进行完步骤2)之后,还包括步骤3):
剔除错误特征点之后,分别计算余下的每个特征点测量坐标与其理论坐标之间的第三重投影误差;将各个特征点对应的第三重投影误差求取的误差平方和,判断误差平方和是否小于容差阈值T:
若是,则利用余下的特征点的测量坐标与理论坐标计算工件偏差,并反馈给机器人,完成引导过程;
若否,则再次返回步骤1),查找另一个错误特征点,并将其剔除;直到余下特征点的误差平方和小于容差阈值T。
本发明优势:
本发明技术方案,利用标准工件在检测位置(零位)的标准坐标及其重投影误差为基准,每次剔除单个特征点,利用剩余点计算标准重投影误差数组和测量重投影误差数组,获取两者之间的相关性系数,两个数组的相关性系数越大,证明其相似度越高,即说明被剔除的特性的正确,其极有可能为错误点;基于这一原则,查找出异常点,但是,当两组数据之间的幅值差异较大时,其相关系数也可能很高,因此在本方案步骤2)中,还进一步求取了异常点所对应的测量重投影误差数组和标准重投影误差数组之间的差值平方和,将取得差值平方和最小的异常点标记为错误特征点,保障了两数组不仅相关度高且集合中各元素的幅值接近,从异常点中筛选出需要被剔除的错误特征点,保障引导过程的顺利进行,剔除错误特征点之后能够获得更加准确的偏移量,进而提高装配/抓件的精确性;
由于在引导过程中,需要所有特征点共同求解工件偏差,因此,各个测点具有整体性,并且,利用图像匹配的方式进行特性的测量坐标获取时,出现误匹配情况时,通常表现为特征点总的重投影误差增大,单个特征点重投影误差的无明显变化规律,此时,若仅仅采用通过某个点的重投影误差来识别出误匹配点,往往容易造成特征点剔除错误,使得后续工件偏差的计算精度降低;为此,本方案中,每次剔除单个点,将余下多个特征点作为一个集合,共同判断相关性,能够更好的体现引导过程中各个测点的整体性、关联性。
附图说明
图1为具体实施方式中方法流程示意图;
图2a为具体实施方式中其中一组标准重投影误差、测量重投影误差分布示意图;
图2b为具体实施方式中其中另一组标准重投影误差、测量重投影误差分布示意图。
具体实施方式
本实施例以汽车车门抓取引导为例,对本发明的技术方案进行详细描述。
一种基于相关性的特征点剔除方法,用于视觉引导装配/抓取过程,本实施例以汽车白车身车门部件抓取引导为例;
预先设定检测位置,将标准车门工件放置在所述检测位置,通过机器人示教,机器人能够正确抓取车门时,视觉传感器获取标准车门工件各个特征点的坐标,记为标准坐标(已对图像进行了畸变矫正);所述特征点为预先在标准工件上选取N个测点,将各个特征点在工件数模上的坐标记为理论坐标;N>4;
在实际视觉引导过程中,多个待抓取车门工件分别放置在所述检测位置,每次放置车门工件,视觉引导传感器对应采集当前工件上的特征点坐标,记为测量坐标(已对图像进行了畸变矫正);
分别计算每个特征点测量坐标与其理论坐标之间的第一重投影误差;将各个特征点对应的第一重投影误差求取误差平方和,判断误差平方和是否小于容差阈值T:
若是,则利用所有特征点的测量坐标与理论坐标计算工件偏差,并反馈给机器人,机器人根据工件偏差调整轨迹对当前工件进行装配/抓取;
若否,则查找错误特征点,将其剔除,再利用余下的特征点的测量坐标与理论坐标计算工件偏差,并反馈给机器人,机器人根据工件偏差调整轨迹对当前车门工件进行抓取;所述余下的特征点数量不少于4个,否则,需要重新调整工件,视觉引导传感器再次采集当前工件上的特征点的测量坐标;
所述查找错误特征点的方法为:
1)为多个特征点排序;为每个特征点标注其序号;
按照排序,依次剔除第i个特征点:i=1,2……特征点总数;
利用余下特征点的标准坐标、理论坐标计算标准重投影误差;将其标记为第i个特征点所对应的标准重投影误差;
利用余下特征点的测量坐标、理论坐标计算第i个特征点所对应的测量重投影误差;
将单个特征点所对应的标准重投影误差、测量重投影误差,按照特征点排序组成单行数组,分别记为标准重投影误差数组、测量重投影误差数组;
遍历各个特征点,得到多个标准重投影误差数组和多个测量重投影误差数组;
具体而言,对标准重投影误差数组进一步解释:
第1个特征点所对应的标准重投影误差数组Errors1
Errors1=[Error2 1,Error3 1 … Errori 1,Errori+1 1 … ErrorN 1]
其中,Error2 1表示剔除第1个特征点之后,第2个特征点的标准坐标与理论坐标之间的重投影误差;Error3 1表示剔除第1个特征点之后,第3个特征点的标准坐标与理论坐标之间的重投影误差;……ErrorN 1表示剔除第1个特征点之后,第N个特征点的标准坐标与理论坐标之间的重投影误差;
……
第i个特征点所对应的标准重投影误差数组Errorsi
Errorsi=[Error1 i,Error2 i … Errori-1 i,Errori+1 i … ErrorN i];
其中,Error1 i表示剔除第i个特征点之后,第1个特征点的标准坐标与理论坐标之间的重投影误差;Error2 i表示剔除第i个特征点之后,第2个特征点的标准坐标与理论坐标之间的重投影误差;ErrorN i表示剔除第i个特征点之后,第N个特征点的标准坐标与理论坐标之间的重投影误差;
……
对测量重投影误差数组的进一步解释:
第1个特征点所对应的测量重投影误差数组Errors'1
Errors'1=[Error'2 1,Error'3 1 … Error'i 1,Error'i+1 1 … Error'N 1]
其中,Error'2 1表示剔除第1个特征点之后,第2个特征点的测量坐标与理论坐标之间的重投影误差;Error'3 1表示剔除第1个特征点之后,第3个特征点的测量坐标与理论坐标之间的重投影误差;……Error'N 1表示剔除第1个特征点之后,第N个特征点的测量坐标与理论坐标之间的重投影误差;
……
第i个特征点所对应的测量重投影误差数组Errors'i
Errors'i=[Error'1 i,Error'2 i … Error'i-1 i,Error'i+1 i … Error'N i];
其中,Error'1 i表示剔除第i个特征点之后,第1个特征点的测量坐标与理论坐标之间的重投影误差;Error'2 i表示剔除第i个特征点之后,第2个特征点的测量坐标与理论坐标之间的重投影误差;Error'N i表示剔除第i个特征点之后,第N个特征点的测量坐标与理论坐标之间的重投影误差;
……
更具体的,剔除第i个特征点之后,单特征点p的标准坐标、理论坐标之间重投影误差Errorp i,计算方法如下:
Figure GDA0003959603860000091
其中,(xp,yp,zp)表示利用转换关系T、相机内参和特征点p在工件数模下的三维坐标计算得到的单特征点p在相机坐标系中的坐标;其中,转换关系T为:利用余下特征点的标准坐标与理论坐标解算出的相机坐标系与工件数模坐标系之间的转换关系;
(up,vp)表示单特征点p在图像坐标系中的标准坐标。
剔除第i个特征点之后,单特征点p的测量坐标、理论坐标之间重投影误差Error'p i,计算方法如下:
Figure GDA0003959603860000101
其中,(x’p,y’p,z’p)表示利用转换关系T'、相机内参和特征点p在工件数模下的三维坐标计算得到的单特征点p在相机坐标系中的坐标;其中,转换关系T'为:利用余下特征点的测量坐标与理论坐标解算出的相机坐标系与工件数模坐标系之间的转换关系;
(u’p,v’p)表示单特征点p在图像坐标系中的测量坐标。
2)计算第i个特征点所对应的标准重投影误差数组和测量重投影误差数组之间相关性系数;
遍历各个特征点,得到多个相关性系数;
将大于阈值H的相关性系数所对应的特征点标记为异常点,计算每个异常点所对应的测量重投影误差数组和标准重投影误差数组之间的差值平方和,将取得差值平方和最小的异常点标记为错误特征点。
其中,相关性系数可以计算皮尔逊相关系数、斯皮尔曼相关系数、肯德尔相关系数或余弦相关系数;本实施例中,计算皮尔逊相关系数,以第i个特征点所对应的标准重投影误差数组和测量重投影误差数组之间相关性系数ρi的计算为例:
Figure GDA0003959603860000102
Figure GDA0003959603860000103
分别表示标准重投影误差数组Errorsi的均值、测量重投影误差数组Errors'i的均值。
本方法在步骤2)中,既计算两数组的相关性又计算两者之间的差值平方和,这是由于:当两组数据之间的幅值差异较大时,其相关系数也可能很高,如图2a中的重投影误差数组和测量重投影误差数组之间的相关性高于图2b中的两组数据,但在实际的视觉引导过程中,标准工件与待装配/抓取工件特征点之间重投影误差不仅具有相关性,对应点之间的重投影误差还相近;为此,图2a中对应特征点之间的重投影幅值相差较大,并不是期望得到的正确结果,图2b更加符合真实情况。因此在本方案步骤2)中,进一步求取了异常点所对应的测量重投影误差数组和标准重投影误差数组之间的差值平方和,将取得差值平方和最小的异常点标记为错误特征点,保障了两数组不仅相关度高且集合中各元素的幅值接近,从异常点中筛选出需要被剔除的错误特征点,保障引导过程的顺利进行。
其中,测量坐标的获得方法包括:模板匹配方法、SIFT、SURF或FAST方法。
本实施例中,采用模板匹配方法,具体来说:
将视觉传感器获取的标准工件图像记为模板图像,视觉传感器获取的实际待装配/抓取工件的图像记为待匹配图像,利用模板图像对其进行模板匹配,将得到的匹配点坐标记为测量坐标。
其中,设置容差阈值T:S<T<S+20pixel,其中,S表示各特征点标准坐标与其理论坐标之间测量重投影误差的误差平方和。
利用以下方法设置阈值H的取值范围:
当所有特征点对应的第一重投影误差平方和小于容差阈值T时:
将所有特征点的第一重投影误差的集合记为数组I;
分别计算每个特征点标准坐标与其理论坐标之间的第二重投影误差;将所有特征点对应的第二重投影误差的集合记为数组II;
计算数组II与数组I之间相关性系数K;
则H取值为:0.8~0.9K。
为了查找是否存在多个错误特征点,还包括以下复核步骤;
进行完步骤2)之后,还包括步骤3):
剔除错误特征点之后,分别计算余下的每个特征点测量坐标与其理论坐标之间的第三重投影误差;将各个特征点对应的第三重投影误差求取的误差平方和,判断误差平方和是否小于容差阈值T:
若是,则利用余下的特征点的测量坐标与理论坐标计算工件偏差,并反馈给机器人,完成引导过程;
若否,则再次返回步骤1),查找另一个错误特征点,并将其剔除;直到余下特征点的误差平方和小于容差阈值T。
前面对本发明具体示例性实施方案所呈现的描述是出于说明和描述的目的。前面的描述并不想要成为毫无遗漏的,也不是想要把本发明限制为所公开的精确形式,显然,根据上述教导很多改变和变化都是可能的。选择示例性实施方案并进行描述是为了解释本发明的特定原理及其实际应用,从而使得本领域的其它技术人员能够实现并利用本发明的各种示例性实施方案及其不同选择形式和修改形式。本发明的范围旨在由所附权利要求书及其等价形式所限定。

Claims (9)

1.一种基于相关性的特征点剔除方法,用于视觉引导装配/抓取过程,其特征在于,预先设定检测位置,将标准工件放置在所述检测位置,视觉传感器获取标准工件各个特征点的坐标,记为标准坐标;所述特征点为预先在标准工件上选取多个测点,将各个特征点在工件数模上的坐标记为理论坐标;
在视觉引导过程中,多个待装配/抓取工件分别放置在所述检测位置,每次放置工件,视觉引导传感器对应采集当前工件上的特征点坐标,记为测量坐标;
分别计算每个特征点测量坐标与其理论坐标之间的第一重投影误差;将各个特征点对应的第一重投影误差求取误差平方和,判断误差平方和是否小于容差阈值T:
若是,则利用所有特征点的测量坐标与理论坐标计算工件偏差,并反馈给机器人,机器人根据工件偏差调整轨迹对当前工件进行装配/抓取;
若否,则查找错误特征点,将其剔除,再利用余下的特征点的测量坐标与理论坐标计算工件偏差,并反馈给机器人,机器人根据工件偏差调整轨迹对当前工件进行装配/抓取;所述余下的特征点数量不少于4个,否则,需要重新调整工件,视觉引导传感器再次采集当前工件上的特征点的测量坐标;
所述查找错误特征点的方法为:
1)为多个特征点排序;按照排序,依次剔除第i个特征点:i=1,2……特征点总数;
利用余下特征点的标准坐标、理论坐标计算标准重投影误差;将其标记为第i个特征点所对应的标准重投影误差;
利用余下特征点的测量坐标、理论坐标计算第i个特征点所对应的测量重投影误差;
将单个特征点所对应的标准重投影误差、测量重投影误差,按照特征点排序组成单行数组,分别记为标准重投影误差数组、测量重投影误差数组;
2)计算第i个特征点所对应的标准重投影误差数组和测量重投影误差数组之间相关性系数;
遍历各个特征点,得到多个相关性系数;
将大于阈值H的相关性系数所对应的特征点标记为异常点,计算每个异常点所对应的测量重投影误差数组和标准重投影误差数组之间的差值平方和,将取得差值平方和最小的异常点标记为错误特征点。
2.如权利要求1所述基于相关性的特征点剔除方法,其特征在于:剔除第i个特征点之后,单特征点p的标准坐标、理论坐标之间重投影误差Errorp i,计算方法如下:
Figure FDA0003959603850000021
其中,(xp,yp,zp)表示利用转换关系T、相机内参和特征点p在工件数模下的三维坐标计算得到的单特征点p在相机坐标系中的坐标;其中,转换关系T为:利用余下特征点的标准坐标与理论坐标解算出的相机坐标系与工件数模坐标系之间的转换关系;
(up,vp)表示单特征点p在图像坐标系中的标准坐标。
3.如权利要求1所述基于相关性的特征点剔除方法,其特征在于:剔除第i个特征点之后,单特征点p的测量坐标、理论坐标之间重投影误差Error'p i,计算方法如下:
Figure FDA0003959603850000022
其中,(x’p,y’p,z’p)表示利用转换关系T'、相机内参和特征点p在工件数模下的三维坐标计算得到的单特征点p在相机坐标系中的坐标;其中,转换关系T'为:利用余下特征点的测量坐标与理论坐标解算出的相机坐标系与工件数模坐标系之间的转换关系;
(u’p,v’p)表示单特征点p在图像坐标系中的测量坐标。
4.如权利要求1所述基于相关性的特征点剔除方法,其特征在于:测量坐标的获得方法包括:模板匹配方法、SIFT、SURF或FAST方法。
5.如权利要求1所述基于相关性的特征点剔除方法,其特征在于:所述相关性系数包括:皮尔逊相关系数、斯皮尔曼相关系数、肯德尔相关系数或余弦相关系数。
6.如权利要求1所述基于相关性的特征点剔除方法,其特征在于:所述相关性系数为皮尔逊相关系数:
Figure FDA0003959603850000031
Figure FDA0003959603850000032
分别表示标准重投影误差数组Errorsi的均值、测量重投影误差数组Errors'i的均值。
7.如权利要求1所述基于相关性的特征点剔除方法,其特征在于:设置容差阈值T:S<T<S+20pixel,其中,S表示各特征点标准坐标与其理论坐标之间测量重投影误差的误差平方和。
8.如权利要求1所述基于相关性的特征点剔除方法,其特征在于:利用以下方法设置阈值H的取值范围:
当所有特征点对应的第一重投影误差平方和小于容差阈值T时:
将所有特征点的第一重投影误差的集合记为数组I;
分别计算每个特征点标准坐标与其理论坐标之间的第二重投影误差;将所有特征点对应的第二重投影误差的集合记为数组II;
计算数组II与数组I之间相关性系数K;
则H取值为:0.8~0.9K。
9.如权利要求1所述基于相关性的特征点剔除方法,其特征在于:还包括以下复核步骤;
进行完步骤2)之后,还包括步骤3):
剔除错误特征点之后,分别计算余下的每个特征点测量坐标与其理论坐标之间的第三重投影误差;将各个特征点对应的第三重投影误差求取的误差平方和,判断误差平方和是否小于容差阈值T:
若是,则利用余下的特征点的测量坐标与理论坐标计算工件偏差,并反馈给机器人,完成引导过程;
若否,则再次返回步骤1),查找另一个错误特征点,并将其剔除;直到余下特征点的误差平方和小于容差阈值T。
CN202011455302.XA 2020-12-10 2020-12-10 一种基于相关性的特征点剔除方法 Active CN112419314B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011455302.XA CN112419314B (zh) 2020-12-10 2020-12-10 一种基于相关性的特征点剔除方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011455302.XA CN112419314B (zh) 2020-12-10 2020-12-10 一种基于相关性的特征点剔除方法

Publications (2)

Publication Number Publication Date
CN112419314A CN112419314A (zh) 2021-02-26
CN112419314B true CN112419314B (zh) 2023-02-28

Family

ID=74776601

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011455302.XA Active CN112419314B (zh) 2020-12-10 2020-12-10 一种基于相关性的特征点剔除方法

Country Status (1)

Country Link
CN (1) CN112419314B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113516036B (zh) * 2021-05-08 2024-05-24 上海依图网络科技有限公司 一种监控区域内目标对象的数量检测方法及装置
CN114372916B (zh) * 2021-12-31 2024-05-31 易思维(杭州)科技股份有限公司 一种自动化点云拼接方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102800096A (zh) * 2012-07-19 2012-11-28 北京航空航天大学 一种摄像机参数的鲁棒性估计算法
CN103927739A (zh) * 2014-01-10 2014-07-16 北京航天飞行控制中心 一种基于拼接图像的巡视器定位方法
CN109086795A (zh) * 2018-06-27 2018-12-25 上海理工大学 一种图像误匹配精确剔除方法
JP2019079487A (ja) * 2017-10-25 2019-05-23 日本電信電話株式会社 パラメータ最適化装置、パラメータ最適化方法、プログラム
CN110427966A (zh) * 2019-06-17 2019-11-08 青岛星科瑞升信息科技有限公司 一种基于特征点局部特征剔除误匹配特征点方法
CN111429532A (zh) * 2020-04-30 2020-07-17 南京大学 一种利用多平面标定板提高相机标定精确度的方法
CN111595279A (zh) * 2020-06-29 2020-08-28 易思维(杭州)科技有限公司 大型工件实际坐标系构建方法及其应用

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106170676B (zh) * 2015-07-14 2018-10-09 深圳市大疆创新科技有限公司 用于确定移动平台的移动的方法、设备以及***
CN111062990B (zh) * 2019-12-13 2023-06-02 哈尔滨工程大学 一种面向水下机器人目标抓取的双目视觉定位方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102800096A (zh) * 2012-07-19 2012-11-28 北京航空航天大学 一种摄像机参数的鲁棒性估计算法
CN103927739A (zh) * 2014-01-10 2014-07-16 北京航天飞行控制中心 一种基于拼接图像的巡视器定位方法
JP2019079487A (ja) * 2017-10-25 2019-05-23 日本電信電話株式会社 パラメータ最適化装置、パラメータ最適化方法、プログラム
CN109086795A (zh) * 2018-06-27 2018-12-25 上海理工大学 一种图像误匹配精确剔除方法
CN110427966A (zh) * 2019-06-17 2019-11-08 青岛星科瑞升信息科技有限公司 一种基于特征点局部特征剔除误匹配特征点方法
CN111429532A (zh) * 2020-04-30 2020-07-17 南京大学 一种利用多平面标定板提高相机标定精确度的方法
CN111595279A (zh) * 2020-06-29 2020-08-28 易思维(杭州)科技有限公司 大型工件实际坐标系构建方法及其应用

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Dynamic Visual Tracking for Robot Manipulator Using Adaptive Fading Kalman Filter;Jiadi Qu等;《Digital Object Identifier》;20200127;第35113-35126页 *
面向现代柔性制造的工业机器人高精度控制方法;任永杰等;《航空制造技术》;20181231;第61卷(第5期);第16-21页 *
面向装配机器人的作业目标视觉识别与定位方法;宿月文 等;《组合机床与自动化加工技术》;20181031(第10期);第97-101页 *

Also Published As

Publication number Publication date
CN112419314A (zh) 2021-02-26

Similar Documents

Publication Publication Date Title
CN112419314B (zh) 一种基于相关性的特征点剔除方法
CN104123542B (zh) 一种轮毂工件定位的装置及其方法
CN105678689B (zh) 高精地图数据配准关系确定方法及装置
CN110806736B (zh) 一种模锻成形智能制造生产线锻件质量信息检测方法
US7283661B2 (en) Image processing apparatus
US20040220770A1 (en) Pass/fail judgment device, pass/fail judgment program, pass/fail judgment method, and multivariate statistics analyzer
CN110675376A (zh) 一种基于模板匹配的pcb缺陷检测方法
CN110146017B (zh) 工业机器人重复定位精度测量方法
CN112264992B (zh) 一种工业机器人坐标系校准方法、***、装置和存储介质
CN112729112B (zh) 基于机器人视觉的发动机缸体孔径与孔位检测方法
CN115131268A (zh) 一种基于图像特征提取与三维模型匹配的自动化焊接***
CN112497219A (zh) 一种基于目标检测和机器视觉的柱状工件分类定位方法
CN111583342A (zh) 一种基于双目视觉的目标快速定位方法及装置
CN116275742A (zh) 一种基于数字化建模与柔性焊缝识别的焊接方法
CN109920010B (zh) 一种对多相机视觉检测设备进行标定的方法
CN112484680B (zh) 一种基于圆检测的蓝宝石晶片定位跟踪方法
CN113103238A (zh) 一种基于数据优化的手眼标定方法
CN114549403B (zh) 一种机械零部件侧剖面多单体智能精密几何圆心检测方法
CN116465335A (zh) 基于点云匹配的自动测厚方法和***
CN110021027B (zh) 一种基于双目视觉的切边点计算方法
CN113673105A (zh) 真值对比策略的设计方法
CN116878402B (zh) 非接触轮眉测量传感器及方法
CN117088105B (zh) 一种自动上料控制方法及***
CN117636257A (zh) 一种基于物联网的图像数据智能识别检测***及方法
CN1281952C (zh) 一种整精米自动识别的方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP01 Change in the name or title of a patent holder
CP01 Change in the name or title of a patent holder

Address after: Room 495, building 3, 1197 Bin'an Road, Binjiang District, Hangzhou City, Zhejiang Province 310051

Patentee after: Yi Si Si (Hangzhou) Technology Co.,Ltd.

Address before: Room 495, building 3, 1197 Bin'an Road, Binjiang District, Hangzhou City, Zhejiang Province 310051

Patentee before: ISVISION (HANGZHOU) TECHNOLOGY Co.,Ltd.