CN110246189B - 一种基于多相机全连接组合的三维坐标计算方法 - Google Patents

一种基于多相机全连接组合的三维坐标计算方法 Download PDF

Info

Publication number
CN110246189B
CN110246189B CN201910473405.XA CN201910473405A CN110246189B CN 110246189 B CN110246189 B CN 110246189B CN 201910473405 A CN201910473405 A CN 201910473405A CN 110246189 B CN110246189 B CN 110246189B
Authority
CN
China
Prior art keywords
camera
cameras
world coordinate
dimensional coordinate
target object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910473405.XA
Other languages
English (en)
Other versions
CN110246189A (zh
Inventor
沈嘉成
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Dianzi University
Original Assignee
Hangzhou Dianzi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Dianzi University filed Critical Hangzhou Dianzi University
Priority to CN201910473405.XA priority Critical patent/CN110246189B/zh
Publication of CN110246189A publication Critical patent/CN110246189A/zh
Application granted granted Critical
Publication of CN110246189B publication Critical patent/CN110246189B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明公开了一种基于多相机全连接组合的三维坐标计算方法,至少包括以下步骤:步骤S1:通过多个相机的拍摄物体图像计算得到物体世界坐标组;步骤S2:通过计算模型得到每个相机组合的权重,从而对坐标组进行加权求期望,得到优化后的三维坐标点。采用本发明的技术方案,通过多个相机进行全连接组合,得到世界坐标组,并预先采用计算模型进行计算权重训练,得到每个相机组合权重值,从而对坐标组进行加权求期望,实现三维坐标点的优化,从而大大降低了传统双目视觉中由于离散化图像点阵造成的***误差。

Description

一种基于多相机全连接组合的三维坐标计算方法
技术领域
本发明涉及机器视觉及图像识别领域,尤其涉及一种基于多相机全连接组合的三维坐标计算方法。
背景技术
目前的双目视觉三维坐标计算***可以通过棋盘格标定法得到每个相机的畸变矩阵和偏移矩阵作为相机内参,通过指定世界坐标系中同平面且任意三点互不共线的四个点,并在标出相机图像中对应四个点的图像坐标,计算得到相机相对于世界坐标系的旋转矩阵和平移矩阵作为相机外参,使用两个内参矩阵和两个外参矩阵共四个矩阵(以下简称三维坐标计算矩阵),基于这四个计算矩阵即可将两个相机的二维坐标转换为三维空间坐标。
现有的双目视觉***主要存在以下问题:
1、基于两个相机的视觉***,当其中任何一个相机的物体被遮挡时,由于失去了一组参考坐标,***便无法正常工作;
2、由于相机所拍摄图像为离散的点阵,因此拍摄图像及识别的精度很大程度上由相机的分辨率所决定,当相机分辨率较差时,拍摄所得图像会存在较大误差。
发明内容
有鉴于此,确有必要提供一种基于多相机全连接组合的三维坐标计算方法,通过多个相机进行全连接组合,得到世界坐标组,并预先采用计算模型进行计算权重训练,得到每个相机组合权重值,从而对坐标组进行加权求期望,实现三维坐标点的优化。
为了克服现有技术的缺陷,本发明的技术方案如下:
一种使用多个相机进行三维坐标计算的方法,其特征在于,包括以下步骤:
步骤S1:通过两个相机的拍摄物体图像计算得到物体世界坐标组;
其中,步骤S1进一步包括:
步骤S11:获取大量目标物体的图片信息,在神经网络框架中进行模型训练;
参见图1所示为本发明提供的一种使用多个相机进行三维坐标计算的方法中上述S11的详细流程图,其进一步包括以下步骤:
步骤S111:使用相机对目标物体在不同环境、光照、背景条件下多角度、多距离、多物体干扰的进行拍摄,取得m1(m1>1000)张图片作为训练样本。
步骤S112:对每幅样本图片中的目标物体进行标注,获得标注后的m2个图片样本作为训练集。
步骤S113:在神经网络框架中设置训练参数及适宜的断点(用于训练过程中进行定时检查)。
步骤114:将训练集输入到神经网络框架中进行迭代训练。
步骤115:在断点时进行训练成果检查,检查各个训练参数是否符合期望值。
步骤116:若不符合期望值则回到S14继续进行迭代训练,若符合期望值则选取m3(m3>10)做过标注但未在训练集中的图片对其中的目标物体进行识别。
步骤117:若识别精度未达到期望值则回到S14继续进行迭代训练,若达到了期望值则结束训练得到目标物体的神经网络模型。
步骤S12:选取适宜的世界坐标系,对相机进行标定得到四个转换矩阵;
参见图2所示为本发明提供的一种使用多个相机进行三维坐标计算的方法中步骤S12的详细流程图,其进一步包括以下步骤:
步骤121:准备一个长宽为p*q格的标准正方形棋盘格板子作为标定板,分别用相机(3)~(N)在视野范围内拍摄n(n>9)张标定板不同位置、不同朝向的情况下的图片。
步骤122:将拍摄到的标定板图片返回到工控机中,在工控机中对图片进行角点(方格顶点)的提取。
步骤123:计算得到相机(3)~(N)的径向畸变参数Mtx3和失真系数Dist3
步骤124:选取一个适宜的点作为世界坐标系的原点并且规定X、Y、Z轴的方向(每个相机选取的世界坐标系都相同)。
步骤125:在世界坐标系中的同一平面内选取四个标定点并得到在世界坐标系下的坐标信息,这四个点任意三点互不共线且在相机(3)的视野范围内。
步骤126:通过相机拍摄得到的四个标定点在图像上的坐标信息与世界坐标系下的坐标信息间的映射关系计算得到转换至世界坐标系的两个向量Rvec3和Tvec3
步骤S13:相机进行全连接组合,求取未知位置的目标物体的世界坐标组,该步骤方法包含在步骤S212~步骤S218中。
步骤S2:通过计算模型得到每个相机组合的权重,从而对坐标组进行加权求期望,得到优化后的三维坐标点;
其中,步骤S2进一步包括:
步骤S21:相机进行全连接组合,计算每组相机的权重;
步骤S21进一步包括:
步骤S211:已知i个目标物体摆放位置,所有的相机都可见每一位置,并且也知在步骤三中建立的世界坐标系下的各个准确三维坐标Pi-1(i表示第i种摆法)。首先用工控机发送拍摄信号给所有的相机。
步骤S212:使得相机(3)(4)……(N)在同一时间拍摄得到图片Img3,Img4,......,Imgn
步骤S213:通过步骤S11中获得的神经网络模型对图片中的目标物体进行识别,得到目标物体二维坐标点组Ri(Pi-3,Pi-4,......,Pi-n),且Pi-3(Xi-3,Yi-3)……Pi-n(Xi-n,Yi-n)(小标i-n表示第i种摆法,第n个相机)。
步骤S214:对Z轴选取一个常数z作为参考平面。
步骤S215:已知相机(n)至世界坐标系的四个转换矩阵Mtxi、Disti、Rveci、Tveci。每个相机拍摄的图片对应的点为(Xi-n,Yi-n),到在已知Z轴为z的情况下通过四个转换矩阵可求得X和Y轴的数据得到三维坐标P(i,n,1)(X(i,n),Y(i,n),Z(i,n))。
步骤S216:对于每一个图片选取两个不同的参考平面,Z1和Z2,Z1≠Z2且Z1,Z2相差较大,分别进行位姿估计获得不同参考平面下的坐标P(i,m,1),P(i,m,2),P(i,n,1),P(i,n,2),其中m,n代表第几个相机,数字代表第几参考平面。
步骤S217:构建下列两空间向量
l1=P(i,m,1)→P(i,m,2)
l2=P(i,n,1)→P(i,n,2)
求得两空间向量所在直线的公垂线交点P2(i,m,n)
步骤S218:相机全连接组合可计算得到k组P(i,m,n)(X(i,m,n),Y(i,m,n),Z(i,m,n))。
步骤S219:通过计算模型求得的权重如下,m,n为相机编号,D2(P(i,m,n))为两点距离的方差:
Figure BDA0002081388210000051
R(m,n)即为坐标P(i,m,n)对应的权重,即为优化算法中的权重参数。
步骤S22:计算优化后目标物体的三维坐标点;
其进一步包括以下步骤:
步骤S221:通过步骤S13得到的世界坐标系组进行加权求期望公式如下:
Figure BDA0002081388210000052
与现有技术相比较,本发明具有的有益效果:
鲁棒性:本发明利用多个相机全连接组合并进行加权求期望的方法求取物体的实际空间坐标,当所有相机中有若干个相机出现目标物体被遮挡情况时,只需保证至少两个相机可见物体,即可保证此计算方法的正常运行。
准确性:本发明的优化算法的结果是通过多组相机计算所得结果的加权期望,有效遏制了每一组相机由于相机拍摄图像为离散点阵导致的***误差,使得计算结果误差进一步减小。
附图说明
图1为本发明提供的一种基于多相机全连接组合的三维坐标计算方法的模型训练流程图;
图2为本发明提供的一种基于多相机全连接组合的三维坐标计算方法的单目相机标定流程图;
图3为本发明提供的一种基于多相机全连接组合的三维坐标计算方法的求取坐标优化权重流程图;
如下具体实施例将结合上述附图进一步说明本发明。
具体实施方式
以下将结合附图对本发明提供的技术方案做进一步说明
现有技术通过两个相机计算得到物体世界坐标,针对此过程中相机离散化的点阵坐标计算产生的***误差,本发明基于多个相机计算得到的位置坐标,通过基于强化学习的优化算法降低***误差。
本发明的***中包括一个工控机(1)、一个传送带(2)、若干相机(3)~(N)和许多物体。传送带(2)上放着许多随传送带运动的物体,工控机(1)发送控制信号给相机(3)(4)……(N),相机(3)(4)……(N)再将拍摄到的图像数据传送回工控机(1),工控机(1)对物体进行模型训练、识别和坐标转换和坐标优化。
参见图1-3,本发明提供一种使用多个相机进行三维坐标计算的方法,整体而言,本发明包括以下2大步骤,步骤S1:通过两个相机的拍摄物体图像计算得到物体世界坐标组;步骤S2:通过计算模型得到每个相机组合的权重;从而对坐标组进行加权求期望,得到优化后的三维坐标点;
步骤S1基于人工智能识别物体和机器视觉坐标转换得到坐标组,具体包括如下步骤:
步骤S11:获取大量目标物体的图片信息,在神经网络框架中进行模型训练;
参见图1所示为本发明提供的一种使用多个相机进行三维坐标计算的方法中上述S11的详细流程图,其进一步包括以下步骤:
步骤S111:使用相机对目标物体在不同环境、光照、背景条件下多角度、多距离、多物体干扰的进行拍摄,取得m1(m1>1000)张图片作为训练样本。
步骤S112:对每幅样本图片中的目标物体进行标注,获得标注后的m2个图片样本作为训练集。
步骤S113:在神经网络框架中设置训练参数及适宜的断点(用于训练过程中进行定时检查)。
步骤114:将训练集输入到神经网络框架中进行迭代训练。
步骤115:在断点时进行训练成果检查,检查各个训练参数是否符合期望值。
步骤116:若不符合期望值则回到S14继续进行迭代训练,若符合期望值则选取m3(m3>10)做过标注但未在训练集中的图片对其中的目标物体进行识别。
步骤117:若识别精度未达到期望值则回到S14继续进行迭代训练,若达到了期望值则结束训练得到目标物体的神经网络模型。
步骤S12:选取适宜的世界坐标系,对相机进行标定得到四个转换矩阵;
参见图2所示为本发明提供的一种使用多个相机进行三维坐标计算的方法中步骤S12的详细流程图,其进一步包括以下步骤:
步骤121:准备一个长宽为p*q格的标准正方形棋盘格板子作为标定板,分别用相机(3)~(N)在视野范围内拍摄n(n>9)张标定板不同位置、不同朝向的情况下的图片。
步骤122:将拍摄到的标定板图片返回到工控机中,在工控机中对图片进行角点(方格顶点)的提取。
步骤123:计算得到相机(3)~(N)的径向畸变参数Mtx3和失真系数Dist3
步骤124:选取一个适宜的点作为世界坐标系的原点并且规定X、Y、Z轴的方向(每个相机选取的世界坐标系都相同)。
步骤125:在世界坐标系中的同一平面内选取四个标定点并得到在世界坐标系下的坐标信息,这四个点任意三点互不共线且在相机(3)的视野范围内。
步骤126:通过相机拍摄得到的四个标定点在图像上的坐标信息与世界坐标系下的坐标信息间的映射关系计算得到转换至世界坐标系的两个向量Rvec3和Tvec3
步骤S13:相机进行全连接组合,求取目标物体的世界坐标组,该步骤方法包含在步骤S211~步骤S218中。
步骤S21:通过计算模型的权重模型计算各组相机的权重;
图3所示为本发明提供的一种使用多个相机进行三维坐标计算的方法中步骤S21的详细流程图,其进一步包括以下步骤:
步骤S211:已知i个目标物体摆放位置,所有的相机都可见每一位置,并且也知在步骤三中建立的世界坐标系下的各个准确三维坐标Pi-1(i表示第i种摆法)。首先用工控机发送拍摄信号给所有的相机。
步骤S212:使得相机(3)(4)……(N)在同一时间拍摄得到图片Img3,Img4,......,Imgn
步骤S213:通过步骤S11中获得的神经网络模型对图片中的目标物体进行识别,得到目标物体二维坐标点组Ri(Pi-3,Pi-4,......,Pi-n),且Pi-3(Xi-3,Yi-3)……Pi-n(Xi-n,Yi-n)(小标i-n表示第i种摆法,第n个相机)。
步骤S214:对Z轴选取一个常数z作为参考平面。
步骤S215:已知相机(n)至世界坐标系的四个转换矩阵Mtxi、Disti、Rveci、Tveci。每个相机拍摄的图片对应的点为(Xi-n,Yi-n),到在已知Z轴为z的情况下通过四个转换矩阵可求得X和Y轴的数据得到三维坐标P(i,n,1)(X(i,n),Y(i,n),Z(i,n))。
步骤S216:对于每一个图片选取两个不同的参考平面Z1和Z2,Z1≠Z2且Z1,Z2相差较大,分别进行位姿估计获得不同参考平面下的坐标P(i,m,1),P(i,m,2),P(i,n,1),P(i,n,2),其中m,n代表第几个相机,数字代表第几参考平面。
步骤S217:构建下列两空间向量
l1=P(i,m,1)→P(i,m,2)
l2=P(i,n,1)→P(i,n,2)
求得两空间向量所在直线的公垂线交点P2(i,m,n)
步骤S218:相机全连接组合可计算得到k组P(i,m,n)(X(i,m,n),Y(i,m,n),Z(i,m,n)
步骤S219:通过计算模型求得的权重如下,m,n为相机编号,D2(P(i,m,n))为两点距离的方差:
Figure BDA0002081388210000091
R(m,n)即为坐标P(i,m,n)对应的权重,即为优化算法中的权重参数。
步骤S22:计算优化后目标物体的三维坐标点;
其进一步包括以下步骤:
步骤S221:通过步骤S13得到的世界坐标系组进行加权求期望公式如下:
Figure BDA0002081388210000101
以上实施例的说明只是用于帮助理解本发明的方法及其核心思想。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以对本发明进行若干改进和修饰,这些改进和修饰也落入本发明权利要求的保护范围内。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (1)

1.一种基于多相机全连接组合的三维坐标计算方法,其特征在于,至少包括以下步骤:
步骤S1:采用多个相机构建视觉***并通过多个独立相机的拍摄物体图像计算得到物体世界坐标组;
步骤S2:通过计算模型得到每个相机组合的权重,并对坐标组进行加权求期望,得到优化后的三维坐标点;
其中,步骤S1进一步包括:
步骤S11:获取大量目标物体的图片信息作为训练样本,在神经网络框架中进行模型训练;
步骤S12:选取适宜的世界坐标系,对相机进行标定得到四个转换矩阵;
步骤S13:相机进行全连接组合,求取未知位置的目标物体的世界坐标组,该步骤方法包含在步骤S212~步骤S218中;
所述步骤S2进一步包括以下步骤:
步骤S21:相机进行全连接组合,计算每组相机的权重;
步骤S21进一步包括:
步骤S211:已知i个目标物体摆放位置,所有的相机都可见每一位置,并且也知在步骤三中建立的世界坐标系下的各个准确三维坐标Pi-1,i表示第i种摆法,工控机发送拍摄信号给所有的相机;
步骤S212:多个相机3,4,……n在同一时间拍摄得到图片Img3,Img4,......,Imgn
步骤S213:通过步骤S11中获得的神经网络模型对图片中的目标物体进行识别,得到目标物体二维坐标点组Ri(Pi-3,Pi-4,......,Pi-n),且Pi-3(Xi-3,Yi-3)……Pi-n(Xi-n,Yi-n),小标i-n表示第i种摆法,第n个相机;
步骤S214:对Z轴选取一个常数z作为参考平面;
步骤S215:已知相机n至世界坐标系的四个转换矩阵Mtxi、Disti、Rveci、Tveci;每个相机拍摄的图片对应的点为(Xi-n,Yi-n),到在已知Z轴为z的情况下通过四个转换矩阵可求得X和Y轴的数据得到三维坐标P(i,n,1)(X(i,n),Y(i,n),Z(i,n));
步骤S216:对于每一个图片选取两个不同的参考平面Z1和Z2,Z1≠Z2,分别进行位姿估计获得不同参考平面下的坐标P(i,m,1),P(i,m,2),P(i,n,1),P(i,n,2),其中m,n代表第几个相机,数字代表第几参考平面;
步骤S217:构建下列两空间向量
l1=P(i,m,1)→P(i,m,2)
l2=P(i,n,1)→P(i,n,2)
求得两空间向量所在直线的公垂线交点P2(i,m,n)
步骤S218:相机全连接组合可计算得到k组P(i,m,n)(X(i,m,n),Y(i,m,n),Z(i,m,n));
步骤S219:通过计算模型求得的权重如下,m,n为相机编号,D2(P(i,m,n))为两点距离的方差:
Figure FDA0002806106490000021
R(m,n)即为坐标P(i,m,n)对应的权重,即为优化算法中的权重参数;
步骤S22:计算优化后目标物体的三维坐标点;
其进一步包括以下步骤:
步骤S221:通过步骤S13得到的世界坐标系组进行加权求期望公式如下:
Figure FDA0002806106490000022
a,b代表任两个不同相机,P(a,b)代表使用任两个相机图像通过S213~步骤S217得到的世界坐标系坐标;P(w)表示所有相机两两组合后的加权期望;
所述步骤S13的计算过程为重复步骤S212~步骤S218中。
CN201910473405.XA 2019-05-31 2019-05-31 一种基于多相机全连接组合的三维坐标计算方法 Active CN110246189B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910473405.XA CN110246189B (zh) 2019-05-31 2019-05-31 一种基于多相机全连接组合的三维坐标计算方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910473405.XA CN110246189B (zh) 2019-05-31 2019-05-31 一种基于多相机全连接组合的三维坐标计算方法

Publications (2)

Publication Number Publication Date
CN110246189A CN110246189A (zh) 2019-09-17
CN110246189B true CN110246189B (zh) 2021-02-02

Family

ID=67885725

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910473405.XA Active CN110246189B (zh) 2019-05-31 2019-05-31 一种基于多相机全连接组合的三维坐标计算方法

Country Status (1)

Country Link
CN (1) CN110246189B (zh)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102034236A (zh) * 2010-12-01 2011-04-27 北京航空航天大学 基于一维物体的多相机分层标定方法
CN105469389A (zh) * 2015-11-16 2016-04-06 北京航空航天大学 一种用于视觉传感器标定的网格球靶标及相应标定方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102364299B (zh) * 2011-08-30 2015-01-14 西南科技大学 一种多个结构光投影三维型面测量头的标定技术

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102034236A (zh) * 2010-12-01 2011-04-27 北京航空航天大学 基于一维物体的多相机分层标定方法
CN105469389A (zh) * 2015-11-16 2016-04-06 北京航空航天大学 一种用于视觉传感器标定的网格球靶标及相应标定方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Automatic geometric calibration and three-dimensional detecting with an artificial compound eye;Huijie Jian 等;《Applied Optics》;20171231;第56卷(第5期);第1-2页 *
基于多摄像头的目标连续跟踪;李志华 等;《电子测量与仪器学报》;20090228;第23卷(第2期);第1-2页 *

Also Published As

Publication number Publication date
CN110246189A (zh) 2019-09-17

Similar Documents

Publication Publication Date Title
CN110692082B (zh) 学习装置、学习方法、学习模型、推算装置以及夹持***
CN111563878B (zh) 一种空间目标定位方法
US9355453B2 (en) Three-dimensional measurement apparatus, model generation apparatus, processing method thereof, and non-transitory computer-readable storage medium
CN108510551B (zh) 一种远距离大视场条件下相机参数的标定方法及***
JPH10253322A (ja) 空間内で物体を位置指定する方法および装置
CN112541946A (zh) 一种基于透视多点投影的机械臂的位姿实时检测方法
CN108748149B (zh) 一种复杂环境下基于深度学习的无标定机械臂抓取方法
CN109781068B (zh) 面向空间应用的视觉测量***地面模拟评估***及方法
CN115187612A (zh) 一种基于机器视觉的平面面积测量方法、装置及***
CN111738971B (zh) 一种基于线激光双目立体视觉的电路板立体扫描检测方法
JP2016148649A (ja) 情報処理装置、情報処理装置の制御方法、およびプログラム
CN110349209A (zh) 基于双目视觉的振捣棒定位方法
CN110246189B (zh) 一种基于多相机全连接组合的三维坐标计算方法
CN111459176B (zh) 车自动充电定位控制方法、标定方法及车辆姿态计算方法
CN112767494A (zh) 基于标定算法的精确测量定位方法
CN116021519A (zh) 一种基于tof相机采摘机器人手眼标定方法以及装置
CN113436249B (zh) 一种快速稳健的单目相机位姿估计算法
CN114119768A (zh) 一种基于多目视觉技术的刺参活性监测方法
CN111595289A (zh) 一种基于图像处理的三维角度测量***及方法
JP2021160037A (ja) 較正システム、情報処理システム、ロボット制御システム、較正方法、情報処理方法、ロボット制御方法、較正プログラム、情報処理プログラム、較正装置、情報処理装置、及びロボット制御装置
Wang et al. Stereo rectification based on epipolar constrained neural network
CN114494455B (zh) 一种大视角下的位移高精度测量方法
JP5215615B2 (ja) 3次元位置情報復元装置およびその方法
CN116061196B (zh) 一种多轴运动平台运动学参数标定方法和***
CN114140541B (zh) 一种多线结构光焊缝跟踪传感器的参数标定方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant