CN103593658A - 一种基于红外图像识别的三维空间定位*** - Google Patents
一种基于红外图像识别的三维空间定位*** Download PDFInfo
- Publication number
- CN103593658A CN103593658A CN201310602763.9A CN201310602763A CN103593658A CN 103593658 A CN103593658 A CN 103593658A CN 201310602763 A CN201310602763 A CN 201310602763A CN 103593658 A CN103593658 A CN 103593658A
- Authority
- CN
- China
- Prior art keywords
- infrared camera
- infrared
- image
- projection screen
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明提供一种基于红外图像识别的三维空间定位***,用来识别目标物体的三维空间位置,包括第一、第二、第三红外摄像头、红外激光器、投影屏幕、计算机,其中第三红外摄像头的像平面面向投影屏幕方向,第一、第二红外摄像头的像平面面对目标物体方向,并且光轴严格垂直于投影屏幕,红外激光器安放在目标物体的位置,红外激光器指向投影屏幕的位置,计算机连接第一、第二、第三红外摄像头。本发明的优点在于:根据红外激光器标识目标物体,通过红外摄像头接收进行定位,设计一套基于三个红外摄像头定位技术的三维空间定位***。通过计算机对复杂数据进行可视化、操作以及实时交互的环境,提供了逼真的三维视觉感受,实现了对运动的实时捕捉。
Description
技术领域
本发明涉及图像识别技术领域,特别涉及一种三维空间红外光点定位的技术。
背景技术
在现有技术方法中,三维空间定位技术主要有电磁方式和光学方式。电磁方式通过空间磁场采集物体运动的电参数变化分析运动特性,但是磁场容易受干扰,对环境的要求较高。光学方式三维空间定位技术通过光学及图像处理技术分析物体运动特性,可以捕捉定位物体的实时运动,但定位物体运动特征等的计算工作量较大。
利用两个摄像头实现物体的三维空间定位方法一般采用双目立体视觉技术,摄像头从不同的位置获取被检测物体的两幅图像,通过计算图像对应的位置偏差可以获取物体三维几何信息。
发明内容
本发明的所要解决的技术问题在于提供一种基于红外摄像头定位实现的屏幕上红外光点坐标定位以及基于两个红外摄像头定位技术的三维空间红外光点定位的***,在降低成本硬件的基础上,提高三维空间定位技术的环境适应性,减少计算量。
本发明采用以下技术方案解决上述技术问题的:一种基于红外图像识别的三维空间定位***,用来识别目标物体(7)的三维空间位置,包括第一红外摄像头(1)、第二红外摄像头(2)、第三红外摄像头(3)、红外激光器(4)、投影屏幕(5)、计算机(6),其中第三红外摄像头(3)的像平面面向投影屏幕(5)方向,第一红外摄像头(1)、第二红外摄像头(2)的像平面面对目标物体(7)方向,并且光轴严格垂直于投影屏幕(5),红外激光器(4)安放在目标物体(7)的位置,红外激光器(4)指向投影屏幕(5)的位置,计算机(6)连接第一红外摄像头(1)、第二红外摄像头(2)、第三红外摄像头(3)。
具体的,红外激光器(4)发射的激光在投影屏幕(5)上产生一个红外光斑,第三红外摄像头(3)捕捉到该红外光斑在投影屏幕(5)上的位置;第一红外摄像头(1)和第二红外摄像头(2)捕捉目标物体(7)的成像位置,根据图像定位、屏幕上定位点坐标计算、空间定位点坐标计算得到目标物体(7)的三维空间坐标。
所述图像定位包括从第一红外摄像头(1)、第二红外摄像头(2)拍摄的图像中识别出目标物体(7)在图像中的位置,从第三红外摄像头(3)拍摄的图像中识别出红外光斑在图像中的位置。
所述屏幕上定位点坐标计算是指根据第三红外摄像头(3)拍摄的图像计算红外光斑的空间位置,过程如下所述:以第三红外摄像头(3)拍摄的图像的左下角为中心,图像下侧边为x轴、屏幕左侧边为y轴建立二维坐标系x0y0,根据图像像素确定投影屏幕(5)的四个角的点坐标,分别为E(xe,ye)、F(xf,yf)、G(xg,yg)、G(xh,yh),红外光斑坐标为B1(x1,y1);
以投影屏幕(5)左下角为中心,投影屏幕(5)下侧边为x轴,投影屏幕(5)左侧边为y轴,垂直于投影屏幕(5)的方向为z轴建立三维空间坐标系xyz,在三维空间坐标系xyz,投影屏幕(5)的长为s,宽为h,投影屏幕(5)的四个角的点坐标分别是E(0,h,0)、F(s,h,0)、G(s,0,0)、H(0,0,0);
根据投影变换原理及摄像头成像原理,二维坐标系x0y0和三维空间坐标系xyz为透视投影变换,则存在八个常数m0、m1、m2、m3、m4、m5、m6、m7,使三维空间坐标系xyz投影屏幕上一点与第三红外摄像头(3)图像上的对应点存在如下关系式。
将红外图像中E(xe,ye)、F(xf,yf)、G(xg,yg)、G(xh,yh)的x值代入公式①,等于E(0,h,0)、F(s,h,0)、G(s,0,0)、H(0,0,0)的x值;红外图像中投影屏幕(5)的四个角的点坐标y值代入公式②,等于空间坐标系中四个角的点坐标y值,通过八个方程式求得常数m0、m1、m2、m3、m4、m5、m6、m7的值,得到三维空间坐标系与图像二维坐标系的转换关系式,计算出红外光斑的实际空间位置B(x2,y2,0)。
所述空间定位点坐标计算是指根据第一红外摄像头(1)、第二红外摄像头(2)拍摄的图像计算目标物体(7)的空间位置,具体过程如下所述。
在三维空间坐标系中,第一红外摄像头(1)、第二红外摄像头(2)的坐标分别为C1,C2已知,设目标物体(7)的位置坐标为A(xg,yg,zg),以目标物体(7)所在位置建立平行于投影屏幕(5)的虚拟平面,虚拟平面方程式为z=d,d为常数,在平面上标定不在一条直线上的任意四个点,以虚拟平面为xy平面建立三维空间坐标系,第一红外摄像头(1)、第二红外摄像头(2)在摄像图像上分别建立二维坐标系,以第一红外摄像头(1)、第二红外摄像头(2)以及目标物体(7)的位置关系可知,在z=d的虚拟平面上,根据第一红外摄像头(1)拍摄图像计算得到A处的空间位置为A1,根据第二红外摄像头(2)拍摄图像计算得到A处的空间位置为A2,A1与A2不重合,利用第一红外摄像头(1)、A1的三维空间坐标得出第一红外摄像头(1)与A1点的直线空间表达式③,利用红外摄像头(2)、A2三维空间坐标得出红外摄像头(2)与A2点的直线空间表达式④,然后通过超定线性方程组的最小二乘解求解公式③和公式④的公共解,即为所要的目标物体(7)的坐标:
本发明的优点在于:提供一种红外三维定位***,根据红外激光器标识目标物体,通过红外摄像头接收进行定位,设计一套基于三个红外摄像头定位技术的三维空间定位***。通过计算机对复杂数据进行可视化、操作以及实时交互的环境,提供了逼真的三维视觉感受,使用红外三维空间定位技术实现了对运动的实时捕捉,实现了用户与计算机的人机交互。特别适合应用于3D虚拟灭火培训。
附图说明
图1为本发明基于红外图像识别的三维空间定位***的设备安装结构图。
图2为本发明基于红外图像识别的三维空间定位***的技术原理说明图。
图3为本发明中摄像头拍摄到的投影位置的图像,原点为图像左下角点。
具体实施方式
以下结合附图对本发明进行详细的描述。
如图1所示,本发明基于红外图像识别的三维空间定位***包括三台红外摄像头1、2、3、红外激光器4、投影屏幕5、计算机6,用来识别目标物体7的三维空间位置。
其中红外摄像头3的像平面面向投影屏幕5方向。红外摄像头1、2的像平面面对目标物体7方向,并且光轴严格垂直于投影屏幕5;A处代表目标物体7的位置,红外激光器4安放在目标物体7的位置,红外激光器4指向投影屏幕5的位置,红外激光器4发射的激光(图1中点画线)在投影屏幕5上的B点产生一个红外光斑,红外摄像头3可以捕捉到红外光斑在投影屏幕5上的位置;红外摄像头1和2可以捕捉A处目标物体7的成像位置,根据图像定位、屏幕上定位点坐标计算、空间定位点坐标计算可以得到A处的三维空间坐标。
设投影屏幕5左下角为中心,投影屏幕5下侧边为x轴,投影屏幕5左侧边为y轴,垂直于投影屏幕5的方向为z轴建立三维空间坐标系xyz。
采用该基于红外图像识别的三维空间定位***计算目标物体的三维空间位置的步骤如下:首先A处红外激光器4发射的激光在投影屏幕5上产生一个红外光斑,红外摄像头3捕捉到红外光斑在屏幕上的位置B,根据图像定位、屏幕上定位点坐标计算可以得到投影屏幕5上光斑的位置B;然后通过红外摄像头1和2捕捉位置A处的目标物体7的成像位置,根据图像定位、屏幕上定位点坐标计算、空间定位点坐标计算可以得到A处的三维空间坐标,也就是目标物体7的三维空间坐标。
所述图像定位主要指包括从红外摄像头1、2拍摄的图像中识别出目标物体7在图像中的位置,从红外摄像头3拍摄的图像中识别出红外光斑在图像中的位置,使用如下方法:利用背景减除法进行阴影目标检测,利用形态学滤波和区域融合算法对结果进行优化,识别出红外摄像头图像中的红外灯或红外光斑。
所述屏幕上定位点坐标计算部分是指根据红外摄像头3拍摄的图像计算B点的空间位置,具体过程如下所述。
红外摄像头3拍摄的图像如图3所示,以图像左下角为中心,图像下侧边为x轴、屏幕左侧边为y轴建立二维坐标系x0y0,根据图像像素可以确定投影屏幕5的四个角的点坐标,分别为E(xe,ye)、F(xf,yf)、G(xg,yg)、G(xh,yh),光斑坐标为B1(x1,y1)。
在三维空间坐标系xyz,屏幕的长为s,宽为h,投影屏幕5的四个角的点坐标分别是E(0,h,0)、F(s,h,0)、G(s,0,0)、H(0,0,0),求解光斑B(x2,y2,0)的坐标。
根据投影变换原理及摄像头成像原理可知,二维坐标系x0y0和三维空间坐标系xyz为透视投影变换,则存在八个常数m0、m1、m2、m3、m4、m5、m6、m7,使三维空间坐标系xyz投影屏幕上一点(如B(x2,y2,0))与红外摄像头3图像上的对应点(如B1(x1,y1))存在如下关系式。
投影屏幕5的四个角点E、F、G、H在三维空间坐标系xyz的坐标和红外摄像头3的图像二维坐标系x0y0的坐标的关系符合透视投影变换原理,将红外图像中E(xe,ye)、F(xf,yf)、G(xg,yg)、G(xh,yh)的x值代入公式①,等于E(0,h,0)、F(s,h,0)、G(s,0,0)、H(0,0,0)的x值;同理,红外图像中投影屏幕5的四个角的点坐标y值代入公式②,等于空间坐标系中四个角的点坐标y值。通过八个方程式可求得常数m0、m1、m2、m3、m4、m5、m6、m7的值,从而得到三维空间坐标系与图像二维坐标系的转换关系式。
红外摄像头3的图像上光斑B1(x1,y1)的坐标通过图像识别技术和像素计算可以得到,通过公式①、②计算出光斑B的实际空间位置B(x2,y2,0)。
所述空间定位点坐标计算是指根据红外摄像头1、2拍摄的图像计算A处的空间位置,具体过程如下所述。
在三维空间坐标系中,红外摄像头1、2的坐标分别为C1 ,C2已知,设目标物体7的位置也就是A处坐标为A(xg,yg,zg)。以A处所在位置建立平行于投影屏幕5的虚拟平面,虚拟平面方程式为z=d,d为常数。在平面上标定不在一条直线上的任意四个点,以虚拟平面为xy平面建立三维空间坐标系。红外摄像头1、2在摄像图像上分别建立二维坐标系,利用图像识别及像素点计算可得到虚拟平面上标定的四个点的二维坐标。
由红外摄像头1、2、A处所在虚拟平面的位置关系,通过上述分析可以知道,在z=d的虚拟平面上,根据红外摄像头1拍摄图像计算得到A处的空间位置为A1,根据红外摄像头2拍摄图像计算得到A处的空间位置为A2。
由于误差存在的关系,A1与A2不重合。本发明首先利用红外摄像头1、A1的三维空间坐标得出红外摄像头1与A1点的直线表达式③,利用红外摄像头2、A2三维空间坐标得出红外摄像头2与A2点的直线表达式④,然后通过超定线性方程组的最小二乘解求解公式③和公式④的公共解,也就得出两条直线的交叉点,即为所要的目标物体7的A处坐标。
上述目标物体7本身应当是可以被红外摄像头识别的物体,如可以是红外灯。当目标物体7本身不可以被红外摄像头识别时,应该在目标物体7上安装红外灯,以便与红外摄像头1、2获取其位置图像。
以上所述仅为本发明创造的较佳实施例而已,并不用以限制本发明创造,凡在本发明创造的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明创造的保护范围之内。
Claims (5)
1.一种基于红外图像识别的三维空间定位***,用来识别目标物体(7)的三维空间位置,其特征在于:包括第一红外摄像头(1)、第二红外摄像头(2)、第三红外摄像头(3)、红外激光器(4)、投影屏幕(5)、计算机(6),其中第三红外摄像头(3)的像平面面向投影屏幕(5)方向,第一红外摄像头(1)、第二红外摄像头(2)的像平面面对目标物体(7)方向,并且光轴严格垂直于投影屏幕(5),红外激光器(4)安放在目标物体(7)的位置,红外激光器(4)指向投影屏幕(5)的位置,计算机(6)连接第一红外摄像头(1)、第二红外摄像头(2)、第三红外摄像头(3)。
2.根据权利要求1所述的基于红外图像识别的三维空间定位***,其特征在于:红外激光器(4)发射的激光在投影屏幕(5)上产生一个红外光斑,第三红外摄像头(3)捕捉到该红外光斑在投影屏幕(5)上的位置;第一红外摄像头(1)和第二红外摄像头(2)捕捉目标物体(7)的成像位置,根据图像定位、屏幕上定位点坐标计算、空间定位点坐标计算得到目标物体(7)的三维空间坐标。
3.根据权利要求2所述的基于红外图像识别的三维空间定位***,其特征在于:所述图像定位包括从第一红外摄像头(1)、第二红外摄像头(2)拍摄的图像中识别出目标物体(7)在图像中的位置,从第三红外摄像头(3)拍摄的图像中识别出红外光斑在图像中的位置。
4.根据权利要求3所述的基于红外图像识别的三维空间定位***,其特征在于:所述屏幕上定位点坐标计算是指根据第三红外摄像头(3)拍摄的图像计算红外光斑的空间位置,过程如下所述:以第三红外摄像头(3)拍摄的图像的左下角为中心,图像下侧边为x轴、屏幕左侧边为y轴建立二维坐标系x0y0,根据图像像素确定投影屏幕(5)的四个角的点坐标,分别为E(xe,ye)、F(xf,yf)、G(xg,yg)、G(xh,yh),红外光斑坐标为B1(x1,y1);
以投影屏幕(5)左下角为中心,投影屏幕(5)下侧边为x轴,投影屏幕(5)左侧边为y轴,垂直于投影屏幕(5)的方向为z轴建立三维空间坐标系xyz,在三维空间坐标系xyz,投影屏幕(5)的长为s,宽为h,投影屏幕(5)的四个角的点坐标分别是E(0,h,0)、F(s,h,0)、G(s,0,0)、H(0,0,0);
根据投影变换原理及摄像头成像原理,二维坐标系x0y0和三维空间坐标系xyz为透视投影变换,则存在八个常数m0、m1、m2、m3、m4、m5、m6、m7,使三维空间坐标系xyz投影屏幕上一点与第三红外摄像头(3)图像上的对应点存在如下关系式。
将红外图像中E(xe,ye)、F(xf,yf)、G(xg,yg)、G(xh,yh)的x值代入公式①,等于E(0,h,0)、F(s,h,0)、G(s,0,0)、H(0,0,0)的x值;红外图像中投影屏幕(5)的四个角的点坐标y值代入公式②,等于空间坐标系中四个角的点坐标y值,通过八个方程式求得常数m0、m1、m2、m3、m4、m5、m6、m7的值,得到三维空间坐标系与图像二维坐标系的转换关系式,计算出红外光斑的实际空间位置B(x2,y2,0)。
5.根据权利要求4所述的基于红外图像识别的三维空间定位***,其特征在于:所述空间定位点坐标计算是指根据第一红外摄像头(1)、第二红外摄像头(2)拍摄的图像计算目标物体(7)的空间位置,具体过程如下所述。
在三维空间坐标系中,第一红外摄像头(1)、第二红外摄像头(2)的坐标分别为C1,C2已知,设目标物体(7)的位置坐标为A(xg,yg,zg),以目标物体(7)所在位置建立平行于投影屏幕(5)的虚拟平面,虚拟平面方程式为z=d,d为常数,在平面上标定不在一条直线上的任意四个点,以虚拟平面为xy平面建立三维空间坐标系,第一红外摄像头(1)、第二红外摄像头(2)在摄像图像上分别建立二维坐标系,以第一红外摄像头(1)、第二红外摄像头(2)以及目标物体(7)的位置关系可知,在z=d的虚拟平面上,根据第一红外摄像头(1)拍摄图像计算得到A处的空间位置为A1,根据第二红外摄像头(2)拍摄图像计算得到A处的空间位置为A2,A1与A2不重合,利用第一红外摄像头(1)、A1的三维空间坐标得出第一红外摄像头(1)与A1点的直线空间表达式③,利用红外摄像头(2)、A2三维空间坐标得出红外摄像头(2)与A2点的直线空间表达式④,然后通过超定线性方程组的最小二乘解求解公式③和公式④的公共解,即为所要的目标物体(7)的坐标:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310602763.9A CN103593658A (zh) | 2013-11-22 | 2013-11-22 | 一种基于红外图像识别的三维空间定位*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310602763.9A CN103593658A (zh) | 2013-11-22 | 2013-11-22 | 一种基于红外图像识别的三维空间定位*** |
Publications (1)
Publication Number | Publication Date |
---|---|
CN103593658A true CN103593658A (zh) | 2014-02-19 |
Family
ID=50083790
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310602763.9A Pending CN103593658A (zh) | 2013-11-22 | 2013-11-22 | 一种基于红外图像识别的三维空间定位*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103593658A (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104144329A (zh) * | 2014-08-15 | 2014-11-12 | 中国商用飞机有限责任公司北京民用飞机技术研究中心 | 光学跟踪方法 |
CN106415312A (zh) * | 2014-05-30 | 2017-02-15 | 松下知识产权经营株式会社 | 感应***及驾驶支援*** |
CN106846311A (zh) * | 2017-01-21 | 2017-06-13 | 吴东辉 | 基于图像识别的定位及ar方法及***及应用 |
CN106918335A (zh) * | 2017-03-01 | 2017-07-04 | 南京大学 | 一种基于多psd传感器的辅助式三维空间定位装置与应用 |
CN107390448A (zh) * | 2017-09-06 | 2017-11-24 | 成都豪宇韬鹰科技有限公司 | 一种主动式光学动作捕捉*** |
CN108257182A (zh) * | 2016-12-29 | 2018-07-06 | 深圳超多维光电子有限公司 | 一种立体摄像头模组的标定方法及装置 |
CN108616753A (zh) * | 2016-12-29 | 2018-10-02 | 深圳超多维科技有限公司 | 一种裸眼立体显示方法及装置 |
CN109141387A (zh) * | 2018-09-04 | 2019-01-04 | 信利光电股份有限公司 | 一种3d绘测装置 |
CN110389352A (zh) * | 2019-08-16 | 2019-10-29 | 国网内蒙古东部电力有限公司电力科学研究院 | 光学三维动作捕捉方法及*** |
CN111475014A (zh) * | 2019-12-24 | 2020-07-31 | 长融(北京)信息技术有限公司 | 基于交错双维度多层光幕空间位置定位方法 |
CN113093190A (zh) * | 2021-04-08 | 2021-07-09 | 中国电子科技集团公司第三十八研究所 | 基于高精度组合惯导***的机载条带sar图像定位方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090033655A1 (en) * | 2007-08-02 | 2009-02-05 | Boca Remus F | System and method of three-dimensional pose estimation |
CN101419513A (zh) * | 2008-12-09 | 2009-04-29 | 安徽大学 | 一种红外激光笔遥指虚拟触摸*** |
CN102831401A (zh) * | 2012-08-03 | 2012-12-19 | 樊晓东 | 对无特定标记目标物体跟踪、三维叠加及交互的方法及*** |
CN202871127U (zh) * | 2012-11-15 | 2013-04-10 | 中国电子科技集团公司第三十八研究所 | 基于虚拟场景的灭火培训*** |
CN103115613A (zh) * | 2013-02-04 | 2013-05-22 | 安徽大学 | 一种空间三维定位方法 |
-
2013
- 2013-11-22 CN CN201310602763.9A patent/CN103593658A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090033655A1 (en) * | 2007-08-02 | 2009-02-05 | Boca Remus F | System and method of three-dimensional pose estimation |
CN101419513A (zh) * | 2008-12-09 | 2009-04-29 | 安徽大学 | 一种红外激光笔遥指虚拟触摸*** |
CN102831401A (zh) * | 2012-08-03 | 2012-12-19 | 樊晓东 | 对无特定标记目标物体跟踪、三维叠加及交互的方法及*** |
CN202871127U (zh) * | 2012-11-15 | 2013-04-10 | 中国电子科技集团公司第三十八研究所 | 基于虚拟场景的灭火培训*** |
CN103115613A (zh) * | 2013-02-04 | 2013-05-22 | 安徽大学 | 一种空间三维定位方法 |
Non-Patent Citations (1)
Title |
---|
郭星 等: "一种大屏幕人机交互***的实现方法", 《计算机工程与应用》 * |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106415312A (zh) * | 2014-05-30 | 2017-02-15 | 松下知识产权经营株式会社 | 感应***及驾驶支援*** |
CN106415312B (zh) * | 2014-05-30 | 2019-07-02 | 松下知识产权经营株式会社 | 感应***及驾驶支援*** |
CN104144329B (zh) * | 2014-08-15 | 2017-12-19 | 中国商用飞机有限责任公司北京民用飞机技术研究中心 | 光学跟踪方法 |
CN104144329A (zh) * | 2014-08-15 | 2014-11-12 | 中国商用飞机有限责任公司北京民用飞机技术研究中心 | 光学跟踪方法 |
CN108257182A (zh) * | 2016-12-29 | 2018-07-06 | 深圳超多维光电子有限公司 | 一种立体摄像头模组的标定方法及装置 |
CN108616753A (zh) * | 2016-12-29 | 2018-10-02 | 深圳超多维科技有限公司 | 一种裸眼立体显示方法及装置 |
CN108616753B (zh) * | 2016-12-29 | 2020-08-04 | 深圳超多维科技有限公司 | 一种裸眼立体显示方法及装置 |
CN106846311A (zh) * | 2017-01-21 | 2017-06-13 | 吴东辉 | 基于图像识别的定位及ar方法及***及应用 |
CN106846311B (zh) * | 2017-01-21 | 2023-10-13 | 吴东辉 | 基于图像识别的定位及ar方法及***及应用 |
CN106918335A (zh) * | 2017-03-01 | 2017-07-04 | 南京大学 | 一种基于多psd传感器的辅助式三维空间定位装置与应用 |
CN107390448A (zh) * | 2017-09-06 | 2017-11-24 | 成都豪宇韬鹰科技有限公司 | 一种主动式光学动作捕捉*** |
CN109141387A (zh) * | 2018-09-04 | 2019-01-04 | 信利光电股份有限公司 | 一种3d绘测装置 |
CN110389352A (zh) * | 2019-08-16 | 2019-10-29 | 国网内蒙古东部电力有限公司电力科学研究院 | 光学三维动作捕捉方法及*** |
CN111475014A (zh) * | 2019-12-24 | 2020-07-31 | 长融(北京)信息技术有限公司 | 基于交错双维度多层光幕空间位置定位方法 |
CN113093190A (zh) * | 2021-04-08 | 2021-07-09 | 中国电子科技集团公司第三十八研究所 | 基于高精度组合惯导***的机载条带sar图像定位方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103593658A (zh) | 一种基于红外图像识别的三维空间定位*** | |
CN104835117B (zh) | 基于重叠方式的球面全景图生成方法 | |
WO2019242262A1 (zh) | 基于增强现实的远程指导方法、装置、终端和存储介质 | |
CN104330074B (zh) | 一种智能测绘平台及其实现方法 | |
CN110458897B (zh) | 多摄像头自动标定方法及***、监控方法及*** | |
CN103115613B (zh) | 一种空间三维定位方法 | |
CN104034269B (zh) | 一种单目视觉测量方法与装置 | |
CN202362833U (zh) | 基于双目立体视觉移动车辆的三维重建装置 | |
CN103247075A (zh) | 基于变分机制的室内环境三维重建方法 | |
US20230252679A1 (en) | Extrinsic parameter calibration device and method for multiple camera devices, storage medium, and electronic device | |
EP2907307A1 (en) | System and method for combining data from multiple depth cameras | |
CN106033614B (zh) | 一种强视差下的移动相机运动目标检测方法 | |
CN106845410B (zh) | 一种基于深度学习模型的火焰识别方法 | |
JP5525495B2 (ja) | 映像監視装置、映像監視方法およびプログラム | |
CN105739106B (zh) | 一种体感多视点大尺寸光场真三维显示装置及方法 | |
KR20230065978A (ko) | 구조화된 광을 사용하여 장면에서 평면 표면들을 직접 복구하기 위한 시스템, 방법 및 매체 | |
CN204305213U (zh) | 多摄像头人体跟踪互动视觉装置 | |
KR20140121529A (ko) | 광 필드 영상을 생성하는 방법 및 장치 | |
CN110807413A (zh) | 目标显示方法以及相关装置 | |
CN110880161A (zh) | 一种多主机多深度摄像头的深度图像拼接融合方法及*** | |
CN104144329B (zh) | 光学跟踪方法 | |
CN114266823A (zh) | 一种结合SuperPoint网络特征提取的单目SLAM方法 | |
Lu et al. | Binocular stereo vision based on OpenCV | |
ES2812851T3 (es) | Dispositivo de previsualización | |
CN104156973A (zh) | 基于立体匹配的实时三维视频监控方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20140219 |