CN117934598B - 一种基于光学定位技术的桌面级刚体定位设备及方法 - Google Patents

一种基于光学定位技术的桌面级刚体定位设备及方法 Download PDF

Info

Publication number
CN117934598B
CN117934598B CN202410324107.5A CN202410324107A CN117934598B CN 117934598 B CN117934598 B CN 117934598B CN 202410324107 A CN202410324107 A CN 202410324107A CN 117934598 B CN117934598 B CN 117934598B
Authority
CN
China
Prior art keywords
positioning
fisheye camera
optical
rigid body
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202410324107.5A
Other languages
English (en)
Other versions
CN117934598A (zh
Inventor
高飞
王英建
温向勇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN202410324107.5A priority Critical patent/CN117934598B/zh
Publication of CN117934598A publication Critical patent/CN117934598A/zh
Application granted granted Critical
Publication of CN117934598B publication Critical patent/CN117934598B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明公开了一种基于光学定位技术的桌面级刚体定位设备及方法,该方法是采用先进的光学传感技术和精密算法,通过使用特殊设计的光学元件和高级图像处理算法,捕捉无人机自发的不可见光,以实现高精度的三维空间定位。该方法解决光学定位中仍旧存在的昂贵、笨重、精度有限的技术问题,使得桌面级设备的空间定位成为可能,为虚拟现实与增强现实、机器人技术和游戏与娱乐产业提供了定位基础。该方法针对桌面级应用的需求,采用紧凑的装置设计,生产成本较低,更适合小型化产品和消费级市场。

Description

一种基于光学定位技术的桌面级刚体定位设备及方法
技术领域
本发明属于光学定位和计算机视觉技术领域,尤其涉及一种基于光学定位技术的桌面级刚体定位设备及方法。
背景技术
在刚体空间定位领域,目前存在使用红外光的大型光学式动作捕捉***和使用超带宽距离测量的定位方案,但两者均无法满足桌面级刚体定位的微小型与高精度双重需求。所以,在桌面级刚体定位领域,尚未存在典型产品。
刚体的三维空间定位技术是多个领域的基础技术之一,目前的空间定位技术大致分为光学定位与距离定位两种主流方法。光学定位技术,顾名思义,是通过光学原理来完成物体的捕捉和定位的。是通过光学镜头捕捉固定在人体或是物体上面的标识物的位置信息来完成动作姿态捕捉。光学定位依靠一整套精密而复杂的光学摄像头来实现,它通过计算机视觉原理,由多个高速摄像机从不同角度对目标特征点进行跟踪来完成空间定位。光学定位技术可分为被动式和主动式两种。这个分类是从标识物来区别的。主动式是指标识物是主动发光甚至可以自带编码的,这样镜头在视野中可以通过标识物自身发光来观测它,并记录捕捉到其的运动轨迹。而被动式光学动作捕捉是通过镜头本身自带的灯板发出特定波长的光,照射到标识物上,标识物是通过特殊反光处理,可以反射镜头灯板发出的光,这样镜头就能在视野里捕捉记录该标识物的运动轨迹。
目前主流的光学定位技术主要是使用红外光进行光学定位,这是因为红外光在光谱中的分布较少,不容易被其他光源影响。此外,由于光学定位技术主要用于动作捕捉***、大型移动机器人空间定位等应用领域,而红外光的功率提升,能够有效提升反射率,从而形成镜头视野里的明显光点。另外,主流的动作捕捉***,比如来自英国Vicon公司[1]和中国Nokov公司[2]的红外光学动作捕捉***,均使用被动式定位,这是因为这种方法不需要主动供电,而且可以增加任意数量的标识点来增加准确度和鲁棒性。
然而,这种主流的“红外光+被动定位”的模式,不适用于桌面级刚体定位,这是因为桌面级设备一般应用在不到5平方米的空间里,在这种空间内无法安装笨重、庞大的红外动作捕捉***设备。此外,主流的动作捕捉***价格相当昂贵,中国Nokov公司的一套完整定位设备需要几万甚至十几万人民币,英国Vicon公司的动作捕捉***更是高达几十万甚至数百万,如果应用到普通的桌面级设备上,性价比极低。
除了光学定位技术之外,还存在使用距离测量进行空间定位的方案。这种方案一般使用特定频段的电磁信号测量待定位物体与基站之间的距离,然后利用多个基站得到的多个距离计算物体的空间位置。以该技术为基础的定位方案被称为距离测量定位技术,如基于超带宽(Ultra-Bandwidth)技术的定位***。虽然该方法所使用的设备比较轻便,容易部署,且价格较为低廉,但UWB的精度有限,只能实现十几厘米或几十厘米的定位精度,无法满足桌面级设备的高精度定位需求,因此,也不适用于桌面级刚体定位。
因此基于现有的光学定位技术方案仍旧存在昂贵、笨重、精度有限的问题,亟需一种能够为桌面级设备提供了稳定、精确、鲁棒的定位技术平台。
发明内容
针对现有技术的不足,本发明的目的是提供一种基于光学定位技术的桌面级刚体定位设备及方法,包括硬件设备与软件算法设计方法。本发明使得桌面级设备的空间定位成为可能,为虚拟现实与增强现实、机器人技术和游戏与娱乐产业提供了定位基础。以解决相关技术中存在的光学定位中仍旧存在昂贵、笨重、精度有限的技术问题。
本发明的技术方案如下:
本发明第一个方面,提供了一种基于光学定位技术的桌面级刚体定位设备,包括一个定位盒子、磨砂黑色玻璃纤维平台、用于放置无人机的透明亚克力平台以及连接磨砂黑色玻璃纤维平台与透明亚克力平台的磨砂黑色聚氯乙烯支柱;
所述定位盒子包括三个相同的鱼眼相机模组、计算单元模组、电源模组和数据与连接线隐藏盒;所述计算单元模组通过USB连接线与三个鱼眼相机模组电连,起到供电与数据传输的双重作用;所述电源模组是用于为计算单元模组供电;所述数据与连接线隐藏盒设置于定位盒子一侧,用于盛装数据与连接线;所述定位盒子的三个鱼眼相机模组固定设置于磨砂黑色玻璃纤维平台下方,所述磨砂黑色玻璃纤维平台的四角与四根磨砂黑色聚氯乙烯支柱螺纹连接,所述四根磨砂黑色聚氯乙烯支柱与透明亚克力平台的四角垂直固定连接。
具体地,所述鱼眼相机模组由相机镜头、滤光片和成像模块组成;用于识别待定位物体装备的发光元件。
进一步地,所述相机镜头为185°鱼眼镜头,能够观察所需的定位的范围。
进一步地,所述滤光片为紫外滤光片,用于滤除日常的可见光波段,且滤光后只留下波段为390-400nm的光线。
进一步地,所述成像模块为高光谱范围CMOS成像芯片,且要求分辨率大于1080P。
进一步地,所述鱼眼相机模组的位置排布是使用三角定位的方法确定刚体的三维空间位置,并将其分布为一个不等边的三角形;防止出现奇异点和影响***定位精度。
本发明第三个方面,还提供了一种基于光学定位技术的桌面级刚体定位方法,包括以下步骤:
(1)多物体定位初始化:
由于紫外光的检测点是匿名的,在放入多个待定位物体时,没有办法确定相机图片的紫外检测点对应到哪个待定位物体;因此需要输入待定位物体的尺度未知的相对位置,具体而言,如果放入个待定位物体,则需要输入每个待定位物体在所有物体中的相对位置:
其中代表第i个待定位物体在所有物体中的相对位置,该需求通过在定位盒子的透明亚克力平台上设置标识并要求使用者将待定位物体放置在这些标识上来满足;与定位盒子上安装的三个鱼眼相机模组对应,鱼眼相机模组会检测待定位物体发出的紫外光线,并得到3组方位测量,其表达式为:
其中,/>代表第m个鱼眼相机模组获得的第i个方位测量,且已通过定位盒子的提前设计与外部参数标定获得鱼眼相机模组的绝对位置/>,其中
再进行多物体定位初始化,以相对位置与方位测量为输入,并对数据关联与位置求解,不断迭代直到收敛;
(2)多目标像素追踪:
由于每个鱼眼相机模组都会检测到多个光点,鱼眼相机模组之间的光点需要有正确的数据关联才能进行正确的位置解算;因此在多物体定位初始化成功之后,还对每个鱼眼相机模组检测到的多个光点进行跟踪;具体而言,在上一帧的光点检测结果基础上,计算一个的数据矩阵/>,其中/>是光点的数量,由于前后两帧的光点数量是相同的;数据矩阵的元素/>,表示该帧的第i个光点与上一帧的第j个光点的欧式距离;基于该数据矩阵,使用二分图匹配的经典算法进行前后帧光点的数据关联;
(3)位置计算:
当三个鱼眼相机模组对一个刚体的检测结果是正确时,进行空间三维位置计算获得该物体的空间三维位置,所述空间三维位置计算由如下表达式获得:
;其中,/>为待定位物体的绝对位置;/>为鱼眼相机模组的绝对位置,/>为对第i个待标定物体的方位观测位置;最后通过闭式求解得到全局最优解。
具体地,所述步骤(1)中多物体定位初始化,具体包括以下子步骤:
(1.1)将待定位物体的绝对位置初始化为待定位物体相对位置;
(1.2)利用鱼眼相机模组绝对位置和待定位物体的绝对位置反算每个待定位物体的期望方位测量;
(1.3)计算期望方位测量与实际方位测量的差,按照匈牙利算法建立匹配;
(1.4)利用匹配上的实际方位测量计算物***置,并以此更新待定位物体的绝对位置;
(1.5)迭代直到期望方位测量的差与实际方位测量的差低于设定阈值,迭代结束,返回待定位物体的绝对位置。
本发明第三个方面,提供了一种电子设备,包括:
一个或多个处理器;
存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现所述的基于光学定位技术的桌面级刚体定位方法。
本发明第四个方面,一种计算机可读存储介质,其上存储有计算机指令,该指令被处理器执行时实现所述基于光学定位技术的桌面级刚体定位方法的步骤。
本发明的有益效果如下:
本发明的光学定位***采用了先进的光学传感技术和精密的算法,与传统的红外光动作捕捉***和UWB定位***相比,具有更高的定位精度和更强的环境适应性;通过使用特殊设计的光学元件和高级图像处理算法,本***可以更准确地捕捉和解析物体表面的光学特征,实现高精度的三维空间定位,即使在光线复杂或有障碍物遮挡的环境中也能保持稳定性;针对桌面级应用的需求,本发明的装置设计更为紧凑,生产成本较低,更适合小型化产品和消费级市场。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本申请的实施例,并与说明书一起用于解释本申请的原理。
图1是本发明定位盒子的俯视图;
图2是本发明定位盒子的正视图;
图3是本发明定位盒子的侧视图;
图4是本发明定位盒子的模组***图;
图5是本发明的鱼眼相机模组图;
图6是本发明的滤光片“波长-通过率”曲线图;
图7是本发明的定位算法流程图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本申请相一致的所有实施方式。
在本申请使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本申请。在本申请和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本文中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
一、关于本发明的硬件设备
本发明提供了一种基于光学定位技术的桌面级刚体定位设备,包括一个定位盒子、磨砂黑色玻璃纤维平台、用于放置无人机的透明亚克力平台以及连接磨砂黑色玻璃纤维平台与透明亚克力平台的磨砂黑色聚氯乙烯支柱;所述定位盒子包括三个相同的鱼眼相机模组、计算单元模组、电源模组和数据与连接线隐藏盒;所述定位盒子的三个鱼眼相机模组固定设置于磨砂黑色玻璃纤维平台下方,所述磨砂黑色玻璃纤维平台的四角与四根磨砂黑色聚氯乙烯支柱螺纹连接,所述四根磨砂黑色聚氯乙烯支柱与透明亚克力平台的四角垂直固定连接。如图1、图2、图3和图4所示,依次为本发明的“俯视图”、“正视图”、“侧视图”以及“模组***图”。
每个所述鱼眼相机模组需要进行特殊选型:本发明使用紫外光作为检测光,故选择可以检测到紫外光波段的鱼眼相机模组。具体而言,鱼眼相机模组如图5所示,包含镜头选择、滤光片选择与成像模块选择;所述镜头选择为185°鱼眼镜头,使用该鱼眼镜头能够有效增大本发明定位的范围,减少定位的死区。所述滤光片选择为紫外滤光片,该滤光片能够有效滤除日常生活中的可见光波段,只留下390-400nm波段的光线,减少干扰进而提升***定位鲁棒性与准确度。如图6所示的滤光片“波长-通过率”曲线图。成像模块包括高光谱范围CMOS成像芯片等,无特别需求,要求分辨率高,如大于1080P。
所述鱼眼相机模组的位置排布:本发明使用三角定位的方法确定刚体的三维空间位置,由于三个鱼眼相机模组形成的三角形有任意两条边的长度相等,即形成一个等腰三角形时,就会在三角定位的时候出现奇异点的特殊情况,影响***定位精度。因此,本发明特意将鱼眼相机模组分布为一个不等边的三角形。
所述电源模组为计算单元模组供电,所述计算单元模组通过USB连接线与三个鱼眼相机模组相连,起到供电与数据传输的双重作用。
所述数据与连接线隐藏盒设置于定位盒子一侧,用于盛装数据与连接线。
此外,本发明还设计了一个透明亚克力的平台;使用者只需要将待定位的物体放在该平台上,待定位物体装备的发光元件发出的紫外光线就会穿过透明亚克力板,被下方的鱼眼模组识别到。
二、软件设计方法
本发明包括一种基于光学定位技术的桌面级刚体定位方法。该方法流程图如图7所示:
定位软件设计方法包括以下步骤:
(1)多物体定位初始化:
由于紫外光的检测点是匿名的,在放入多个待定位物体时,没有办法确定相机图片的紫外检测点对应到哪个待定位物体。因此,本发明包含的算法需要输入待定位物体的尺度未知的相对位置。具体而言,如果放入个待定位物体,则需要输入每个待定位物体在所有物体中的相对位置:
其中代表第i个待定位物体在所有物体中的相对位置,该需求通过在定位盒子的透明亚克力平台上设置标识并要求使用者将待定位物体放置在这些标识上来满足。与定位盒子上安装的三个鱼眼相机模组对应,鱼眼相机模组会检测待定位物体发出的紫外光线,并得到3组方位测量,其表达式如下:
其中,/>代表第m个鱼眼相机模组获得的第i个方位测量。此外,本发明需要通过定位盒子的提前设计与外部参数标定获得鱼眼相机模组的绝对位置/>,其中
在“多物体定位初始化”过程中,本发明以相对位置与方位测量为输入,并对数据关联与位置求解,不断迭代直到收敛,其输入为鱼眼相机模组绝对位置{cm},待定位物体相对位置{}和实际方位测量{/> },输出为待定位物体的绝对位置{/>}。具体流程如下:
1、将待定位物体的绝对位置初始化为待定位物体相对位置;
2、利用鱼眼相机模组绝对位置和待定位物体的绝对位置反算每个待定位物体的期望方位测量;
3、计算期望方位测量与实际方位测量的差,按照匈牙利算法建立匹配;
4、利用匹配上的实际方位测量计算物***置,并以此更新待定位物体的绝对位置;
5、迭代2-4次,直到期望方位测量的差与实际方位测量的差低于设定阈值,迭代结束,返回待定位物体的绝对位置。
(2)多目标像素追踪:
由于每个鱼眼相机模组都会检测到多个光点,鱼眼相机模组之间的光点需要有正确的数据关联才能进行正确的位置解算。因此在多物体定位初始化成功之后,本发明还对每个鱼眼相机模组检测到的多个光点进行跟踪。具体而言,由于鱼眼相机模组的频率在50hz,且一般物体的移动速度不高,因此,即认为在连续两帧内,检测到的光点位置不会发生巨大变化,可以使用多物体跟踪的方法进行像素追踪。具体而言,在上一帧的光点检测结果基础上,首先计算一个的数据矩阵/>,其中/>是光点的数量。理论上来说,前后两帧的光点数量应该是相同的。数据矩阵的元素/>,表示该帧的第i个光点与上一帧的第j个光点的欧式距离。基于该数据矩阵,并使用二分图匹配的匈牙利算法进行前后帧光点的数据关联。
(3)位置计算:
当三个鱼眼相机模组对一个刚体的检测结果是正确时,即可进行正确、高精度的空间三维位置解算。具体而言,当鱼眼相机模组的绝对位置为,对第i个待标定物体的方位观测为/>,则该物体的空间三维位置由如下表达式获得:
其中,为待定位物体的绝对位置;该问题可以闭式求解得到全局最优解。
本发明又提供了一种电子设备,包括:
一个或多个处理器;
存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现所述的基于光学定位技术的桌面级刚体定位方法。
本发明还提供了一种计算机可读存储介质,其上存储有计算机指令,该指令被处理器执行时实现所述基于光学定位技术的桌面级刚体定位方法的步骤。
本领域技术人员在考虑说明书及实践这里公开的内容后,将容易想到本申请的其它实施方案。本申请旨在涵盖本申请的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本申请的一般性原理并包括本申请未公开的本技术领域中的公知常识或惯用技术手段。
应当理解的是,本申请并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。

Claims (9)

1.一种基于光学定位技术的桌面级刚体定位设备的定位方法,其特征在于,该桌面级刚体定位设备包括一个定位盒子、磨砂黑色玻璃纤维平台、用于放置无人机的透明亚克力平台以及连接磨砂黑色玻璃纤维平台与透明亚克力平台的磨砂黑色聚氯乙烯支柱;
所述定位盒子包括三个相同的鱼眼相机模组、计算单元模组、电源模组和数据与连接线隐藏盒;所述计算单元模组通过USB连接线与三个鱼眼相机模组电连,起到供电与数据传输的双重作用;所述电源模组是用于为计算单元模组供电;所述数据与连接线隐藏盒设置于定位盒子一侧,用于盛装数据与连接线;所述定位盒子的三个鱼眼相机模组固定设置于磨砂黑色玻璃纤维平台下方,所述磨砂黑色玻璃纤维平台的四角与四根磨砂黑色聚氯乙烯支柱螺纹连接,所述四根磨砂黑色聚氯乙烯支柱与透明亚克力平台的四角垂直固定连接;
所述定位方法包括以下步骤:
(1)多物体定位初始化:
由于紫外光的检测点是匿名的,在放入多个待定位物体时,没有办法确定相机图片的紫外检测点对应到哪个待定位物体;因此需要输入待定位物体的尺度未知的相对位置,具体而言,如果放入N个待定位物体,则需要输入每个待定位物体在所有物体中的相对位置:
p0,p1,…,pN
其中pi代表第i个待定位物体在所有物体中的相对位置,该需求通过在定位盒子的透明亚克力平台上设置标识并要求使用者将待定位物体放置在这些标识上来满足;与定位盒子上安装的三个鱼眼相机模组对应,鱼眼相机模组会检测待定位物体发出的紫外光线,并得到3组方位测量,其表达式为:
其中m=1,2或3,代表第m个鱼眼相机模组获得的第i个方位测量,且已通过定位盒子的提前设计与外部参数标定获得鱼眼相机模组的绝对位置cm,其中m=1,2或3;
再进行多物体定位初始化,以相对位置与方位测量为输入,并对数据关联与位置求解两个阶段不断迭代直到收敛;
(2)多目标像素追踪:
由于每个鱼眼相机模组都会检测到多个光点,鱼眼相机模组之间的光点需要有正确的数据关联才能进行正确的位置解算;因此在多物体定位初始化成功之后,还对每个鱼眼相机模组检测到的多个光点进行跟踪;具体而言,在上一帧的光点检测结果基础上,计算一个N×N的数据矩阵M,其中N是光点的数量,由于前后两帧的光点数量是相同的;数据矩阵的元素Mij,表示该帧的第i个光点与上一帧的第j个光点的欧式距离;基于该数据矩阵,使用二分图匹配的经典算法进行前后帧光点的数据关联;
(3)位置计算:
当三个鱼眼相机模组对一个刚体的检测结果是正确时,进行空间三维位置计算获得该物体的空间三维位置,所述空间三维位置计算由如下表达式获得:
其中,p为待定位物体的绝对位置;cm为鱼眼相机模组的绝对位置,为对第i个待标定物体的方位观测位置;最后通过闭式求解得到全局最优解。
2.根据权利要求1所述的定位方法,其特征在于,所述鱼眼相机模组由相机镜头、滤光片和成像模块组成;用于识别待定位物体装备的发光元件。
3.根据权利要求2所述的定位方法,其特征在于,所述相机镜头为185°鱼眼镜头,能够观察所需的定位的范围。
4.根据权利要求2所述的定位方法,其特征在于,所述滤光片为紫外滤光片,用于滤除日常的可见光波段,且滤光后只留下波段为390-400nm的光线。
5.根据权利要求2所述的定位方法,其特征在于,所述成像模块为高光谱范围CMOS成像芯片,且要求分辨率大于1080P。
6.根据权利要求1所述的定位方法,其特征在于,所述鱼眼相机模组的位置排布是使用三角定位的方法确定刚体的三维空间位置,并将其分布为一个不等边的三角形;防止出现奇异点和影响***定位精度。
7.根据权利要求1所述的一种基于光学定位技术的桌面级刚体定位方法,其特征在于,所述步骤(1)中多物体定位初始化,具体包括以下子步骤:
(1.1)将待定位物体的绝对位置初始化为待定位物体相对位置;
(1.2)利用鱼眼相机模组绝对位置和待定位物体的绝对位置反算每个待定位物体的期望方位测量;
(1.3)计算期望方位测量与实际方位测量的差,按照匈牙利算法建立匹配;
(1.4)利用匹配上的实际方位测量计算物***置,并以此更新待定位物体的绝对位置;
(1.5)迭代直到期望方位测量的差与实际方位测量的差低于设定阈值,迭代结束,返回待定位物体的绝对位置。
8.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-7任一项所述的基于光学定位技术的桌面级刚体定位设备的定位方法。
9.一种计算机可读存储介质,其上存储有计算机指令,其特征在于,该指令被处理器执行时实现如权利要求1-7中任一项所述基于光学定位技术的桌面级刚体定位设备的定位方法的步骤。
CN202410324107.5A 2024-03-21 2024-03-21 一种基于光学定位技术的桌面级刚体定位设备及方法 Active CN117934598B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202410324107.5A CN117934598B (zh) 2024-03-21 2024-03-21 一种基于光学定位技术的桌面级刚体定位设备及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202410324107.5A CN117934598B (zh) 2024-03-21 2024-03-21 一种基于光学定位技术的桌面级刚体定位设备及方法

Publications (2)

Publication Number Publication Date
CN117934598A CN117934598A (zh) 2024-04-26
CN117934598B true CN117934598B (zh) 2024-06-11

Family

ID=90763426

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202410324107.5A Active CN117934598B (zh) 2024-03-21 2024-03-21 一种基于光学定位技术的桌面级刚体定位设备及方法

Country Status (1)

Country Link
CN (1) CN117934598B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008151471A1 (fr) * 2007-06-15 2008-12-18 Tsinghua University Procédé de positionnementrobuste et précis de l'oeil dans une image d'arrière-plan compliquée
CN111311656A (zh) * 2020-02-21 2020-06-19 辽宁石油化工大学 一种适用于车载鱼眼相机的运动目标检测方法和装置
WO2021063127A1 (zh) * 2019-09-30 2021-04-08 深圳市瑞立视多媒体科技有限公司 多相机环境中主动式刚体的位姿定位方法及相关设备
CN114708309A (zh) * 2022-02-22 2022-07-05 广东工业大学 基于建筑平面图先验信息的视觉室内定位方法及***
CN117274378A (zh) * 2023-09-15 2023-12-22 东北电力大学 基于ai视觉融合三维场景的室内定位***及方法
CN117576219A (zh) * 2023-10-21 2024-02-20 东北石油大学 大广角鱼眼镜头单次拍摄图像的相机标定设备及标定方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9154919B2 (en) * 2013-04-22 2015-10-06 Alcatel Lucent Localization systems and methods
CN111274343B (zh) * 2020-01-20 2023-11-24 阿波罗智能技术(北京)有限公司 一种车辆定位方法、装置、电子设备及存储介质
CN112926514A (zh) * 2021-03-26 2021-06-08 哈尔滨工业大学(威海) 一种多目标检测及跟踪方法、***、存储介质及应用

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008151471A1 (fr) * 2007-06-15 2008-12-18 Tsinghua University Procédé de positionnementrobuste et précis de l'oeil dans une image d'arrière-plan compliquée
WO2021063127A1 (zh) * 2019-09-30 2021-04-08 深圳市瑞立视多媒体科技有限公司 多相机环境中主动式刚体的位姿定位方法及相关设备
CN113643378A (zh) * 2019-09-30 2021-11-12 深圳市瑞立视多媒体科技有限公司 多相机环境中主动式刚体的位姿定位方法及相关设备
CN111311656A (zh) * 2020-02-21 2020-06-19 辽宁石油化工大学 一种适用于车载鱼眼相机的运动目标检测方法和装置
CN114708309A (zh) * 2022-02-22 2022-07-05 广东工业大学 基于建筑平面图先验信息的视觉室内定位方法及***
CN117274378A (zh) * 2023-09-15 2023-12-22 东北电力大学 基于ai视觉融合三维场景的室内定位***及方法
CN117576219A (zh) * 2023-10-21 2024-02-20 东北石油大学 大广角鱼眼镜头单次拍摄图像的相机标定设备及标定方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Yingjian Wang ; Xiangyong Wen ; Longji Yin ; Chao Xu ; Yanjun Cao ; Fei Gao.Certifiably Optimal Mutual Localization With Anonymous Bearing Measurements.IEEE Robotics and Automation Letters.2022,全文. *
基于多目视觉与电机耦合的静态室内场景定位方法与建图研究;许成浩;信息科技辑;20240315;全文 *

Also Published As

Publication number Publication date
CN117934598A (zh) 2024-04-26

Similar Documents

Publication Publication Date Title
JP7057454B2 (ja) 改良されたカメラ較正システム、標的、およびプロセス
Pintaric et al. Affordable infrared-optical pose-tracking for virtual and augmented reality
Treible et al. Cats: A color and thermal stereo benchmark
CN109308722B (zh) 一种基于主动视觉的空间位姿测量***及方法
EP1761798B1 (en) Wireless location and identification system and method
CN110097553A (zh) 基于即时定位建图与三维语义分割的语义建图***
Gaspar et al. Constant resolution omnidirectional cameras
Attamimi et al. Real-time 3D visual sensor for robust object recognition
CN110517284B (zh) 一种基于激光雷达和ptz摄像机的目标追踪方法
CN106575363A (zh) 用于追踪场景中的关键点的方法
CN111915723A (zh) 一种用于室内的三维全景构建方法和***
Su et al. Hybrid marker-based object tracking using Kinect v2
Huang et al. Obstacle distance measurement based on binocular vision for high-voltage transmission lines using a cable inspection robot
Yang et al. 3D reconstruction method for tree seedlings based on point cloud self-registration
Chaochuan et al. An extrinsic calibration method for multiple RGB-D cameras in a limited field of view
Brenner et al. RGB-D and thermal sensor fusion: a systematic literature review
Bhateja et al. Depth analysis of kinect v2 sensor in different mediums
CN117934598B (zh) 一种基于光学定位技术的桌面级刚体定位设备及方法
Szelag et al. Real-time camera pose estimation based on volleyball court view
Yang et al. Non-central refractive camera calibration using co-planarity constraints for a photogrammetric system with an optical sphere cover
Liu et al. Outdoor camera calibration method for a GPS & camera based surveillance system
Tsai et al. Design of vision‐based indoor positioning based on embedded system
CN111964681B (zh) 一种巡检机器人的实时定位***
Katai-Urban et al. Reconstructing atmospheric cloud particles from multiple fisheye cameras
Sifferman et al. Unlocking the performance of proximity sensors by utilizing transient histograms

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant