CN110021035B - Kinect深度相机的标记物及基于该标记物的虚拟标记物跟踪方法 - Google Patents

Kinect深度相机的标记物及基于该标记物的虚拟标记物跟踪方法 Download PDF

Info

Publication number
CN110021035B
CN110021035B CN201910295827.2A CN201910295827A CN110021035B CN 110021035 B CN110021035 B CN 110021035B CN 201910295827 A CN201910295827 A CN 201910295827A CN 110021035 B CN110021035 B CN 110021035B
Authority
CN
China
Prior art keywords
marker
virtual
depth
markers
tracking method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910295827.2A
Other languages
English (en)
Other versions
CN110021035A (zh
Inventor
苏一贤
高文朋
付宜利
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Weijing Medical Robot Co ltd
Original Assignee
Harbin Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Institute of Technology filed Critical Harbin Institute of Technology
Priority to CN201910295827.2A priority Critical patent/CN110021035B/zh
Publication of CN110021035A publication Critical patent/CN110021035A/zh
Application granted granted Critical
Publication of CN110021035B publication Critical patent/CN110021035B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Kinect深度相机的标记物及基于该标记物的虚拟标记物跟踪方法,涉及计算机视觉测量技术领域。本发明是为了解决传统深度相机的分辨率较低,难以获取精细的图像特征;而与RGB相机使用时,标定还容易引入误差的问题。本发明在Kinectt深度相机输出的红外图像上,识别和提取粘贴区域,并求其质心像素坐标;利用对应的深度图,根据相机透视投影模型和平面性质插补出粘贴质心相对Kinect深度相机的深度值;采用基于深度图的像素插值算法求得虚拟标记物的图像坐标;在深度图中对虚拟标记物的深度值进行索引并滤波;对虚拟标记物的图像坐标和深度进行滤波,再通过透视投影逆过程得到虚拟标记物的三维坐标,完成对虚拟标记物的跟踪。

Description

Kinect深度相机的标记物及基于该标记物的虚拟标记物跟踪 方法
技术领域
本发明属于计算机视觉测量技术领域,尤其涉及利用标记物进行视觉跟踪的方法。
背景技术
在图像工程的应用中,经常利用目标物体的特征点来表示目标物体的本身。一个完整的特征点能够为目标物体提供足够的约束,而且表示这些特征仅仅需要很少的数据量。描述目标物体的特征点一般指的是目标区域的拐角点、封闭轮廓线的中心、纹理特征或者其他的突出点。另外,人为设计的特征,也称之为标记物,用以将特定物体和其他物体区别出来,这样可以提高目标物体识别和定位的实时性和稳定性。因此,基于标记物的跟踪算法在单目、双目相机中都有广泛应用。但是,传统深度相机的分辨率较低,难以获取精细的图像特征,所以通常将其与RGB相机一起使用。但是RGB相机对环境光的变化敏感,其与深度相机的标定也易引入误差。
发明内容
本发明是为了解决传统深度相机的分辨率较低,难以获取精细的图像特征;而与RGB相机使用时,标定还容易引入误差的问题,现提供Kinect深度相机的标记物及基于该标记物的虚拟标记物跟踪方法。
Kinect深度相机的标记物,所述标记物包括表面均匀覆盖有近红外反光粉末的基质,所述标记物厚度小于等于0.2mm。所述基质为圆片或球形结构。
基于上述标记物的虚拟标记物跟踪方法,包括以下步骤:
S1:利用Kinect深度相机对粘贴有n个标记物的平面进行拍摄、并获得近红外图像和深度数据帧,n为大于等于2的正整数,所述平面法向量与Kinect深度相机的光轴夹角小于等于40度,所述平面为白色哑光平面、且反射率大于0.8;
S2:在近红外图像中分别提取每个标记物的几何中心坐标;
S3:在深度数据帧中,根据透视投影过程和平面性质获取每个标记物几何中心坐标对应的深度值;
S4:将相邻的两个标记物作为一组,每组中在两个标记物几何中心连线上取深度值有效的一点作为一个虚拟标记物,取m个虚拟标记物,当n=2时,m=1,当n≥3时,m≥3且任意3个虚拟标记物不共线,然后利用每个标记物的几何中心坐标和深度值分别获得m个虚拟标记物的图像坐标;
S5:利用m个虚拟标记物的图像坐标分别获取m个虚拟标记物的深度值;
S6:对m个虚拟标记物的图像坐标及深度值进行降噪;
S7:将S6中降噪后的m个虚拟标记物的图像坐标及其对应的深度值、通过透视投影逆过程变换至Kinect深度相机局部坐标系下的三维空间中,获得m个虚拟标记物的实时三维坐标,完成虚拟标记物的跟踪。
上述S2中在近红外图像中分别提取每个标记物的几何中心坐标的具体步骤为:
S21:对近红外图像进行阈值分割获得二值图像,所述阈值能够将标记物和背景区分开;
S22:遍历二值图像中的每个像素,利用区域增长算法提取每个标记物的像素集合;
S23:对每个标记物的像素集合进行平均,获得每个标记物的几何中心坐标。
上述S3中获取每个标记物几何中心坐标对应的深度值的具体步骤为:
S31:分别获取与每个标记物相邻的四个像素
Figure BDA0002026439800000021
Figure BDA0002026439800000022
S32:在深度数据帧中,对四个像素对应的深度值进行插值,获得每个标记物对应的四个像素的深度值
Figure BDA0002026439800000023
Figure BDA0002026439800000024
S33:根据S32获得的四个像素的深度值、插值获得每个标记物几何中心坐标对应的深度值。
上述S4中,将相邻的两个虚拟标记物作为一组,每组中两个虚拟标记物连线上的任意一点也能够作为一个虚拟标记物。
上述S6中利用卡尔曼滤波器进行降噪。
上述S7中虚拟标记物的实时三维坐标[x y d]的表达式通过下式获得:
[x y d]T=K-1[du dv d]T
其中,K表示Kinect深度相机的内参矩阵,[u v]表示虚拟标记物的图像坐标,d表示虚拟标记物的深度值。
本发明所述的供Kinect深度相机的标记物区域在近红外接收器上接收到幅值饱和的近红外反射光线,使其在Kinect深度相机输出的近红外图像中显示为高亮区域。
本发明所述的基于上述标记物的虚拟标记点跟踪方法,在Kinect深度相机输出的近红外图像上,识别和提取标记物区域,并求其几何中心像素坐标;利用对应的深度图,根据相机透视投影模型和平面性质插值计算标记物几何中心相对Kinect深度相机的深度值;虚拟标记点指两个标记物几何中心连线上的点,采用基于深度图的像素插值算法求得虚拟标记点的图像坐标;在深度图中对虚拟标记点的深度值进行索引并滤波;使用卡尔曼滤波器对虚拟标记点的图像坐标和深度进行滤波,再通过透视投影逆过程得到虚拟标记点的三维坐标,完成对虚拟标记点的跟踪。本发明使用飞行时间(Time-of-flight,ToF)相机,所实现的虚拟标记点跟踪,较直接跟踪粘贴标记物具有更高的精度,适用于其它ToF相机,实现低成本、快速、鲁棒性的运动物体跟踪。
附图说明
图1为Kinect深度相机拍摄对粘贴有4个标记物的平面进行拍摄时的示意图,其中点A、B、C和D分别为四个标记物,E和F分别为两个虚拟标记物;
图2为标记物的近红外图像和其对应的深度点云的对比示意图;
图3为基于平面信息和深度图像的深度插值过程示意图;
图4为基于平面信息和深度图像的像素插值过程示意图;
图5为平面深度信息示意图。
具体实施方式
Kinect v2是微软2014年发布RGB-D类型传感器。Kinect v2包含一个普通光学相机以及一个TOF相机,能够以每秒30帧的速率实时返回拍摄场景的深度信息。由于Kinectv2的深度相机的较高分辨率,单独为该相机设计标记物可以使***更加紧凑。另外,该深度相机采用主动近红外成像原理,对环境光不敏感,甚至可以在无光的环境下工作。
本发明的目的是针对Kinect v2深度相机设计一种人工标记物,利用该标记物对近红外反光的特性,在红外图像中快速分割、提取标记物。结合深度相机获取的深度信息,实现对人工标记物进行实时跟踪的目的,具体如以下实施方式。
具体实施方式一:本实施方式所述的Kinect深度相机的标记物,所述标记物包括表面均匀覆盖有近红外反光粉末的基质。
实际操作时,将高反射率材料制成的粉末平铺于具有双面胶性基质的表面,并要求近红外反光粉末均匀覆盖该基质的表面,能够很好地反射Kinect深度相机所发射的红外光,在近红外传感器上接收到幅值饱和的红外反射光线,使其在Kinect深度相机输出的近红外图像中显示为高亮区域。
具体的,基质为圆片或球形结构;基质为圆片,即制成可粘贴的二维反光的物理标记物,且该带反光材料的胶性基质整体厚度不超过0.2mm。
具体实施方式二:参照图1至5具体说明本实施方式,本实施方式是基于具体实施方式一所述的Kinect深度相机的标记物的虚拟标记物跟踪方法,本实施方式中,包括以下步骤:
S1:如图1和图2所示,取4个具体实施方式一所述的标记物,分别记为A、B、C、D,并将4个标记物粘贴于白纸上,且四个标记物分别位于边长为60mm正方形的四个角上,然后将白纸粘贴在平整的表面上;
利用Kinect深度相机对粘贴有4个标记物的白纸平面进行拍摄、并获得近红外图像和深度数据帧;
所述平面法向量与Kinect深度相机的光轴夹角小于等于40度,Kinect深度相机与平面距离为760mm-1400mm,所述平面为哑光平面、且反射率大于0.8,n为大于等于2的正整数;
上述步骤中,白纸要求表面哑光,具有良好的漫反射特性,厚度不超过0.2mm。
S2:在近红外图像中分别提取4个标记物的几何中心坐标,具体步骤如下:
S21:对近红外图像进行阈值分割获得二值图像,所述阈值能够将标记物和背景区分开;
S22:遍历二值图像中的每个像素,利用区域增长算法分别提取4个标记物的像素集合NA={ai|i=1,2,3,...,A}、NB={bi|i=1,2,3,...,B}、NC={ci|i=1,2,3,...,C}、ND={di|i=1,2,3,...,D},A、B、C和D分别为4个标记物像素集合中的像素个数,ai、bi、ci和di分别表示4个标记物在近红外图像中的第i个像素坐标;
S23:对每个标记物的像素集合进行平均;
以标记物A为例,利用以下公式对标记物A的像素集合的集合中心进行平均,其中ai=[ui vi],标记物A的几何中心坐标
Figure BDA0002026439800000041
为:
Figure BDA0002026439800000042
S3:在深度数据帧中,根据透视投影过程和平面性质获取每个标记物几何中心坐标对应的深度值,如图3所示,以标记物A为例,具体步骤如下:
S31:分别获取与标记物A相邻的四个像素
Figure BDA0002026439800000043
Figure BDA0002026439800000044
S32:在深度数据帧中,对四个像素对应的深度值进行插值,获得标记物A对应的四个像素的深度值
Figure BDA0002026439800000045
Figure BDA0002026439800000046
Figure BDA0002026439800000047
其中,dp表示像素p的深度值,
Figure BDA0002026439800000048
Figure BDA0002026439800000049
表示在深度数据帧中第i对以p为中点的两个坐标所对应的深度值、且共有β对深度值;
S33:根据S32获得的四个像素的深度值、插值获得标记物A几何中心坐标对应的深度值dq
Figure BDA0002026439800000051
其中,中间变量
Figure BDA0002026439800000052
中间变量
Figure BDA0002026439800000053
表示第i个像素坐标,q=1,2,运算符
Figure BDA0002026439800000054
表示对R向下取整,函数F通过平面特性和透视投影过程推导获得,其公式如下:
Figure BDA0002026439800000055
其中,za和zb分别表示深度数据帧中标记物集合中心a和b所对应的深度值,α=|ac|/|ab|,c表示标记物集合中心a和b连线上任一点的坐标,则zc表示深度数据帧中c所对应的深度值。
S4:将相邻的两个标记物作为一组,每组中两个标记物连线的中点作为虚拟标记物,取4个虚拟标记物,然后利用每个标记物的几何中心坐标和深度值分别获得4个虚拟标记物的图像坐标;
实际应用时,还能够将相邻的两个虚拟标记物作为一组,每组中两个虚拟标记物连线上的任意一点也能够作为一个虚拟标记物,或者将两个虚拟标记物连线的中点作为一个虚拟标记物;
上述虚拟标记物个数的选取规则为:如果使用虚拟标记物进行六自由度(位置和姿态)的刚体跟踪,则虚拟标记物应不共线且至少3个。实际应用时,对于多个标记物的情况,虚拟标记物的个数可由用户指定和组合。
如图4所示,A和B连线的中点为虚拟标记物E,C和D连线的中点为虚拟标记物F。
上述虚拟标记物的图像坐标[uv vv]为,
Figure BDA0002026439800000056
其中,d1和d2分别表示一组中的两个标记物所对应的深度值,[u1 v1]和[u2 v2]分别表示一组中的两个标记物的像素坐标,设两个标记物的三维坐标分别为A和B,则虚拟标记物E的位置由γ=|AE|/|AB|确定,当γ=1/2时,上式可变换为:
Figure BDA0002026439800000061
S5:利用m个虚拟标记物的图像坐标分别获取m个虚拟标记物的深度值。
S6:利用卡尔曼滤波器对m个虚拟标记物的图像坐标及深度值进行降噪。
S7:将S6中降噪后的m个虚拟标记物的图像坐标及其对应的深度值、通过透视投影逆过程变换至Kinect深度相机局部坐标系下的三维空间中,获得m个虚拟标记物的实时三维坐标,完成虚拟标记物的跟踪;
虚拟标记物的实时三维坐标[x y z]的表达式通过下式获得:
[x y d]T=K-1[du dv d]T
其中,K表示Kinect深度相机的内参矩阵,[u v]表示z。
本实施方式的标记物采用近红外反光材料,可在近红外图像中根据高亮特征快速提取。根据标记物所在平面,对其深度值进行插值,再将插值结果用于虚拟标记点的图像定位中。最后,通过透视投影逆变换对虚拟标记点进行三维重建,实现对虚拟标记点跟踪。

Claims (14)

1.基于Kinect深度相机的标记物的虚拟标记物跟踪方法,Kinect深度相机的标记物,包括表面均匀覆盖有近红外反光粉末的基质,所述标记物厚度小于等于0.2mm,
其特征在于,虚拟标记物跟踪方法包括以下步骤:
S1:利用Kinect深度相机对粘贴有n个标记物的平面进行拍摄、并获得近红外图像和深度数据帧,n为大于等于2的正整数,所述平面的法向量与Kinect深度相机的光轴夹角小于等于40度,所述平面为白色哑光平面、且反射率大于0.8;
S2:在近红外图像中分别提取每个标记物的几何中心坐标;
S3:在深度数据帧中,根据透视投影过程和平面性质获取每个标记物几何中心坐标对应的深度值;
S4:将相邻的两个标记物作为一组,每组中在两个标记物几何中心连线上取深度值有效的一点作为一个虚拟标记物,取m个虚拟标记物,当n=2时,m=1,当n≥3时,m≥3且任意3个虚拟标记物不共线,然后利用每个标记物的几何中心坐标和深度值分别获得m个虚拟标记物的图像坐标;
S5:利用m个虚拟标记物的图像坐标分别获取m个虚拟标记物的深度值;
S6:对m个虚拟标记物的图像坐标及深度值进行降噪;
S7:将S6中降噪后的m个虚拟标记物的图像坐标及其对应的深度值、通过透视投影逆过程变换至Kinect深度相机局部坐标系下的三维空间中,获得m个虚拟标记物的实时三维坐标,完成虚拟标记物的跟踪。
2.根据权利要求1所述的虚拟标记物跟踪方法,其特征在于,S2中在近红外图像中分别提取每个标记物的几何中心坐标的具体步骤为:
S21:对近红外图像进行阈值分割获得二值图像,所述阈值能够将标记物和背景区分开;
S22:遍历二值图像中的每个像素,利用区域增长算法提取每个标记物的像素集合;
S23:对每个标记物的像素集合进行平均,获得每个标记物的几何中心坐标。
3.根据权利要求2所述的虚拟标记物跟踪方法,其特征在于,
S22中,每个标记物的像素集合的表达式为:Nn={pi|i=1,2,3,...,x},其中pi=[uivi]表示标记物在近红外图像中第i个像素坐标,x表示像素个数。
4.根据权利要求3所述的虚拟标记物跟踪方法,其特征在于,
S23中,利用以下公式对每个标记物的像素集合进行平均:
Figure FDA0002687950760000021
每个标记物的几何中心坐标tn的表达式为:
Figure FDA0002687950760000022
5.根据权利要求1所述的虚拟标记物跟踪方法,其特征在于,S3中获取每个标记物几何中心坐标对应的深度值的具体步骤为:
S31:分别获取与每个标记物相邻的四个像素
Figure FDA0002687950760000023
Figure FDA0002687950760000024
S32:在深度数据帧中,对四个像素对应的深度值进行插值,获得每个标记物对应的四个像素的深度值
Figure FDA0002687950760000025
Figure FDA0002687950760000026
S33:根据S32获得的四个像素的深度值、插值获得每个标记物几何中心坐标对应的深度值。
6.根据权利要求5所述的虚拟标记物跟踪方法,其特征在于,S32中,通过以下公式分别对四个像素对应的深度值进行插值:
Figure FDA0002687950760000027
其中,dp表示像素p的深度值,
Figure FDA0002687950760000028
Figure FDA0002687950760000029
Figure FDA00026879507600000210
表示在深度数据帧中第i对以p为中点的两个坐标所对应的深度值、且共有β对深度值。
7.根据权利要求5或6所述的虚拟标记物跟踪方法,其特征在于,S33中,通过下式插补获得每个标记物坐标对应的深度值dq
Figure FDA00026879507600000211
其中,中间变量
Figure FDA00026879507600000212
中间变量
Figure FDA00026879507600000213
表示第i个像素坐标,q=1,2,运算符
Figure FDA00026879507600000214
表示对R向下取整。
8.根据权利要求7所述的虚拟标记物跟踪方法,其特征在于,函数F通过平面特性和透视投影过程推导获得,其公式如下:
Figure FDA00026879507600000215
其中,za和zb分别表示深度数据帧中标记物集合中心a和b所对应的深度值,α=|ac|/|ab|,c表示标记物集合中心a和b连线上任一点的坐标,则zc表示深度数据帧中c所对应的深度值。
9.根据权利要求1所述的虚拟标记物跟踪方法,其特征在于,S4中,将相邻的两个虚拟标记物作为一组,每组中两个虚拟标记物连线上的任意一点也能够作为一个虚拟标记物。
10.根据权利要求1或9所述的虚拟标记物跟踪方法,其特征在于,S4中虚拟标记物的图像坐标[uv vv]为,
Figure FDA0002687950760000031
其中,d1和d2分别表示一组中的两个标记物几何中心所对应的深度值,[u1 v1]和[u2v2]分别表示一组中的两个标记物几何中心的像素坐标,当γ=1/2时,上式变换为:
Figure FDA0002687950760000032
11.根据权利要求1所述的虚拟标记物跟踪方法,其特征在于,S6中利用卡尔曼滤波器进行降噪。
12.根据权利要求1所述的虚拟标记物跟踪方法,其特征在于,S7中虚拟标记物的实时三维坐标[x y d]的表达式通过下式获得:
[x y d]T=K-1[du dv d]T
其中,K表示Kinect深度相机的内参矩阵,[u v]表示虚拟标记物的图像坐标,d表示虚拟标记物的深度值。
13.根据权利要求1所述的虚拟标记物跟踪方法,其特征在于,S4中,将相邻的两个标记物作为一组,每组中两个标记物连线的中点作为虚拟标记物。
14.根据权利要求9所述的虚拟标记物跟踪方法,其特征在于,S4中,将相邻的两个虚拟标记物作为一组,每组中两个虚拟标记物连线的中点作为一个虚拟标记物。
CN201910295827.2A 2019-04-12 2019-04-12 Kinect深度相机的标记物及基于该标记物的虚拟标记物跟踪方法 Active CN110021035B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910295827.2A CN110021035B (zh) 2019-04-12 2019-04-12 Kinect深度相机的标记物及基于该标记物的虚拟标记物跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910295827.2A CN110021035B (zh) 2019-04-12 2019-04-12 Kinect深度相机的标记物及基于该标记物的虚拟标记物跟踪方法

Publications (2)

Publication Number Publication Date
CN110021035A CN110021035A (zh) 2019-07-16
CN110021035B true CN110021035B (zh) 2020-12-11

Family

ID=67191322

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910295827.2A Active CN110021035B (zh) 2019-04-12 2019-04-12 Kinect深度相机的标记物及基于该标记物的虚拟标记物跟踪方法

Country Status (1)

Country Link
CN (1) CN110021035B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110659587B (zh) * 2019-09-02 2022-08-12 广东虚拟现实科技有限公司 标记物、标记物识别方法、装置、终端设备及存储介质
CN111009180B (zh) * 2019-12-12 2022-05-03 宁波融光纳米科技有限公司 标示物以及功能涂料
CN113052898B (zh) * 2021-04-08 2022-07-12 四川大学华西医院 基于主动式双目相机的点云和强反光目标实时定位方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107107236A (zh) * 2014-11-05 2017-08-29 伊利诺斯工具制品有限公司 用于焊接***夹具组件的***和方法
CN107330936A (zh) * 2017-06-21 2017-11-07 清华大学深圳研究生院 一种基于单目视觉的双圆形标志物定位方法及***
CN109078270A (zh) * 2018-06-29 2018-12-25 天津市宝坻区人民医院 一种基于放射治疗的辅助红外定位装置及方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107107236A (zh) * 2014-11-05 2017-08-29 伊利诺斯工具制品有限公司 用于焊接***夹具组件的***和方法
CN107330936A (zh) * 2017-06-21 2017-11-07 清华大学深圳研究生院 一种基于单目视觉的双圆形标志物定位方法及***
CN109078270A (zh) * 2018-06-29 2018-12-25 天津市宝坻区人民医院 一种基于放射治疗的辅助红外定位装置及方法

Also Published As

Publication number Publication date
CN110021035A (zh) 2019-07-16

Similar Documents

Publication Publication Date Title
CN109872397B (zh) 一种基于多目立体视觉的飞机零件的三维重建方法
US11210804B2 (en) Methods, devices and computer program products for global bundle adjustment of 3D images
WO2020035002A1 (en) Methods and devices for acquiring 3d face, and computer readable storage media
Zhu et al. Fusion of time-of-flight depth and stereo for high accuracy depth maps
CN110021035B (zh) Kinect深度相机的标记物及基于该标记物的虚拟标记物跟踪方法
CN111932678B (zh) 多视点实时人体运动、手势、表情、纹理重建***
CN104463108A (zh) 一种单目实时目标识别及位姿测量方法
CN102945565A (zh) 一种物体的三维真实感重建方法、***及电子设备
CN112880687A (zh) 一种室内定位方法、装置、设备和计算机可读存储介质
CN102072706A (zh) 一种多相机定位与跟踪方法及***
CN112907631B (zh) 一种引入反馈机制的多rgb相机实时人体动作捕捉***
CN108629829A (zh) 一种球幕相机与深度相机结合的三维建模方法和***
CN111915723A (zh) 一种用于室内的三维全景构建方法和***
CN109523622A (zh) 一种非结构化的光场渲染方法
CN112561996A (zh) 一种自主水下机器人回收对接中目标检测方法
Wan et al. A study in 3d-reconstruction using kinect sensor
US8340399B2 (en) Method for determining a depth map from images, device for determining a depth map
CN115359127A (zh) 一种适用于多层介质环境下的偏振相机阵列标定方法
US20170289516A1 (en) Depth map based perspective correction in digital photos
CN110909571B (zh) 一种高精度面部识别空间定位方法
KR20170029365A (ko) 깊이 지도 생성 장치 및 방법
Sun et al. A fast underwater calibration method based on vanishing point optimization of two orthogonal parallel lines
CN114494582A (zh) 一种基于视觉感知的三维模型动态更新方法
CN113642397A (zh) 一种基于手机视频的物体长度测量方法
Coorg Pose imagery and automated three-dimensional modeling of urban environments

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20240605

Address after: 311119, 1st Floor, Building 1, and 1-4 Floors, Building 2, No. 39 Science and Technology Avenue, Yuhang Street, Yuhang District, Hangzhou City, Zhejiang Province

Patentee after: Hangzhou Weijing medical robot Co.,Ltd.

Country or region after: China

Address before: 150001 No. 92 West straight street, Nangang District, Heilongjiang, Harbin

Patentee before: HARBIN INSTITUTE OF TECHNOLOGY

Country or region before: China