CN106295512A - 基于标识的多纠正线室内视觉数据库构建方法以及室内定位方法 - Google Patents

基于标识的多纠正线室内视觉数据库构建方法以及室内定位方法 Download PDF

Info

Publication number
CN106295512A
CN106295512A CN201610599708.2A CN201610599708A CN106295512A CN 106295512 A CN106295512 A CN 106295512A CN 201610599708 A CN201610599708 A CN 201610599708A CN 106295512 A CN106295512 A CN 106295512A
Authority
CN
China
Prior art keywords
image
point
matrix
coordinate
reference frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610599708.2A
Other languages
English (en)
Other versions
CN106295512B (zh
Inventor
马琳
林英男
崔扬
徐玉滨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Virtual Reality Digital Technology Research Institute Harbin Co ltd
Original Assignee
Harbin Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Institute of Technology filed Critical Harbin Institute of Technology
Priority to CN201610599708.2A priority Critical patent/CN106295512B/zh
Publication of CN106295512A publication Critical patent/CN106295512A/zh
Application granted granted Critical
Publication of CN106295512B publication Critical patent/CN106295512B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/35Categorising the entire scene, e.g. birthday party or wedding scene
    • G06V20/36Indoor scenes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Library & Information Science (AREA)
  • Automation & Control Theory (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于标识的多纠正线室内视觉数据库构建方法以及室内定位方法,属于室内场景定位技术领域,为了解决现有技术无法避开相机镜头参数进行定位计算的缺点,本发明获取带有标识的图像,将图像通过加速鲁棒特征提取出特征点矩阵,计算特征点矩阵间的最近邻欧氏距离,检索出带有同一标识的图像,再通过加速鲁棒特征匹配得到m对匹配点,使用算法剔除误匹配点,得到单应矩阵,求解两条纠正线对应的参数方程,求解从参考坐标系到图像物理坐标系的转换关系,并求解相机在参考坐标系中的位置坐标和转向角,最后求解用户在真实世界中的位置坐标。本发明还提供一种基于标识的多纠正线室内视觉数据库构建方法。本发明适用于行人室内定位导航***。

Description

基于标识的多纠正线室内视觉数据库构建方法以及室内定位 方法
技术领域
本发明涉及一种基于标识的多纠正线室内视觉数据库构建方法以及室内定位方法,属于室内场景定位技术领域。
背景技术
近年来,由于相应设备和技术广泛的进步以及实际应用场景中对基于位置服务的无缝解决方案的必要性,室内定位***获得了广泛的关注和研究,这些***开辟了一种全自动目标定位检测的新技术领域。在室外环境下,传统全球卫星导航***(GlobalNavigation Satellite System,GNSS)的定位结果是对用户位置进行精确估计的最可靠来源之一。然而在室内或封闭的环境中,由于卫星信号会受到严重的衰减导致定位精度的严重损失,GNSS是不可行的。
目前,室内定位***技术的研究热点主要包括WiFi定位技术和蓝牙定位技术。其中,WiFi定位技术具有无线接入点已部署范围广和可扩散繁殖的特点,利用用户智能手机检测到的各无线接入点的信号强度完成对用户位置的估计。然而,该技术严重依赖无线接入点的个数,并且在商场等实际环境的进口和出口等周边区域的定位精度急剧下降。蓝牙定位技术通过利用用户接受的蓝牙信号的强度完成对用户位置的估计,并且可实现1米的定位精度,然而该技术在探寻蓝牙信号阶段存在的高延迟现象限制了它实际中的应用。综合已经以上室内定位技术的优缺点,需要一种可扩展性强,部署成本低,所需时延小,定位精度高且稳定的定位***。由于图像中包含了丰富的信息,带有图像传感器的智能手机的高普及性和可扩展移植性,以及计算机处理技术大大增强等优势,使得基于视觉的室内定位技术成为新的研究热点。
视觉室内定位技术无需额外的部署,只需通过用户终端拍摄的室内场景图片,配合已建立的室内场景数据库,即可完成对用户位置更为准确且鲁棒性更强的估计结果。并且由于图像包含丰富的场景信息,视觉室内定位还可以为用户提供更好的可视化服务,这是其他定位方式无法比拟的。目前已经提出的视觉室内定位技术主要采用位置指纹算法,通过将终端拍摄的场景图像与用户位置共同建立数据库,然后采用快速检索算法得出数据库中最匹配的场景图像及对应位置,完成定位服务。然而,传统基于对极几何的位置指纹方法存在很明显的缺陷,即定位结果严重依赖于位置指纹的密集程度。当位置指纹密集时,定位精度有所提升,但数据库存储容量增大,造成更大的检索时延,反之亦然。
基于以上原因,需要一种基于标识的视觉室内定位方法,采用场景中若干标识图像及其位置信息代替传统算法中使用的位置指纹和图像信息,并使用加速鲁棒特征算法(Speed Up Robust Features,SURF)和多纠正线定位算法完成对用户位置的估计。多纠正线的定位算法,能够提供额外的约束关系以降低定位算法对于先验信息的依赖,使得算法能够应用在情况多变的实际场景中。
发明内容
本发明的目的是为了解决现有技术仅使用一条纠正线,无法避开相机镜头参数进行定位计算的缺点,而提出一种基于标识的多纠正线室内视觉数据库构建方法以及室内定位方法。
一种基于标识的多纠正线室内视觉数据库构建方法,其特征在于,包括:
步骤一一:使用相机传感器对标识目标进行图像采集,得到的图像记作图像Ik(k=1,2,3…);
步骤一二:在所述标识目标上建立两条纠正线lk1和lk2,在所述lk1和lk2上分别各选取n个采样点,并通过所述采样点获得lk1和lk2的直线方程;所述纠正线lk1在世界坐标系中的位置平行于水平地面,且lk1为一条射线,其起始点位于所述标识目标中;所述纠正线lk2在世界坐标系中位置垂直于水平地面并垂直于lk1,其起始点位于所述标识目标中;
步骤一三:使用加速鲁棒特征算法对Ik提取特征点矩阵,得到能够表征图像Ik特征的特征点矩阵Fk
步骤一四:求解纠正线lk1在图像像素坐标系中的直线方程、采样点坐标以及原点,
具体为:设n个采样点构成像素坐标矩阵其中分别表示n个采样点的横坐标向量和纵坐标向量,均为是n×1的列向量;原点坐标为lk1的左侧端点;设直线的lk1的表达形式为y=αk1x+βk1,其参数αk1和βk1用矩阵Wk1=[αk1βk1]表示,则Wk1由如下公式求得:
W k 1 = Y k 1 n T X k 1 n ( X k 1 n T X k 1 n ) - 1 - - - ( 1 )
其中X是在列向量Xn的右侧加了一列元素1而形成的新n×2阶矩阵。
步骤一五:求解纠正线lk2在图像像素坐标系中的直线方程、采样点坐标以及原点,具体为:设n个采样点构成像素坐标矩阵其中分别表示n个采样点的横坐标向量和纵坐标向量,均为是n×1的列向量;设直线的lk2的表达形式为y=αk2x+βk2,其参数αk2和βk2用矩阵Wk2=[αk2βk2]表示,则Wk2由如下公式求得:
W k 2 = Y k 2 n T X k 2 n ( X k 2 n T X k 2 n ) - 1 - - - ( 2 )
步骤一六:将所述相机传感器在真实世界坐标系中的仰角以及所述相机传感器与纠正线的相对高度Z0,参数矩阵Wk1,参数矩阵Wk2和特征点矩阵Fk等存入数据库,作为图像Ik的所有信息。
步骤一七:重复步骤一一至步骤一六,直至数据库构建完毕。
本发明还提供一种基于标识的多纠正线室内定位方法,包括如下步骤:
步骤二一:用户通过相机传感器获取带有标识的图像,记作图像Ion,将所述图像Ion通过加速鲁棒特征算法提取出特征点矩阵,并将所述特征点矩阵发送至服务器端,所述标识包括两条纠正线;本发明中提及的特征点矩阵均指由加速鲁棒特征算法提取得到的。
步骤二二:在服务器端,计算图像Ion的特征点矩阵与数据库中存储的图像的特征点矩阵之间的最近邻欧氏距离,根据所述最近邻欧氏距离在所述数据库中检索出与所述图像Ion最匹配的带有同一标识的图像,将所述带有同一标识的图像记为Iopt,将Iopt与Ion进行加速鲁棒特征匹配得到m对匹配点;所述数据库为如权利要求1至3中任意一项所述的数据库,所述最近邻欧氏距离为使用最近邻算法计算得到的欧氏距离;
步骤二三:使用RANSAC算法剔除所述m对匹配点中的误匹配点,并得到所述图像Iopt的特征描述子到所述图像Ion的特征描述子的单应矩阵H;定义图像Iopt在图像像素坐标系下纠正线的n个采样点的坐标Pi为(xi,yi,1)T,映射到图像Ion中的图像像素坐标系的坐标为Qi=(xi,yi,1)T,其中i=1,2,...,nl;则映射关系表示为:
[Q1 Q2 … Qn]=H·[P1 P2 … Pn] (3)
步骤二四:求解图像Ion中纠正线lk1对应的参数方程,具体过程为:定义所述lk1的坐标矩阵为Q=[Q1 Q2 … Qn],对所述Q进行分离,将矩阵Q的第1行和第3行分离组成新的矩阵X,将所述Q其余部分作为向量Y,则图像Ion中纠正线lk1的直线方程表示为其中Y和X已知,定义参数矩阵W1=[α11],求得:
W1=YXT(XXT)-1 (4)
所述W1用于在所述图像Ion中表示出纠正线lk1
步骤二五:求解图像Ion中纠正线lk2对应的参数方程,具体过程与所述步骤二四相同,求得的参数矩阵W2为:
W2=YXT(XXT)-1 (5)
所述W2用于在所述图像Ion中表示出纠正线lk2
步骤二六:求解纠正线lk1上的点从参考坐标系映射至图像物理坐标系的转换关系;
步骤二七:求解纠正线lk2上的点从参考坐标系映射至图像物理坐标系的转换关系;
步骤二八:求解相机在参考坐标系中的位置坐标[X0,Y0]和转向角θ,根据公式(13)求出:
其中,变量b和变量c作为离线阶段和单应矩阵几何约束关系得出的结果,是已知量;变量Z0作为先验信息可人为测量得到;相机的焦距f可根据公式(19)求解出;
将θ值代入公式(13)中可得Y0的值为
通过公式(10)和公式(11)可求出X0
步骤二九:求解用户在真实世界中的位置坐标,具体过程为:定义参考坐标系中纠正线lk1的起始点在世界坐标系中的坐标值为Tr=[Xr,Yr,Zr]T,标识目标所在的平面与世界坐标系之间的旋转角关系为Rr,其中,Xr表示参考坐标系与世界坐标系在X轴方向的偏移量;Yr表示参考坐标系与世界坐标系在Y轴方向的偏移量;Zr表示参考坐标系与世界坐标系在Z轴方向的偏移量;用Ls=[X0,Y0,1]T表示参考坐标系中任意一点的坐标,则其对应于真实世界中的坐标Xr满足下面的关系式:
Lr=Rr -1·Ls-Tr (22)
根据公式(22),将用户在参考坐标系中的坐标信息转换为用户在真实世界坐标中的位置坐标,以完成对用户位置的估计。
本发明的有益效果为:相比现有技术,本发明额外增加了一条纠正线,使得在室内定位的过程中不需要获取用户端的相机参数,相机参数往往很难获得,因此本发明的方法避开了这一参数,使得室内定位的结果效率更高、更加精确。
附图说明
图1为本发明实施例的基于标识的多纠正线室内视觉数据库构建方法的流程图;
图2为本发明实施例的参考坐标系、相机坐标系、图像物理坐标系的示意图;
图3为本发明实施例的纠正线选择示意图;
图4为本发明实施例的基于标识的多纠正线室内视觉定位方法的流程图;
图5为本发明实施例中步骤二三五的流程图。
具体实施方式
本发明适用于室内定位,例如用户在商场内部时对用户的位置进行精确定位。本发明的方法分为数据库构建方法和室内定位方法,室内定位时需要用到数据库中的图像信息,因此在实际使用中需要先进行数据库的构建。在室内定位时需要利用用户身上的具有相机传感器的设备进行,通过拍摄到的图像与数据库中的图像进行匹配计算最终得到用户的位置。
本发明涉及四种坐标系:参考坐标系、相机坐标系、图像像素坐标系以及图像物理坐标系。其示意图如图2所示,RCS为参考坐标系,CCS为相机坐标系,ICS为图像物理坐标系。R0,C0为坐标原点。其中参考坐标系为标识目标上由(X,Y,Z)三个相互垂直的轴组成的坐标系,纠正线lk1即标识目标的上边界向右方向作为X轴,垂直标识目标向里为Y轴,标识目标lk2即垂直地面向下为Z轴,原点为标识目标的左上角。相机坐标系的原点为相机的光心,相机的光轴作为W轴、U轴和V轴,其中U-V平面平行于相机的成像平面。图像物理坐标系为二维坐标系,用于表示真世界中物体投影在相机CCD(Charge-coupled Device)传感器成像平面上的图像,坐标系中的u轴和v轴分别等同于相机坐标系中的U轴和V轴。图像像素坐标系以图像标示目标(如海报)的左上角为原点,以原点向右为X轴,原点向下为Y轴,其中图像像素坐标系通过比例缩放的方式与图像物理坐标系之间建立坐标对应关系。
具体实施方式一:本实施方式的基于标识的多纠正线室内视觉数据库构建方法包括:
步骤一一:使用相机传感器对标识目标进行图像采集,得到的图像记作图像Ik(k=1,2,3…);
步骤一二:在标识目标上建立两条纠正线lk1和lk2,在lk1和lk2上各选取n个采样点,并通过采样点获得lk1和lk2在图像像素坐标系下的直线方程;纠正线lk1在世界坐标系中的位置平行于水平地面,且lk1为一条射线,其起始点位于标识目标中;纠正线lk2在世界坐标系中位置垂直于水平地面并垂直于lk1,其起始点位于标识目标中;
步骤一三:使用加速鲁棒特征算法对Ik提取特征点矩阵,得到能够表征图像Ik特征的特征点矩阵Fk
步骤一四:求解纠正线lk1在图像像素坐标系中的直线方程、采样点坐标以及原点,具体为:设n个采样点构成像素坐标矩阵其中分别表示n个采样点的横坐标向量和纵坐标向量,均为是n×1的列向量;原点坐标为lk1的左侧端点;设直线的lk1的表达形式为y=αk1x+βk1,其参数αk1和βk1用矩阵Wk1=[αk1βk1]表示,则Wk1由如下公式求得:
W k 1 = Y k 1 n T X k 1 n ( X k 1 n T X k 1 n ) - 1 - - - ( 1 )
其中X是在列向量Xn的右侧加了一列元素1而形成的新n×2阶矩阵;
步骤一五:求解纠正线lk2在图像像素坐标系中的直线方程、采样点坐标以及原点,具体为:设n个采样点构成像素坐标矩阵其中分别表示n个采样点的横坐标向量和纵坐标向量,均为是n×1的列向量;设直线的lk2的表达形式为y=αk2x+βk2,其参数αk2和βk2用矩阵Wk2=[αk2βk2]表示,则Wk2由如下公式求得:
W k 2 = Y k 2 n T X k 2 n ( X k 2 n T X k 2 n ) - 1 - - - ( 2 )
步骤一六:将所述相机传感器在真实世界坐标系中的仰角以及所述相机传感器与纠正线的相对高度Z0,参数矩阵Wk1,参数矩阵Wk2和特征点矩阵Fk等存入数据库,作为图像Ik的所有信息;
步骤一七:重复步骤一一至步骤一六,直至数据库构建完毕。
需要特别说明的是,本发明通过设置额外的一条纠正线,得到了一个现有技术中未提供的参量,即仰角本发明通过仰角代替现有技术中的相机参数,由于仰角很容易通过测量计算获得,二相机参数依据每个相机的不同往往很难获得,因此此处对于仰角的计算和使用可以很好地体现本发明的创新之处,即用易获得量代替了难获得量,大大增加了方法的通用性和准确率。
本实施方式的数据库构建方法也称为离线阶段。
具体实施方式二:本实施方式与具体实施方式一不同的是:标识目标为海报。即构建数据库时我们将海报选定为目标,对海报进行拍摄,并且在海报上人为画出纠正线。在步骤一二中选取采样点的步骤即为人为画出纠正线的过程。具体可以是通过人为判断选出8个点,这8个点通过目测判断大致在一条直线上。
其它步骤及参数与具体实施方式一相同。
具体实施方式三:本实施方式与具体实施方式一或二不同的是:lk1为海报的上边界线,lk2为所述海报的左边界线,原点为海报左上角的边缘点。即默认海报为矩形,两条边界线为一组非平行边,选择相互正交的两条线是为了便于后续计算,其他的选择方式也可以完成本方案。
其它步骤及参数与具体实施方式一或二相同。
具体实施方式四:本实施方式的基于标识的多纠正线室内定位方法包括:
步骤二一:用户通过相机传感器获取带有标识的图像,记作图像Ion,将图像Ion通过加速鲁棒特征算法提取出特征点矩阵,并将特征点矩阵发送至服务器端,标识包括两条纠正线,即带有标识的图像为带有两条纠正线的图像。
用户通过相机传感器获取图像的过程可以是通过用户的手机等具有相机功能的设备通过拍摄得到。
步骤二二:在服务器端,计算图像Ion的特征点矩阵与数据库中存储的图像的特征点矩阵之间的最近邻欧氏距离,根据最近邻欧氏距离在所述数据库中检索出与图像Ion最匹配的带有同一标识的图像,将带有同一标识的图像记为Iopt,将Iopt与Ion进行加速鲁棒特征匹配得到m对匹配点;数据库为具体实施方式一中的数据库,最近邻欧氏距离为使用最近邻算法计算得到的欧氏距离;
“最匹配”表示欧氏距离最短,“得到m对匹配点”的过程可以为,预先设定一个欧氏距离阈值,两个图像中通过加速鲁棒特征匹配得到的某一对点的欧氏距离如果小于这个阈值,则认为这一对点为匹配点。
步骤二三:使用RANSAC算法剔除所述m对匹配点中的误匹配点,并得到所述图像Iopt的特征描述子到所述图像Ion的特征描述子的单应矩阵H;定义图像Iopt在图像像素坐标系下纠正线的n个采样点的坐标Pi为(xi,yi,1)T,映射到图像Ion中的图像像素坐标系的坐标为Qi=(xi,yi,1)T,其中i=1,2,...,nl;则映射关系表示为:
[Q1 Q2 … Qn]=H·[P1 P2 … Pn] (3)
步骤二四:求解图像Ion中纠正线lk1对应的参数方程,具体过程为:定义所述lk1的坐标矩阵为Q=[Q1 Q2 … Qn],对Q进行分离,将矩阵Q的第1行和第3行分离组成新的矩阵X,将Q其余部分作为向量Y,则图像Ion中纠正线lk1的直线方程表示为其中Y和X已知,定义参数矩阵W1=[α11],求得:
W1=YXT(XXT)-1 (4)
W1用于在所述图像Ion中表示出纠正线lk1
步骤二五:求解图像Ion中纠正线lk2对应的参数方程,具体过程与步骤二四相同,求得的参数矩阵W2为:
W2=YXT(XXT)-1 (5)
W2用于在所述图像Ion中表示出纠正线lk2
步骤二六:求解纠正线lk1上的点从参考坐标系映射至图像物理坐标系的转换关系;
步骤二七:求解纠正线lk2上的点从参考坐标系映射至图像物理坐标系的转换关系;
步骤二八:求解相机在参考坐标系中的位置坐标[X0,Y0]和转向角θ,根据公式(13)求出:
其中,变量b和变量c作为离线阶段和单应矩阵几何约束关系得出的结果,是已知量;变量Z0作为先验信息可人为测量得到;相机的焦距f可根据公式(19)求解出;
将θ值代入公式(13)中可得Y0的值为
通过公式(10)和公式(11)可求出X0
步骤二九:求解用户在真实世界中的位置坐标,具体过程为:定义参考坐标系中纠正线lk1的起始点在世界坐标系中的坐标值为Tr=[Xr,Yr,Zr]T,标识目标所在的平面与世界坐标系之间的旋转角关系为Rr,其中,Xr表示参考坐标系与世界坐标系在X轴方向的偏移量;Yr表示参考坐标系与世界坐标系在Y轴方向的偏移量;Zr表示参考坐标系与世界坐标系在Z轴方向的偏移量;用Ls=[X0,Y0,1]T表示参考坐标系中任意一点的坐标,则其对应于真实世界中的坐标Xr满足下面的关系式:
Lr=Rr -1·Ls-Tr (22)
根据公式(22),将用户在参考坐标系中的坐标信息转换为用户在真实世界坐标中的位置坐标,以完成对用户位置的估计。
本实施方式的室内定位方法也称为在线阶段。
具体实施方式五:本实施方式与具体实施方式四不同的是:步骤二三中,使用RANSAC算法剔除所述m对匹配点中的误匹配点具体包括:
步骤二三一:将迭代次数n和匹配点i的初始值设置为0;
步骤二三二:从步骤二二中获得的所述m对匹配点中选择4对匹配点,计算图像Ion和图像Iopt之间的单应矩阵H,通过单应矩阵H计算所述m对匹配点中其余匹配点在其对应的标识目标的图像坐标系下的理论坐标;
步骤二三三:计算图像Iopt中第i个匹配点理论坐标与所述图像Ion的第i个特征点坐标的欧氏距离;其中,1≤i≤m;
步骤二三四:判断所述步骤二三三中的欧氏距离是否小于欧氏距离阈值,若是,则执行步骤二三五,若否,则执行步骤二三三;此处的欧氏距离阈值可以为0.01。
步骤二三五:将n的值加1,判断n的值是否大于预设的迭代次数n0=20;若是,则保存该匹配点对,并保存单应矩阵H;若否,则剔除该匹配点对,并执行步骤二三二。
其它步骤及参数与具体实施方式一至四之一相同。
具体实施方式六:本实施方式与具体实施方式四或五不同的是:步骤二六中,设在所述图像Ion的像素坐标系中已求出的纠正线lk1的像素坐标方程经过变换之后在图像物理坐标系上表示为方程l1:u+bv+c=0;规定用户在采集图像时,所处位置在当前标识目标的参考坐标系中坐标为(X0,Y0,Z0);其中,Z0作为先验条件,由人为测量得出,(X0,Y0)表示待求解的用户位置;纠正线lk1在图像物理坐标系中具有另一种表达形式l1',l1'的表达形式等同于所述纠正线方程l1:u+bv+c=0;求解纠正线lk1上的点从参考坐标系映射至图像物理坐标系的转换关系等同于求解方程l1:u+bv+c=0的参数,具体过程为:
步骤二六一:将参考坐标系转换为相机坐标系,具体过程为:在参考坐标系中将原点R0通过评议向量(-X0,-Y0,-Z0)转换为相机坐标系的原点;沿Z轴逆时针旋转X-Y平面,使Y-Z平面平行于相机坐标系中的V-W平面,旋转角为θ;沿X轴逆时针旋转Y-Z平面,使X-Y平面平行于U-V平面,旋转角为
步骤二六二:求解纠正线lk1上的点从参考坐标系映射至相机坐标系的转换关系;规定逆时针旋转方向为正方向,且参考坐标系为左手坐标系准则;将参考坐标系中的任意一点[x,y,z]T映射至相机坐标系中的坐标[u,v,w]T表示为:
u v w = R · ( x y z - X 0 Y 0 Z 0 ) = R · x y z + x 0 y 0 z 0 - - - ( 6 )
其中,[u,v,w]T和[x,y,z]T分别是相机坐标系和参考坐标系中的任意一点,且等号右侧中的变量x0,y0,z0是将旋转矩阵R与参考坐标系下的坐标向量[X0,Y0,Z0]所得出的,可以表达为下式:
旋转矩阵R由公式(8)求得:
其中,RZ矩阵表示先沿Z轴逆时针旋转θ度得到的旋转矩阵,RX矩阵表示沿X轴逆时针旋转度得到的旋转矩阵;
定义参考坐标系中X轴上一点P的坐标表示为[x,0,0]T,则其映射到相机坐标系中的坐标[ux,vx,wx]T可以由下面的公式得到:
因此有:
步骤二六三:求解纠正线lk1的点从相机坐标系映射至图像物理坐标系的转换关系;
定义相机坐标系中的点[ux,vx]对应到图像物理坐标系中的点的坐标为[up,vp],根据相机的几何映射关系可得
u p = u x · f w x , v p = v x · f w x - - - ( 11 )
其中,f表示相机的焦距。将式(4-5)带入式(4-6),并消除变量x可得到关于up和vp的方程:
公式(12)与u+bv+c=0在ICS上表示的是同一条直线,根据待定系数法,可以得出
其它步骤及参数与具体实施方式四或五相同。
具体实施方式七:本实施方式与具体实施方式四至六之一不同的是:
步骤二七中,定义Ion的图像像素坐标系中已求出的纠正线lk2的图像像素坐标方程经过变换之后在ICS上表示为方程l2:u+b1v+c1=0,方程l2的参数已知且等同于l'2,求解纠正线lk2上的点从参考坐标系映射至图像物理坐标系的转换关系等同于求解方程l'2,具体过程如下:
步骤二七一:求解纠正线lk2的点从参考坐标系映射至相机坐标系的转换关系;定义纠正线lk2上的一点在参考坐标系中的坐标为[0,0,z],将其从参考坐标系变换到相机坐标系后,在相机坐标系中的坐标[uy,vy,wy]T
其中,矩阵R表示从RCS至ICS的旋转矩阵,与公式(8)所得R相同,经公式(7)中x0,y0,z0的值带入公式之后,得到下式:
步骤二七二:求解纠正线lk2的点从相机坐标系映射至图像物理坐标系的转换关系;求解相机坐标系中的点[uy,vy,wy]T映射至图像物理坐标系中的点[up,vp],该映射过程是一个等比例放缩和投影的过程,通过公式(11)所示的映射关系并消除变量z后可得
其中公式(16)与方程l2:u+b1v+c1=0在图像物理坐标系上表示的是同一条直线;根据待定系数法,可以得出
其中,变量b1,c1,Z0,是已知量,结合式(17)中的两个等式,可得
步骤二七三:求解相机在参考坐标系中的位置坐标[X0,Y0]和转向角θ;根据公式(13)求出
其中,变量b和变量c为数据库构建过程和单应矩阵几何约束关系得出的结果,是已知量;变量Z0作为先验信息通过人为测量得到;相机的焦距f根据公式(19)求解出;
将θ值代入公式(13)中可得Y0的值为
通过公式(10)和公式(11)可求出X0
其它步骤及参数与具体实施方式四至六之一相同。
本发明还可有其它多种实施例,在不背离本发明精神及其实质的情况下,本领域技术人员当可根据本发明作出各种相应的改变和变形,但这些相应的改变和变形都应属于本发明所附的权利要求的保护范围。

Claims (7)

1.一种基于标识的多纠正线室内视觉数据库构建方法,其特征在于,包括:
步骤一一:使用相机传感器对标识目标进行图像采集,得到的图像记作图像Ik
步骤一二:在所述标识目标上建立两条纠正线lk1和lk2,在所述lk1和lk2上各选取n个采样点,并通过所述采样点获得lk1和lk2在图像像素坐标系下的直线方程;所述纠正线lk1在世界坐标系中的位置平行于水平地面,且lk1为一条射线,其起始点位于所述标识目标中;所述纠正线lk2在世界坐标系中位置垂直于水平地面并垂直于lk1,其起始点位于所述标识目标中;
步骤一三:使用加速鲁棒特征算法对Ik提取特征点矩阵,得到能够表征图像Ik特征的特征点矩阵Fk
步骤一四:求解纠正线lk1在图像像素坐标系中的直线方程、采样点坐标以及原点,具体为:设n个采样点构成像素坐标矩阵其中分别表示n个采样点的横坐标向量和纵坐标向量,均为是n×1的列向量;原点坐标为lk1的左侧端点;设直线的lk1的表达形式为y=αk1x+βk1,其参数αk1和βk1用矩阵Wk1=[αk1βk1]表示,则Wk1由如下公式求得:
其中X是在列向量Xn的右侧加了一列元素1而形成的新n×2阶矩阵;
步骤一五:求解纠正线lk2在图像像素坐标系中的直线方程、采样点坐标以及原点,具体为:设n个采样点构成像素坐标矩阵其中分别表示n个采样点的横坐标向量和纵坐标向量,均为是n×1的列向量;设直线的lk2的表达形式为y=αk2x+βk2,其参数αk2和βk2用矩阵Wk2=[αk2βk2]表示,则Wk2由如下公式求得:
步骤一六:将所述相机传感器在真实世界坐标系中的仰角以及所述相机传感器与纠正线的相对高度Z0,参数矩阵Wk1,参数矩阵Wk2和特征点矩阵Fk存入数据库,作为图像Ik的所有信息;
步骤一七:重复步骤一一至步骤一六,直至数据库构建完毕。
2.根据权利要求1所述的方法,其特征在于,所述标识目标为海报。
3.根据权利要求2所述的方法,其特征在于,所述lk1为所述海报的上边界线,所述lk2为所述海报的左边界线,所述原点为海报左上角的边缘点。
4.一种基于标识的多纠正线室内定位方法,其特征在于,包括如下步骤:
步骤二一:用户获取带有标识的图像,记作图像Ion,将所述图像Ion通过加速鲁棒特征算法提取出特征点矩阵,并将所述特征点矩阵发送至服务器端,所述标识包括两条纠正线;
步骤二二:在服务器端,计算图像Ion的特征点矩阵与数据库中存储的图像的特征点矩阵之间的最近邻欧氏距离,根据所述最近邻欧氏距离在所述数据库中检索出与所述图像Ion最匹配的带有同一标识的图像,将所述带有同一标识的图像记为Iopt,将Iopt与Ion进行加速鲁棒特征匹配得到m对匹配点;所述数据库为如权利要求1至3中任意一项所述的数据库,所述最近邻欧氏距离为使用最近邻算法计算得到的欧氏距离;
步骤二三:使用RANSAC算法剔除所述m对匹配点中的误匹配点,并得到所述图像Iopt的特征描述子到所述图像Ion的特征描述子的单应矩阵H;定义图像Iopt在图像像素坐标系下纠正线的n个采样点的坐标Pi为(xi,yi,1)T,映射到图像Ion中的图像像素坐标系的坐标为Qi=(xi,yi,1)T,其中i=1,2,...,nl;则映射关系表示为:
[Q1Q2…Qn]=H·[P1P2…Pn] (3)
步骤二四:求解图像Ion中纠正线lk1对应的参数方程,具体过程为:定义所述lk1的坐标矩阵为Q=[Q1 Q2 … Qn],对所述Q进行分离,将矩阵Q的第1行和第3行分离组成新的矩阵X,将所述Q其余部分作为向量Y,则图像Ion中纠正线lk1的直线方程表示为YT=W1XT,其中Y和X已知,定义参数矩阵W1=[α11],求得:
W1=YXT(XXT)-1 (4)
所述W1用于在所述图像Ion中表示出纠正线lk1
步骤二五:求解图像Ion中纠正线lk2对应的参数方程,具体过程与所述步骤二四相同,求得的参数矩阵W2为:
W2=YXT(XXT)-1 (5)
所述W2用于在所述图像Ion中表示出纠正线lk2
步骤二六:求解纠正线lk1上的点从参考坐标系映射至图像物理坐标系的转换关系;
步骤二七:求解纠正线lk2上的点从参考坐标系映射至图像物理坐标系的转换关系;
步骤二八:求解相机在参考坐标系中的位置坐标[X0,Y0]和转向角θ,根据公式(13)求出:
其中,变量b和变量c作为离线阶段和单应矩阵几何约束关系得出的结果,是已知量;变量Z0作为先验信息由测量得到;相机的焦距f根据公式(19)求解出;
将θ值代入公式(13)中得Y0的值为
通过公式(10)和公式(11)求出X0
步骤二九:求解用户在真实世界中的位置坐标,具体过程为:定义参考坐标系中纠正线lk1的起始点在世界坐标系中的坐标值为Tr=[Xr,Yr,Zr]T,标识目标所在的平面与世界坐标系之间的旋转角关系为Rr,其中,Xr表示参考坐标系与世界坐标系在X轴方向的偏移量;Yr表示参考坐标系与世界坐标系在Y轴方向的偏移量;Zr表示参考坐标系与世界坐标系在Z轴方向的偏移量;用Ls=[X0,Y0,1]T表示参考坐标系中任意一点的坐标,则其对应于真实世界中的坐标Xr满足下面的关系式:
Lr=Rr -1·Ls-Tr (22)
根据公式(22),将用户在参考坐标系中的坐标信息转换为用户在真实世界坐标中的位置坐标,以完成对用户位置的估计。
5.根据权利要求4所述的方法,其特征在于,步骤二三中,使用RANSAC算法剔除所述m对匹配点中的误匹配点具体包括:
步骤二三一:将迭代次数n和匹配点i的初始值设置为0;
步骤二三二:从所述步骤二二中获得的所述m对匹配点中选择4对匹配点,计算图像Ion和图像Iopt之间的单应矩阵H,通过单应矩阵H计算所述m对匹配点中其余匹配点在其对应的标识目标的图像坐标系下的理论坐标;
步骤二三三:计算图像Iopt中第i个匹配点理论坐标与所述图像Ion的第i个特征点坐标的欧氏距离;其中,1≤i≤m;
步骤二三四:判断所述步骤二三三中的欧氏距离是否小于欧氏距离阈值,若是,则执行步骤二三五,若否,则执行步骤二三三;
步骤二三五:将n的值加1,判断n的值是否大于预设的迭代次数n0=20;若是,则保存该匹配点对,并保存单应矩阵H;若否,则剔除该匹配点对,并执行步骤二三二。
6.根据权利要求4所述的方法,其特征在于,步骤二六中,设在所述图像Ion的像素坐标系中已求出的纠正线lk1的像素坐标方程经过变换之后在图像物理坐标系上表示为方程l1:u+bv+c=0;规定用户在采集图像时,所处位置在当前标识目标的参考坐标系中坐标为(X0,Y0,Z0);其中,Z0作为先验条件,由测量得出,(X0,Y0)表示待求解的用户位置;纠正线lk1在图像物理坐标系中具有另一种表达形式l′1,l′1的表达形式等同于所述纠正线方程l1:u+bv+c=0;步骤二六具体过程为:
步骤二六一:将参考坐标系转换为相机坐标系,具体过程为:在参考坐标系中将原点R0通过评议向量(-X0,-Y0,-Z0)转换为相机坐标系的原点;沿Z轴逆时针旋转X-Y平面,使Y-Z平面平行于相机坐标系中的V-W平面,旋转角为θ;沿X轴逆时针旋转Y-Z平面,使X-Y平面平行于U-V平面,旋转角为
步骤二六二:求解纠正线lk1上的点从参考坐标系映射至相机坐标系的转换关系;规定逆时针旋转方向为正方向,且参考坐标系为左手坐标系准则;将参考坐标系中的任意一点[x,y,z]T映射至相机坐标系中的坐标[u,v,w]T表示为:
其中,[u,v,w]T和[x,y,z]T分别是相机坐标系和参考坐标系中的任意一点,且等号右侧中的变量x0,y0,z0是将旋转矩阵R与参考坐标系下的坐标向量[X0,Y0,Z0]所得出的,表达为下式:
旋转矩阵R由公式(8)求得:
其中,RZ矩阵表示先沿Z轴逆时针旋转θ度得到的旋转矩阵,RX矩阵表示沿X轴逆时针旋转度得到的旋转矩阵;
定义参考坐标系中X轴上一点P的坐标表示为[x,0,0]T,则其映射到相机坐标系中的坐标[ux,vx,wx]T由下面的公式得到:
因此有:
步骤二六三:求解纠正线lk1的点从相机坐标系映射至图像物理坐标系的转换关系;
定义相机坐标系中的点[ux,vx]对应到图像物理坐标系中的点的坐标为[up,vp],根据相机的几何映射关系得
其中,f表示相机的焦距。将式(4-5)带入式(4-6),并消除变量x得到关于up和vp的方程:
公式(12)与u+bv+c=0在ICS上表示的是同一条直线,根据待定系数法,得出
7.根据权利要求4所述的方法,其特征在于,步骤二七中,定义Ion的图像像素坐标系中已求出的纠正线lk2的图像像素坐标方程经过变换之后在ICS上表示为方程l2:u+b1v+c1=0,方程l2的参数已知且等同于l'2,求解纠正线lk2上的点从参考坐标系映射至图像物理坐标系的转换关系等同于求解方程l'2,步骤二七具体过程为:
步骤二七一:求解纠正线lk2的点从参考坐标系映射至相机坐标系的转换关系;定义纠正线lk2上的一点在参考坐标系中的坐标为[0,0,z],将其从参考坐标系变换到相机坐标系后,在相机坐标系中的坐标[uy,vy,wy]T
其中,矩阵R表示从RCS至ICS的旋转矩阵,与公式(8)所得R相同,经公式(7)中x0,y0,z0的值带入公式之后,得到下式:
步骤二七二:求解纠正线lk2的点从相机坐标系映射至图像物理坐标系的转换关系;求解相机坐标系中的点[uy,vy,wy]T映射至图像物理坐标系中的点[up,vp],该映射过程是一个等比例放缩和投影的过程,通过公式(11)所示的映射关系并消除变量z后得
其中公式(16)与方程l2:u+b1v+c1=0在图像物理坐标系上表示的是同一条直线;根据待定系数法,得出
其中,变量b1,c1,Z0,是已知量,结合式(17)中的两个等式,得到
步骤二七三:求解相机在参考坐标系中的位置坐标[X0,Y0]和转向角θ;根据公式(13)求出
其中,变量b和变量c为数据库构建过程和单应矩阵几何约束关系得出的结果,是已知量;变量Z0作为先验信息通过测量得到;相机的焦距f根据公式(19)求解出;
将θ值代入公式(13)中得Y0的值为
通过公式(10)和公式(11)求出X0
CN201610599708.2A 2016-07-27 2016-07-27 基于标识的多纠正线室内视觉数据库构建方法以及室内定位方法 Active CN106295512B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610599708.2A CN106295512B (zh) 2016-07-27 2016-07-27 基于标识的多纠正线室内视觉数据库构建方法以及室内定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610599708.2A CN106295512B (zh) 2016-07-27 2016-07-27 基于标识的多纠正线室内视觉数据库构建方法以及室内定位方法

Publications (2)

Publication Number Publication Date
CN106295512A true CN106295512A (zh) 2017-01-04
CN106295512B CN106295512B (zh) 2019-08-23

Family

ID=57662395

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610599708.2A Active CN106295512B (zh) 2016-07-27 2016-07-27 基于标识的多纠正线室内视觉数据库构建方法以及室内定位方法

Country Status (1)

Country Link
CN (1) CN106295512B (zh)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106990836A (zh) * 2017-02-24 2017-07-28 长安大学 一种头戴式人体学输入设备空间位置及姿态测量方法
CN107481287A (zh) * 2017-07-13 2017-12-15 中国科学院空间应用工程与技术中心 一种基于多标识的物体定位定姿方法及***
CN109115221A (zh) * 2018-08-02 2019-01-01 北京三快在线科技有限公司 室内定位、导航方法及装置、计算机可读介质和电子设备
CN109945853A (zh) * 2019-03-26 2019-06-28 西安因诺航空科技有限公司 一种基于3d点云航拍图像的地理坐标定位***和方法
CN110705605A (zh) * 2019-09-11 2020-01-17 北京奇艺世纪科技有限公司 特征数据库建立及动作识别方法、装置、***及存储介质
CN112149659A (zh) * 2019-06-27 2020-12-29 浙江商汤科技开发有限公司 定位方法及装置、电子设备和存储介质
CN112667832A (zh) * 2020-12-31 2021-04-16 哈尔滨工业大学 一种未知室内环境下基于视觉的互定位方法
CN113094371A (zh) * 2021-04-14 2021-07-09 嘉兴毕格智能科技有限公司 一种用户自定义坐标系的实现方法
CN113781559A (zh) * 2021-08-31 2021-12-10 南京邮电大学 一种鲁棒的异常匹配点剔除方法及图像室内定位方法
CN113804195A (zh) * 2020-06-15 2021-12-17 阿里巴巴集团控股有限公司 信息处理方法及设备和室内地图定位方法及设备
US11644339B2 (en) 2018-06-20 2023-05-09 Huawei Technologies Co., Ltd. Database construction method, positioning method, and related device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102773862A (zh) * 2012-07-31 2012-11-14 山东大学 用于室内移动机器人的快速精确定位***及其工作方法
CN104457758A (zh) * 2014-12-19 2015-03-25 哈尔滨工业大学 基于视频采集的Visual Map数据库建立方法及利用该数据库的室内视觉定位方法
CN104484881A (zh) * 2014-12-23 2015-04-01 哈尔滨工业大学 基于图像采集的Visual Map数据库建立方法及利用该数据库的室内定位方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102773862A (zh) * 2012-07-31 2012-11-14 山东大学 用于室内移动机器人的快速精确定位***及其工作方法
CN104457758A (zh) * 2014-12-19 2015-03-25 哈尔滨工业大学 基于视频采集的Visual Map数据库建立方法及利用该数据库的室内视觉定位方法
CN104484881A (zh) * 2014-12-23 2015-04-01 哈尔滨工业大学 基于图像采集的Visual Map数据库建立方法及利用该数据库的室内定位方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
BRANISLAV MICUSIK 等: "Descriptor Free Visual Indoor Localization with Line Segments", 《2015 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR)》 *
何坚 等: "基于电源线和位置指纹的室内定位技术", 《电子与信息学报》 *
袁正午 等: "室***线跟踪定位方法研究", 《计算机应用研究》 *

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106990836B (zh) * 2017-02-24 2020-01-07 长安大学 一种头戴式人体学输入设备空间位置及姿态测量方法
CN106990836A (zh) * 2017-02-24 2017-07-28 长安大学 一种头戴式人体学输入设备空间位置及姿态测量方法
CN107481287A (zh) * 2017-07-13 2017-12-15 中国科学院空间应用工程与技术中心 一种基于多标识的物体定位定姿方法及***
US11644339B2 (en) 2018-06-20 2023-05-09 Huawei Technologies Co., Ltd. Database construction method, positioning method, and related device
CN109115221A (zh) * 2018-08-02 2019-01-01 北京三快在线科技有限公司 室内定位、导航方法及装置、计算机可读介质和电子设备
CN109945853A (zh) * 2019-03-26 2019-06-28 西安因诺航空科技有限公司 一种基于3d点云航拍图像的地理坐标定位***和方法
CN109945853B (zh) * 2019-03-26 2023-08-15 西安因诺航空科技有限公司 一种基于3d点云航拍图像的地理坐标定位***和方法
CN112149659A (zh) * 2019-06-27 2020-12-29 浙江商汤科技开发有限公司 定位方法及装置、电子设备和存储介质
US12020463B2 (en) 2019-06-27 2024-06-25 Zhejiang Sensetime Technology Development Co., Ltd. Positioning method, electronic device and storage medium
CN110705605A (zh) * 2019-09-11 2020-01-17 北京奇艺世纪科技有限公司 特征数据库建立及动作识别方法、装置、***及存储介质
CN110705605B (zh) * 2019-09-11 2022-05-10 北京奇艺世纪科技有限公司 特征数据库建立及动作识别方法、装置、***及存储介质
CN113804195A (zh) * 2020-06-15 2021-12-17 阿里巴巴集团控股有限公司 信息处理方法及设备和室内地图定位方法及设备
CN112667832A (zh) * 2020-12-31 2021-04-16 哈尔滨工业大学 一种未知室内环境下基于视觉的互定位方法
CN113094371B (zh) * 2021-04-14 2023-05-12 嘉兴毕格智能科技有限公司 一种用户自定义坐标系的实现方法
CN113094371A (zh) * 2021-04-14 2021-07-09 嘉兴毕格智能科技有限公司 一种用户自定义坐标系的实现方法
CN113781559A (zh) * 2021-08-31 2021-12-10 南京邮电大学 一种鲁棒的异常匹配点剔除方法及图像室内定位方法
CN113781559B (zh) * 2021-08-31 2023-10-13 南京邮电大学 一种鲁棒的异常匹配点剔除方法及图像室内定位方法

Also Published As

Publication number Publication date
CN106295512B (zh) 2019-08-23

Similar Documents

Publication Publication Date Title
CN106295512A (zh) 基于标识的多纠正线室内视觉数据库构建方法以及室内定位方法
CN106651942B (zh) 基于特征点的三维旋转运动检测与旋转轴定位方法
CN109631855B (zh) 基于orb-slam的高精度车辆定位方法
CN104200086B (zh) 宽基线可见光相机位姿估计方法
CN105469405B (zh) 基于视觉测程的同时定位与地图构建方法
CN104463108B (zh) 一种单目实时目标识别及位姿测量方法
CN109000582A (zh) 跟踪式三维扫描装置的扫描方法及***、存储介质、设备
CN104634248B (zh) 一种双目视觉下的转轴标定方法
CN109166149A (zh) 一种融合双目相机与imu的定位与三维线框结构重建方法与***
CN108288292A (zh) 一种三维重建方法、装置及设备
CN106485690A (zh) 基于点特征的点云数据与光学影像的自动配准融合方法
CN103604417B (zh) 物方信息约束的多视影像双向匹配策略
CN103093459B (zh) 利用机载LiDAR点云数据辅助影像匹配的方法
CN107105147A (zh) 一种仿生超分辨成像传感器及成像方法
CN103954280B (zh) 一种快速和高鲁棒性自主恒星识别方法
CN106595702B (zh) 一种基于天文标定的多传感器空间配准方法
CN103530881A (zh) 适用于移动终端的户外增强现实无标志点跟踪注册方法
CN104766309A (zh) 一种平面特征点导航定位方法与装置
CN107103056A (zh) 一种基于局部标识的双目视觉室内定位数据库建立方法及定位方法
CN109559349A (zh) 一种用于标定的方法和装置
CN109376208A (zh) 一种基于智能终端的定位方法、***、存储介质及设备
CN108470356A (zh) 一种基于双目视觉的目标对象快速测距方法
CN105574812A (zh) 多角度三维数据配准方法及装置
CN108921889A (zh) 一种基于扩增现实应用的室内三维定位方法
CN105654547A (zh) 三维重建方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20210120

Address after: Building 9, accelerator, 14955 Zhongyuan Avenue, Songbei District, Harbin City, Heilongjiang Province

Patentee after: INDUSTRIAL TECHNOLOGY Research Institute OF HEILONGJIANG PROVINCE

Address before: 150001 No. 92 West straight street, Nangang District, Heilongjiang, Harbin

Patentee before: HARBIN INSTITUTE OF TECHNOLOGY

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20221208

Address after: 150027 Room 412, Unit 1, No. 14955, Zhongyuan Avenue, Building 9, Innovation and Entrepreneurship Plaza, Science and Technology Innovation City, Harbin Hi tech Industrial Development Zone, Heilongjiang Province

Patentee after: Heilongjiang Industrial Technology Research Institute Asset Management Co.,Ltd.

Address before: Building 9, accelerator, 14955 Zhongyuan Avenue, Songbei District, Harbin City, Heilongjiang Province

Patentee before: INDUSTRIAL TECHNOLOGY Research Institute OF HEILONGJIANG PROVINCE

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20221228

Address after: Areas 3-57, Building 21, Zhongxing Homeland Property, No. 66, Aijian Road, Daoli District, Harbin, Heilongjiang, 150000

Patentee after: Virtual Reality Digital Technology Research Institute (Harbin) Co.,Ltd.

Address before: 150027 Room 412, Unit 1, No. 14955, Zhongyuan Avenue, Building 9, Innovation and Entrepreneurship Plaza, Science and Technology Innovation City, Harbin Hi tech Industrial Development Zone, Heilongjiang Province

Patentee before: Heilongjiang Industrial Technology Research Institute Asset Management Co.,Ltd.

TR01 Transfer of patent right